Contacter l'auteur / Contact the author

Recherche dans ce site / Search in this site

 

Aux origines d'Internet et de la micro-informatique

Carte mémoire CompactFlash de 4 MB commercialisée par SanDisk (qui s'appelait alors Sundisk) en 1995.

1994, invention de la carte mémoire CompactFlash (VI)

La carte mémoire CompactFlash (CF) a été inventée par SanDisk (qui s'appelait alors Sundisk) en 1994.

Cette carte est une mémoire EEPROM (Electrically-Erasable Programmable Read-Only Memory), "flash" signifiant que la mémoire est non volatile et réinscriptible : l'information est préservée même en l'absence d'alimentation et peut être effacée comme n'importe quel support magnétique. De part sa construction elle offre une meillleure protection des données que la disquette magnétique.

Technologiquement, la mémoire flash est organisée autour d'un transistor MOS. L'information est stockée sous la forme d'électrons piégés dans ce qu'on appelle une grille flottante. Sa programmation (écriture, effacement) s'effectue par l'application de différentes tensions qui finissent par abîmer le substrat (l'oxyde de grille), ce qui explique qu'elle ne peut-être programmée ou effacée qu'entre cent mille et un million de fois.

Il existe deux architectures logiques, NOR et NAND. La première permet d'accéder aléatoirement à n'importe quelle cellule ou zone de données de la carte. La fiabilité des données est garantie à 100% par le fabricant. C'est l'architecture la plus utilisée notamment dans les ordinateurs.

Dans les années qui suivirent l'architecture NOR sera également exploitée pour fabriquer les cartes mémoires destinées aux APN, aux smartphones, aux décodeurs, etc.

Wafer Intel servant à fabriquer les circuits intégrés (chips) des cartes mémoire flash en logique NOR. Document BIOS Magazine.

L'architecture NAND ne permet qu'un accès séquentiel aux données et présente un certain taux d'erreur qui impose l'utilisation d'un système de correction d'erreur.

Cette architecture est surtout utilisée par les cartes flash SD, microSD, MMC, MS (Memory Stick des consoles de jeux de Sony). Notons que les disques durs SSD (Solid State Drives) exploitent également l'architecture NAND.

Les cartes CF se divisent en deux modèles : le Type I et le Type II qui se différencient uniquement par leur épaisseur (3.3 et 5 mm). Leur capacité varie entre 2 MB et 128 GB. Elles offrent une compatibilité totale avec le format PCMCIA-ATA.

Le standard CompactFlash est aujourd'hui ouvert, ce qui a permis sa diffusion dans tous les secteurs de l'industrie allant de l'informatique à la robotique en passant par la vidéo et l'imagerie.

Progrès oblige, les cartes CF furent détrônées, sans pour autant disparaître, par les cartes SD et microSD vers 2010 grâce à leur architecture exempte de pins (ce sont des surfaces de contact), leur taille réduite et des performances supérieures.

En 2000, SanDisk commercialisa les premières cartes CF de 1 GB. Elles étaient proposées à 1000$. En 2015, on pouvait acheter une carte SanDisk SDXC de Classe 10 (30 MB/s) de 64 GB pour moins de 20 € ! Aujourd'hui une carte SDXC permet de stocker jusqu'à 2 TB de données (2000 GB) et peut atteindre un débit de 104 MB/s. Consultez l'article sur le stockage des images dans les APN pour plus de détails.

1994, invention du blog

L'origine du blog ou "web log" remonte à l'invention du premier forum de discussion appelé mod.ber, aujourd'hui en mode archive. Ce forum fut créé sur le réseau Arpanet au format UUCP (mail) en décembre 1983 et ne survécu que 8 mois. Il était géré par Brian E. Redman. Avec quelques amis, ils publiaient sur ce forum le résumé de communiqués, des comptes rendus, des threads et autres "digests" intéressants qu'ils avaient trouvés un peu partout sur le net.

Exemple de conversation sur "mod.ber" le 5 février 1984. Redman fait la synthèse des thèmes abordés sur le forum "net.space"

Avec un style journalistique, une présentation chronologique, l'utilisation d'un format pre-HTTP et en mettant en avant des informations et des liens utiles choisis par l'auteur, mod.ber présentait toutes les caractéristiques du blog moderne.

En 1994, Dave Winer, développeur formé à l'Université de Wisconsin, créa "DaveNet" le premier site en ligne publié à compte personnel. Le premier blog était né !

En 1997, il fonda "Scripting News", l'un des plus vieux blogs existants encore sur Internet (et consacré au scripting). Par la suite il créa d'autres sites, des logiciels, le format de flux RSS, et fut rédacteur au magazine "Wired". Aujourd'hui il se consacre à Weblogs et aux Podcasts.

Les tout premiers blogueurs (bloggers en anglais) apparaissent en 1994 et étaient Américains : Dave Winer considéré comme le père des blogs, Justin Hall alors étudiant au Swarthmore College, aujourd'hui journaliste, et Jerry Pournelle, auteur de fiction et rédacteur au magazine "Byte".

Ce sont ensuite des journalistes ou des rédacteurs (les "escribitionistes") dont les trois précités qui reprirent le flambeau. On peut se féliciter que tous ceux qui ont participé à la création des blogs soient toujours parmi nous et plus actifs que jamais.

Comme beaucoup de sites Internet amateur, vers 2001, les blogs servaient surtout à présenter des documents éducatifs, des guides et des instructions techniques aux internautes. Les journalistes commencèrent à étudier le sujet et notèrent une différence entre le style journalistique et celui des blogueurs.

Ensuite, le blog a été utilisé par des politiciens américains et des candidats aux élections en campagne. En 2002, le blog politique Daily Kos créé par Jerome Armstrong et Markos Moulitsas Zúniga recevait jusqu'à 1 million de visiteurs par jour et reste encore aujourd'hui l'un des blogs anglo-saxons les plus populaires dans sa catégorie.

Depuis les années 2000, le blog est sans conteste l'une des tendances les plus marquantes sur Internet mais aujourd'hui, faute de sensibilisation et d'une bonne compréhension, les entreprises n'ont pas encore bien compris le phénomène des blogs et ce qu'elles peuvent en tirer en terme d'image de marque, de relations avec la clientèle et de retour sur investissement.

Au total, tous sites Internet confondus (site traditionnels, blog, réseaux sociaux, forums, site commerciaux, etc), en 2014 nous avions franchit la barre du milliard de sites Internet ! Bien sûr dans ce total, il y a un petit pourcentage de sites endormis voire qui ne sont plus mis à jour depuis quelques années mais dont les pages restent en ligne tant que son propriétaire maintient l'accès à son serveur ou que l'hébergeur existe.

1994, normalisation du modèle TCP/IP

Après la création du modèle OSI (Open Systems Interconnection) en 1977 et la naissance d'Internet en 1991, de plus en plus d'entreprises ont développé des services pour ce nouveau support de communications, mais sans nécessairement respecter le modèle de base.

En effet, l'implémentation complète du modèle OSI dans les programmes est pratiquement impossible pour des raisons pratiques car soit le fabricant n'a besoin que d'une partie du modèle soit il préfère développer sa propre solution pour des raisons techniques ou commerciales.

Le modèle OSI ayant été créé avant l'invention du web, sous la pression des majors de l'informatique, la couche Internet fut incorporée dans le modèle TCP/IP et normalisé dans la norme ISO 7498 en 1994.

Comme on le voit ci-dessous, à la différence du modèle OSI, dans le modèle TCP/IP, les couches 1 et 2 sont reprises dans la couche "Accès au réseau", tandis que les couches 5, 6 et 7 font partie d'une même couche appelée "Applications Services Internet".

Couche

Modèle OSI

Modèle TCP/IP

Contenu, fonction ou appareil

7

Application

Applications

Services

Internet

Logiciel, format des données

6

Présentation

Mise en forme, cryptage et compression, ANSI

5

Session

Gestion des communications

4

Transport

Transport TCP

Gestion des erreurs

3

Réseau

IP

Datagrammes, gestion du routage, Router, ...

2

Liaison de données

Accès

au réseau

MAC address, Wi-Fi, Bridge, Switch, Token,...

1

Physique

Modem, carte réseau, 10BaseT, Hub, Repeater,...

Concrètement, quand Microsoft par exemple développa son navigateur Internet "Explorer" version 2.0 en 1995 (la version 1.0 était en option avec Windows 95 sous la forme du kit "Internet Jumpstart Kit"), il voulut que la couche 7 du modèle OSI (application) assure également l'encryption RSA (un service de la couche 6) via les protocoles HTTPS/SSL et la gestion de la session (un service de la couche 5) via les fameux cookies et l'IP tracking.

Ci-dessous, voici une représentation du modèle OSI (à gauche) et ce qu'il est devenu (à droite) avec le développement des nouveaux protocoles et services par les majors de l'informatique et les milliers de développeurs plus intéressés par le développement de leur marché que par l'harmonisation et la standardisation du modèle OSI.

Avec le temps, le modèle OSI est devenu très complexe en raison des intérêts spécifiques de chaque développeur ou fabricant. Toutefois, certains protocoles sont devenus des standards, comme par exemple le protocole IP sur lequel sont basés Internet et les réseaux d'entreprises. Cliquer sur l'image de droite pour télécharger le fichier au format  PDF. Documents Gargasz.info et Network Associates (McAfee/Intel).

Comme on le constate, la version actuelle du modèle OSI est devenue très complexe et très lourde du fait que les programmes ne respectent plus le modèle de base initial.

De plus, en raison des développements tout azimut et en-dehors de toute logique du modèle TCP/IP, les nouveaux systèmes présentent des vulnérabilités inhérentes à leur développement ou leur utilisation. Etant donné que les standards sont par nature très répandus, ils sont devenus de facto la cible privilégiée des cyberpirates. On y reviendra dans un autre article.

1995, naissance du standard USB

Parmi tous les moyens d'entrées-sorties disponibles sur un ordinateur (écran, clavier, souris, micro, webcam, port série, port parallèle, RF, infrarouge, etc), il y a le port USB et toute la série de périphériques qu'il supporte. L'invention est tellement géniale qu'elle mérite notre attention.

Le standard USB (Universal Serial Bus) est né en 1995. Cette interface de type série est moins encombrante et beaucoup plus répandue que le bus SCSI créé par la société Shugart en 1979 et est avant tout dédiée aux supports de masses et certains périphériques de communication.

Il existe quatre standards :

- l'USB 1.0 et l'USB 1.1 sans fil à bas débit (12 Mbits/s soit 1.5 MB/s maximum) que l'on trouve sur des machines fabriquées entre 1996 et 2003

- l'USB 2.0 à haut débit (480 Mbits/s soit 60 MB/s) qui est également le plus répandu et qui fut installé sur les ordinateurs sortis d'usine en 2000

- l'USB 3.0 dont le débit atteint 5 Gbits/s soit 625 MB/s sorti en 2010.

Son taux de transfert est proche de celui d'un disque dur Flash SSD SATA III (6 Gbits/s, 400 à 600 MB/s en pratique).

- l'USB 3.1 qui peut atteindre 10 Gbits/s soit 1.25 GB/s en théorie, sorti en août 2013.

Pour mémoire, rappelons qu'il existe également un standard U3, une clé USB disposant de son propre système d'exploitation et donc capable de gérer son contenu via des menus.

L'USB 3.0 est à peine meilleur mais son débit dépend du fabricant. Selon l'utilitaire Parkdale, une clé USB 3.0 Transcend de 64 GB par exemple transfert des blocs de 1 MB à 30 MB/s en écriture et 84 MB/s en lecture alors qu'une Super Talent USB 3.0 est 2.5x plus rapide. Une clé Integral USB 2.0 présente un taux de transfert de 20 MB/s en écriture. Ces valeurs ne dépendent quasiment pas des ressources systèmes ou de l'activité du processeur.

Le port USB permet aujourd'hui de connecter une grande variété de périphériques : ordinateur, imprimante, souris, webcam, mémoire de masse interne ou externe, haut-parleur, tuner, hub, APN, GSM, GPS, etc., qui optionnellement peuvent communiquer par câble, Wi-Fi ou liaison Bluetooth.

A lire : Clé USB cherche ordinateur branché (sur le blog)

A gauche, différentes clés USB mises à l'échelle (TDK USB 2.0 de 8 GB et 3 clés USB 3.0 de 64 GB : Transcend, Integral et Super Talent). A capacité et taille de fichier égales, leur taux de transfert peut varier du simple au triple selon le fabricant. L'encombrant de certains modèles peut empêcher de les utiliser dans certains appareils. Au centre, une clé USB 2.0 Integral de 64 GB insérée dans un hub USB 4 ports "R2D2". A droite, le circuit électronique qu'elle contient. Le circuit intégré Toshiba constitue la mémoire flash. Documents T.Lombry.

Utilisé comme mémoire périphérique, le support de masse externe USB exploite soit la technologie Flash (solid state) à l'image des cartes SD et autre CF (voir cet article) soit utilise un micro-disque dur externe de la taille d'une carte de crédit ou légèrement supérieure (différent des microdrives qui sont compatibles CF Type II) tel ce modèle USB de Trekstor démonté.

Dans sa version Flash la plus compacte, la plus versatile, la plus robuste et la plus largement compatible, il y a la mémoire de masse sur clé USB (alias "USB drive"). Elle est très répandue, au point de servir de support de sauvegarde, de disque bootable et accessoirement de gadget ou de bijoux dont voici un échantillon.

La carte flash est plus fiable qu'un CD et peut pratiquement supporter 100000 enregistrements.

La clé USB remplace avantageusement les disquettes (pratiquement introuvables depuis 2011 lorsque Sony arrêta la production des disquettes de 3.5") et les cassettes DAT non seulement par sa capacité qui atteint aujourd'hui 1 TB (clé USB 3.0 de Kingston et de HyperX, CES 2013) mais aussi par sa conception qui la rend assez résistante.

Comme on le voit ci-dessus, sur le plan technique, une clé USB est tellement miniaturisée et compacte qu'elle contient peu de choses, essentiellement deux circuits intégrés : la mémoire de masse qui occupe 1 ou 2 cm2 selon sa capacité et le contrôleur qui assure l'interface entre les données échangées et la mémoire, complétés par une horloge à quartz, un port USB, parfois une LED pour le statut, un interrupteur et un système de bloquage, le tout soudé sur un petit circuit imprimé et placé dans un boîtier aux formes les plus diverses.

1995, ouverture d'Amazon

C'est en juillet 1995 que le géant Amazon ouvrit sa boutique en ligne comme on le voit ci-dessous à gauche. A l'époque il proposait 1 million de titres. 20 ans plus tard, il en propose 300 fois plus et monopolise toujours Internet.

La page d'accueil d'Amazon.com un mois après son ouverture en juillet 1995.

Ses ventes atteignent des chiffres scandaleusement élevés. Ainsi, le 16 novembre 2012, Amazon vendit plus de 26 millions d'articles, soit 306 articles à la seconde (dont 1% de ce total pour la France et le Benelux). Il atteignit un record de 36.8 millions de commandes soit 426 à la seconde le 2 décembre 2013, le "Cyber Monday", c'est-à-dire le lundi qui suivit la Thanksgiving (4e jeudi de novembre aux Etats-Unis) ! Ce jour là le volume des ventes était 14 fois supérieur à celui de ses principaux concurrents un jour faste ! Idem le 8 décembre 2014 où Amazon France distribua plus d'un million d'articles.

En 2015, la capitalisation boursière d'Amazon dépassa celle de Walmart et l'entreprise présentait au premier trimestre 2015 un chiffre d'affaire de 22.72 milliards de dollars, en hausse de 15% par rapport à l'année précédente ! Le return sur action était supérieur à 44% par an !

En 2014, Amazon expédiait en moyenne 12 colis par seconde soit plus de 370 millions de colis par an et j'estimais que "ce nombre sera probablement multiplié par 10 dans les années 2020" tellement ce secteur est porteur !

Rien qu'en juillet 2020, Amazon expédia 415 millions de colis soit 155 colis par seconde, ce qui représente une augmentation de 12% par rapport à juillet 2019 (cf. CNBC) et confirma la forte progression du géant américain.

Avec la crise sanitaire, en 2020 Amazon fit un chiffre d'affaires de 386.1 milliards de dollars (contre 178 milliards de dollars en 2017) ou 322 milliards d'euros dont 44 milliards d'euros ou 7.3% du CA en Europe... sans payer d'impôt ! Le bénéfice net par action atteignit 41.92 $ ou 82% (en temps normal il ne dépasse pas 28%). Pas étonnant dans ces conditions que le géant américain ait construit 120 data centers ou centres de données un peu partout dans le monde afin de livrer plus rapidement (y compris dès le lendemain) les commandes de ses clients.

Ces centres de données sont également accessibles via le Cloud (voir page suivante) aux clients privés ou professionnels à travers les Services d'hébergement Internet d'Amazon (AWS ou Amazon Web Services). AWS est tellement performant que le Pentagone l'a choisi pour développer et maintenir le "Jedi Cloud" du Département de la Défense américain. C'est un contrat de 10 milliards de dollars pour l'entreprise qui fait de nombreux jaloux.

A voir : Centre logistique robotisé d'Amazon.com

Aujourd'hui Amazon est mieux organisé que le service de la poste. Amazon expédie ses commandes dans 185 pays et livre 6 jours sur 7 entre 9h et 17h. Contrairement aux sociétés privées de transport (UPS, FedEx, DHL, etc.) qui n'ont pas d'arrangements avec la poste, chez Amazon si le destinataire est absent, pas de souci, le transporteur dépose le colis à la poste de son domicile où le client peut le retirer dès le lendemain ou le premier jour ouvrable. Que demander de plus ?

Selon Statista, en 2021 Amazon était le site de commerce électronique le plus fréquenté avec plus de 1.8 million de visiteurs par jour, suivi par eBay (1.1 million), Cdiscount (843000), la Fnac (675000) et PriceMinister (663000).

En moins d'une génération Amazon est devenue la première entreprise de e-commerce au monde et détient à ce titre un monopole qu'elle fait payer très cher aux sociétés avec lesquelles elle travaille. Depuis 2018, son ancien CEO Jeff Bezos est toujours la personne la plus riche de la planète.

1997, invention du Wi-Fi

La technologie Wi-Fi fut inventée en 1997 par le chercheur Vic Hayes de l'Université de Delf aux Pays-Bas. Mais il faudra quelques années pour que cette technologie acquièrt sa maturité.

En effet, au départ sa bande passante était limitée à 2 Mbits/s, trop lente pour la majorité des réseaux Ethernet fonctionnant déjà à 10 Mbits/s. Elle fut donc augmentée une première fois à 11 Mbits/s (IEEE 802.11b) pour s'adapter au débit des réseaux locaux (LAN) et distants (WAN) sous TCP/IP.

La norme fut ensuite améliorée pour tenir compte de débits beaucoup plus élevés (30, 100, 300 et même 1300 Mbits/s pour la norme 802.11ac), y compris d'autres technologies sans fil comme le Bluetooth inventé en 1994 par Ericsson et au WMAN qui comprend les réseaux métropolitains WiMAX (IEEE 802.16).

En 1999, des industriels réunis au sein de l'ONG "Wireless Ethernet Compatibility Alliance" (WECA), rebaptisée par la suite Wi-Fi Alliance, développèrent toutes les spécifications des communications entre les appareils supportant les liaisons sans fil à grande vitesse dans le cadre de la future norme IEEE 802.11b.

L'ONG cherchait un nom plus commercial pour cette norme technique et fit appel à la société de communication Interbrand lui demandant de trouver un nom plus attractif. C'est ainsi qu'Interbrand proposa le terme Wi-Fi (Wireless Fidelity) par analogie à la Hi-Fi et la qualité du son qu'elle véhicule.

La technologie Wi-Fi exploite une bande de fréquences aux alentours de 2.4 GHz. Au cours de la conférence WRC 2003, l'UIT accepta d'élargir le spectre pour les systèmes d'accès mobiles (WAS) et les réseaux radios locaux (RLAN) dans la bande des 5 GHz. Aussi, les nouveaux routeurs Wi-Fi, y compris l'AirPort Extrême d'Apple sont bi-bandes et transmettent simultanément sur 2.4 GHz et 5 GHz avec une bande passante par canal qui varie entre 22 MHz et 80 MHz.

Précisons qu'il n'existe pas de clé Wi-Fi USB 3.0. En effet, le Wi-Fi grand public étant limité à 100 Mits/s, on peut se contenter d'une clé Wi-Fi USB 2.0 dont le débit atteint 480 Mbits/s.

Le 21 juillet 1999, au Macworld de New York, Steve Jobs présenta le premier ordinateur iBook équipé d'une carte intégrée AirPort 802.11b, qui jusque là était externe (sur carte PCMCIA et plus tard sur carte CompactFlash, SD, etc). Cette carte Wi-Fi permettait aux iBook d'échanger des données à 11 Mbits/s avec des Macintosh et des systèmes non Apple connectés à un routeur (sous Ethernet) ou un bridge (la passerelle vers les autres architectures).

Inconvénients du Wi-Fi

Les installations Wi-Fi étant très répandues, il est utile de rappeler que le signal RF a une portée d'environ 100 mètres en terrain dégagé. Les ondes Wi-Fi sont sensibles à la présence d'obstacles (l'épaisseur des murs), ce qui engendre parfois des micro-coupures entre les périphériques et sur Internet ou des pertes de signal au-delà de 20 mètres de distance à l'émetteur.

Il existe plusieurs solutions pour y remédier : changer le routeur Wi-Fi de place, modifier les paramètres du routeur (changement de canal, de mode d'émission), augmenter la puissance du routeur ou utiliser une antenne plus performante (quand c'est possible), installer un répétiteur pour étendre la réception du signal ou installer un booster pour réamplifier le signal Wi-Fi. Si rien ne fonctionne, reste la solution radicale : si votre système le permet relier votre ordinateur au routeur par câble Ethernet. Dans les OS récents, la reconfiguration est automatique.

Les ondes Wi-Fi peuvent également parasiter d'autres systèmes radiofréquences situés à courte distance et l'installation Wi-Fi elle-même est sensible aux perturbations électromagnétiques : aux émissions des caméras en circuit fermé et d'extérieurs (aerocam embarquées et meteocam) sur les canaux 1, 5, 9 et 13, celles des fours à micro-ondes sur les canaux 8, 9 et 10, celles des alarmes de sécurité, des télécommandes des portes de garages, des systèmes de surveillance des bébés, des téléphones Wi-Fi, etc., qui tous travaillent dans la bande des 2.4 GHz.

En principe, si votre signal est perturbé cela signifie que l'émetteur de parasites est mal réglé ou défectueux. Vous pouvez donc demander aux P&T ou à votre fournisseur d'accès de venir analyser votre réseau Wi-Fi pour détecter les sources d'interférences. Leur propriétaire devra alors se mettre en conformité avec la loi. On trouve également dans le commerce des analyseurs de spectre Wi-Fi/WiMAX portatifs, notamment le Cornet ED85EXS, y compris sur clé USB tel le Wi-Spy 2.4i.

A gauche, l'interrogation d'un routeur permet à son propriétaire d'obtenir des informations sur la configuration du réseau local (câblé et Wi-Fi), sur les données transmises, d'obtenir des statistiques et de modifier les paramètres. Ce graphique affiche la distribution des différents canaux ou émetteurs Wi-Fi à 2.4 GHz dans l'environnement d'un routeur Wi-Fi Fritz!box (colonne blue) et l'étendue de son influence (bande bleue). Dans cet exemple, 4 autres routeurs sont actifs (en jaune) dans un rayon de 100 mètres. A droite, les paramètres généraux d'une connexion Wi-Fi sécurisée (clé de 128 bits) sous Windows 7. Par comparaison, voici l'état d'une connexion câblée sur le même ordinateur (équipé d'une carte réseau de 1 Gbits/s). Documents T.Lombry.

La technologie Wi-Fi cryptée

La norme Wi-Fi ne fut totalement codifiée qu'en 2003 par la Wi-Fi Alliance qui définit également les protocoles de sécurité WEP (Wired Equivalent Privacy) et WPA (Wi-Fi Protected Access). Mais rapidement ils s'avérèrent peu robuste face au piratage par la force brutale (un pirate lance un programme qui teste tous les mots de passe), même avec des clés de 128 ou 256 bits en raison des faiblesses de l'algorithme de chiffrement RC4.

Face à cette vulnérabilité, la Wi-Fi Alliance développa le protocole WPA2 combiné à l'encryption AES qui fut certifiée en 2003 et standardisée dans la norme IEEE 802.11i en 2004. Grâce à cette technologie, cette fois la clé de chiffrement est pratiquement inviolable.

Aujourd'hui les connexions Wi-Fi domestiques (à usage privé) vers les routeurs Wi-Fi et autres hot spot devraient utiliser le protocole de sécurité WPA2 combiné à AES. Si vous ne l'utilisez pas encore, configurez-le au plus tôt et lisez l'article suivant, il en va de la sécurité de vos données.

A lire : Prévention du piratage informatique - La technologie Wi-Fi cryptée

1998, création de Google

Google fut fondée le 4 septembre 1998 par Larry Page et Sergey Brin alors étudiants en doctorat à l'Université de Stanford. Leur but était de proposer un service de recherche d'information pertinente via le web et d'en faire bénéficier le plus grand nombre.

Ayant pour slogan officieux "Don't be evil" (Ne soyez pas malveillant), Google fut d'abord concurrent d'AltaVista puis de Yahoo! et se spécialisa rapidement dans "l'organisation des informations dans le but de les rendre accessibles et utiles".

Pour atteindre son objectif et toujours mieux servir ses clients, en une quinzaine d'années le géant américain a installé un parc de plus d'un million de serveurs et installé 36 data centers à travers le monde (2014) valant chacun au moins 600 millions de dollars.f

Google est entré en bourse le 19 août 2004 et déplaça son siège à Montain View, en Californie, en 2006. Depuis son introduction, le prix de son action (GOOG) est passé de 54$ à plus de 1200$ (2019) !

Dans le TOP2000 de Forbes, en 2019 Google était classé en 6e place en termes financiers avec un chiffre d'affaire supérieur à 368 milliards de dollars (il était à la 68e place en 2014 avec un C.A. de 47 milliards de dollars). En 2018, Google avait fait un bénéfice net frôlant les 9 milliards de dollars. En terme de réputation, en 2018 Google était à la 3e place devant Canon tandis que Microsoft était à la 10e place et Apple à la 58e place (alors qu'elle était à la 1ere place à l'époque de la sortie de l'iPhone). En 2019, Google ne figure plus dans le TOP10. En terme de puissance potentielle, Google est la première entreprise au monde.

Enfin, selon BandZ, Google se classe second sur le plan de l'équité mais cela ne l'a pas empêché d'être critiqué pour son gaspillage d'énergie, des attaques qui ont conduit Goolge à investir dans des installations plus écologiques.

A voir : Browser Wars - 1993 to Present, VGraphs

7 Mots-Clés Cachés et Magiques Sur Google

Explore a Google data center with Street View

A lire : Un Web plus respectueux de l'environnement, Google

Entourant la page web de son fameux moteur de recherche, les photographies de deux parmi les 36 data centers de Google. A gauche, celui du comté de Douglas en Géorgie, à droite celui de Council Bluffs en Iowa. Google a également installé un data center en Belgique, à Saint-Ghilain. Ces installations s'étendent chacune sur 10000 mètres carrés. Un étage est réservé au système de refroidissement. Toute l'infrastructure de Google consomme 1.5% de l'électicité produite dans le monde. Certains serveurs sont tellement chauds que l'air qu'ils dégagent présente des pointes à 120°C et doivent être refroidis par air et par eau, raison pour laquelle la plupart des sites sont installés dans des régions fraîches et balayées par les vents, à proximité de cours d'eau. Selon une enquête réalisée par le Guardian en 2012, le data center de Dalles consommait 103 MW, autant que la ville anglaise de Newcastle. Dans un article publié en 2009 dans le Times et repris par Google, le physicien Alex Wissner-Gross de l'Université d'Harvard a expliqué que lorsqu'un internaute effectue deux requêtes sur le moteur de recherche de Google, cela générerait 14 grammes d'émissions de carbone, soit l'équivalent de l'empreinte énergétique d'une bouilloire électrique ! Sur la base de cette étude, les 100 milliards de recherches mensuelles seraient responsables, à elles seules, de 8400 tonnes d'émission de gaz à effet de serre chaque une année.

En 2012, l'infrastructure de Google gérait plus de 3.3 milliards de requêtes quotidiennement, soit 40000 requêtes par seconde. 20 milliards de pages web et 24 petabytes de données sont gérées chaque jour. Ici les "Big Data" prennent tout leur sens ! Selon Alexa, en 2014 Google était le site web le plus fréquenté dans le monde. La raison est simple, la plupart des internautes utilisent Google quotidiennement.

Aujourd'hui, Google est une société multinationale spécialisée dans les services et les produits Internet parmi lesquels il faut évidemment citer son moteur de recherche Google, mais également Google Maps, Google Translate, Google Scholar, Google News, Google Earth, Google AdSense, Google Analytics, Google Groups, Google Shopping, Google Now, Google Latitude et plus récemment Street View, ainsi que des produits comme Gmail, Blogger ou YouTube. Google a également développé le système d'exploitation Android qu'on retrouve notamment sur les tablettes et les smartphones open source, le navigateur Google Chrome, une suite bureautique et est présent sur le Cloud.

L'éventail des activités de Google.

Bref, Google est un incontournable qui entrave la libre concurrence et fait de l'ombre à beaucoup d'entreprises. Certains constructeurs l'ont bien compris, tel Samsung qui a préféré signer des accords avec Google pour exploiter son système d'exploitation Android et ses applications plutôt que de réinventer la roue dans un secteur qu'il ne maîtrise pas. Il n'est donc pas étonnant de retrouver le moteur de recherche Chrome de Google, les applications Google Maps, YouTube, Blogger et autre Gmail installés par défaut sur les tablettes Samsung et de beaucoup d'autres fabricants qui n'ont pas adopté le standard de Microsoft ou d'Apple.

Google investit également beaucoup dans le hardware. Il a notamment installé un réseau mondial de câbles sous-marins en fibres optiques, construit une usine de fibre optique à Kansas City en 2012 et travaille en partenariat avec les fabricants d'électronique sur des projets relatifs aux appareils mobiles, sans oublier les Google glasses, sa tablette Nexus et même les drones.

Google investit également des milliards de dollars dans la recherche contre le cancer et la nanotechnologie.

Enfin, Google investit dans l'intelligence artificielle et espère à terme sortir du web pour conquérir le monde réel dans le but de nous assister au quotidien, 24 heures sur 24; les assistants en ligne, les thermostats Nest, la Google Car et le rachat de Boston dynamics en sont des exemples.

Mais aujourd'hui, la puissance de Google fait peur à beaucoup d'experts. En effet, la puissance de Google est liée au fait qu'il effectue des recherches selon la pertinence des résultats grâce à de puissants algorithmes (Google en a créé plus de 200 à ce jour) qui permettent à l'entreprise de créer de la plus value et de tirer de plantureux revenus en détournant nos intérêts (les mots-clés de nos requêtes) et nos données personnelles (email, contact, messages vocaux, photos, etc), au grand dam du sacro-saint respect de la vie privée. De toute évidence, ce ne sont pas les amendes imposées par le Parlement européen qui vont intimider cette société multimilliardaire.

Google s'est donné les moyens de ses ambitions et sa stratégie ressemble de plus en plus à une dictature commerciale au monopole quasi planétaire. Nous y reviendrons dans l'article Internet pour le meilleur et pour le pire.

1999, Samsung commercialise la Smartwatch

Une smartwatch est une montre intelligente, un accessoire hybride combinant certaines fonctions du smartphone, de l'ordinateur et du GPS. Mais à l'origine c'était encore loin d'intégrer toute ces technologies.

En effet, la première smartwatch fut en fait la première montre digitale, la Pulsar P1 créée par Hamilton en 1972 et caractérisée par ses fameuses LED rouges mais elle n'était pas reliée à Internet.Voici une publicité pour la Pulsar P1 (MP3 de 838 KB).

La smartwatch S9110 de Samsung a écran OLED tactile commercialisée en 1999. A comparer avec ce concept présenté en 2013.

Il faudra attendre 1983 et la Seiko Data 2000 munie d'une docking station et d'un clavier qui était capable de transmettre des données sous forme d'impulsions magnétiques.

Le premier modèle connecté à Internet fut commercialisé par Samsung en 1999, la SPH-WP10 Anycall (700$), qui était en fait un watchphone, un GSM muni d'une fonction vidéo fixé sur un bracelet.

Samsung n'en fabriqua que 300 exemplaires. Il s'agissait plus d'une étude de faisabilité (proof of concept) qu'un véritable produit commercial.

En juillet 1999, Samsung commercialisa la smartwatch S9110 qui donna l'impulsion nécessaire au développement de ce marché.

Au salon high-tech IFA 2013 de Berlin, Samsung fit parler de lui en présentant la smartwatch Galaxy Gear. Mais il s'avera rapidement que ce n'était finalement qu'une évolution de la S9110.

En effet, mises à part quelques fonctions internes propres (processeur vocal, possibilité de recevoir des notifications d'émails ou des réseaux sociaux, d'installer des Widgets, de disposer d'un APN, d'un accéléromètre, etc), ce modèle devait obligatoirement se synchroniser avec un smartphone ou une tablette Samsung via Bluetooth si son propriétaire voulait par exemple savoir qui lui avait envoyé un émail.

Autre inconvénient, bien que Samsung développe des écrans OLED à base de graphène et donc souples et résistants, cette smartwatch utilisait des matériaux bas de gamme, du plastique et du verre plat et n'est pas waterproof contrairement à la Sony Smartwatch 2. De plus, le podomètre n'était pas fiable, le système de recharge propriétaire nécessitait une docking station et son autonomie de 25 heures sur catalogue n'était que de 10 heures en pratique.

Proposée au prix de 299 €, la Galaxy Gear était un gadget de luxe, et bugué, Samsung accusant 30% de retour en moins de deux mois.

Ceci dit, à peine 5 mois après sa commercialisation, Samsung annonça qu'il allait présenter une nouvelle smartwatch au CES en janvier 2014. Et de fait Samsung travaillait depuis quelque temps sur un concept de smartwatch au design high-tech prometteur.

A lire : Les smartwatches interdites aux examens (sur le blog, 2013)

Smart Watch News

Malgré ses 800000 ventes aux grossistes, à peine deux mois après sa sortie les analystes et les experts considéraient déjà que la Samsung Galaxy Gear était un flop. Mais ce produit qu'on jugeait trop cher pour des performances mitigées témoigne de l'existence d'un marché très demandeur et très concurrentiel.

Aujourd'hui de nombreux constructeurs proposent des smartwatches. A côté de la Samsung Galaxy Gear qui reste la plus vendue, citons Hyundai MB 910, LG G Watch, Pebble, Google Watch, Sony Smartwatch 2, Qualcomm Toq, Microsoft Spot et Surface Watch, Z1 Android, Adidas et prochainement HTC, ZTE et la iWatch d'Apple, à un prix qui varie entre 200 et 400 €.

L'opérateur américain AT&T proposa fin 2013 la smartwatch FiLIP dont voici une vidéo qui permet notamment de géolocaliser un enfant grâce à un traceur GPS.

Prochain chapitre

2000, développement du Cloud computing

Page 1 - 2 - 3 - 4 - 5 - 6 - 7 -


Back to:

HOME

Copyright & FAQ