Contacter l'auteur / Contact the author

Recherche dans ce site / Search in this site

 

Tablette et Web 3.0 ou l'informatique du futur

Le web mobile (II)

Le web mobile à tendance à se généraliser avec l'installation de plus en plus fréquente de connexion Wi-Fi dans les voitures et les lieux publics. Grâce à cette connexion Internet mobile, tout automobiliste pour connaître l'état des routes ou surfer sur le web en tant que passager, un comportement qui risque à l'avenir de devenir une seconde nature.

Prenons un exemple simple. Imaginez que vous êtes en voiture loin de chez vous et avez oublié de prévenir votre partenaire, votre hôte ou votre patron sur un point précis.

Si vous avez l'habitude de travailler sur un ordinateur portable en dehors de votre domicile ou de votre bureau, vous pouvez utiliser votre tablette PC à la place de votre portable ou même de votre smartphone. Vous vous arrêtez près d'une borne Wi-Fi et pouvez-même téléphoner via Skype à vos contacts. Ensuite vous aurez peut-être même le temps de consulter confortablement vos e-mails et de lire les titres de l'actualité sur le site d'un webzine comme si vous étiez à la maison.

Certains reprocheront à cette solution que les smartphones permettent déjà aux passagers de se connecter à Internet. Toutefois, ces systèmes sont équipés d'un écran assez petit, sont parfois limités à la gestion des e-mails (Blackberry) ou présentent une connection relativement lente à Internet (Edge à défaut de 3G ou 4G), autant de facteurs qui ne permettent pas vraiment d'utiliser ces mobiles comme outil de visioconférence ou pour naviguer d'un site web à l'autre.

Pour ce faire, l'idéal est d'utiliser une tablette d'au moins 9.7" ou ~25 cm de diagonale pour le confort et de disposer d'une connexion Wi-Fi à haut débit. Mais en général, les solutions innovantes ne sont disponibles que sur les tablettes assez récentes (la 4G est seulement disponible à partir de l'iPad 3 et Pro, Samsung Galaxy Tab S2, etc).

Que ce soit en 2010 ou en 2020, la plupart des solutions mobiles Wi-Fi présentent un débit atteignant 11 Mbps (Wi-Fi B, 802.11b). C'est au moins 10 fois plus lent que le débit moyen de votre réseau domestique en téléchargement (~125 Mbps) et un peu plus rapide que son débit moyen en envoi ou upload (~7 Mbps). Mais c'est suffisant pour naviguer sur Internet, de consulter les notifications de vos réseaux sociaux tout en communiquant avec vos amis et collègues par vidéo.

De cette manière, même loin de chez vous ou de votre travail, vous pouvez garder un contact avec vos proches, échanger des documents et même vous excuser auprès du patron mieux que par un courrier électronique impersonnel !

A consulter : Carte mondiale des Hot-spots Wi-Fi

Les désavantages du Wi-Fi

Il y a d'abord la question de sa disponibilité. En effet, utiliser une tablette ou une tablette PC signifie disposer d'un accès à Internet là où on se trouve, que ce soit en ville ou à la campagne. En théorie, ça fonctionne très bien et les commerciaux sont les premiers à vous le dire quand ils avouent "couvrir 95% du territoire". Et si vous êtes dans les 5% non couverts que devient votre bel abonnement ? Il est tout simplement inutilisable !

En théorie, le Wi-Fi est également accessible "partout dans votre domicile et à l'extérieur dans un rayon de 140 mètres" (voir plus bas). En pratique, l'installation standard ne traverse pas plus de deux murs et vous n'aurez donc pas de connection dans la chambre distante de 20 mètres de l'émetteur ou au bout du couloir, au premier étage.... Ici aussi votre abonnement ne vous satisfera pas. On y reviendra.

Les commerciaux oublient souvent de préciser qu'ils vous font la démo à quelques mètres d'une borne Wi-Fi, que si vous êtes en balade, de temps à autre vous risquez d'être hors d'atteinte du réseau ou pire, que votre opérateur n'a pas signé de contrat avec le leader du marché et ne peut donc pas profiter de ces installations !

Concrètement, mi-2013, il y avait 19 millions de bornes (hotspot) Wi-Fi en France (SFR), Belgique (Belgacom), Angleterre (BT) et Allemagne (Deustche Telekom). Mais tout le monde n'y avait pas accès. En effet, les internautes abonnés chez des opérateurs concurrents (par ex. Voo en Belgique, Bouygues en France, etc) et qui n'avaient pas signé de contrat avec ces majors n'avaient pas la possibilité de se connecter à ces bornes Wi-Fi, ce qui pénalisait des millions d'utilisateurs passés à la concurrence pour une raison purement financière et soi-disant profiter d'un "meilleur service" mais surtout de moins bonne qualité, autant savoir !

Le second désavantage du Wi-Fi est la légère détérioration de l'image en raison de l'étroite bande passante accordée à ce genre de service. La qualité du signal (et donc de la connexion) dépend également de la fiabilité du réseau - comme c'est le cas pour le GSM. Mais avec le temps, les opérateurs ont amélioré leurs lignes, et même à la campagne la qualité de la ligne doit permettre d'afficher des images HD assez rapidement.

Si vous utilisez votre tablette dans un transport en commun et notamment dans le train ou la voiture, à mesure que vous vous déplacez, il peut arriver que vous tombiez en dehors de la couverture des antennes relais et de la zone de captation. Si la barre du signal Wi-Fi ou 3G diminue dans l'icône de statut affichée sur la tablette, attendez-vous à voir le débit des transferts diminuer voire, au pire, à une coupure de ligne.

La puissance du signal peut également varier en fontion de votre vitesse relative par rapport aux relais cellulaires. C'est plus marqué dans les trains ou les avions. Au pire, vous irez plus vite à pied, mais c'est exceptionnel !

Même à l'intérieur d'une habitation, la connexion Wi-Fi peut être inaccessible à quelques dizaines de mètres du boîtier Wi-Fi fourni par l'opérateur. La plupart des tablettes dont la Samsung Galaxy Tab S2 supportent les protocoles Wi-Fi 802.11 a/b/g/n, c'est-à-dire presque tous. L'iPad supporte en plus le protocole Wi-Fi 802.11ac, c'est-à-dire les canaux agrégés qui permettent d'augmenter le débit. Mais tous les pays ne le supportent pas ou avec des variations (cf. ce White Paper).

Rappelons que le protocole Wi-Fi A (802.11a, 5 GHz, 54 Mbps) ne porte qu'à 10 mètres et n'est pratiquement pas utilisé. En revanche, le Wi-Fi B (802.11b, 2.4 GHz, 11 Mbps) porte à 140 m, comme le Wi-Fi G, et seul le Wi-Fi N (802.11n, 2.4 GHz/5 GHz, 450 Mbps) porte à 250 m. Enfin, le Wi-Fi AC (802.11ac, 5-6 GHz, 1.3 à 7 Gbps) comme en dispose l'iPad d'Apple est le plus rapide quoiqu'en pratique il plafonne à 910 Mbps sans agrégation de canaux. Mais il s'agit de valeurs théoriques. S'il a des murs en pierre ou en béton entre l'émetteur Wi-Fi et la tablette, même en Wi-Fi N, à plus de 15-20 m de distance, vous risquez de ne pas capter le signal derrière le 2e mur. Dans ce cas, il faut appeler votre opérateur et lui expliquer le problème. Il devrait vous installer un amplificateur ou un routeur Wi-Fi afin que le signal soit plus puissant et soit captable dans toutes les pièces, y compris à l'étage, dans la chambre située à l'opposé de l'habitation et dans le jardin ou sur la terrasse. En principe, ce matériel vous sera facturé.

En revanche, pour le streaming vidéo (flux continu) en HD4k vous devrez passer votre tour encore quelques années en attendant que les opérateurs implantent une technologie beaucoup plus performante y compris les câbles supportant ce haut débit.

Enfin, comme pour les GSM, les opérateurs prétendent couvrir tout le pays et atteindre des millions de consommateurs. Or on constate que dans les zones rurales ou au fond des vallées étroites, quelquefois les liaisons Wi-Fi ou 3G/4G sont ralenties voire carrément impossibles car le système ne reçoit aucun signal. Quand vous vous renseignez auprès de l'opérateur, et c'est notamment le cas dans certains villages en Belgique, en France ou au Luxembourg, on vous répond qu'ils connaissent le problème depuis quelques années et qu'ils projètent d'installer une nouvelle antenne relais. En attendant, les années passent et rien ne change, mais vous payez toujours votre abonnement Internet et votre super router au prix fort pour un service perfectible. La situation est identique dans bien des régions rurales de France et d'outremer. Dans ces conditions, il vaut la peine de déposer une plainte et de négocier éventuellement une réduction pour discrimination par rapport aux autres abonnés et un service non satisfaisant qui vous pénalise.

Le WiMAX, LTE et 5G

Le débit étant un paramètre important du confort des utilisateurs lors des liaisons Internet, les mobiles WiMAX sont la solution d'avenir, une technologie encore timide mais supportée par l'Union Internationale des Télécommunications (UIT) et encouragée par Intel, Motorola, Samsung et Toshiba notamment, ainsi que nous l'expliquions dans cet article publié sur mon blog en 2007, c'est-à-dire les plus grands fabricants de semi-conducteurs ou de produits informatiques, c'est dire l'importance qu'ils accordent à ce marché.

Le WiMAX (IEEE 802.16) permet d'atteindre des vitesses 3 à 5 fois supérieures à celles des meilleures liaisons Wi-Fi ou des services câblés de type DSL. On parle de débits de 2 à 3 Mbps avec des pics de 10 Mbps.

A ces vitesses, vous pouvez consulter sur votre tablette les documents en streaming vidéo publiés sur les réseaux sociaux, écouter votre chaîne de radio favorite en streaming audio ou écouter de la musique en streaming à travers des services comme Rhapsody.

Les fabricants supportant le WiMAX veulent non seulement étendre cette technologie aux ordinateurs portables et aux smartphones, mais également aux GPS.

Non seulement le haut débit permet aux conducteurs d'être informés plus rapidement sur l'état du trafic routier pour une précision accrue, mais il permet également d'obtenir en temps réel les images du réseau de webcams installées sur nos autoroutes, à la recherche d'un éventuel itinéraire de délestage. De telles solutions sont déjà testées aux Etats-Unis, notamment à Washington et à Chicago. Demain, cette technologie sera chez nous.

En 2013, le réseau WiMAX était clairsemé en Europe, même dans nos capitales comme l'explique ce site web consacré à WiMAX et discutant de la couverture de Bruxelles. En 2020, WiMAW est passé aux oubliettes.

En fait, les ingénieurs ont pensé à d'autre solutions. AT&T, l'une des sociétés qui compte le plus de prix Nobel au mètre carré, a envisagé d'exploiter la technologie "LTE" ou Long-Term Evolution, qui permet en théorie d'atteindre des débits 10 fois supérieurs au WiMAX tout en garantissant la comptabilité "downward" avec les réseaux cellulaires 2G et 3G qui d'un point de vue commercial est essentielle. Pour cette raison, en Europe à partir de 2013 la technologie LTE a dominé le marché mobile 4G et a séduit les constructeurs de smartphones et de tablettes.

Très rapidement, les opérateurs européens de téléphonie visèrent la technologie 5G qui offre des débits de plusieurs gigabits par seconde, soit 100 fois plus rapide que le réseau 4G. La 5G fut implantée vers 2020.

Si le haut débit est sans conteste la solution d'avenir pour la technologie sans fil, il reste une incertitude sur la disponibilité de ce type de service Internet dans nos villes et le long des autoroutes. En 2013, nous étions encore loin de la couverture offerte par les GSM, même sur les highways américaines qui drainent des dizaines de millions de personnes chaque jour.

Actuellement dans certaines zones isolés, le débit est parfois si lent qu'au cours d'une liaison vidéo mobile par messagerie instantanée, l'image prend l'aspect d'une coulure de peinture ou d'une image pixelisée, même avec la meilleure webcam équipée d'un système intelligent de poursuite et d'un système anti-vibration. N'essayez même pas de l'utiliser sur le siège arrière d'un SUV en train de passer dans un sentier chaotique, où même les connexions Internet mobile les plus rapides ne tiennent pas la route. Mais ce sera bientôt une vieille histoire.

Laissons seulement quelques années à nos opérateurs pour s'adapter au marché et remplacer leurs vieux centraux téléphoniques et autres PABX par des systèmes digitaux et leurs lignes de cuivre par de la fibre optique. Si c'est déjà  le cas, le problème peut aussi provenir d'une surcharge des lignes qui devront être remplacées par un système plus performant. Mais à trop attendre, ne prenons tout de même pas trop de retard ou les entreprises iront voir ailleurs.

Le Web 3.0

Au coeur de la Silicon Valley, les informaticiens imaginent un nouveau type d'Internet, bien plus puissant que celui que nous utilisons tous et qui nous permet d'imprimer des lettres, de télécharger des fichiers ou de communiquer à distance entre amis.

Facebook, YouTube et les autres réseaux et blogs sociaux font partie de ce qu'on appelle le "Web 2.0" qui a pénétré les foyers depuis quelques années. Mais si certains ont déjà du mal à comprendre son utilité, pour ceux qui imaginent déjà l'avenir, cela ne représente qu'un pixel de l'image globale qu'ils ont du futur d'Internet, en 2020 sinon au-delà.

Homo informaticus communicans

Du Web 1.0 au Web 2.0

Le concept d'Internet suit actuellement un cycle de 10 ans environ, au terme duquel il évolue radicalement. Le Web 1.0 représentait la première génération durant laquelle s'est développé la plate-forme de base d'Internet, classique, caractérisée par sa capacité de mettre à disposition des utilisateurs d'énormes quantité d'information en ligne.

A la Belle Epoque d'Internet, grosso-modo entre 1995 et 2000, le web était statique et nous utilisions des programmes et des bases de données propriétaires disparates, sans possibilité d'établir de relation entre les données, les informations étaient séparées comme c'est encore le cas dans beaucoup d'administrations publiques d'un autre âge.

Actuellement nous approchons de la fin du second cycle - le Web 2.0 - qui est la version intelligente d'Internet, celle de l'interface utilisateur ergonomique. Il permet de relier les applications bureautiques ou même scientifiques à des services en ligne, bref de connecter des utilisateurs et des périphériques entre eux.

Cette technologie est par exemple utilisée par l'univers virtuel de Second Life et des services en ligne comme Google Maps ou les systèmes GPS de dernière génération qui proposent aux internautes des cartes géographiques reliées à des services utilitaires (base de POI, annuaire, etc). On peut également citer Twitter ou Picasa. Avec Flickr par exemple, vous pouvez trouver des images qu’une recherche classique par mot-clé ne pourrait jamais trouver. Mais tout cela sera bientôt démodé avec le Web 3.0 qui pointe à l'horizon.

En 2010, les experts prévoyaient que vers 2020 la technologie associée à Internet sera capable de relier tous les aspects de notre vie numérique, que ce soit le site web, l'e-mail ou un fichier de notre ordinateur à des milliers d'autres concepts ou périphériques exploitant cette même technologie. Par exemple, quand vous taperez un courrier électronique, le système pourra anticiper le titre du message et vous suggérer des sites Internet, des livres ou des documents (des photos et des vidéos) que vous avez sauvegardés et qui pourraient vous être utiles. Cette relation dynamique sera possible grâce à l'intelligence inhérente à l'architecture fondamentale d'Internet. En d'autres termes, le web et la sémantique des tâches vont devenir intelligents et même futés.

En 2020, cela ne s'était pas encore concrétisé pour le grand public car peu de logiciels exploitaient cette technologie avantgardiste. Il faudra sans doute patienter jusqu'en 2025 ou 2030 pour que cela se généralise.

C'est en tout cas l'idée de la technologie Web 3.0 qui s'est développée à partir de 2006 et qui vise à transformer Internet en une gigantesque base de données dont le contenu sera accessible via des outils diffférents des navigateurs actuels et dotés d'intelligence artificielle. Comment les concepteurs imaginent ces solutions ?

Le Web 3.0 ou le web sémantique

Nova Spivack est le fondateur de la société Radar Networks. C'est un gourou travaillant dans la Silicon Valley, spécialisé dans le développement de ce qu'on appelle le Web 3.0 ou "web sémantique" (parfois également appelé "Web géospatial" ou "Web 3D").

Selon Spivack, le Web 3.0 se réfère à une tentative des concepteurs de réviser radicalement la plate-forme technologique de base d'Internet de manière à ce que le système puisse identifier et tenir compte du nombre infini d'informations éparses qui résident alentour et établir des relations entre elles.

Si le Web 2.0 était tout sauf un système intelligent de collecte d'informations, un bon nombre d'internautes ont apprécié le principe de "Page Rank" (Technorati, Digg.com, etc) imaginé par Google pour attribuer une valeur aux informations que l'on trouve sur Internet en fonction de la pertinence ou de leur intérêt.

La quantité d'information disponible sur Internet est devenue tellement colossale - ce sont les fameuses "Big data" chères aux services d'espionnage notamment - que le Web 3.0 envisage pas moins que de donner un cerveau à Internet.

Dans le Web 3.0, les concepteurs insistent non plus sur l'application qui tourne à l'avant-plan mais sur ce qui se passe en arrière-plan du système, sur la puissance d'indexation des moteurs de recherche comme Google.

Un exemple de technologie Web 3.0 est la possibilité d'utiliser un langage naturel pour interroger Internet, ce qui permet aux moteurs de recherches de répondre à des questions du genre "Quels sont les vêtements d'hiver fabriqués en microfibres et valant moins de 100 € ?".

En 2010, répondre à cette question pouvait demander pas mal de recherches manuelles, de fouiller dans les catalogues en ligne des fabricants, les comparatifs à jour et d'essayer de trouver des articles encore disponibles et des prix actualisés. Heureusement, dans certains cas, les sites qui apparaissent dans le résultat ne se réfèrent pas aux termes utilisés dans la question comme c'est encore généralement le cas, mais à son contexte.

En 2020, Google était capable de proposer une liste d'articles répondant à certains de ces critères, parfois géolocalisés. Attendons 2030, il répondra précisément à la question en affichant les magasins situés en ville ou en bas de votre rue, à l'image de ce que fait déjà Google Maps quand vous cherchez un commerce.

La recherche cognitive

Avec le Web 3.0, le moteur de recherche permet de classer toutes les pages et toutes les phrases afin de trouver par déduction cognitive le résultat qu'attend l'utilisateur. En effet, aujourd'hui les algorithmes cognitifs utilisés par Google et ses concurrents sont capables de déterminer que la société Polar par exemple fabrique des vêtements en microfibres, que la microfibre est un textile et que l'euro est une devise européenne.

Barney Pell, directeur de Powerset, une société qui développe une technologie basée sur le langage naturel, confirme cette évolution : "notre moteur consulte chaque page, phrase par phrase et renvoie les résultats en se basant sur ses connaissances générales du langage et sur la signification générale de concepts spécifiques et leurs relations mutuelles". Sa société, basée au PARC (Palo Alto Research Centre), en Californie, est parfois considérée comme la "tueuse de Google" (Google-killer) dans la mesure où sa solution qui n'est pas encore très connue, deviendra populaire (la société a commencé à faire parler d'elle depuis 2007).

Le Web 3.0 ne touche pas seulement le contenu des documents textes mais tous les médias, y compris les images et les vidéos. On y reviendra à propos de la médecine 3.0.

Ouverture des plates-formes et des périphériques

Dans l'Internet du futur, ce n'est pas simplement le moteur de recherche qui sera révisé. Un des thèmes récurrents qui revient au cours des conférences sur le Web 2 .0 et 3.0 est le concept de "plate-forme ouverte", l'équivalent des systèmes d'exploitation open-source, l'idée qu'un site Internet ou un périphérique comme un smartphone, un APN ou une imprimante doit être capable de s'adapter à tous les paramètres ou à toutes les applications qu'utilise le client.

Une tablette Samsung Galaxy Tab S2 sous Android (349 € en 2018). Elle est équipée d'un port miniUSB. Document T.Lombry.

Le système doit par exemple considérer une tablette, un smartphone ou une clé USB comme un dossier dans lequel son propriétaire peut extraire ou placer des objets ou des applications (un fichier, un service de messagerie, des photos, des jeux créés par l'utilisateur, etc) sans que le constructeur ne soit obligé d'approuver une telle action (à travers le paiment d'une licence).

Mais actuellement on ne peut pas échanger des images ou d'autres fichiers entre deux tablettes ou une tablette et un GSM fonctionnant sous des OS différents.

Première difficulté, aujourd'hui une tablette sous Android ou sous iOS est un environnement presque fermé. Seule la Surface de Microsoft dispose d'un port USB standard. Celles fonctionnant sous Android disposent d'un port miniUSB pour lequel il existe un adaptateur USB 2. 0 tandis que l'iPad 4 doit utiliser un adaptateur Lightning port to USB.

L'autre solution est de passer par le Cloud qui permet de synchroniser tous les dossiers des systèmes connectés d'un même utilisateur mais cela exige une connexion Internet active.

La troisième solution est d'installer l'application Xender sur chaque appareil connecté et de l'utiliser pour transférer des fichiers. Voici un résumé de son fonctionnement.

Dans le cadre du Web 3.0, cela sous-entend que les périphériques doivent communiquer entre eux et se synchroniser sans intervention humaine. Ils doivent donc être connectables aux systèmes mobiles et identifiés. La manière la plus simple est de leur attribuer une adresse IP ou de leur associer une puce RFID pour qu'ils communiquent à travers les réseaux. Ces concepts ne sont plus une vue de l'esprit depuis quelques années.

Certaines parmi les plus grandes société informatiques (Apple, Myspace et Google) ont publiquement annoncé qu'elles souhaitaient développer des plates-formes ouvertes, Internet devenant le lieu où différents services se mélangeraient et se correspondraient.

Ce futur devient progressivement une réalité. Pour preuve, selon les analystes de Gartner, en 2013 on dénombrait 9 milliards d'appareils connectés dont 6 milliards de mobiles. Il y avait plus de 10 milliards de mobiles connectés en 2020.

En parallèle, les mondes virtuels deviendront plus mûrs, passant d'une connotation proche des jeux informatiques à celle des environnements d'immersion, c'est-à dire de solutions complexes, multi-dimensionnelles faisant intervenir à la limite tous les acteurs de la société, y compris les entreprises publiques.

Pour en savoir plus, consultez sur le site web du MIT l'interview de Sandro Hawke, systems architect du World Wide Web Consortium, concernant les nouveaux standards qui conduiront au web sémantique.

Les connaissances exposées aux machines

Demain, ce type de technologie permettra à chacun depuis un ordinateur ou des lunettes à réalité augmentée d'explorer tout un univers virtuel que l'on commence à peine à entrevoir.

A travers toute sa complexité et sa puissance potentielle, le Web 3.0 témoigne que les connaissances humaines sont de plus en plus exposées et gérées par les machines et qu'un jour elles seront contenues dans les machines.

Quand on voit les prouesses du "Surface computer" de Microsoft alliées à la dextérité et l'intelligence des androïdes de Honda parmi d'autres, il ne fait aucun doute que si un jour on unit les deux entités, l'homme aura du mal à garder sa place de décideur dans ce monde artificiel.

Mais ce n'est pas une raison pour tout arrêter et en revenir au crayon et au papier. L'informatique de demain peut nous rendre d'innombrables services et même nous enrichir sur le plan intellectuel si nous fixons des gardes-fous et donnons un sens éthique à toute cette technologie avant qu'elle nous dépasse.

Pour plus d'informations

Conseils pour bien acheter une tablette (sur ce site).

Cet article fut rédigé en 2013 et les prévisions n'ont pas été modifiées afin qu'on puisse évaluer leur exactitude. Seules les dates des éventuelles réalisations ont été ajoutées.

Retour aux Technologies

Page 1 - 2 -


Back to:

HOME

Copyright & FAQ