Géolocalisation, réalité augmentée et hyper-localisation des contenus

GéolocalisationÀ en croire une étude du cabinet Berg Insight, 560 millions de téléphones mobiles étaient équipés de GPS en 2012. La géolocalisation, autre avancée technologique majeure qui était, il y a peu, l’apanage de l’industrie militaire, quitte donc le seul cadre du champ de bataille pour conquérir celui de nos smartphones et transformer notre relation à l’espace. Dans la logique du développement du cloud-computing, l’avènement de la géolocalisation conduit nos terminaux mobiles à devenir autant de décrypteurs des contenus numériques qui nous entourent. La capacité de pouvoir se situer dans l’espace donne accès, aujourd’hui, à une information immédiate de proximité. Certaines expériences dans ce domaine commencent à voir le jour. SFR, via sa régie publicitaire, a récemment lancé une solution permettant aux annonceurs d’envoyer un lien (via SMS) sur les téléphones mobiles de ses clients, dès lors qu’ils se trouvent dans un rayon de 200 mètres autour d’un point de vente. D’autres expériences, menées par Google et baptisées Google Adwords Express, permettent d’offrir aux annonceurs une meilleure visibilité grâce à l’affichage de liens géolocalisés et profilés dans les résultats de recherche d’adresses sur son moteur de recherche. Des améliorations technologiques pour certains. De nouveaux risques d’incursion dans la vie privée pour d’autres, comme le prouve la fronde des associations anti-pub en réaction à la mise en place dans les couloirs du métro parisien de panneaux publicitaires équipés de caméras captant et analysant les comportements des voyageurs et délivrant, par bluetooth, du contenu multimédia sur le téléphone mobile de l’usager. Quoi qu’il en soit, la publicité géolocalisée plurimédia n’en est qu’à ses prémices et est promise à un développement rapide et à une concurrence exacerbée depuis le rachat, en 2010 par Google, de la régie spécialisée dans le mobile AdMob et de Quitto Wireless par Apple.

Immersion en réalité augmentée

Dans le même temps est apparue la notion de réalité augmentée, principe selon lequel certaines informations virtuelles se superposent, en temps réel, à une image existante. On explore désormais le réel via une information complémentaire ajoutée au contexte qui nous donne une autre clé de lecture de notre environnement immédiat. Ainsi, une expérience menée par la ville d’Amiens permet au portail de la cathédrale de retrouver les fastes polychromes d’antan, grâce à une application permettant de superposer les décors originels au bâtiment. « Les applications vont sans doute un peu quitter le monde pur du digital marketing pour aller vers des applications “plus sérieuses” », nous dit Olivier Audouze, responsable marketing de la société Total Immersion, une start-up française spécialisée dans le développement de solutions en réalité augmentée. Des applications qui s’étendent désormais sur des secteurs aussi divers que la médecine, l’industrie, le jeu, le prêt-à-porter, l’architecture ou le tourisme. La réalité augmentée est promise à un développement rapide et rend la frontière séparant le réel du virtuel de plus en plus ténue.

Cartographie et représentation dans l’espace

Enfin, l’arrivée massive et en libre accès des fonds cartographiques et photographiques de services tels que Google Maps ou Mappy servent aujourd’hui de supports à un nombre croissant d’informations, de services et de contenus consultables par tous et s’enrichissent au fur et à mesure que les contributeurs les augmentent d’informations pratiques, personnelles ou commerciales. La généralisation de la cartographie est aujourd’hui un terrain de jeu sur lequel les applications de réalité augmentée, principe selon lequel on superpose en temps réel des contenus virtuels à une image existante, ont trouvé un terreau idéal pour se développer.

Mobile + réalité augmentée + cartographie = ?

La convergence de ces trois grandes tendances, associée à la capacité de traitement des terminaux mobiles, conduit aujourd’hui à une virtualisation en temps réel de notre environnement et à une contextualisation immédiate des contenus. « L’appareil mobile devient un prisme au travers duquel nous avons la sensation de voir le monde constitué de différents calques remplis d’informations, de données et de visualisations », nous dit Robert Rice, président de l’AR Consortium et grand chantre de la réalité augmentée. Certaines expériences, comme Wikitude de Mobilizy, Street view de Google ou UrbanDive du Groupe PagesJaunes sont une remarquable synthèse des différentes technologies embarquées. Elles permettent, par l’intermédiaire d’un terminal mobile, d’obtenir une vue immersive par géolocalisation affichant, en réalité augmentée, une information locale, éventuellement personnalisée en fonction de ses accointances issues du croisement de ses informations personnelles, voire de celles liées à son réseau et à son cercle de relations connectées. On peut y découvrir, en temps réel, des contenus hyper-contextualisés, comme des informations touristiques, les menus de restaurant, des horaires de transport en commun ou de cinéma ou les promotions du revendeur de sa marque de vêtement préférée. Une aubaine dans laquelle le marketing s’est aujourd’hui engouffré.

Géolocalisation et m-commerce

Disons-le, si aujourd’hui les applications de géolocalisation et de réalité augmentée prennent leur essor, c’est essentiellement dans le domaine du marketing et du m-commerce que les innovations percent. Avec une tendance qui rejoint étonnamment celle guidée par l’urbanisme d’un retour aux centres-villes, à l’hyper-localisation et à la relation de proximité.

Objets communicants et environnement « intelligent » : vers une Smart Society

Puce RFIDObjets inanimés, avez-vous donc une âme ? Si la capacité des ordinateurs à communiquer entre eux a été un événement technologique fondateur de la révolution numérique, force est de constater que le réseau a plutôt servi, jusqu’à présent, à relier les êtres humains entre eux et à les assister dans leurs relations et leurs échanges. Tout au plus a-t-il permis de faciliter le transport de l’information et (ce qui n’est pas rien) à changer nos usages. Mais l’homme reste jusqu’à présent intrinsèquement la finalité de ces échanges, qu’il soit du côté émetteur ou récepteur.

Le contenu dans son plus simple appareil

Un nombre croissant d’objets de la vie quotidienne embarque désormais un matériel électronique offrant la capacité de communiquer avec son environnement en diffusant ou captant des données ou en analysant l’information dans le but d’adapter leurs comportements. Ces données leur permettent d’interagir, en utilisant souvent le même protocole que le Web, sans que l’homme n’ait forcément un quelconque rôle d’arbitrage dans cette initiative. La machine acquiert son autonomie en termes de communication et enrichit par là même l’« éco-système informationnel » qui nous entoure. Nous sommes entrés, avec les objets communicants, dans l’ère des contenus dans leur plus simple appareil, c’est-à-dire en tant que seules données binaires interprétées par les machines elles-mêmes. L’émergence du marché du M2M (ou Machine to Machine) est la promesse de nouveaux leviers de développement économiques et s’inscrit dans la continuité du développement d’une information omniprésente dans notre environnement, dans la même logique que celle du cloud-computing, dont elle fait d’ailleurs intégralement partie.

Les puces embarquées

D’un point de vue opérationnel, cela se traduit par le développement des technologies de radio-identification, symbolisée aujourd’hui par les puces RFID (Radio Frequency IDentification) ou NFC (Near Field Communication) embarquées dans des produits aussi divers que nos réfrigérateurs, nos pèse-personnes, nos automobiles, nos bicyclettes, nos piluliers, nos cartes de transport, nos téléphones, et des objets aussi hétéroclites que les arbres de nos villes, des colliers pour chiens ou des pierres tombales. La liste des applications est aujourd’hui déjà longue mais tout porte à croire que nous ne sommes qu’aux prémices et que demain, tout ce qui présente un intérêt à être connecté le sera. « Tous les produits industriels peuvent aujourd’hui incorporer une puce électronique », nous dit Rafi Haladjian, pionnier de l’Internet des objets avec l’invention de Nabaztag, le premier lapin communicant, et plus récemment créateur de la société Sen.se, une plateforme de développement de systèmes visant à connecter tous les objets entre eux. « Aujourd’hui, si même les lapins peuvent être connectés, n’ importe quoi sous le soleil peut être connecté à Internet », se plaît-il à rappeler.

La ville communicante

Dans les faits, les applications aujourd’hui disponibles touchent autant les domaines de la santé que ceux de l’habitat, des transports, de l’habillement ou de la sécurité. Le développement des objets communicants impacte aussi profondément la vision de la ville de demain. Google a ainsi mené une expérience de pilotage automatique capable de faire évoluer une automobile bardée de capteurs sur les routes de Californie et les rues de San Francisco sans l’aide d’un pilote, mais juste par le biais de données captées dans son environnement, analysées et croisées avec des données cartographiques. Plus de 500 000 kilomètres couverts par ces véhicules laboratoires et un seul accident déclaré… par la faute d’une erreur humaine. De telles expériences laissent à penser que la science-fiction est déjà une réalité pour certains.

Et la ville augmentée

Au-delà des sujets propres au trafic urbain, les objets communicants peuvent contribuer aussi à un enrichissement de la cartographie et de la connaissance de nos modes de vie en centre-ville. Les données qu’ils produisent sont un corpus considérable pour permettre de connaître puis d’optimiser les flux parfois complexes qui cadencent les milieux urbains.

« La masse considérable de données que produisent ces objets et ces espaces, devenus communicants, peut représenter une menace pour la vie privée, voire pour les libertés. Mais dans un environnement urbain, elle peut aussi, une fois agrégée (et anonymisée), permettre de saisir en continu le pouls de la ville », nous indique Fabien Eychenne, chef de projet à la Fondation Internet Nouvelle Génération. « Une fois mises en perspective de manière collective et généralement représentées sur un fond cartographique, ces données individuelles permettent de décrypter les dynamiques urbaines d’une manière totalement nouvelle, et éventuellement en temps réel. »

Smart-grids et gestion de l’énergie

Enfin, au-delà du seul domaine d’analyse urbaine, la ville communicante est le cadre d’enjeux considérables liés à l’optimisation des consommations d’énergie, cruciale pour notre avenir. Ce principe, symbolisé par la notion anglo-saxonne de smart-grids (ou réseau intelligent de transport de l’électricité) vise à faire converger l’univers des réseaux d’information et ceux de l’énergie dans le but de répondre aux objectifs de développement durable auxquels de nombreuses grandes villes doivent désormais répondre.

« On va aller de plus en plus vers la régulation de l’énergie par l’information », affirme Joël de Rosnay, grand défenseur du principe de smart-grids. Le “nuage” va aider à réguler l’énergie entre l’offre et la demande (…)La production d’énergie va se décentraliser de plus en plus avec les énergies renouvelables (…), de plus en plus de gens vont revendre leur électricité, produite en surplus, sur le réseau. »

Interconnecter les informations pour connaitre les besoins

Les enjeux résident dans la capacité à connaître et remonter les informations sur les habitudes de consommation des foyers et de mettre en contact les offreurs et les demandeurs d’énergie en temps réel, ainsi que dans l’aptitude à réguler le mix énergétique entre les énergies fossiles et renouvelables, centralisées et décentralisées. Pour cela, des objets communicants tels que les compteurs électriques, les appareils de chauffage, les capteurs thermostatiques disséminés dans la ville, les bâtiments à énergie positive, les véhicules électriques rentrent en scène et ont un rôle crucial. Leur interconnexion offrira la possibilité de connaître, croiser, mesurer et communiquer en temps réel les besoins du marché, avec une granularité allant de la centrale thermique conventionnelle à la maison individuelle.

Risques et opportunités

Considérées comme une chance pour un avenir durable, de telles expériences font toutefois miroiter l’éternelle menace d’une prise de contrôle de nos modes de vie par les machines et la part laissée à l’avenir à l’intégrité des données personnelles dans un environnement où tout est tracé, capté, analysé et enregistré. Plus encore que la désincarnation de l’information, la dissimulation des capteurs dans les objets pose ni plus ni moins la question à terme du contrôle des émissions par les citoyens et, au travers d’eux, la société tout entière.

Des contenus qui n’ont jamais été aussi sensibles

Danger piratageL’omniprésence des contenus comme celle d’Internet nous plongent droit dans un scénario de science-fiction. Elles présentent de manière évidente son côté obscur et soulève de nombreuses questions tout à fait représentatives de l’avenir des TIC. Si autant d’informations personnelles circulent autour de nous, on peut raisonnablement s’interroger sur la garantie de notre intégrité numérique. Mes données confidentielles sont-elles réellement distinctes, dans cette nébuleuse de contenus, de celles que je souhaite partager avec le reste du monde ? Quel est le pouvoir de l’entreprise qui héberge mes données ? Qu’adviendrait-il si une main experte autant que mal intentionnée s’appropriait l’intégralité des ces informations ? Et que deviennent mes contenus personnels dans le cas où l’entreprise prestataire venait à disparaître, voire à être rachetée par une tiers ?

Peut-on contrôler l’incontrôlable ?

La bataille du cloud-computing se fera donc à la fois sur le terrain technologique, mais aussi sur celui de la confiance et de la sécurité. D’autant plus que ce terrain est désormais mondial et que l’utilisateur ne réside plus forcément dans la même partie du monde que le serveur dans lequel son service est hébergé. « Les clients veulent vraiment que des mesures concrètes soient prises (…) spécialement en matière de sécurité et de respect de la vie privée », nous dit Brad Smith(1), directeur général adjoint de Microsoft, en charge des affaires juridiques. Partant d’un postulat qu’« un client qui vit en France et se sert d’un service de Cloud qui est basé (…) en Irlande (…) il est souvent difficile de savoir si nous sommes censés appliquer le droit français, la loi britannique, ou le droit irlandais ». Un terrain juridique relatif aux mesures de sécurité et à la protection des données qui sera une priorité juridique pour les États si l’on veut que les questions de responsabilité et de sécurité ne deviennent pas un frein au développement des services en Cloud.

La bataille de le confiance

Une étude menée par Sterling Commerce, filiale d’IBM sur les marchés du Royaume-Uni, de l’Allemagne et de la France confirme que la sécurité des services dans le Cloud est le critère le plus important pour 65 % des répondants. Des chiffres régulièrement révisés selon l’actualité des attaques prodiguées à l’encontre de services riches en contenus personnels, comme peuvent l’être Facebook ou Twitter, d’institutions comme le Département de la Défense américain ou le ministère de l’Économie et des Finances en France. Autant d’affaires qui conduisent le citoyen à considérer l’informatique en nuage avec prudence et posent la question de la responsabilité qu’ont désormais quelques acteurs à détenir des informations dont ils ne sont que dépositaires sans en être propriétaires.

Le spectre du Big Brother plane sur les contenus

Quelques premières expériences ont déjà vu des utilisateurs de services en nuage disparaître de toute vie numérique par une « simple » mauvaise manipulation du prestataire effaçant toutes les données stockées en ligne. La marque Kiabi s’est ainsi vu effacer, sans autre forme de procès, son compte Facebook et tous ses fans par la firme de Palo-Alto pour non-respect de ses conditions générales de vente. Et que penser de la suppression « de force », à distance et sans accord préalable, en juillet 2009, des versions téléchargées de l’œuvre 1984 de George Orwell que certains utilisateurs avaient chargée sur leur Kindle ? Une preuve de plus que le mythe du Big Brother prenant le contrôle de nos contenus s’immisce dans nos réalités. Ainsi en est-il du très retentissant (et très médiatique) piratage des données du PlayStation Network de Sony, un espace communautaire, concentré d’informations personnelles de presque 75 millions d’utilisateurs dans le monde habitués à jouer en ligne, mais aussi à acheter des jeux, des films ou de la musique. Mis au pied du mur par les médias et la blogosphère, Sony a été obligé de faire amende honorable et de reconnaître que les données personnelles telles que les nom, adresse de facturation et de livraison, adresse e-mail, date de naissance, mot de passe et login PlayStation Network/Qriocity, pseudo de joueur en ligne ainsi que les données confidentielles de cartes de crédit ont bel et bien été piratées et sont désormais dans la nature. Une affaire qui a eu pour impact direct la perte d’un volume considérable d’informations, qui obligera à suspendre le service en ligne au niveau mondial durant plusieurs semaines et qui a couté environ 121 millions d’euros à la firme japonaise. Elle conduira surtout à dégrader l’image de Sony et à jeter le discrédit sur la fiabilité du service et la sécurité des hébergements en Cloud.

Jusqu’ici, tout va bien

Les exemples tels que celui-ci sont aujourd’hui légion. Ils restent, pour le moment, des cas d’école pour la plupart d’entre eux, dans le sens où les données personnelles ne sont pas exploitées à des fins frauduleuses de grande ampleur. Mais qu’adviendra-t-il dans un prochain cas où les hackers présumés ne se contenteront pas de faire un exemple ?

Le cloud conputing : la tête dans le contenu

Cloud-ComputingL’émergence de l’omni-connexion comme norme a peu à peu donné naissance à une nouvelle façon d’imaginer le stockage des données numériques. Les usages de portabilité voulant qu’aujourd’hui on puisse avoir accès aux mêmes contenus de son desktop, son mobile, sa télévision ou sa box conduisent nécessairement à un besoin de stockage centralisé sur des serveurs non plus locaux mais désormais distants et partagés. Donnant naissance à un nouveau terme qui concentre aujourd’hui l’attention de nombreux industriels, tant les enjeux qui en découlent sont colossaux : le cloud-computing, ou informatique en nuage en (mauvaise) traduction française.

Les enjeux économiques du cloud-computing

D’un point de vue purement académique, le National Institute of Standards and Technology en délivre la définition suivante : « Le cloud-computing est un modèle pratique, à la demande, permettant d’établir un accès par l’intermédiaire du réseau à un réservoir de ressources informatiques partagées et configurables (réseau, serveurs, stockage, applications et services) pouvant être rapidement mobilisées et mises à disposition en réduisant au minimum les efforts de gestion ou les contacts avec le fournisseur de service. » Une étude menée par le cabinet IDC estime que la croissance annuelle des investissements mondiaux dans les services en Cloud, qui représentent 17 milliards de dollars en 2009, devraient croître à un rythme de 25 % par an pour atteindre, en 2013, 44 milliards de dollars, soit 10 % des investissements totaux.

Stockage et exploitation en ligne

Innovation technologique pour certains, « simple » nouvelle façon de délivrer du contenu numérique pour d’autres, il n’en reste pas moins que le concept de cloud-computing est une révolution dans le sens où il est une nouvelle manière de penser le Net. Rendu techniquement possible une fois de plus d’abord par la généralisation du haut débit, il regroupe essentiellement deux domaines d’usages : l’archivage des données à distance, tout d’abord, permettant au matériel, comme les tablettes, de s’affranchir des lourds, encombrants et fragiles périphériques de stockage. La mutualisation et l’exploitation de ressources logicielles en ligne, ensuite, avec l’émergence des modes SaaS (Software as a service), PaaS (Platform as a service) ou IaaS (Infrastructure as a Service) et la création de services distants comme Zoho, Salesforce, iCloud ou Google drive.

Les premiers ordinateurs « cloud ready »

Cette double innovation permet à l’entreprise comme au particulier de ne plus avoir à se préoccuper de la notion de matériel, de puissance de calcul, de mise à jour logiciel ni de volume de stockage puisque tout est alors à la demande et du ressort du prestataire. Google, qui a présenté son Chromebook en 2011, un ordinateur ayant pour unique logiciel préinstallé le navigateur Chrome, reprend à son compte cette philosophie de l’information désincarnée. Google fait de son ordinateur un simple terminal interchangeable, tous les contenus et les systèmes d’exploitation étant stockés à distance sur l’espace personnel de l’internaute. « La complexité pour gérer l’ordinateur torture vraiment les utilisateurs », a déclaré Serge Brin, cofondateur de Google, le jour de la présentation à la presse. « C’est un mauvais modèle, les ordinateurs Chrome sont un nouveau modèle, qui ne fait pas reposer sur vous le fardeau de la gestion de l’ordinateur.» Un principe qui ouvre la porte à l’ordinateur « jetable » et autorise la mise en place d’espaces de travail partagés, avec des logiciels enfin compatibles entre eux puisque mis en commun sur un serveur distant, et des contenus tracés, mutualisés et stockés sur un espace partagé et externalisé. Des évolutions qui ont autant d’influence sur les domaines budgétaires, de traçabilité ou de sécurisation des données.

Des contenus ubiquitaires et omni-présents

La vraie innovation du cloud-computing est pourtant ailleurs. Elle est une nouvelle façon de concevoir Internet non plus comme un domaine limité à la surface de nos écrans, aussi perfectionnés soient-ils, mais à la conquête d’une nouvelle dimension : celle de l’espace qui nous entoure. Les contenus, de manière ubiquitaire, sont désormais présents partout, nous accompagnent, se génèrent de manière quasi automatique par le biais des contributions des internautes, s’augmentent d’informations virtuelles au fur et à mesure que nous laissons des traces de notre passage sur tel ou tel service en ligne. Ils deviennent disponibles à tout moment, aussi simplement que l’eau ou l’électricité au domicile. C’est ce que Joël de Rosnay, écrivain scientifique, prospectiviste et conseiller de la présidence de la Cité des Sciences qualifie d’« écosystème informationnel ».

Un environnement de contenus

Le cloud-computing va ainsi permettre l’émergence, au sens propre comme au figuré, d’un « environnement cliquable », une base de données universelle dans laquelle nous serions en permanence baignés. « Internet va devenir intuitif, comme fonctionne notre cerveau. Il va tenir compte des visites que l’on a faites avant, tenir compte des trajectoires, tenir compte du profil pour proposer des liens. » La dématérialisation de l’information hébergée dans le « nuage » (c’est-à-dire, en définitive, nulle part) permettra de « construire » une personnalité numérique pour chacun et d’ouvrir la voie à un véritable univers parallèle et virtuel, composé de données personnelles, de tags, d’informations affinitaires, de renseignements contextuels qui sera accessible via nos terminaux mobiles, qui nous servent pour l’instant de porte d’accès à ce monde numérique. Le smartphone symbolise aujourd’hui la clé d’accès permanente à ces données « en nuage ». Il est l’outil qui décrypte notre environnement numérique et transporte de plus en plus notre propre profil (via nos répertoires, nos photos, nos playlists, nos tags, etc.). Il va sans doute encore évoluer dans ce sens. « Il y aura une constellation d’informations qui permettront de véritables web services entre les entreprises pour les particuliers et pour les entreprises », précise Joël de Rosnay. On conçoit en effet aisément les avantages que pourront tirer les entreprises d’un tel profilage pour proposer, par la suite, des contenus et des services hyper-ciblés…