Et demain, quelle techno ?

Et demain quelle technoTenter de prévoir l’avenir dans le domaine de la technologie, du matériel ou des solutions logicielles tient de la futurologie et beaucoup s’y sont cassé les dents. On se souvient de l’engouement pour Second Life à la fin de la première décennie 2000 et son foisonnement d’avatars, de campagnes de communication et de monnaie virtuelle qui nous prévoyait un avenir dans un monde parallèle, numérique et fantasmé. Quelques années plus tard, Second Life existe toujours mais appartient au passé.

Une meilleure intégration homme/machine

Pourtant, s’il fallait retenir quelque chose de cette expérience, c’est une meilleure conceptualisation d’une certaine forme de virtualisation. En reprenant les tendances qui ont marqué l’univers de l’information depuis ses origines, on constate une propension à la miniaturisation, puis à l’ergonomie pour rendre l’accès aux contenus de plus en plus simple et naturel. Le succès de Siri, la commande vocale intégrée sur l’iPhone capable d’interpréter une information formulée de manière complexe, est un exemple de simplification des relations homme/machine. Elle devrait être la solution succédant à notre antique télécommande. La révolution Kinect, lancée par Microsoft sur sa console Xbox 360 est, d’autre part, un premier succès commercial probant pour un système s’affranchissant désormais de toute interface entre le corps humain et la machine. Quintessence de l’interaction parfaite entre l’homme et la machine, les ingénieurs d’IBM étudient même certaines pistes de bio-informatique permettant de connecter directement le cerveau humain aux ordinateurs pour permettre de les commander. Des expériences déjà opérationnelles pour certaines actions simples comme changer de chaîne de télévision ou bouger un curseur sur un écran.

L’écran d’ordinateur, dernier rempart

De l ’ordinateur au smartphone, de la télévision à la tablette numérique, l’écran reste véritablement le dernier rempart duquel nous ne sommes pas parvenus à nous affranchir. Il s’est miniaturisé, s’est aplati, s’est fait tactile, s’est séparé de son clavier ou de sa lourde unité centrale, s’est libéré des connexions filaires peu pratiques, mais il reste toujours le médium nécessaire pour porter le contenu et permettre l’interaction avec l’utilisateur. Et même s’il est le support à un monde virtuel, il n’en reste pas moins la dernière incarnation du monde réel. De nombreux constructeurs comme Sony ou Toshiba cherchent à rendre cet écran le plus ergonomique possible et ont d’ores et déjà présenté des solutions d’écrans souples, pliables, qui seraient aussi pratiques et faciles à transporter qu’un quotidien ou un magazine. Selon la société de conseil iSuppli, le marché émergent en 2007 était évalué à 80 millions de dollars. Il devrait passer à 2,8 milliards de dollars en 2013. Mais un écran, même souple, reste toujours une entrave.

Sixth Sense : l’intégration totale

De ce fait, tout laisse à penser que la prochaine révolution portera sur la disparition des interfaces qui restent le chaînon encombrant entre l’individu et le monde numérique. Une équipe de recherche du prestigieux Media Lab du Massachusetts Institute of Technology (MIT) travaille actuellement sur le projet Sixth Sense, un système appliqué d’interface permettant de transformer toutes les surfaces qui nous entourent en support de l’information ou d’interaction. Ce projet se passe de souris ou d’écran et permet de commander à distance les informations projetées par de simples gestes des doigts. Le mur, la table ou le rayon de supermarché deviennent ainsi un support aux contenus. « Depuis le début, je travaille au projet de fusionner le monde physique avec le monde digital », nous dit Pranav Mistry, l’inventeur du système. Le projet Sixth Sense a remporté en 2009 le prix de l’invention de l’année décerné par le magazine américain Popular Science et ouvre la porte aux systèmes informatiques ubiquitaires totalement intuitifs. Ces derniers permettront à notre environnement direct de devenir le support à l’information grâce à une projection en réalité augmentée.

Eye-tracking et hologrammes

Évidemment, dans la même logique, il est tentant d’intégrer au corps humain certaines capacités de communiquer et d’interagir directement avec les machines. Les applications militaires ont déjà développé le système d’eye-tracking pour les casques des pilotes de chasse, permettant une assistance aux commandes par la seule détection du mouvement de la rétine. Plus fort, une équipe de chercheurs de l’université de Washington travaille à une lentille oculaire truffée de circuits intégrés miniaturisés permettant d’afficher directement l’information devant les yeux. Le monde du spectacle, enfin, participe au développement d’un grand classique de la science-fiction : la représentation holographique. Le groupe allemand Tokyo Hotel a marqué les esprits et l’époque en se produisant en 2009 sous forme d’hologramme sur une scène parisienne. La marque de prêt-à-porter américaine Forever 21 a, pour sa part, créé l’événement fin 2011 en faisant défiler sur ses podiums les premiers mannequins hologrammiques. Une technique innovante qui permet aujourd’hui d’envisager la projection d’informations dynamiques en trois dimensions où que ce soit.

Vers une vision augmentée

Tous ces exemples nous portent à croire que l’avenir technologique convergerait vers ce que Robert Rice qualifie de « vision augmentée ».

« Nous devons rompre avec nos écrans pour aller vers des systèmes d’affichages légers, transparents et portables (comme des lunettes) », nous dit-il. « Dès lors que la réalité augmentée devient vision augmentée, elle est immersive. L’expérience tout entière se transforme immédiatement en quelque chose de plus significatif, contextuel et personnel. C’est quelque chose de radical et qui change tout. Comme je l’ai déjà dit, ce sera la prochaine évolution pour les médias. Presse, radio, télévision, Internet, réalité augmentée (ou vision). »

Géolocalisation, réalité augmentée et hyper-localisation des contenus

GéolocalisationÀ en croire une étude du cabinet Berg Insight, 560 millions de téléphones mobiles étaient équipés de GPS en 2012. La géolocalisation, autre avancée technologique majeure qui était, il y a peu, l’apanage de l’industrie militaire, quitte donc le seul cadre du champ de bataille pour conquérir celui de nos smartphones et transformer notre relation à l’espace. Dans la logique du développement du cloud-computing, l’avènement de la géolocalisation conduit nos terminaux mobiles à devenir autant de décrypteurs des contenus numériques qui nous entourent. La capacité de pouvoir se situer dans l’espace donne accès, aujourd’hui, à une information immédiate de proximité. Certaines expériences dans ce domaine commencent à voir le jour. SFR, via sa régie publicitaire, a récemment lancé une solution permettant aux annonceurs d’envoyer un lien (via SMS) sur les téléphones mobiles de ses clients, dès lors qu’ils se trouvent dans un rayon de 200 mètres autour d’un point de vente. D’autres expériences, menées par Google et baptisées Google Adwords Express, permettent d’offrir aux annonceurs une meilleure visibilité grâce à l’affichage de liens géolocalisés et profilés dans les résultats de recherche d’adresses sur son moteur de recherche. Des améliorations technologiques pour certains. De nouveaux risques d’incursion dans la vie privée pour d’autres, comme le prouve la fronde des associations anti-pub en réaction à la mise en place dans les couloirs du métro parisien de panneaux publicitaires équipés de caméras captant et analysant les comportements des voyageurs et délivrant, par bluetooth, du contenu multimédia sur le téléphone mobile de l’usager. Quoi qu’il en soit, la publicité géolocalisée plurimédia n’en est qu’à ses prémices et est promise à un développement rapide et à une concurrence exacerbée depuis le rachat, en 2010 par Google, de la régie spécialisée dans le mobile AdMob et de Quitto Wireless par Apple.

Immersion en réalité augmentée

Dans le même temps est apparue la notion de réalité augmentée, principe selon lequel certaines informations virtuelles se superposent, en temps réel, à une image existante. On explore désormais le réel via une information complémentaire ajoutée au contexte qui nous donne une autre clé de lecture de notre environnement immédiat. Ainsi, une expérience menée par la ville d’Amiens permet au portail de la cathédrale de retrouver les fastes polychromes d’antan, grâce à une application permettant de superposer les décors originels au bâtiment. « Les applications vont sans doute un peu quitter le monde pur du digital marketing pour aller vers des applications “plus sérieuses” », nous dit Olivier Audouze, responsable marketing de la société Total Immersion, une start-up française spécialisée dans le développement de solutions en réalité augmentée. Des applications qui s’étendent désormais sur des secteurs aussi divers que la médecine, l’industrie, le jeu, le prêt-à-porter, l’architecture ou le tourisme. La réalité augmentée est promise à un développement rapide et rend la frontière séparant le réel du virtuel de plus en plus ténue.

Cartographie et représentation dans l’espace

Enfin, l’arrivée massive et en libre accès des fonds cartographiques et photographiques de services tels que Google Maps ou Mappy servent aujourd’hui de supports à un nombre croissant d’informations, de services et de contenus consultables par tous et s’enrichissent au fur et à mesure que les contributeurs les augmentent d’informations pratiques, personnelles ou commerciales. La généralisation de la cartographie est aujourd’hui un terrain de jeu sur lequel les applications de réalité augmentée, principe selon lequel on superpose en temps réel des contenus virtuels à une image existante, ont trouvé un terreau idéal pour se développer.

Mobile + réalité augmentée + cartographie = ?

La convergence de ces trois grandes tendances, associée à la capacité de traitement des terminaux mobiles, conduit aujourd’hui à une virtualisation en temps réel de notre environnement et à une contextualisation immédiate des contenus. « L’appareil mobile devient un prisme au travers duquel nous avons la sensation de voir le monde constitué de différents calques remplis d’informations, de données et de visualisations », nous dit Robert Rice, président de l’AR Consortium et grand chantre de la réalité augmentée. Certaines expériences, comme Wikitude de Mobilizy, Street view de Google ou UrbanDive du Groupe PagesJaunes sont une remarquable synthèse des différentes technologies embarquées. Elles permettent, par l’intermédiaire d’un terminal mobile, d’obtenir une vue immersive par géolocalisation affichant, en réalité augmentée, une information locale, éventuellement personnalisée en fonction de ses accointances issues du croisement de ses informations personnelles, voire de celles liées à son réseau et à son cercle de relations connectées. On peut y découvrir, en temps réel, des contenus hyper-contextualisés, comme des informations touristiques, les menus de restaurant, des horaires de transport en commun ou de cinéma ou les promotions du revendeur de sa marque de vêtement préférée. Une aubaine dans laquelle le marketing s’est aujourd’hui engouffré.

Géolocalisation et m-commerce

Disons-le, si aujourd’hui les applications de géolocalisation et de réalité augmentée prennent leur essor, c’est essentiellement dans le domaine du marketing et du m-commerce que les innovations percent. Avec une tendance qui rejoint étonnamment celle guidée par l’urbanisme d’un retour aux centres-villes, à l’hyper-localisation et à la relation de proximité.

Les applications : les contenus pris en otage ?

Wired - The Web is DeadLa révolution technologique ne concerne pas seulement le matériel informatique en tant que tel. Elle impacte désormais le mode de développement des solutions logicielles. En septembre 2010, le magazine américain Wired avait marqué les esprits en titrant à sa Une « The Web is dead ». Sous ce titre volontairement provocateur se cachait un constat : le World Wide Web, système délivrant des contenus par le biais d’un navigateur, est de plus en plus concurrencé par des applications captives et des plateformes collaboratives fonctionnant en quasi-circuit fermé. Le développement du marché des supports nomades semble désormais donner raison au magazine : selon toute vraisemblance, le Web que nous pensions immuable est en train de décliner au profit d’un nouveau modèle !

Mort du web et nouveaux usages du mobile

Cette hypothèse est réaffirmée par les chiffres relatifs aux usages. L’Internet mobile est désormais promis à être la première source d’accès aux contenus numériques, avec la généralisation des smartphones et le développement des tablettes. Une enquête menée par Nielsen en 2011 confirme que 67 % des consultations des contenus se font déjà principalement par le biais d’applications dédiées. L’utilisation de ces applications occupe 56 % de l’activité sur un terminal mobile alors que 19 % concerne les courriels, 15 % les appels téléphoniques et seulement 9 % la navigation sur le Web. Cette transformation ne pourrait être qu’une nouvelle mutation des usages sans impact réel sur les contenus et leur mode de consultation si elle n’impliquait pas un nouveau modèle économique pour les acteurs du secteur.

Apple le dictateur

Cette évolution cache en effet une rupture importante pour les producteurs de contenus, qui n’avaient pas encore totalement digéré la mutation imposée par le Web. Le développement des solutions mobiles sous forme d’applications implique désormais une dépendance des éditeurs aux conditions fixées par les diffuseurs. Apple avait déjà lancé un pavé dans la mare en rendant le format Flash® d’Adobe incompatible avec son iOS, le système d’exploitation mobile spécifique à l’iPhone. Désormais, le développement des applications pour systèmes mobiles a des impacts bien pires. Tout d’abord parce que la multiplication des systèmes d’exploitation (iOS/Apple, Android/ Google, Bada/Samsung, Windows mobile/Microsoft, Symbian/Nokia pour les plus répandus) contraint les éditeurs à développer des applications spécifiques à chaque support, avec les implications financières non négligeables que cela peut augurer. On estime en effet le coût de développement d’une application pour la presse en ligne entre 40 000 et 100 000 euros pour le seul iOS d’Apple. Ensuite, parce que la généralisation de ces applications impose des contraintes fixées par les fabricants, auxquelles les éditeurs doivent se soumettre s’ils veulent avoir le privilège d’accéder aux plateformes de diffusion que sont les terminaux mobiles. Apple impose ainsi à tout titre de presse souhaitant diffuser ses contenus via l’App Store une commission de 30 % sur le prix de vente. La position prédominante de l’iPad dans ce domaine, pour le moment, oblige les éditeurs à se plier à cette loi s’ils souhaitent avoir accès à un lectorat encore émergent, mais qu’il est urgent de séduire à ce stade du développement de la presse en ligne.

Intégration verticale et modèle fermé

Tout porte à croire, par ailleurs, avec le rachat par Google en août 2011 de la firme Motorola Mobility, que le géant de Mountain View souhaite à l’avenir imiter la stratégie d’intégration verticale d’Apple en contrôlant l’intégralité de la chaîne de diffusion des contenus, de l’offre au support en passant par le système d’exploitation. Si on rajoute à cela le fait qu’Apple contrôle soigneusement et systématiquement toutes les applications qui lui sont proposées par les développeurs sur son App Store, on rentre de plain-pied dans un modèle totalement fermé, contrôlé par les principaux acteurs du secteur, qui est désormais aux antipodes de l’espace de liberté et d’énergie créative que représentait jusqu’alors l’esprit du Web.

Un modèle à deux vitesses

Ce constat fut celui de la journaliste Virginia Heffernan, dans un article publié dans le New York Times intitulé « La fin du Web ouvert », qui fait étrangement écho à celui de Wired. Elle y fait une analogie entre ce qui se passe pour les contenus sur le Web et les migrations de population dans les villes.

« Le Web est une zone commerciale grouillante. Son organisation est faite de bric et de broc et les témoignages de la dégradation de son organisation abondent au travers du nombre de liens rompus et des projets abandonnés existants. Les programmes malveillants et les spams ont transformé certains secteurs en zones incertaines et insalubres. (…) Aujourd’hui, par l’intermédiaire de l’achat d’un iPhone ou d’un iPad, il existe un moyen d’en sortir, une banlieue ordonnée qui vous permet de goûter aux opportunités du Web sans pour autant avoir à vous mélanger avec la racaille. Cette banlieue est délimitée par les applications de l’éclatant App Store : de jolies maisons soignées, loin du centre-ville du Web, sur les hauteurs immaculées du quartier Apple. Au travers de la migration des contestataires du Web “ouvert” vers les applications coûteuses et sélectives, nous assistons à une décentralisation urbaine vers les banlieues résidentielles. »

L’auteur témoigne, au travers de ce texte, d’une certaine forme de ségrégation s’installant dans la manière d’accéder aux contenus numériques. En bas, le bazar du Web, composé de tout et de n’importe quoi et dans lequel l’utilisateur doit se débattre. En haut, la boutique chic et bien décorée, où le vendeur vous accueille avec le sourire mais qui n’est accessible qu’aux plus fortunés.

« Quand un mur est érigé, l’espace réservé que vous avez dû payer pour y accéder doit, pour justifier le prix, être plus beau que ceux qui sont gratuits. Le terme clé employé par les développeurs est “une meilleure expérience utilisateur.” (…) Au final, tout est une question de perception : beaucoup d’applications sont au Web ce que l’eau en bouteille est à celle du robinet : une nouvelle façon inventive de décanter, présenter et tarifer une chose qui pouvait être auparavant gratuite. »

Un nouveau paradigme habilement piloté par les firmes industrielles qui en tirent des revenus conséquents et un meilleur contrôle sur les producteurs de contenus, mais dont la particularité est de donner l’impression d’avoir été voulu en masse par les utilisateurs eux-mêmes. « Je vois pourquoi les gens ont fui les villes, et je vois pourquoi ils sont en train de déserter le Web ouvert. Mais je pense que nous pourrions aussi, un jour, le regretter », conclut Virginia Heffernan.

Objets communicants et environnement « intelligent » : vers une Smart Society

Puce RFIDObjets inanimés, avez-vous donc une âme ? Si la capacité des ordinateurs à communiquer entre eux a été un événement technologique fondateur de la révolution numérique, force est de constater que le réseau a plutôt servi, jusqu’à présent, à relier les êtres humains entre eux et à les assister dans leurs relations et leurs échanges. Tout au plus a-t-il permis de faciliter le transport de l’information et (ce qui n’est pas rien) à changer nos usages. Mais l’homme reste jusqu’à présent intrinsèquement la finalité de ces échanges, qu’il soit du côté émetteur ou récepteur.

Le contenu dans son plus simple appareil

Un nombre croissant d’objets de la vie quotidienne embarque désormais un matériel électronique offrant la capacité de communiquer avec son environnement en diffusant ou captant des données ou en analysant l’information dans le but d’adapter leurs comportements. Ces données leur permettent d’interagir, en utilisant souvent le même protocole que le Web, sans que l’homme n’ait forcément un quelconque rôle d’arbitrage dans cette initiative. La machine acquiert son autonomie en termes de communication et enrichit par là même l’« éco-système informationnel » qui nous entoure. Nous sommes entrés, avec les objets communicants, dans l’ère des contenus dans leur plus simple appareil, c’est-à-dire en tant que seules données binaires interprétées par les machines elles-mêmes. L’émergence du marché du M2M (ou Machine to Machine) est la promesse de nouveaux leviers de développement économiques et s’inscrit dans la continuité du développement d’une information omniprésente dans notre environnement, dans la même logique que celle du cloud-computing, dont elle fait d’ailleurs intégralement partie.

Les puces embarquées

D’un point de vue opérationnel, cela se traduit par le développement des technologies de radio-identification, symbolisée aujourd’hui par les puces RFID (Radio Frequency IDentification) ou NFC (Near Field Communication) embarquées dans des produits aussi divers que nos réfrigérateurs, nos pèse-personnes, nos automobiles, nos bicyclettes, nos piluliers, nos cartes de transport, nos téléphones, et des objets aussi hétéroclites que les arbres de nos villes, des colliers pour chiens ou des pierres tombales. La liste des applications est aujourd’hui déjà longue mais tout porte à croire que nous ne sommes qu’aux prémices et que demain, tout ce qui présente un intérêt à être connecté le sera. « Tous les produits industriels peuvent aujourd’hui incorporer une puce électronique », nous dit Rafi Haladjian, pionnier de l’Internet des objets avec l’invention de Nabaztag, le premier lapin communicant, et plus récemment créateur de la société Sen.se, une plateforme de développement de systèmes visant à connecter tous les objets entre eux. « Aujourd’hui, si même les lapins peuvent être connectés, n’ importe quoi sous le soleil peut être connecté à Internet », se plaît-il à rappeler.

La ville communicante

Dans les faits, les applications aujourd’hui disponibles touchent autant les domaines de la santé que ceux de l’habitat, des transports, de l’habillement ou de la sécurité. Le développement des objets communicants impacte aussi profondément la vision de la ville de demain. Google a ainsi mené une expérience de pilotage automatique capable de faire évoluer une automobile bardée de capteurs sur les routes de Californie et les rues de San Francisco sans l’aide d’un pilote, mais juste par le biais de données captées dans son environnement, analysées et croisées avec des données cartographiques. Plus de 500 000 kilomètres couverts par ces véhicules laboratoires et un seul accident déclaré… par la faute d’une erreur humaine. De telles expériences laissent à penser que la science-fiction est déjà une réalité pour certains.

Et la ville augmentée

Au-delà des sujets propres au trafic urbain, les objets communicants peuvent contribuer aussi à un enrichissement de la cartographie et de la connaissance de nos modes de vie en centre-ville. Les données qu’ils produisent sont un corpus considérable pour permettre de connaître puis d’optimiser les flux parfois complexes qui cadencent les milieux urbains.

« La masse considérable de données que produisent ces objets et ces espaces, devenus communicants, peut représenter une menace pour la vie privée, voire pour les libertés. Mais dans un environnement urbain, elle peut aussi, une fois agrégée (et anonymisée), permettre de saisir en continu le pouls de la ville », nous indique Fabien Eychenne, chef de projet à la Fondation Internet Nouvelle Génération. « Une fois mises en perspective de manière collective et généralement représentées sur un fond cartographique, ces données individuelles permettent de décrypter les dynamiques urbaines d’une manière totalement nouvelle, et éventuellement en temps réel. »

Smart-grids et gestion de l’énergie

Enfin, au-delà du seul domaine d’analyse urbaine, la ville communicante est le cadre d’enjeux considérables liés à l’optimisation des consommations d’énergie, cruciale pour notre avenir. Ce principe, symbolisé par la notion anglo-saxonne de smart-grids (ou réseau intelligent de transport de l’électricité) vise à faire converger l’univers des réseaux d’information et ceux de l’énergie dans le but de répondre aux objectifs de développement durable auxquels de nombreuses grandes villes doivent désormais répondre.

« On va aller de plus en plus vers la régulation de l’énergie par l’information », affirme Joël de Rosnay, grand défenseur du principe de smart-grids. Le “nuage” va aider à réguler l’énergie entre l’offre et la demande (…)La production d’énergie va se décentraliser de plus en plus avec les énergies renouvelables (…), de plus en plus de gens vont revendre leur électricité, produite en surplus, sur le réseau. »

Interconnecter les informations pour connaitre les besoins

Les enjeux résident dans la capacité à connaître et remonter les informations sur les habitudes de consommation des foyers et de mettre en contact les offreurs et les demandeurs d’énergie en temps réel, ainsi que dans l’aptitude à réguler le mix énergétique entre les énergies fossiles et renouvelables, centralisées et décentralisées. Pour cela, des objets communicants tels que les compteurs électriques, les appareils de chauffage, les capteurs thermostatiques disséminés dans la ville, les bâtiments à énergie positive, les véhicules électriques rentrent en scène et ont un rôle crucial. Leur interconnexion offrira la possibilité de connaître, croiser, mesurer et communiquer en temps réel les besoins du marché, avec une granularité allant de la centrale thermique conventionnelle à la maison individuelle.

Risques et opportunités

Considérées comme une chance pour un avenir durable, de telles expériences font toutefois miroiter l’éternelle menace d’une prise de contrôle de nos modes de vie par les machines et la part laissée à l’avenir à l’intégrité des données personnelles dans un environnement où tout est tracé, capté, analysé et enregistré. Plus encore que la désincarnation de l’information, la dissimulation des capteurs dans les objets pose ni plus ni moins la question à terme du contrôle des émissions par les citoyens et, au travers d’eux, la société tout entière.

Des contenus qui n’ont jamais été aussi sensibles

Danger piratageL’omniprésence des contenus comme celle d’Internet nous plongent droit dans un scénario de science-fiction. Elles présentent de manière évidente son côté obscur et soulève de nombreuses questions tout à fait représentatives de l’avenir des TIC. Si autant d’informations personnelles circulent autour de nous, on peut raisonnablement s’interroger sur la garantie de notre intégrité numérique. Mes données confidentielles sont-elles réellement distinctes, dans cette nébuleuse de contenus, de celles que je souhaite partager avec le reste du monde ? Quel est le pouvoir de l’entreprise qui héberge mes données ? Qu’adviendrait-il si une main experte autant que mal intentionnée s’appropriait l’intégralité des ces informations ? Et que deviennent mes contenus personnels dans le cas où l’entreprise prestataire venait à disparaître, voire à être rachetée par une tiers ?

Peut-on contrôler l’incontrôlable ?

La bataille du cloud-computing se fera donc à la fois sur le terrain technologique, mais aussi sur celui de la confiance et de la sécurité. D’autant plus que ce terrain est désormais mondial et que l’utilisateur ne réside plus forcément dans la même partie du monde que le serveur dans lequel son service est hébergé. « Les clients veulent vraiment que des mesures concrètes soient prises (…) spécialement en matière de sécurité et de respect de la vie privée », nous dit Brad Smith(1), directeur général adjoint de Microsoft, en charge des affaires juridiques. Partant d’un postulat qu’« un client qui vit en France et se sert d’un service de Cloud qui est basé (…) en Irlande (…) il est souvent difficile de savoir si nous sommes censés appliquer le droit français, la loi britannique, ou le droit irlandais ». Un terrain juridique relatif aux mesures de sécurité et à la protection des données qui sera une priorité juridique pour les États si l’on veut que les questions de responsabilité et de sécurité ne deviennent pas un frein au développement des services en Cloud.

La bataille de le confiance

Une étude menée par Sterling Commerce, filiale d’IBM sur les marchés du Royaume-Uni, de l’Allemagne et de la France confirme que la sécurité des services dans le Cloud est le critère le plus important pour 65 % des répondants. Des chiffres régulièrement révisés selon l’actualité des attaques prodiguées à l’encontre de services riches en contenus personnels, comme peuvent l’être Facebook ou Twitter, d’institutions comme le Département de la Défense américain ou le ministère de l’Économie et des Finances en France. Autant d’affaires qui conduisent le citoyen à considérer l’informatique en nuage avec prudence et posent la question de la responsabilité qu’ont désormais quelques acteurs à détenir des informations dont ils ne sont que dépositaires sans en être propriétaires.

Le spectre du Big Brother plane sur les contenus

Quelques premières expériences ont déjà vu des utilisateurs de services en nuage disparaître de toute vie numérique par une « simple » mauvaise manipulation du prestataire effaçant toutes les données stockées en ligne. La marque Kiabi s’est ainsi vu effacer, sans autre forme de procès, son compte Facebook et tous ses fans par la firme de Palo-Alto pour non-respect de ses conditions générales de vente. Et que penser de la suppression « de force », à distance et sans accord préalable, en juillet 2009, des versions téléchargées de l’œuvre 1984 de George Orwell que certains utilisateurs avaient chargée sur leur Kindle ? Une preuve de plus que le mythe du Big Brother prenant le contrôle de nos contenus s’immisce dans nos réalités. Ainsi en est-il du très retentissant (et très médiatique) piratage des données du PlayStation Network de Sony, un espace communautaire, concentré d’informations personnelles de presque 75 millions d’utilisateurs dans le monde habitués à jouer en ligne, mais aussi à acheter des jeux, des films ou de la musique. Mis au pied du mur par les médias et la blogosphère, Sony a été obligé de faire amende honorable et de reconnaître que les données personnelles telles que les nom, adresse de facturation et de livraison, adresse e-mail, date de naissance, mot de passe et login PlayStation Network/Qriocity, pseudo de joueur en ligne ainsi que les données confidentielles de cartes de crédit ont bel et bien été piratées et sont désormais dans la nature. Une affaire qui a eu pour impact direct la perte d’un volume considérable d’informations, qui obligera à suspendre le service en ligne au niveau mondial durant plusieurs semaines et qui a couté environ 121 millions d’euros à la firme japonaise. Elle conduira surtout à dégrader l’image de Sony et à jeter le discrédit sur la fiabilité du service et la sécurité des hébergements en Cloud.

Jusqu’ici, tout va bien

Les exemples tels que celui-ci sont aujourd’hui légion. Ils restent, pour le moment, des cas d’école pour la plupart d’entre eux, dans le sens où les données personnelles ne sont pas exploitées à des fins frauduleuses de grande ampleur. Mais qu’adviendra-t-il dans un prochain cas où les hackers présumés ne se contenteront pas de faire un exemple ?

Le cloud conputing : la tête dans le contenu

Cloud-ComputingL’émergence de l’omni-connexion comme norme a peu à peu donné naissance à une nouvelle façon d’imaginer le stockage des données numériques. Les usages de portabilité voulant qu’aujourd’hui on puisse avoir accès aux mêmes contenus de son desktop, son mobile, sa télévision ou sa box conduisent nécessairement à un besoin de stockage centralisé sur des serveurs non plus locaux mais désormais distants et partagés. Donnant naissance à un nouveau terme qui concentre aujourd’hui l’attention de nombreux industriels, tant les enjeux qui en découlent sont colossaux : le cloud-computing, ou informatique en nuage en (mauvaise) traduction française.

Les enjeux économiques du cloud-computing

D’un point de vue purement académique, le National Institute of Standards and Technology en délivre la définition suivante : « Le cloud-computing est un modèle pratique, à la demande, permettant d’établir un accès par l’intermédiaire du réseau à un réservoir de ressources informatiques partagées et configurables (réseau, serveurs, stockage, applications et services) pouvant être rapidement mobilisées et mises à disposition en réduisant au minimum les efforts de gestion ou les contacts avec le fournisseur de service. » Une étude menée par le cabinet IDC estime que la croissance annuelle des investissements mondiaux dans les services en Cloud, qui représentent 17 milliards de dollars en 2009, devraient croître à un rythme de 25 % par an pour atteindre, en 2013, 44 milliards de dollars, soit 10 % des investissements totaux.

Stockage et exploitation en ligne

Innovation technologique pour certains, « simple » nouvelle façon de délivrer du contenu numérique pour d’autres, il n’en reste pas moins que le concept de cloud-computing est une révolution dans le sens où il est une nouvelle manière de penser le Net. Rendu techniquement possible une fois de plus d’abord par la généralisation du haut débit, il regroupe essentiellement deux domaines d’usages : l’archivage des données à distance, tout d’abord, permettant au matériel, comme les tablettes, de s’affranchir des lourds, encombrants et fragiles périphériques de stockage. La mutualisation et l’exploitation de ressources logicielles en ligne, ensuite, avec l’émergence des modes SaaS (Software as a service), PaaS (Platform as a service) ou IaaS (Infrastructure as a Service) et la création de services distants comme Zoho, Salesforce, iCloud ou Google drive.

Les premiers ordinateurs « cloud ready »

Cette double innovation permet à l’entreprise comme au particulier de ne plus avoir à se préoccuper de la notion de matériel, de puissance de calcul, de mise à jour logiciel ni de volume de stockage puisque tout est alors à la demande et du ressort du prestataire. Google, qui a présenté son Chromebook en 2011, un ordinateur ayant pour unique logiciel préinstallé le navigateur Chrome, reprend à son compte cette philosophie de l’information désincarnée. Google fait de son ordinateur un simple terminal interchangeable, tous les contenus et les systèmes d’exploitation étant stockés à distance sur l’espace personnel de l’internaute. « La complexité pour gérer l’ordinateur torture vraiment les utilisateurs », a déclaré Serge Brin, cofondateur de Google, le jour de la présentation à la presse. « C’est un mauvais modèle, les ordinateurs Chrome sont un nouveau modèle, qui ne fait pas reposer sur vous le fardeau de la gestion de l’ordinateur.» Un principe qui ouvre la porte à l’ordinateur « jetable » et autorise la mise en place d’espaces de travail partagés, avec des logiciels enfin compatibles entre eux puisque mis en commun sur un serveur distant, et des contenus tracés, mutualisés et stockés sur un espace partagé et externalisé. Des évolutions qui ont autant d’influence sur les domaines budgétaires, de traçabilité ou de sécurisation des données.

Des contenus ubiquitaires et omni-présents

La vraie innovation du cloud-computing est pourtant ailleurs. Elle est une nouvelle façon de concevoir Internet non plus comme un domaine limité à la surface de nos écrans, aussi perfectionnés soient-ils, mais à la conquête d’une nouvelle dimension : celle de l’espace qui nous entoure. Les contenus, de manière ubiquitaire, sont désormais présents partout, nous accompagnent, se génèrent de manière quasi automatique par le biais des contributions des internautes, s’augmentent d’informations virtuelles au fur et à mesure que nous laissons des traces de notre passage sur tel ou tel service en ligne. Ils deviennent disponibles à tout moment, aussi simplement que l’eau ou l’électricité au domicile. C’est ce que Joël de Rosnay, écrivain scientifique, prospectiviste et conseiller de la présidence de la Cité des Sciences qualifie d’« écosystème informationnel ».

Un environnement de contenus

Le cloud-computing va ainsi permettre l’émergence, au sens propre comme au figuré, d’un « environnement cliquable », une base de données universelle dans laquelle nous serions en permanence baignés. « Internet va devenir intuitif, comme fonctionne notre cerveau. Il va tenir compte des visites que l’on a faites avant, tenir compte des trajectoires, tenir compte du profil pour proposer des liens. » La dématérialisation de l’information hébergée dans le « nuage » (c’est-à-dire, en définitive, nulle part) permettra de « construire » une personnalité numérique pour chacun et d’ouvrir la voie à un véritable univers parallèle et virtuel, composé de données personnelles, de tags, d’informations affinitaires, de renseignements contextuels qui sera accessible via nos terminaux mobiles, qui nous servent pour l’instant de porte d’accès à ce monde numérique. Le smartphone symbolise aujourd’hui la clé d’accès permanente à ces données « en nuage ». Il est l’outil qui décrypte notre environnement numérique et transporte de plus en plus notre propre profil (via nos répertoires, nos photos, nos playlists, nos tags, etc.). Il va sans doute encore évoluer dans ce sens. « Il y aura une constellation d’informations qui permettront de véritables web services entre les entreprises pour les particuliers et pour les entreprises », précise Joël de Rosnay. On conçoit en effet aisément les avantages que pourront tirer les entreprises d’un tel profilage pour proposer, par la suite, des contenus et des services hyper-ciblés…

On, off et mobile : l’omni-connexion devient le modèle

L’apparition du wi-fi, puis le développement du haut débit sans fil ont conduit à un nouveau mode de consommation de l’information. Parallèlement à ces nouveaux usages on assiste à l’émergence des smartphones avec un parc estimé à 104 millions d’unités dans les cinq principaux pays d’Europe en décembre 2011, soit 44 % de plus qu’en 2010. Les tablettes digitales commencent également à marquer leur territoire avec 3,4 millions d’unités vendues en France en 2012 et à devenir un marché sur lequel beaucoup de fabricants tentent de s’imposer. À tel point que, selon une étude menée par le Figaro, le nombre de tablettes vendues devrait dépasser celui des PC portables dès 2016, sacralisant le nomadisme comme tendance de fond.

De l’information subie à l’information choisie

Cette double tendance fait donc évoluer de manière fondamentale la manière d’accéder aux contenus, quels qu’ils soient. Hier « subie » dans son fauteuil, l’information vient aujourd’hui à soi, en quasi temps réel et sous toutes les formes. Aussi simplement que d’appuyer sur le bouton de sa télévision. De l’alerte colportée par les plateformes de flux RSS, les services de micro-blogging ou les messageries instantanées aux articles de fond proposés par la presse traditionnelle en passant par les programmes à la demande (VOD), ceux de rattrapage (TVReplay, Podcast), les contenus se contextualisent. L’omni-connexion les conduit à ne plus s’imposer mais à se décliner sur de multiples supports et à s’adapter à l’instant de vie, au moment propice, à l’opportunité, au besoin.

Contenu unique sur supports multiples

Les nouveaux usages font émerger ce qu’on a coutume d’appeler la délinéarisation de l’accès à l’information. Il faut comprendre par là la fin d’une information subie pour une information choisie. Une telle fonctionnalité rend ainsi possible de commencer à regarder un match de football sur son poste de télévision, de poursuivre sur son smartphone, voire à reprendre plus tard la diffusion sur son ordinateur de bureau par un système d’accès en différé et à la demande. Les applications se déclinent pour l’ensemble des médias. Le livre, la radio, la presse : l’omni-connexion permet de récupérer n’importe quel contenu à n’importe quel instant et de le consommer au moment le plus propice sur le support le plus adapté. Tout laisse à penser que ces usages s’ancrent dans la durée, puisque 59 % des enfants de 4 à 10 ans déclarent avoir déjà utilisé les services de catch-up TV. Cela représente une évolution majeure pour la plupart des producteurs de contenus qui sont aujourd’hui obligés de repenser leur mode de diffusion et de financement.

02-05-Techno-tag

Du papier au numérique : le chaînon nécessaire

Loin d’annoncer la fin des supports traditionnels, l’émergence des Flashcodes (ou QR codes ou encore tags 2D selon la technologie employée) permet d’assurer le chaînon manquant entre le monde du réel et celui du numérique. Cette technologie, directement liée au taux d’équipement de la population en smartphones, donne accès simplement, par le biais d’une application embarquée permettant la capture, à une source d’information complémentaire sur son téléphone en partant d’un support physique. Consacrant le papier comme un support de séduction alors que le numérique serait réservé à l’information en tant que telle. Ces tags, que l’on voit fleurir un peu partout dans les magazines, les affiches publicitaires ou les catalogues de vente, permettent de prolonger l’expérience de l’utilisateur et, par là même, renforcer sa relation avec le produit, le service ou la marque. C’est l’élément qui incarne le mieux la notion de rebond média. C’est-à-dire la capacité que peut avoir une information diffusée sur un média à se poursuivre sur un autre. Pour cela, l’omni-connexion devient la norme et les habitudes de rechercher son information aussi bien sur des supports traditionnels que numériques s’installent peu à peu. Les efforts en matière d’innovation technologique visent avant tout à permettre une interopérabilité entre les différents matériels et une vision intégrée et globale de l’ergonomie et du service délivré. Les enjeux portent donc désormais sur la capacité des acteurs du secteur à contrôler plusieurs de ces compétences.

Double, triple et quadriplay : convergence ou (dé)multiplication numérique ?

EthernetLa révolution numérique entraîne un étrange paradoxe : la multitude des canaux de diffusion (hertzien, numérique, imprimé, wi-fi, 3G, filaire, fibre optique, satellite), de flux (mail, rss, messagerie, réseaux sociaux) et des supports de réception (presse, affichage, télévision, ordinateur, laptop, mobile, smartphone, tablette, etc.) entraîne un phénomène de convergence amorcé depuis le début de la digitalisation de notre société. On tend vers une dématérialisation croissante de la variété des supports. Le CD et le DVD, fleurons et symboles de l’émergence de l’ère numérique, tendent aujourd’hui à disparaître alors qu’on ne compte plus les articles prédisant la fin du livre et de la presse imprimée. On assiste ainsi à la nécessité de voir apparaître de nouveaux supports, proposant une forme de synthèse technologique et médiatique des contenus.

Au début était le téléphone

L’émergence d’Internet en particulier a été décisive pour l’organisation des acteurs historiques de diffusion des contenus. Le courant du XXe siècle a vu certaines sociétés émerger, souvent par la volonté de l’État, dans un domaine de communication spécifique. Ainsi France Télécom assurait le service intégré du téléphone, de l’installation du réseau jusqu’à la fourniture des combinés de téléphone en bakélite qui ont marqué l’histoire. Plus tard, mais il y a déjà longtemps sur l’échelle de l’économie numérique, c’est ce même France Télécom qui fournit aux foyers français le Minitel, premier terminal connecté au réseau Télétel. Il fut sans doute à l’origine du retard français en matière d’équipement informatique, mais explique en partie la raison pour laquelle les ménages, ayant acquis l’habitude d’accéder à des services en ligne, ont réussi à rattraper par la suite ce retard. Parallèlement à cela, l’ORTF avait pour mission, au lendemain de la guerre et jusque dans le courant des années 70, de diffuser des émissions radiodiffusées et télévisées sur tout le territoire français et de « satisfaire les besoins d’information, de culture, d’éducation et de distraction du public ».

Puis vint Internet

La plupart du temps, ces acteurs historiques empruntaient une part de leurs missions au service public et étaient, avant tout, issus d’une forte volonté de l’État d’inscrire , après-guerre, le territoire dans la modernité grâce à une infrastructure de communication performante. Chacun d’eux était alors cantonné dans son rôle et le menait du mieux qu’il le pouvait, avec une vision avant tout nationale. Internet a changé la donne et c’est sur le plan technique que l’évolution s’est faite.

L’ouverture à la concurrence signe l’ouverture du double play

Le 1er janvier 1998, l’ouverture des télécoms à la concurrence est officialisée en France. De là, de nombreux acteurs s’engouffrent dans la brèche et attaquent le marché de l’accès à Internet en « empruntant » le réseau historique de France Télécom. L’offre aux particuliers explose, avec l’émergence de fournisseurs d’accès à Internet comme AOL, Club Internet, Wanadoo, Magic on-line, Free et bien d’autres. Le modem, qui offrait alors un débit limité devient l’élément décisif de l’apparition du double play, qui ne porte pas encore ce nom, mais qui est à l’origine du phénomène de convergence numérique : à savoir la concentration chez un seul et même acteur de tous les accès aux médias initialement indépendants et qui n’étaient, comme nous l’avons vu, a priori pas faits pour communiquer ensemble.

Les Box et l’arrivée du triple play

Cette convergence, qui se concrétise alors par l’accès conjoint à l’abonnement au réseau Internet et au téléphone sera rapidement suivie par l’émergence d’une offre triple play, déployée par ces mêmes fournisseurs d’accès à Internet qui ont, entre-temps, essuyé une première vague de fusion et quelques disparitions remarquées. L’arrivée de l’ADSL a ensuite rendu possible le transfert d’un plus grand volume d’informations et donc potentiellement des images et des émissions de télévision. C’est l’apparition de ce qu’il sera de coutume d’appeler les Box, qui permettent désormais de centraliser une offre Internet, téléphone et télévision et de rediriger les différents flux vers les terminaux utiles : téléphone, télévision ou ordinateur. Cette offre est à l’origine d’un élargissement et d’une sophistication de l’offre des opérateurs et des éditeurs, avec l’arrivée des services de VOD, des télévisions de rattrapage, mais aussi des émissions de radios numériques, des jeux en réseau, etc. Avec, pour pierre angulaire de cette variété l’adresse IP (Internet Protocol), langage de transfert universel qui demeure le point de convergence de tous les contenus numériques.

Un quadriplay encore émergent

La prochaine échéance réside dans le quadriplay, encore émergent, et qui rajoute une dimension mobile au phénomène. En pratique, il sera désormais possible de connecter son téléphone cellulaire au réseau de son fournisseur d’accès à Internet et de profiter ainsi de communications illimitées grâce à la technologie VoIP (Voice over Internet Protocol), au même titre que le téléphone fixe. Si cela peut sembler anecdotique, voire logique, dans le domaine privé, cette nouvelle dimension ouvre la voie à une omni-connexion en permettant à tout un chacun de connecter son mobile dans les hot-spots de connexion wi-fi aujourd’hui, WiMAX demain, devant apparaître dans certains lieux publics (gares, bars, parcs, etc.). Des services en devenir.

Et après ?

Alors que le quadriplay n’en est encore qu’à ses balbutiements, d’aucuns prédisent déjà l’avenir et parlent de quintuple play. Certains y voient une manière de conférer au téléphone mobile un rôle de terminal sécurisé et d’identification, se substituant à la carte de crédit ou à celle de transport. D’autres, comme Bouygues Télécom, imaginent un quintuple play ouvrant les portes de la domotique et permettant un « service de pilotage, de maîtrise de l’énergie et de protection du foyer ». Un concept encore un peu flou, aujourd’hui plus aux mains des marketeurs que des ingénieurs. Nul doute pourtant que nous assisterons demain à une surenchère dans ce domaine et que le mobile sera au centre des enjeux technologiques. L’objectif étant de concentrer dans les terminaux nomades l’intégralité des services disponibles en ligne. Jusqu’à ce qu’il soit détrôné par un outil encore plus ergonomique ?

De quelle révolution parle-t-on ?

Quelle révolution ?D’un point de vue purement matériel, on est en droit de se demander si on assiste véritablement à une révolution. Depuis les années 70 et l’avènement du micro-ordinateur de bureau, force est de constater que les outils n’ont évolué réellement que sur le plan du pure design. Si on se situe d’un point de vue utilisateur, on peut même dire que le matériel reste depuis toujours articulé autour de la même interface de réception, matérialisée par l’écran, et d’une interface de saisie et d’interaction, incarnée par le clavier et, dans une moindre mesure, par la souris.

L’ordinateur a peu évolué par rapport à la technologie

Mais si on tire le bilan, on ne peut pas dire qu’il y a eu une disparition massive d’un matériel au profit d’un autre. Seuls les supports chargés de stocker l’information numérique ont souffert, et, avec eux, le matériel chargé de leur lecture : le magnétophone ou le magnétoscope tiennent lieu, aujourd’hui, d’outils préhistoriques alors que le lecteur de CD est en voie de marginalisation. Certaines technologies comme le télétexte ou la télécopie ont quasiment disparu des usages de communication, remplacées par les web mails et, de plus en plus, par le dialogue sur les réseaux sociaux. Si la technologie LCD a permis la miniaturisation et le développement de l’écran plat, la télévision reste encore la plupart du temps un « meuble » qui trône au milieu de la plupart des salons du début du XXIe siècle. Tout au plus pouvons-nous constater l’émergence des liseuses rendue possible par l’arrivée de la technologie d’encre passive ou des écrans tactiles qui ont permis celle des tablettes numériques.

Les écrans toujours présents et toujours plus nombreux

Même si elle paraît plus spectaculaire, la révolution en termes de matériel reste au final plutôt marginale au regard du raz-de-marée que constitue l’émergence des contenus en ligne. D’un point de vue technologique, la révolution en marche est donc moins celle des outils que celle de la généralisation et l’omniprésence des écrans dans notre quotidien. Selon l’étude Screen 360 menée par Médiamétrie, on compte en moyenne en 2011 5,3 écrans par foyer, soit un de plus qu’en 2008. Entre télévision, appareil photo, smartphone et tablette, l’écran devient compact, tactile, 3D, connecté et incarne l’outil technologique de convergence numérique par excellence. Et au travers de ses nombreux avatars, le vecteur des nouveaux usages de l’information et de l’émergence de l’omniconnexion.

Une troisième révolution industrielle ?

PuceCinq cents ans nous séparent de la révolution Gutenberg. Derrière l’aventure industrielle, qui était bien réelle, se cachait aussi le dessein philosophique de rendre possible un accès élargi au savoir (toute proportion gardée, la bible de Gutenberg ayant été imprimée à 180 exemplaires !). Toutes les révolutions technologiques et industrielles qui se sont succédé par la suite ont toujours eu pour dessein commun, à l’origine en tous les cas, une amélioration de l’existence de ses contemporains. L’informatique en général et la diffusion de l’information par Internet en particulier sont parfois considérées comme la troisième révolution industrielle. « Ce qu’on appelle la révolution industrielle, ce n’est pas simplement le développement d’une technologie de plus, c’est un bouleversement fondamental dans notre manière de produire et de consommer », nous dit François Caron, historien économique, spécialiste du monde industriel et auteur de l’ouvrage La dynamique de l’innovation. La machine à vapeur, née en Angleterre au XVIIIe siècle, a permis la mécanisation des industries textiles dans un premier temps et l’apparition de moyens de transport massifiés ensuite. Elle fut à l’origine de ce que l’on considère comme la première révolution industrielle. L’électricité, avec la possibilité de transporter l’énergie et de sortir de l’obscurité, fut la deuxième révolution qui permit l’essor des installations industrielles et du travail à la chaîne. Et, à terme, de la société de consommation dans laquelle nous vivons.

Évolution ou révolution ?

On remarque plusieurs analogies qui nous permettent de mettre en perspective les révolutions industrielles passées et celle du numérique que nous sommes en train de traverser. Le processus, tout d’abord. Chacun de ces bouleversements ne s’est jamais fait du jour au lendemain. Ils se sont imposés lentement et n’ont pas toujours apporté puissance et richesse à leurs inventeurs. Gutenberg, en son temps, n’a pas connu le succès avec sa technique d’impression. Son acharnement à développer son procédé lui fit d’ailleurs connaître la ruine et un procès avec son capital-risqueur de l’époque, le banquier Johann Fust. On connaît pourtant l’avenir de son invention. Le sentiment de vivre une révolution majeure n’est apparu qu’un demi-siècle après l’arrivée de la première machine à vapeur, avec la mise en œuvre des premiers chemins de fer et la possibilité de traverser le territoire désormais sans peine.

Une technologie a besoin de temps pour s’imposer

Dans tous les cas, on peut considérer que la révélation d’une invention comme véritable révolution est issue d’une attente des consommateurs en même temps que d’une certaine forme de révolution sociale. C’est par le besoin d’accéder à une technique les faisant sortir de l’ombre qu’une révolution technologique s’impose et voit émerger, mécaniquement, une classe bourgeoise de plus en plus aisée. La révolution numérique ne fait pas exception à la règle. Initiée dans les années 60, on peut considérer que ses effets ont réellement commencé à se faire sentir à l’aube des années 2000, avec une demande de plus en plus pressante des citoyens et des applications qui s’imposent aujourd’hui profondément dans les entreprises et dans les foyers.

Une révolution transforme la société

La seconde analogie est sans doute celle des modifications profondes du tissu économique et la remise en question sociétale, voire philosophique, des relations entre les hommes. Le développement des chemins de fer puis, plus tard, celui de l’automobile ont eu des conséquences lourdes dans les modes de vie, le transport de marchandises et les échanges entre les individus. Ils ont profondément modifié la relation au travail et aux loisirs des pays alors en pleine industrialisation, comme l’Angleterre, la France ou les États-Unis. Laissant aussi sur le carreau une partie importante du tissu artisanal local et un grand nombre d’industriels de l’époque. Il n’y a qu’à voir le nombre de constructeurs automobiles au début du XXe siècle, aéronautiques entre les deux guerres ou même le nombre de compagnies privées de chemin de fer au XIXe siècle pour comprendre que la concentration est une composante fondamentale des grandes mutations industrielles. Certaines d’entre elles ayant entraîné l’éclatement des premières bulles financières conduisant, en partie, au krach de 1929 et à la crise économique qui s’ensuivit.

Comment ne pas comparer ces exemples avec ce qui s’est passé dans les années 2000 et l’éclatement de la bulle Internet qui fut précédée d’un emballement des valorisations boursières de startup dont les seuls actifs étaient alors purement hypothétiques et spéculatifs.

La fin d’une époque ?

S’il est un effet crucial de la révolution numérique pour le volet des contenus et de l’information, c’est la remise en question frontale de trois industries importantes : celles du papier, de l’impression et de la distribution. Et par extension celles qui leur sont intimement liées, à savoir du livre, de la presse et de l’information en général. Les uns et les autres sont aujourd’hui confrontés à une modification des comportements qui semblent tendre vers une disparition pure et simple de leur utilisation. L’omniprésence des écrans permet désormais de se passer du support papier et la connexion au réseau Internet à sa diffusion physique dans le commerce. Le débat reste ouvert sur la pérennité et la capacité d’adaptation des uns et des autres, mais les enjeux sont clairement posés. Il est intéressant de constater que, à l’instar de celles déclenchées par les chemins de fer ou l’électricité, la révolution qui est en marche est du ressort, elle aussi, du développement d’un nouveau type de réseau : celui de l’information.