Les applications : les contenus pris en otage ?

Wired - The Web is DeadLa révolution technologique ne concerne pas seulement le matériel informatique en tant que tel. Elle impacte désormais le mode de développement des solutions logicielles. En septembre 2010, le magazine américain Wired avait marqué les esprits en titrant à sa Une « The Web is dead ». Sous ce titre volontairement provocateur se cachait un constat : le World Wide Web, système délivrant des contenus par le biais d’un navigateur, est de plus en plus concurrencé par des applications captives et des plateformes collaboratives fonctionnant en quasi-circuit fermé. Le développement du marché des supports nomades semble désormais donner raison au magazine : selon toute vraisemblance, le Web que nous pensions immuable est en train de décliner au profit d’un nouveau modèle !

Mort du web et nouveaux usages du mobile

Cette hypothèse est réaffirmée par les chiffres relatifs aux usages. L’Internet mobile est désormais promis à être la première source d’accès aux contenus numériques, avec la généralisation des smartphones et le développement des tablettes. Une enquête menée par Nielsen en 2011 confirme que 67 % des consultations des contenus se font déjà principalement par le biais d’applications dédiées. L’utilisation de ces applications occupe 56 % de l’activité sur un terminal mobile alors que 19 % concerne les courriels, 15 % les appels téléphoniques et seulement 9 % la navigation sur le Web. Cette transformation ne pourrait être qu’une nouvelle mutation des usages sans impact réel sur les contenus et leur mode de consultation si elle n’impliquait pas un nouveau modèle économique pour les acteurs du secteur.

Apple le dictateur

Cette évolution cache en effet une rupture importante pour les producteurs de contenus, qui n’avaient pas encore totalement digéré la mutation imposée par le Web. Le développement des solutions mobiles sous forme d’applications implique désormais une dépendance des éditeurs aux conditions fixées par les diffuseurs. Apple avait déjà lancé un pavé dans la mare en rendant le format Flash® d’Adobe incompatible avec son iOS, le système d’exploitation mobile spécifique à l’iPhone. Désormais, le développement des applications pour systèmes mobiles a des impacts bien pires. Tout d’abord parce que la multiplication des systèmes d’exploitation (iOS/Apple, Android/ Google, Bada/Samsung, Windows mobile/Microsoft, Symbian/Nokia pour les plus répandus) contraint les éditeurs à développer des applications spécifiques à chaque support, avec les implications financières non négligeables que cela peut augurer. On estime en effet le coût de développement d’une application pour la presse en ligne entre 40 000 et 100 000 euros pour le seul iOS d’Apple. Ensuite, parce que la généralisation de ces applications impose des contraintes fixées par les fabricants, auxquelles les éditeurs doivent se soumettre s’ils veulent avoir le privilège d’accéder aux plateformes de diffusion que sont les terminaux mobiles. Apple impose ainsi à tout titre de presse souhaitant diffuser ses contenus via l’App Store une commission de 30 % sur le prix de vente. La position prédominante de l’iPad dans ce domaine, pour le moment, oblige les éditeurs à se plier à cette loi s’ils souhaitent avoir accès à un lectorat encore émergent, mais qu’il est urgent de séduire à ce stade du développement de la presse en ligne.

Intégration verticale et modèle fermé

Tout porte à croire, par ailleurs, avec le rachat par Google en août 2011 de la firme Motorola Mobility, que le géant de Mountain View souhaite à l’avenir imiter la stratégie d’intégration verticale d’Apple en contrôlant l’intégralité de la chaîne de diffusion des contenus, de l’offre au support en passant par le système d’exploitation. Si on rajoute à cela le fait qu’Apple contrôle soigneusement et systématiquement toutes les applications qui lui sont proposées par les développeurs sur son App Store, on rentre de plain-pied dans un modèle totalement fermé, contrôlé par les principaux acteurs du secteur, qui est désormais aux antipodes de l’espace de liberté et d’énergie créative que représentait jusqu’alors l’esprit du Web.

Un modèle à deux vitesses

Ce constat fut celui de la journaliste Virginia Heffernan, dans un article publié dans le New York Times intitulé « La fin du Web ouvert », qui fait étrangement écho à celui de Wired. Elle y fait une analogie entre ce qui se passe pour les contenus sur le Web et les migrations de population dans les villes.

« Le Web est une zone commerciale grouillante. Son organisation est faite de bric et de broc et les témoignages de la dégradation de son organisation abondent au travers du nombre de liens rompus et des projets abandonnés existants. Les programmes malveillants et les spams ont transformé certains secteurs en zones incertaines et insalubres. (…) Aujourd’hui, par l’intermédiaire de l’achat d’un iPhone ou d’un iPad, il existe un moyen d’en sortir, une banlieue ordonnée qui vous permet de goûter aux opportunités du Web sans pour autant avoir à vous mélanger avec la racaille. Cette banlieue est délimitée par les applications de l’éclatant App Store : de jolies maisons soignées, loin du centre-ville du Web, sur les hauteurs immaculées du quartier Apple. Au travers de la migration des contestataires du Web “ouvert” vers les applications coûteuses et sélectives, nous assistons à une décentralisation urbaine vers les banlieues résidentielles. »

L’auteur témoigne, au travers de ce texte, d’une certaine forme de ségrégation s’installant dans la manière d’accéder aux contenus numériques. En bas, le bazar du Web, composé de tout et de n’importe quoi et dans lequel l’utilisateur doit se débattre. En haut, la boutique chic et bien décorée, où le vendeur vous accueille avec le sourire mais qui n’est accessible qu’aux plus fortunés.

« Quand un mur est érigé, l’espace réservé que vous avez dû payer pour y accéder doit, pour justifier le prix, être plus beau que ceux qui sont gratuits. Le terme clé employé par les développeurs est “une meilleure expérience utilisateur.” (…) Au final, tout est une question de perception : beaucoup d’applications sont au Web ce que l’eau en bouteille est à celle du robinet : une nouvelle façon inventive de décanter, présenter et tarifer une chose qui pouvait être auparavant gratuite. »

Un nouveau paradigme habilement piloté par les firmes industrielles qui en tirent des revenus conséquents et un meilleur contrôle sur les producteurs de contenus, mais dont la particularité est de donner l’impression d’avoir été voulu en masse par les utilisateurs eux-mêmes. « Je vois pourquoi les gens ont fui les villes, et je vois pourquoi ils sont en train de déserter le Web ouvert. Mais je pense que nous pourrions aussi, un jour, le regretter », conclut Virginia Heffernan.

L’écran d’ordinateur : ce vétéran médiatique

Vétéran médiaApparus dans les années 50, les premiers ordinateurs « modernes » avaient avant tout été pensés comme des super calculateurs permettant d’assister l’homme dans des opérations rendues d’autant plus complexes que la technologie évoluait. L’apparition du transistor, dans ces mêmes périodes, contribua à leur miniaturisation qui n’était encore à l’époque que très relative, puisque l’IBM 650, conçu en 1954, était une belle machine de 900 kg qui avait peine à tenir dans une pièce de laboratoire. Il faudra attendre les années 70 et surtout les années 80 avec les apparitions quasi simultanées des premiers IBM PC, des Apple II et les systèmes d’exploitation Windows pour que l’ordinateur se fasse « personnel » et devienne enfin un support à l’information tel que nous le concevons. Depuis, quoi qu’on en dise, l’architecture de l’ordinateur n’a que très peu évolué. Les efforts ont été réalisés essentiellement sur la puissance des machines et la sophistication des systèmes.

02-01-Techno-Moore

Gordon E.Moore, cofondateur de la Société Intel, énonça dès 1965 un principe empirique, devenu célèbre, prédisant que le nombre de composants intégrés dans les circuits des ordinateurs serait susceptible de doubler tous les 18 mois. La puissance des ordinateurs devait donc croître de manière exponentielle et régulière selon le même rythme. Cette prédiction s’est avérée exacte jusqu’à aujourd’hui, pour donner lieu à toujours plus de miniaturisation et de puissance des terminaux informatiques.

Le principe de Moore fait aujourd’hui office d’élément fondateur de l’économie numérique. Depuis lors, l’ensemble de l’univers du matériel informatique suit cette tendance faisant se croiser la courbe des capacités et de la puissance et la baisse progressive des tarifs, permettant au matériel de pointe utilisé dans l’industrie, la recherche ou le domaine militaire de pénétrer de plus en plus rapidement dans les foyers. Depuis 2005, cette course à la puissance a ainsi amené l’industrie électronique à produire plus de transistors chaque année que l’agroalimentaire ne produit de grains de riz dans le monde. Les années 90 ont vu le combat de la puissance des ordinateurs se déplacer en partie sur les capacités de stockage. Le besoin d’archivage des données a fait s’envoler les capacités des disques durs des ordinateurs et des serveurs en même temps que le prix du Gigabyte stocké s’est effondré pour passer de 228 dollars en 1998 à 0,07 dollar en 2010. À tel point qu’on évoque aujourd’hui l’entrée de nos sociétés dans l’ère du Petabyte (soit 1015 byte). La disquette (1,44Mo de volume de stockage pour les 3’’1/2), le CD (650 Mo) suivi par le DVD (4,7 Go) et aujourd’hui la clé USB, qui peut stocker jusqu’à 256Go et plus, sont autant de supports amovibles qui se sont succédé et qui démontrent bien la tendance exponentielle des besoins en termes de stockage.

L’élément fondamental de la montée en puissance des médias numériques reste toutefois la capacité de connexion des ordinateurs entre eux, via le réseau Internet. Apparu à la fin des années 60 avec la nécessité de faire communiquer par le biais d’un protocole commun les différents ordinateurs des centres de l’armée américaine, Internet a réellement commencé à se développer en pénétrant les entreprises et les foyers dans les années 90, avec l’avènement du World Wide Web et de son système hypertexte. C’est au Centre européen de recherche nucléaire (CERN), hébergé à Genève, que l’on doit la mise en place des protocoles qui verront l’explosion des connexions à Internet : le langage HTML et le protocole de transfert HTTP, qui seront partagés et interprétés par les principaux navigateurs installés sur les ordinateurs de l’époque et encore par ceux d’aujourd’hui.

Dans le domaine de la connexion, les progrès technologiques ont également entraîné des modifications dans les usages et les modes de communication. L’époque est maintenant loin où le cri nasillard des modems RTC permettait un débit de 56 kbps dans le meilleur des cas. Aujourd’hui, l’ADSL, la fibre optique, le câble ou le satellite offrent un accès à haut débit aux réseaux. Les tarifs des différents opérateurs permettent aux foyers d’être connectés en permanence, même si la fracture numérique reste une réalité stigmatisante entre les classes sociales et les générations. Le monde analogique domestique cède peu à peu la place au monde numérique connecté. Bandes magnétiques, ondes radiophoniques, pellicules photographiques et peut-être demain magazines et livres disparaissent pour être systématiquement et progressivement désincarnés et stockés dans l’univers numérique. Le haut débit permet aujourd’hui l’émergence de médias tels que la vidéo en ligne, jusqu’à présent gourmande en bande passante, et signe le début d’une nouvelle ère de diffusion des contenus où le support disparaît définitivement au profit du terminal de diffusion des flux numériques.