Accès aux contenus : le dogme de la gratuité

Contenus gratuitsInternet apparaît aujourd’hui encore comme un terrain de liberté. À ce titre, il s’impose par extension comme un domaine de libre accès à une information pléthorique.

« Le Web est devenu le monde de la gratuité », nous dit Chris Anderson, rédacteur en chef du magazine Wired. « Les coûts sur Internet vont tous dans la même direction : vers zéro (…). Il est désormais clair que tout ce que le numérique touche évolue vers la gratuité » complète-t-il.

De fait, le Web a, dès son origine, installé la gratuité en tant que principe de base, remettant en question le modèle économique des acteurs traditionnels, bousculés par celui des nouveaux arrivants comme Google.

« Le “gratuit” est apparu explicitement en France fin 1998 avec les fournisseurs d’accès Internet (FAI) gratuits », nous rappelle Olivier Bomsel, professeur d’économie industrielle à l’École des Mines, auteur du livre Gratuit!. « Les World-Online, Freeserve, Freesbee, Free et autres Liberty Surf ont proposé alors des formules d’abonnement gratuit, avec communications payantes. Ensuite, le gratuit s’est étendu avec le déploiement du haut débit en 2002. Le haut débit s’est déployé grâce au piratage massif de la musique via les réseaux peer-to-peer ».

Dès lors, comment financer la production de contenus dans le cadre d’une gratuité de leur accès ?

La musique, aux origines des contenus gratuits sur le net

Dès 1999, Napster fut un des premiers acteurs à révéler la mutation des usages en permettant l’échange direct de fichiers musicaux entre internautes, s’affranchissant des redevances et des droits d’auteur traditionnellement dus sur l’exploitation d’une œuvre artistique. Sony, Polygram, Universal, Virgin et les autres grandes maisons de disques prirent rapidement conscience du risque et s’allièrent pour tenter de faire tomber ce perturbateur. Napster fut contraint de fermer son service en mars 2001, non sans avoir auparavant amorcé le déclin du CD en tant que support musical et installé le format MP3 comme symbole de la désincarnation et de la gratuité sur le Net. Une première brèche était désormais ouverte dans le sanctuaire de l’industrie du disque et du cinéma. De nombreux acteurs s’y sont engouffrés dans la foulée, entraînant une réaction du secteur allant jusqu’à la mise en place d’un cadre législatif, désormais matérialisé par la loi Hadopi, en France. Pour autant, le rythme législatif et judiciaire ne parvient pas à rivaliser avec l’adaptabilité et la réactivité de l’éco-système Internet. En septembre 2011, le site d’écoute musicale gratuit Deezer, qui avait refusé les conditions d’Universal Music France à limiter son offre gratuite à cinq écoutes, a ainsi remporté une victoire judiciaire décisive sur son adversaire, remettant en question la position dominante des éditeurs de musique.

L’erreur des contenus éditoriaux gratuits sur le net

Parallèlement à cette révolution musicale et à l’apparition d’une presse quotidienne gratuite, sur le modèle de 20Minutes ou Métro, les supports de presse ont entamé à leur tour la conquête du Web en diffusant leurs contenus en ligne, considérant dans un premier temps Internet comme un relais d’audience efficace et une source de fidélisation pour leurs contenus et installant durablement le modèle de la gratuité comme un dû dans l’esprit des gens. « La presse ancienne a fait une erreur historique en mettant ces contenus gratuitement sur le Web. C’est la première bataille que j’ai perdue au Monde », confesse Edwy Plenel, ancien rédacteur en chef du Monde et fondateur de Médiapart. De fait, le dogme de la gratuité remet aujourd’hui fortement en question un pan entier de l’économie de l’information ainsi que la condition des producteurs de contenus dans leur ensemble.

Google livre, ou la littérature en accès libre

Dernier en date, le monde de l’édition est en passe de connaître à son tour sa révolution du gratuit , remettant en cause le modèle économique et le rôle même des éditeurs, des distributeurs et des librairies. Google, à travers son programme de numérisation massive du patrimoine littéraire mondial amorcé en 2004, met à disposition le contenu d’un fonds de plus de 15 millions d’ouvrages en ligne, la plupart tombés dans le domaine public ou non réédités. Les conditions dans lesquelles les accords ont été passés avec les bibliothèques et la gestion exotique des droits d’auteur ont conduit à une levée de boucliers d’un très grand nombre d’acteurs de l’édition, notamment en France.

« Google est entré en Europe en conquérant et beaucoup lui ont ouvert la porte en signant des accords que je trouve inacceptables. Ils reposent sur une confidentialité excessive, des exclusivités impossibles, des clauses désinvoltes, voire léonines au regard du droit d’auteur », avait déclaré Frédéric Mitterrand à son encontre.

Néanmoins, la force de frappe et la capacité de numérisation du géant américain en font aujourd’hui l’acteur incontournable de la préservation du patrimoine littéraire mondial. Google fait donc ainsi entrer la gratuité dans les usages du livre, chamboulant encore un peu plus un secteur déjà lourdement plombé par l’arrivée des liseuses numériques et remettant en question le principe même de droit d’auteur, jugé obsolète par certains et inaliénable par d’autres.

Du copyright au Creative Commons

Dans le même temps, les œuvres publiées sous licence Creative Commons sont des alternatives intéressantes au copyright traditionnel. Elles permettent une diffusion libre des contenus d’un ouvrage tout en garantissant un cadre juridique à son auteur grâce à un système de licence régissant les droits d’utilisation de l’œuvre par autrui. Ce système, largement utilisé dans le cadre d’ouvrages relatifs à l’univers d’Internet, contribue à faciliter la diffusion et l’accès à certaines œuvres culturelles. Il contribue encore un peu plus à installer le gratuit comme une option possible pour la diffusion d’une œuvre. Il prouve dans le même temps que le principe de gratuité n’est pas forcément incompatible avec des contenus de qualité.

De l’expertise individuelle à l’intelligence collective

Intelligence collectiveL’émergence des médias numériques conduit bien à une nouvelle vision de la structure de nos sociétés, qui ne répond plus à une organisation centralisée et hiérarchisée, mais bien à une structure collaborative, matricielle, autogérée. L’accès à l’information, l’émergence des carrefours d’expression, la faculté de dialogue donnent la matière à une nouvelle forme d’anthropologie des individus connectés. Nos sociétés établies en communautés interconnectées s’apparentent de plus en plus aux modèles d’organisations sociales complexes établies chez certaines espèces comme les abeilles, les fourmis ou les oiseaux migrateurs. Elles démontrent qu’une société fondée sur la communication et l’instinct peut conduire à une certaine forme d’intelligence collective. Internet et les réseaux sociaux donnent aujourd’hui les moyens techniques de mener à bien une activité qui ne soit pas forcément régie par une structure hiérarchique. C’est une révolution dans la relation, dans le sens où le Net devient ainsi le creuset d’énergies individuelles, souvent désintéressées, construites sur un besoin de contribution à une œuvre collective.

« L’intelligence collective est pratiquée par les êtres humains depuis qu’ils disposent du langage et de la culture », nous rappelle le philosophe Pierre Lévy, auteur du livre L’intelligence collective. Pour une anthropologie du cyberespace. « Nous ne sommes intelligents que collectivement grâce aux différents savoirs transmis de génération en génération. Simplement, Internet est plus puissant que l’imprimerie, la radio ou la télévision, parce qu’il permet une communication transversale et une meilleure exploitation de la mémoire collective. »

L’intelligence collective à l’origine du Web

Les principes de collaboration et d’intelligence collective constituent l’ADN même du Web. Le Centre européen de recherche nucléaire (CERN) jeta les bases de son mode de fonctionnement dans les années 90 afin de partager les informations des 8 000 scientifiques de 85 nationalités éparpillés dans les différentes universités tout autour du monde. L’origine du Web était donc déjà fondamentalement communautaire et répondait à un besoin de partage des connaissances. Elle se fonde sur une vision itérative et collaborative de production de contenus, fixant le principe que la capacité d’un individu seul, même brillant, n’égalera jamais celle d’une communauté d’individus « moyens ». Ce principe est à l’origine même de la notion de crowdsourcing et, par extension, celle de la sagesse de foules mise en évidence dans l’ouvrage éponyme du journaliste américain James Surowiecki, qui bâtit sa réflexion sur le fait que le travail collectif donne un meilleur résultat que celui d’individus isolés.

Des projets rendus possibles par le plus grand nombre

Cette capacité à faire réaliser par le plus grand nombre une tâche à portée universelle reste un moyen fondamental pour certains programmes de recherche d’arriver à leurs fins. Le projet Zooniverse, par exemple, invite ainsi les astronomes amateurs à participer, entre autres, à la classification de millions de galaxies à partir d’images fournies par le programme Hubble. Plus ludique, Foldit est un jeu collaboratif en ligne invitant les participants bénévoles à contribuer à la recherche scientifique. Une expérience dont l’émulation a permis aux joueurs de découvrir en trois semaines la structure d’une protéine responsable du sida chez le singe. Une énigme qui tenait les scientifiques en échec depuis dix ans et dont la découverte a fait l’objet d’une publication en septembre 2011 dans la revue Nature Structural & Molecular Biology. Le projet Wikipedia, bien sûr, représente une base de données encyclopédique collaborative unique sur la connaissance humaine. Et que penser du projet 23andMe, piloté par Google, qui vise à tracer une cartographie des profils ADN dans le monde en encourageant les gens à décrypter leur patrimoine génétique pour améliorer les connaissances, les traitements potentiels et permettre une médecine personnalisée ? Pas sûr, connaissant le penchant du géant de Mountain View pour tout ce qui a trait aux données personnelles, que ce projet soit aussi désintéressé qu’il n’y paraisse. Un tel processus est à la base de la dynamique de l’open source et du développement des logiciels libres, dont les fondements ont été établis dans les années 80 par Richard Stallman, mis en oeuvre dans le cadre de son projet GNU et portés par la Free Software Foundation.

« Je peux expliquer les logiciels libres en trois mots : liberté, égalité, fraternité », résume ce programmeur militant(6). « Liberté, parce que chaque utilisateur est libre. Égalité, parce qu’avec le logiciel libre, personne n’a de pouvoir sur personne. Fraternité, parce que nous encourageons la coopération entre les utilisateurs. »

Ce mode de conception collaboratif, que Stallman étend à toute œuvre ayant des applications concrètes, suppose une nouvelle philosophie des méthodes de collaboratif entre individus. Il tend à prouver qu’une relation construite sur la liberté est plus créatrice de valeur qu’un modèle traditionnel centralisé et hiérarchisé. Développé à l’échelle mondiale, ce mode de conception par sédimentation, c’est-à-dire accumulant les compétences et les adaptations de chaque individu, est une source inédite et puissante d’enrichissement des contenus. Il suppose toutefois une forme de bénévolat tout à fait inédite dans une économie de marché telle que la nôtre.

Libérer les données pour créer de la richesse

Ce mode de relation ouvre, par ailleurs, le champ à une nouvelle forme de développement de services en ligne, fondée sur l’exploitation de données ouvertes. C’est l’esprit fondateur du principe d’open-datas, qui vise à donner un accès libre aux données recueillies par certains acteurs, notamment les villes et les collectivités territoriales, dans un but initial de transparence mais aussi de coproduction et d’enrichissement des services. Un tel principe permet en effet à n’importe quel citoyen de réexploiter ces données issues, par exemple, des transports en commun, des travaux sur la voie publique, du trafic routier ou de la démographie pour faire naître de nouveaux services en ligne. « Cela ne produit pas seulement de la transparence, de la culture, du développement économique, mais aussi de nouveaux services, de la prospective, du débat public, de la connaissance et souvent toutes ces choses à la fois », nous dit Charles Népote, responsable du programme Identité active au sein de la Fondation Internet Nouvelle Génération. Un courant de fond, dont les enjeux s’invitent de plus en plus dans le débat politique, et dans lequel des dizaines de villes comme New York, Londres, Paris, mais aussi Rennes, Nantes ou Bordeaux se sont résolument engagées. En décembre 2011, la France a ouvert son portail interministériel data. gouv.fr, donnant un accès à quelque 352 000 jeux de données publiques issues de 90 producteurs différents et engageant désormais le territoire national dans cette dynamique des données ouvertes.

API et Mashup : les applications en libre services

Une telle philosophie ne se cantonne pas aux données publiques et reste fondamentale de l’esprit du Net. Elle se retrouve également dans le domaine des API (Application Programming Interface) permettant la création de Mashups et qui constituent ici aussi une forme collaborative d’enrichissement des contenus, dans le sens où l’assemblage de données et d’applications Web permet la création d’un service nouveau et inédit. À titre d’exemple, un Mashup exploitant les fonctionnalités de Google Maps, API et de Flickr permet de donner naissance à un service de publication d’images géolocalisées en temps réel baptisé Flickrvision. Un projet construit sur la mise en commun de ressources venues des utilisateurs de Flickr et qui prend tout son sens dans le cadre de l’émergence des communautés sur Internet.

L’action collaborative au cœur du projet Google Book

Google, acteur majeur de la massification des contenus s’il en est, suit la tendance et a mis en place une démarche de construction d’une œuvre collective au sens propre en rachetant, en 2009, une start-up spécialisée dans les captchas, ces signes cabalistiques contenus dans les formulaires d’inscription en ligne et permettant de limiter les spams. Chaque jour, 30 millions d’utilisateurs saisissent ces petits mots dans le but de certifier à la machine qu’ils sont bien humains. Chacun de ces « petits mots » est en fait issu d’un livre numérisé dans le cadre du programme Google Book. En déchiffrant ces quelques signes et en les retranscrivant dans la cellule du formulaire, l’internaute contribue ainsi involontairement à l’enrichissement du volume de contenus peu à peu numérisés par le géant américain et mis à disposition sur le Net. Une forme d’intelligence collective inconsciente qui montre la puissance d’un mouvement communautaire dès lors qu’il est orchestré par un acteur central.

Internet, catalyseur d’énergies individuelles

De la notion d’intelligence collective émerge enfin celle de massification des liens sociaux. Au-delà de la capacité à mobiliser les énergies, le Web présente toutes les fonctionnalités permettant la mise en relation des individus mus par une volonté commune. Internet s’impose comme un grand connecteur. Le succès de services comme Copains d’avant, 123 People ou Facebook est un révélateur de cette capacité du Net à amplifier le lien entre des individus partageant une même histoire ou un même centre d’intérêt. D’autres services comme My Major Company ont illustré la capacité d’Internet à révéler une tendance inspirée des goûts et des envies du plus grand nombre. Un des enjeux à venir pour les services en ligne sera sans doute lié à la qualité de cette médiation et à leur capacité à mobiliser les foules. Partant du principe qu’en s’associant on est plus forts, les services de courtage en ligne permettent justement de faciliter la rencontre des besoins et des opportunités selon un modèle de peer-to-peer, c’est-à-dire d’individu à individu, en s’affranchissant ici aussi de toute organisation spécifique. On assiste aujourd’hui à l’émergence de market places facilitant l’échange de biens ou de services entre individus et aux succès des sites de mise en relation aussi divers que les services à la personne, le covoiturage, les rendez-vous sportifs ou culturels, les rencontres ou la généalogie. L’intégration des réseaux sociaux dans ce domaine est un catalyseur d’énergies supplémentaire. Rien d’étonnant donc à constater qu’un site de rencontres matrimoniales comme Meetic soit, selon l’Observatoire de l’Ifop, le quatrième réseau social le plus connu en France. Et rien d’étonnant à constater que les trois premiers soient Facebook, YouTube et Copains d’avant, d’autres sites à vocation sociale, justement. Cette faculté d’émulation de groupe a conduit la SNCF à lancer, fin 2011, une application baptisée Petits voyages entre amis, permettant d’inviter l’ensemble de ses relations Facebook à participer à un voyage que l’on a organisé sur le site Voyages-SNCF.com. Un service au potentiel énorme dès que l’on touche à l’organisation d’un festival ou d’un événement de portée nationale. Et une façon de développer le business tout en faisant du site de voyage la cheville ouvrière de la relation.

Les tiers lieux, creuset du co-working

La notion de démarche collaborative est donc, à plusieurs titres, fondamentale dans les succès du Web et constitue sans nul doute les leviers de développement des prochains services sur Internet. D’où les enjeux liés à la capacité d’animer les relais sociaux, qui sont autant de démultiplicateurs d’efficacité et d’audience. Cet esprit collaboratif est aujourd’hui tout entier incarné par les espaces de travail partagés qui apparaissent un peu partout. La Cantine, La Manufacture, La Ruche ou le Labo de l’Édition sont autant d’émanations très concrètes de l’esprit d’ouverture et de partage qui anime la plupart des acteurs de l’économie numérique. Une formalisation de ce que le sociologue Ray Oldenberg a qualifié, à la fi n des années 80, de tiers lieu, c’est-à-dire un espace de lien social permettant aux individus animés par un intérêt commun de se rencontrer, d’échanger, de travailler ensemble. De tels lieux demeurent des symboles de l’esprit du Web, portant l’idée que de l’échange naît la valeur et que c’est dans la mise en commun des connaissances qu’on produit de l’intelligence.

Sérendipité et surinformation : des filtres nécessaires

InfobésitéLe principe même de recherche sur le Web favorise la sérendipité, c’est-à-dire la capacité à se laisser conduire, de lien en lien, vers une information qu’on ne cherchait pas forcément à l’origine. Le foisonnement des résultats d’un moteur de recherche, les liens hypertextes connectant un type de contenu à un autre, la dimension encyclopédique elle-même du Web permettent à tout un chacun d’accéder à un volume considérable d’informations qu’il devient désormais difficile d’appréhender. Parallèlement, l’information quotidiennement recueillie sur nos mails, mais aussi sur les réseaux sociaux dont nous sommes membres, l’affichage sur les murs, l’accès à une presse gratuite ou des contenus sur le net conduisent inexorablement à ce qu’il est coutume d’appeler l’« infobésité », c’est-à-dire une surabondance d’information rendant son assimilation difficile. « L’infobésité est une tendance bien réelle dans l’entreprise qui fait que chacun est constamment dérangé. En moyenne, un individu possède 12 minutes de temps de cerveau disponible ! » nous dit Nicolas Moinet, professeur des universités en sciences de l’information et de la communication à l’IAE de Poitiers. Et le fait est que, confirmant l’adage selon lequel trop d’information tue l’information, il devient aujourd’hui impossible de capter, retenir et analyser tout ce à quoi nous sommes quotidiennement exposés.

Outils et communautés : des aides à la sélection de l’information

Cette surabondance d’information impose désormais une catégorisation des contenus.

« Il existe une nouvelle tendance d’outils Internet qui permettent de nous guider vers de nouveaux contenus présentant un intérêt pour nos amis », nous dit Ethan Zuckerman, directeur du Center for Civic Media au MIT. « Des outils sociaux comme Reddit, Digg et Slashdot forment des communautés construites autour d’intérêts partagés et nous dirigent vers des sujets accrédités par la communauté (au travers de votes et de mécanismes karmiques) comme étant intéressants et valant le coup d’être partagés. Twitter, et particulièrement Facebook, fonctionnent à un niveau bien plus personnel. Ils nous montrent ce que nos amis savent et ce qu’ils considèrent comme important. »

Notre réseau social, premier filtre

Selon cet éclairage, la constitution des internautes en réseaux sociaux ne serait donc pas uniquement une source d’enrichissement des contenus. Elle formerait également un premier rideau garantissant au moins une communion d’intérêt avec les gens suivis sur Twitter ou des relations entretenues sur Facebook, par exemple. Mais un premier filtre qui présente quelques failles.

« Connaître ce que vos amis connaissent est important », complète Ethan Zuckerman. « Mais à moins que vous n’ayez un réseau d’amis remarquablement diversifié et bien informé, il y a pas mal de chances pour que leur intelligence collective présente des zones d’ombre. »

Le curateur : un journaliste qui s’ignore ?

Pour combler ces faiblesses, la notion très controversée de content curator a fait son apparition. S’il fallait en donner une définition, le « curateur » serait une personne physique ou morale en charge de réceptionner, sélectionner, trier et délivrer une information sur un thème donné pour le compte d’une audience définie. Il aurait donc pour mission de choisir les contenus susceptibles de nous intéresser. « Implicitement, les “curateurs” décident de ce que nous devons savoir sur le monde », nous dit Ethan Zuckerman. Quelle meilleure définition du journalisme ?

Le rôle essentiel de l’éditeur dans le tri de l’information

Internet et son foisonnement de contenus « spontanés » conduiraient donc implicitement à redonner du sens au rôle fondamental d’éditorialisation pris en charge par le journaliste. Le « curateur » serait donc un journaliste qui s’ignore. Par extension, l’éditeur endosserait plus largement cette notion de curation qui s’étend à celle de courtage : il est aujourd’hui en charge de la mise en relation, au travers d’un choix éditorial, entre le contenu et le lecteur. Il est fort probable que l ’avenir conduise à une contextualisation des types de contenus sélectionnés en fonction du moment et des attentes de l’internaute. Pour y parvenir, un certain nombre d’outils font leur apparition sur le Net, permettant d’aider au travail d’éditorialisation, d’une part, et donnant l’accès à un contenu déjà éditorialisé, d’autre part. Des agrégateurs tels que Netvibes ou iGoogle permettent ainsi d’organiser et de personnaliser ses contenus par grands centres d’intérêt alors que des fonctionnalités comme Google News autorisent un travail de veille de tout ce qui circule sur le Web sur un sujet donné. Entre travail de documentaliste et de composition, certaines initiatives intéressantes, comme Pearltrees, paper.li ou Scoop.it permettent d’agréger et d’organiser des contenus issus de thèmes donnés afin de les partager avec son réseau.

De l’accès à un contenu universel vers un Internet de niches

Le succès des tablettes tactiles et l’intérêt porté à certaines applications comme Flipboard pour l’iPad signalent le besoin, pour les utilisateurs, de retrouver les codes graphiques et ergonomiques des supports traditionnels et de restructurer l’information sous une forme qui avait été peut-être perdue sur Internet. Tous ces exemples montrent qu’il existe une tendance large au retour à un modèle traditionnel. L’époque d’un Internet symbole d’un accès à des contenus universels cède la place à celle d’un Internet de niches, sélectionnant une information hyper-catégorisée en fonction des attentes et des affinités de chaque individu.

« Nous qui sommes des éditeurs de Radio Classique, nous voyons apparaître dans la catégorie classique plus de mille radios qui permettent d’écouter de la musique classique », nous dit Nicolas Beytout, alors PDG du Groupe Les Échos, au sujet de l’émergence des webradios. « Il y a des radios spécialisées Beethoven, des radios spécialisées hautbois, des radios spécialisées orchestres de Chicago. »

Une forme d’hyper-segmentation qui se retrouve aujourd’hui sur tous les médias et qui permet au citoyen de choisir des contenus correspondant à ses affinités.

Le cloud conputing : la tête dans le contenu

Cloud-ComputingL’émergence de l’omni-connexion comme norme a peu à peu donné naissance à une nouvelle façon d’imaginer le stockage des données numériques. Les usages de portabilité voulant qu’aujourd’hui on puisse avoir accès aux mêmes contenus de son desktop, son mobile, sa télévision ou sa box conduisent nécessairement à un besoin de stockage centralisé sur des serveurs non plus locaux mais désormais distants et partagés. Donnant naissance à un nouveau terme qui concentre aujourd’hui l’attention de nombreux industriels, tant les enjeux qui en découlent sont colossaux : le cloud-computing, ou informatique en nuage en (mauvaise) traduction française.

Les enjeux économiques du cloud-computing

D’un point de vue purement académique, le National Institute of Standards and Technology en délivre la définition suivante : « Le cloud-computing est un modèle pratique, à la demande, permettant d’établir un accès par l’intermédiaire du réseau à un réservoir de ressources informatiques partagées et configurables (réseau, serveurs, stockage, applications et services) pouvant être rapidement mobilisées et mises à disposition en réduisant au minimum les efforts de gestion ou les contacts avec le fournisseur de service. » Une étude menée par le cabinet IDC estime que la croissance annuelle des investissements mondiaux dans les services en Cloud, qui représentent 17 milliards de dollars en 2009, devraient croître à un rythme de 25 % par an pour atteindre, en 2013, 44 milliards de dollars, soit 10 % des investissements totaux.

Stockage et exploitation en ligne

Innovation technologique pour certains, « simple » nouvelle façon de délivrer du contenu numérique pour d’autres, il n’en reste pas moins que le concept de cloud-computing est une révolution dans le sens où il est une nouvelle manière de penser le Net. Rendu techniquement possible une fois de plus d’abord par la généralisation du haut débit, il regroupe essentiellement deux domaines d’usages : l’archivage des données à distance, tout d’abord, permettant au matériel, comme les tablettes, de s’affranchir des lourds, encombrants et fragiles périphériques de stockage. La mutualisation et l’exploitation de ressources logicielles en ligne, ensuite, avec l’émergence des modes SaaS (Software as a service), PaaS (Platform as a service) ou IaaS (Infrastructure as a Service) et la création de services distants comme Zoho, Salesforce, iCloud ou Google drive.

Les premiers ordinateurs « cloud ready »

Cette double innovation permet à l’entreprise comme au particulier de ne plus avoir à se préoccuper de la notion de matériel, de puissance de calcul, de mise à jour logiciel ni de volume de stockage puisque tout est alors à la demande et du ressort du prestataire. Google, qui a présenté son Chromebook en 2011, un ordinateur ayant pour unique logiciel préinstallé le navigateur Chrome, reprend à son compte cette philosophie de l’information désincarnée. Google fait de son ordinateur un simple terminal interchangeable, tous les contenus et les systèmes d’exploitation étant stockés à distance sur l’espace personnel de l’internaute. « La complexité pour gérer l’ordinateur torture vraiment les utilisateurs », a déclaré Serge Brin, cofondateur de Google, le jour de la présentation à la presse. « C’est un mauvais modèle, les ordinateurs Chrome sont un nouveau modèle, qui ne fait pas reposer sur vous le fardeau de la gestion de l’ordinateur.» Un principe qui ouvre la porte à l’ordinateur « jetable » et autorise la mise en place d’espaces de travail partagés, avec des logiciels enfin compatibles entre eux puisque mis en commun sur un serveur distant, et des contenus tracés, mutualisés et stockés sur un espace partagé et externalisé. Des évolutions qui ont autant d’influence sur les domaines budgétaires, de traçabilité ou de sécurisation des données.

Des contenus ubiquitaires et omni-présents

La vraie innovation du cloud-computing est pourtant ailleurs. Elle est une nouvelle façon de concevoir Internet non plus comme un domaine limité à la surface de nos écrans, aussi perfectionnés soient-ils, mais à la conquête d’une nouvelle dimension : celle de l’espace qui nous entoure. Les contenus, de manière ubiquitaire, sont désormais présents partout, nous accompagnent, se génèrent de manière quasi automatique par le biais des contributions des internautes, s’augmentent d’informations virtuelles au fur et à mesure que nous laissons des traces de notre passage sur tel ou tel service en ligne. Ils deviennent disponibles à tout moment, aussi simplement que l’eau ou l’électricité au domicile. C’est ce que Joël de Rosnay, écrivain scientifique, prospectiviste et conseiller de la présidence de la Cité des Sciences qualifie d’« écosystème informationnel ».

Un environnement de contenus

Le cloud-computing va ainsi permettre l’émergence, au sens propre comme au figuré, d’un « environnement cliquable », une base de données universelle dans laquelle nous serions en permanence baignés. « Internet va devenir intuitif, comme fonctionne notre cerveau. Il va tenir compte des visites que l’on a faites avant, tenir compte des trajectoires, tenir compte du profil pour proposer des liens. » La dématérialisation de l’information hébergée dans le « nuage » (c’est-à-dire, en définitive, nulle part) permettra de « construire » une personnalité numérique pour chacun et d’ouvrir la voie à un véritable univers parallèle et virtuel, composé de données personnelles, de tags, d’informations affinitaires, de renseignements contextuels qui sera accessible via nos terminaux mobiles, qui nous servent pour l’instant de porte d’accès à ce monde numérique. Le smartphone symbolise aujourd’hui la clé d’accès permanente à ces données « en nuage ». Il est l’outil qui décrypte notre environnement numérique et transporte de plus en plus notre propre profil (via nos répertoires, nos photos, nos playlists, nos tags, etc.). Il va sans doute encore évoluer dans ce sens. « Il y aura une constellation d’informations qui permettront de véritables web services entre les entreprises pour les particuliers et pour les entreprises », précise Joël de Rosnay. On conçoit en effet aisément les avantages que pourront tirer les entreprises d’un tel profilage pour proposer, par la suite, des contenus et des services hyper-ciblés…

Les enjeux de l’éditorialisation

EditorialisationLa prolifération de ces contenus de masse pose désormais la question de l’organisation de cette matière première. Jusqu’à présent, le monde des médias se caractérisait par sa capacité à ordonner un contenu, à l’intégrer dans une ligne éditoriale, une grille de programmes ou un médiaplanning. Désormais, le contenu est délivré brut. Le média n’est plus en charge de l’éditorialiser. D’une certaine manière, l’utilisateur final devient son propre rédacteur en chef, sélectionne son information, la hiérarchise en fonction de son profil ou de ses attentes du moment.

A nouveaux outils, nouvelle organisation des contenus

La presse est le premier secteur à expérimenter ce nouveau mode de consommation de leurs contenus à l’issue de deux événements concomitants : l’arrivée sur le marché des ardoises digitales et celle d’outils d’agrégation de contenus, permettant une sélection par le lecteur des sujets le concernant. Les premières sont considérées par beaucoup comme le sauveur possible de la presse écrite. Elles incarnent la synthèse attendue entre une ergonomie présentant des analogies avec les techniques de mise en page et de prise en main traditionnelles et une connectivité assurant l’ouverture des contenus vers le monde extérieur. Les seconds constituent aujourd’hui des solutions techniques permettant d’agréger sur un support numérique du contenu sélectionné, agencé et éditorialisé selon des codes proches de la presse magazine. Les acteurs majeurs de ce secteur s’appellent Flipboard, Google Currents, News Me, Zite, Postpost ou Paperli. Ils se basent tous sur une rééxploitation des contenus existants sur la toile en les organisant selon des thèmes préétablis par le destinataire afin d’obtenir, à terme, un magazine entièrement personnalisé, feuilletable sur sa tablette. Certains, comme Flipboard, poussant l’analogie jusqu’à reproduire le bruit et l’apparence du feuilletage d’un magazine. Des solutions qui visent aujourd’hui à accroître leurs audiences mais qui posent la question cruciale du financement de ces contenus.

Après les contenus écrits, au tour de l’audiovisuel

La présence, sur le marché, d’acteurs tels que Deezer, Spotify, Napster ou Goom radio montre que l’industrie musicale et le média radio sont aussi concernés par cette volonté des utilisateurs à prendre la main sur l’éditorial par le biais de playlists. Déjà occupé par Apple TV ou Microsoft Media Center, le monde de l’audiovisuel connecté devrait à son tour passer à la vitesse supérieure avec l’arrivée d’un poids lourd du secteur : Google. Son service Google TV permet d’optimiser la connexion de l’écran de télévision du salon à Internet et de l’ouvrir aux contenus audiovisuels diffusés sur la toile. De tels systèmes ont pour objectif de permettre à l’utilisateur non seulement d’aller chercher des contenus sur le Web, mais surtout de pouvoir les organiser dans le but de fabriquer sa propre programmation. Le téléspectateur se transforme ainsi en producteur de sa grille de programmes et peut à tout moment intervenir sur le type de contenus auquel il souhaite accéder.

« Nous ne pensons pas que l’on doive abandonner la manière dont on regarde la télévision. Les utilisateurs pourront donc entrer et sortir du Web sans changer d’application, sans changer de télécommande. Une simple barre de recherche permettra de choisir ce qui vous intéresse entre les deux supports »,

précise Rishi Chandra, Group Product Manager chez Google. Avec un lancement plutôt chaotique, Google TV est symptomatique de la difficulté d’ajustements techniques entre les fabricants de téléviseurs et les producteurs de services, mais est symptomatique de la tendance à s’inscrire dans un univers connecté.

Le papier innove aussi

Les avancées techniques de l’imprimerie ouvrent également le champ à des solutions d’éditorialisation et de personnalisation des supports traditionnels. Les techniques numériques permettent aujourd’hui d’envisager d’imprimer certaines publications à faible tirage. Depuis 2010, par exemple, le journal Le Monde a ainsi changé sa politique de fabrication et de distribution de son quotidien à La Réunion pour permettre à la population locale de recevoir le journal du soir dès 17h00. Les techniques numériques permettent aujourd’hui de transmettre à la fois un fichier facilement par réseau et surtout de pouvoir l’imprimer localement sur une rotative numérique permettant des faibles tirages. Le lecteur réunionnais peut ainsi désormais découvrir les pages du quotidien avant celui de Paris. Plus fort : la Poste Suisse a étoffé son offre avec un service baptisé MyNewspaper, permettant à ses clients de recevoir quotidiennement une publication personnalisée compilant des articles d’une trentaine de journaux différents. Le bénéficiaire peut à loisir personnaliser et éditer sa publication en choisissant ses sujets de prédilection via un site Internet. Même initiative pour le magazine Otograff, dont les contenus disponibles sur Internet peuvent être sélectionnés par l’internaute pour composer sa propre publication qui lui sera envoyée imprimée par courrier. Des solutions qui permettent aux éditeurs de presse de toucher un nouveau lectorat et de trouver des relais de croissance dans l’impression et la diffusion de cette nouvelle forme de publication. Cette expérience tend surtout à prouver que le papier n’a pas encore totalement disparu des dispositifs éditoriaux. De support référent, il constitue désormais une option proposée aux utilisateurs.

Vers une nécessaire industrialisation des contenus ?

Industrialisation des contenusLa production de contenus reste-t-elle encore du ressort de la création ? Si Andy Warhol a prouvé qu’il était possible d’adopter une démarche industrielle dans l’acte de création artistique, on est en droit de se demander si ce modèle est transposable au monde des médias. La question se pose alors même que la croissance du nombre d’acteurs médiatiques interroge sur la capacité du « marché » à produire suffisamment de contenus pour des grilles de programmes toujours plus nombreuses et composites. Si YouTube, Flick’r ou Google sont des médias, ils ne sont rien sans le contenu qu’ils relaient. Les nouveaux modèles contributifs permettant de démultiplier la production de contenus par le plus grand nombre sont une première réponse. Mais laisser la production des contenus à la seule main des contributeurs ne peut pas être une solution satisfaisante à long terme, car elle pose la question fondamentale de l’organisation et de l’animation de ces contenus. Le développement d’une production de contenus à grande échelle, susceptible d’attirer une audience suffisante pour viabiliser un média, impose nécessairement une conception industrielle de la production des contenus. Un enjeu qui n’est pas nouveau puisque les agences de presse ont, dès le XIXe siècle, eu pour mission d’alimenter les différents supports en informations de toutes sortes. Reuters, Associated Press ou encore l’AFP sont autant de sources d’information historiques et plus ou moins officielles qui fournissent les médias en contenus écrits ou audiovisuels. De nouveaux venus, comme Capa, Relaxnews ou News Press font aujourd’hui leur apparition avec une offre plus ciblée.

L’information en self-service

Par ailleurs, les rédactions ont, depuis longtemps déjà, initié une réflexion autour de la mutualisation des contenus permettant d’alimenter les différents titres ou les différents supports d’un même groupe. L’information centrale est souvent dupliquée et son traitement adapté aux spécificités ou à la ligne éditoriale de chaque support. Les salles de rédaction mènent une réflexion permettant d’adapter les méthodes aux usages du numérique et à l’articulation entre les équipes des médias « chauds » et ceux plus adaptés à la réflexion. Le journaliste devient un producteur de contenus et la salle de rédaction se construit désormais sur un modèle permettant de faciliter l’échange et la circulation de l’information entre les différents services et les différents supports. Un modèle visant à « abolir les frontières physiques et culturelles », précise Raju Narisetti, rédacteur en chef au Washington Post.

Pour répondre à toujours plus de réactivité sont apparues depuis quelques années les fermes de contenu telles qu’Associated Contents, Demand Media, Nozzlemedia ou Wizdeo. Leur mission : produire à bas coût un contenu susceptible de nourrir de multiples supports mais surtout capable de drainer une audience suffi sante pour attirer les annonceurs. La mécanique repose sur une démarche selon laquelle les choix et les angles des sujets ne sont plus du ressort de la rédaction en chef ou des comités éditoriaux, mais bien de celui fi xé par la popularité des sujets, évaluée en fonction des principales requêtes remontant des moteurs de recherche à un instant T. Une fois les sujets déterminés par la machine, une batterie de pigistes issus du monde des forums, des blogs ou du journalisme prend la main pour livrer des papiers prêts à être mis en ligne et répondant, de fait, parfaitement à la demande du moment. Un journalisme d’opportunisme par excellence, visant avant tout à générer du clic. « Maximiser l’audience, la monétarisation suivra », confiait James Pitaro, vice-président de Yahoo ! Media au moment du rachat de la ferme Associated Content afin d’alimenter ses sites en contenus. Des contenus visant plus l’efficacité que la qualité, laissant peu de place (et peu de temps) à l’investigation et souvent issus d’une information prémâchée par des équipes de relations presse. Dès lors, on est en droit de se demander où se situe la frontière entre l’information et la communication.

Google Panda et le retour aux contenus originaux

Ce modèle de production de contenus présente aujourd’hui les limites de son principe même. Google, qui tire son efficacité de la pertinence de ses résultats, voit d’un mauvais œil la prolifération de ce type de contenus à faible valeur ajoutée pour l’internaute. Son système de recherche lancé en 2011, baptisé Panda, fait aujourd’hui la chasse à ces sites. La performance de cet algorithme fixe une fois de plus les règles du jeu sur Internet et a fait s’effondrer l’audience de ces sites la plupart du temps fondés sur la seule efficience de leur référencement naturel. Une évolution qui pose aujourd’hui la question de l’avenir des fermes de contenus et celui de tout l’éco-système qui s’était créé tout autour, mais qui ne résout pas pour autant la question de l’industrialisation des méthodes de production de contenus.

Profilage des contenus et libertés individuelles : les risques de débordement

03-03-Pub-conflitCompte tenu des intérêts qui sont en jeu, la généralisation des techniques de profilage publicitaire ne va évidemment pas sans l’arrivée concomitante de quelques conflits d’intérêts. Mettant parfois à mal le respect des droits des personnes à contrôler la diffusion de leurs données personnelles, conformément à la directive européenne 95/46/CE. Selon un baromètre réalisé par ETO et le cabinet d’études Market Audit, 76 % des personnes interrogées estiment que le stockage des données les concernant est problématique, 70 % d’entre elles estimant n’être pas suffisamment informées de l’utilisation qui en est faite par la suite.

La CNIL gardienne des libertés individuelles

La CNIL, partenaire de ce baromètre, veille à ce que l’internaute dispose d’une information aussi claire et complète que possible sur le sujet, ainsi que sur les moyens de contrôler les traces qu’il laisse sur Internet. Elle veille également, au travers de la loi Informatique et Libertés, au contrôle du fichage des informations personnelles. Une tâche qui s’avère ardue dès lors que ces mécanismes d’extraction des données sont souvent automatisés et contrôlés par les grandes majors de la publicité. En témoignent les nombreux litiges qui opposent régulièrement ces dernières aux associations de consommateurs. Comme ces excuses publiques faites par Mark Zuckerberg, fondateur du réseau Facebook, à l’issue du lancement de son service Beacon. Ce système prévoyait d’afficher abusivement les achats, réalisés sur les sites de e-commerce partenaires, dans la page personnelle des internautes, sans pour autant avoir obtenu leur autorisation préalable. Une pratique jugée évidemment intrusive par la communauté et qui a contraint Facebook à faire amende honorable. « Plutôt que de réagir rapidement, nous avons pris trop de temps pour décider de la bonne décision à prendre », a déclaré Mark Zuckerberg sur son blog. Un mea-culpa qui montre à quel point la complexité des fonctionnalités liées à la circulation des informations en ligne et le respect fondamental des données finissent même par échapper à l’état-major du plus gros dépositaire d’informations personnelles au monde. Reste à distinguer ce qui est du domaine de l’« erreur » et de celui de la démarche volontaire.

Entre pratiques frauduleuses et vide juridique

Dans un autre domaine, Phorm a ainsi créé la polémique en Angleterre en 2009. Associé au fournisseur d’accès British Telecom, la société a installé, à l’insu de ses clients, un logiciel espion capable de remonter les informations liées à la navigation sur Internet. À la différence de services tels que Google, eBay ou Fnac.com qui perdent la trace de l’internaute au moment de la déconnexion, Phorm, lui, gardait en mémoire au niveau du serveur du fournisseur d’accès, l’intégralité des agissements sur le Net. Une pratique qui permettait de proposer des contenus publicitaires fortement qualifiés, car tenant compte d’un croisement important des données de navigation. Mais une pratique totalement illégale qui a suscité un certain émoi chez les internautes d’outre-Manche et a conduit la société éditrice du logiciel et le fournisseur d’accès devant les tribunaux. Des pratiques abusives qui ont touché plus récemment la sphère sensible de la téléphonie mobile. L’éditeur de logiciels techniques Carrier IQ a créé la polémique fin 2011 en installant sur certains smartphones fonctionnant sous Android un programme capable de transmettre, sans le consentement de l’utilisateur, un ensemble d’informations relatives à l’usage que ce dernier en fait. Applications utilisées, sites visités, localisations GPS, numéros de téléphone composés : tout était susceptible de remonter vers les serveurs de l’éditeur. Une fonctionnalité permettant d’optimiser la technologie du matériel, selon la ligne de défense du fabricant. Mais une pratique parfaitement illicite, ici aussi, du point de vue de la protection des données et de la vie privée et qui fut largement relayée par le Net, obligeant les fabricants de téléphones à remettre à jour un parc de 140 millions d’appareils dans le monde. Autant de cas qui amènent à se poser la question des risques de généralisation de ces logiciels espions dans l’univers du marketing numérique gourmand en informations individuelles. De l’aveu même de la CNIL :

« La publicité ciblée, et en particulier la publicité comportementale, n’est qu’aux prémices de son développement. Celui-ci est susceptible de poser un certain nombre de défi s au regard de la loi Informatique et Libertés. »

Défis parmi lesquels on compte tout d’abord une propension dangereuse à la concentration des acteurs de la publicité en ligne et à une mainmise d’une quantité phénoménale de contenus personnels par un nombre de plus en plus réduit d’acteurs. Avec pour effet de permettre à ces derniers d’acquérir une position prédominante leur permettant de fixer les règles du jeu, sans réel contre-pouvoir.

Les contenus gratuits peuvent-ils (vraiment) être indépendants ?

Le financement par la publicité devenant le modèle économique de référence pour la plupart des sites de contenus, il en découle que les principaux acteurs de la publicité en ligne possèdent de fait un pouvoir de censure considérable sur les éditeurs. L’autorité de la concurrence a ainsi été saisie en février 2010 pour tenter de statuer sur la position hégémonique occupée par certains acteurs, Google en tête, dans le monde de la publicité en ligne. L’avis rendu présente les risques d’une telle position dominante pour les différents acteurs, clients annonceurs ou éditeurs de contenus. Une situation qui devrait encore s’accentuer depuis le rachat par Google, en 2007, de la régie DoubleClick pour 3,1 milliards de dollars, imposant un peu plus le moteur de recherche comme acteur monopolistique sur le Search et désormais le Display. À tel point que Yahoo!, Microsoft et AOL se sont associés fin 2011 autour d’une offre commune pour tenter de contrer l’essor irrésistible de Google, mais aussi de Facebook, qui s’impose désormais comme le challenger sur le marché des bannières.

Google, juge et partie: une situation intenable

Si Google est régulièrement épinglé pour les pratiques obscures adoptées dans le domaine de l’affichage des publicités, il l’est également pour celui du mode de hiérarchisation des résultats affichés dans son moteur de recherche. Il doit faire face à des dépôts de plaintes réguliers d’annonceurs lui reprochant de favoriser ses propres services dans les résultats proposés, au détriment de ceux d’acteurs jugés trop concurrentiels. La société française Navx, fournisseur de services pour la cartographie numérique, a créé l’événement dans ce domaine en prouvant en 2010 les pratiques discriminatoires du géant de Mountain View. Jugé sans doute comme exerçant une activité trop proche des services Street-view, Google avait purement et simplement bloqué la campagne de liens sponsorisés lancée via le service Adwords par l’entreprise française au début de 2010. L’autorité de la concurrence, saisie par Navx, avait alors jugé que :

« la politique de contenus du service Adwords avait été mise en œuvre par Google dans des conditions qui manquaient d’objectivité et de transparence et qui conduisaient à traiter de façon discriminatoire les fournisseurs de base de données radars ».

Ce précédent n’est pas passé inaperçu chez le géant américain qui a été contraint, depuis, de clarifier le système de fonctionnement Adwords vers plus de transparence dans la relation contractuelle.

La presse peut-elle encore gagner face au géant Google ?

Que dire de la presse qui, face à la position prédominante de certains acteurs, voit ses contenus produits par les journalistes professionnels cannibalisés et monétisés par des géants comme Google ou Facebook, sans pour autant recevoir de compensation financière d’aucune sorte. Google s’est ici encore vu reprocher, par l’autorité de la concurrence, d’agir de manière discriminante en excluant d’office les contenus des éditeurs de presse dans les résultats de recherche quand ceux-ci refusaient de céder les droits de diffusion sur Google Actualités, le service d’agrégation de contenus de presse en ligne de Google.

« Les éditeurs de presse doivent pouvoir demander et obtenir d’être exclus de Google Actualités sans pour autant être déréférencés du moteur Google », précise le communiqué de l’autorité.

Une décision qui n’est toutefois pas sans poser de problèmes de conflits d’intérêts, les éditeurs de presse ayant toujours besoin de cette formidable vitrine qu’est le Net pour trouver des leviers d’audience à leurs contenus. Un conflit qui oppose désormais le géant de Mountain View à la plupart des éditeurs européens et donne lieu à une proposition de loi visant à taxer les gains publicitaires réalisés par Google sur les contenus créés par les titres de presse et indexés dans son moteur de recherche. Un combat de David contre Goliath qui s’en remet aujourd’hui à l’arbitrage du politique.