Sérendipité et surinformation : des filtres nécessaires

InfobésitéLe principe même de recherche sur le Web favorise la sérendipité, c’est-à-dire la capacité à se laisser conduire, de lien en lien, vers une information qu’on ne cherchait pas forcément à l’origine. Le foisonnement des résultats d’un moteur de recherche, les liens hypertextes connectant un type de contenu à un autre, la dimension encyclopédique elle-même du Web permettent à tout un chacun d’accéder à un volume considérable d’informations qu’il devient désormais difficile d’appréhender. Parallèlement, l’information quotidiennement recueillie sur nos mails, mais aussi sur les réseaux sociaux dont nous sommes membres, l’affichage sur les murs, l’accès à une presse gratuite ou des contenus sur le net conduisent inexorablement à ce qu’il est coutume d’appeler l’« infobésité », c’est-à-dire une surabondance d’information rendant son assimilation difficile. « L’infobésité est une tendance bien réelle dans l’entreprise qui fait que chacun est constamment dérangé. En moyenne, un individu possède 12 minutes de temps de cerveau disponible ! » nous dit Nicolas Moinet, professeur des universités en sciences de l’information et de la communication à l’IAE de Poitiers. Et le fait est que, confirmant l’adage selon lequel trop d’information tue l’information, il devient aujourd’hui impossible de capter, retenir et analyser tout ce à quoi nous sommes quotidiennement exposés.

Outils et communautés : des aides à la sélection de l’information

Cette surabondance d’information impose désormais une catégorisation des contenus.

« Il existe une nouvelle tendance d’outils Internet qui permettent de nous guider vers de nouveaux contenus présentant un intérêt pour nos amis », nous dit Ethan Zuckerman, directeur du Center for Civic Media au MIT. « Des outils sociaux comme Reddit, Digg et Slashdot forment des communautés construites autour d’intérêts partagés et nous dirigent vers des sujets accrédités par la communauté (au travers de votes et de mécanismes karmiques) comme étant intéressants et valant le coup d’être partagés. Twitter, et particulièrement Facebook, fonctionnent à un niveau bien plus personnel. Ils nous montrent ce que nos amis savent et ce qu’ils considèrent comme important. »

Notre réseau social, premier filtre

Selon cet éclairage, la constitution des internautes en réseaux sociaux ne serait donc pas uniquement une source d’enrichissement des contenus. Elle formerait également un premier rideau garantissant au moins une communion d’intérêt avec les gens suivis sur Twitter ou des relations entretenues sur Facebook, par exemple. Mais un premier filtre qui présente quelques failles.

« Connaître ce que vos amis connaissent est important », complète Ethan Zuckerman. « Mais à moins que vous n’ayez un réseau d’amis remarquablement diversifié et bien informé, il y a pas mal de chances pour que leur intelligence collective présente des zones d’ombre. »

Le curateur : un journaliste qui s’ignore ?

Pour combler ces faiblesses, la notion très controversée de content curator a fait son apparition. S’il fallait en donner une définition, le « curateur » serait une personne physique ou morale en charge de réceptionner, sélectionner, trier et délivrer une information sur un thème donné pour le compte d’une audience définie. Il aurait donc pour mission de choisir les contenus susceptibles de nous intéresser. « Implicitement, les “curateurs” décident de ce que nous devons savoir sur le monde », nous dit Ethan Zuckerman. Quelle meilleure définition du journalisme ?

Le rôle essentiel de l’éditeur dans le tri de l’information

Internet et son foisonnement de contenus « spontanés » conduiraient donc implicitement à redonner du sens au rôle fondamental d’éditorialisation pris en charge par le journaliste. Le « curateur » serait donc un journaliste qui s’ignore. Par extension, l’éditeur endosserait plus largement cette notion de curation qui s’étend à celle de courtage : il est aujourd’hui en charge de la mise en relation, au travers d’un choix éditorial, entre le contenu et le lecteur. Il est fort probable que l ’avenir conduise à une contextualisation des types de contenus sélectionnés en fonction du moment et des attentes de l’internaute. Pour y parvenir, un certain nombre d’outils font leur apparition sur le Net, permettant d’aider au travail d’éditorialisation, d’une part, et donnant l’accès à un contenu déjà éditorialisé, d’autre part. Des agrégateurs tels que Netvibes ou iGoogle permettent ainsi d’organiser et de personnaliser ses contenus par grands centres d’intérêt alors que des fonctionnalités comme Google News autorisent un travail de veille de tout ce qui circule sur le Web sur un sujet donné. Entre travail de documentaliste et de composition, certaines initiatives intéressantes, comme Pearltrees, paper.li ou Scoop.it permettent d’agréger et d’organiser des contenus issus de thèmes donnés afin de les partager avec son réseau.

De l’accès à un contenu universel vers un Internet de niches

Le succès des tablettes tactiles et l’intérêt porté à certaines applications comme Flipboard pour l’iPad signalent le besoin, pour les utilisateurs, de retrouver les codes graphiques et ergonomiques des supports traditionnels et de restructurer l’information sous une forme qui avait été peut-être perdue sur Internet. Tous ces exemples montrent qu’il existe une tendance large au retour à un modèle traditionnel. L’époque d’un Internet symbole d’un accès à des contenus universels cède la place à celle d’un Internet de niches, sélectionnant une information hyper-catégorisée en fonction des attentes et des affinités de chaque individu.

« Nous qui sommes des éditeurs de Radio Classique, nous voyons apparaître dans la catégorie classique plus de mille radios qui permettent d’écouter de la musique classique », nous dit Nicolas Beytout, alors PDG du Groupe Les Échos, au sujet de l’émergence des webradios. « Il y a des radios spécialisées Beethoven, des radios spécialisées hautbois, des radios spécialisées orchestres de Chicago. »

Une forme d’hyper-segmentation qui se retrouve aujourd’hui sur tous les médias et qui permet au citoyen de choisir des contenus correspondant à ses affinités.

Émergence des communautés : les contenus s’enrichissent, l’information se catégorise

CommunautésÉlément fondateur des réseaux sociaux, le principe de communautés est en train de transformer les modes de communication et d’information. Les sites référents comme Facebook, LinkedIn ou Viadeo, pour les plus connus, ont eu pour effet de donner la parole à des communautés dont les interconnexions tissent une toile inextricable entre les individus. Cette tendance de nos sociétés postmodernes a été identifiée par le sociologue Michel Maffesoli avant la généralisation d’Internet et correspond, semble-t-il, à un retour à une certaine forme de tribalité. L’arrivée des réseaux sociaux ne serait donc qu’un révélateur de cette tendance. « Internet recrée des tribus : sexuelles, musicales, religieuses, sportives… Ces multiples petites tribus se regroupent autour d’une icône, d’un totem », nous dit celui qui a introduit cette notion de néotribu pour désigner le regroupement des individus autour d’images représentatives de la communauté.

La tribu, créatrice de valeur

Cette notion de tribu est fondamentale dans la conception moderne d’élaboration des contenus. Le sentiment d’appartenance à une communauté est en effet à l’origine de la notion de « folksonomie », c’est-à-dire la capacité de confier au plus grand nombre, de manière décentralisée et autonome, l’organisation et l’enrichissement d’un contenu, d’un savoir. Cette approche ouvre le champ des possibles en matière de développement d’une ressource initiale par les différents contributeurs des cercles communautaires. Elle donne la possibilité d’expérimenter, de proche en proche, des pistes qui seraient restées inexplorées si elles avaient été le fait d’un seul individu ou d’une entreprise. Cette tendance à l’interconnexion des individus remet également au goût du jour le « phénomène de petit monde » exploré en 1967 par le psycho-sociologue Stanley Milgram, établissant l’hypothèse que chaque individu puisse être relié au reste du monde par une chaîne de relation sociale à six degrés maximum.

Le monde interconnecté : les limites de l’exercice

Cette théorie est au cœur du potentiel rendu tangible par la mise en place des réseaux sociaux sur Internet, alors même que de nouvelles expériences tendent aujourd’hui à démontrer que les six degrés entre individus se réduiraient finalement à quatre par l’entremise de ces réseaux sociaux. Quoi qu’il en soit, si cette relation s’avère vraie, alors nous aurions potentiellement la possibilité d’accéder simplement à un savoir universel. Or, cette conception échappe au domaine de l’humain. Elle pose donc un autre principe fondamental : celui de la capacité intellectuelle à recevoir, traiter et absorber une quantité sans cesse grandissante d’informations. La profusion des médias de diffusion entraîne une surexposition croissante à l’information, qu’elle soit professionnelle, publicitaire ou liée à l’actualité. Aujourd’hui, cette information s’échange, se relaie de manière informelle, permanente, intangible entre chaque individu selon des flux complexes, sans traçabilité claire, sans émetteur centralisé. Sans filtre, elle devient paradoxalement inaccessible. Un des enjeux de l’information moderne sera donc lié à la capacité de trier, sélectionner et filtrer l’information en fonction de ses centres d’intérêt, ses affinités, ses attentes du moment. Pour cela, les communautés auxquelles chacun appartient auront un rôle de recommandation primordial à jouer.

« C’est une période très intéressante car c’est la fin d’un Web tel que nous l’avons connu », nous dit Georges Nahon président d’Orange Labs de San Francisco en parlant de l’avenir des échanges de contenus au travers des réseaux sociaux. « L’essentiel de la consommation de l’information ou de services viendra de la recommandation implicite ou explicite que feront les différents réseaux. »

Les enjeux de l’éditorialisation

EditorialisationLa prolifération de ces contenus de masse pose désormais la question de l’organisation de cette matière première. Jusqu’à présent, le monde des médias se caractérisait par sa capacité à ordonner un contenu, à l’intégrer dans une ligne éditoriale, une grille de programmes ou un médiaplanning. Désormais, le contenu est délivré brut. Le média n’est plus en charge de l’éditorialiser. D’une certaine manière, l’utilisateur final devient son propre rédacteur en chef, sélectionne son information, la hiérarchise en fonction de son profil ou de ses attentes du moment.

A nouveaux outils, nouvelle organisation des contenus

La presse est le premier secteur à expérimenter ce nouveau mode de consommation de leurs contenus à l’issue de deux événements concomitants : l’arrivée sur le marché des ardoises digitales et celle d’outils d’agrégation de contenus, permettant une sélection par le lecteur des sujets le concernant. Les premières sont considérées par beaucoup comme le sauveur possible de la presse écrite. Elles incarnent la synthèse attendue entre une ergonomie présentant des analogies avec les techniques de mise en page et de prise en main traditionnelles et une connectivité assurant l’ouverture des contenus vers le monde extérieur. Les seconds constituent aujourd’hui des solutions techniques permettant d’agréger sur un support numérique du contenu sélectionné, agencé et éditorialisé selon des codes proches de la presse magazine. Les acteurs majeurs de ce secteur s’appellent Flipboard, Google Currents, News Me, Zite, Postpost ou Paperli. Ils se basent tous sur une rééxploitation des contenus existants sur la toile en les organisant selon des thèmes préétablis par le destinataire afin d’obtenir, à terme, un magazine entièrement personnalisé, feuilletable sur sa tablette. Certains, comme Flipboard, poussant l’analogie jusqu’à reproduire le bruit et l’apparence du feuilletage d’un magazine. Des solutions qui visent aujourd’hui à accroître leurs audiences mais qui posent la question cruciale du financement de ces contenus.

Après les contenus écrits, au tour de l’audiovisuel

La présence, sur le marché, d’acteurs tels que Deezer, Spotify, Napster ou Goom radio montre que l’industrie musicale et le média radio sont aussi concernés par cette volonté des utilisateurs à prendre la main sur l’éditorial par le biais de playlists. Déjà occupé par Apple TV ou Microsoft Media Center, le monde de l’audiovisuel connecté devrait à son tour passer à la vitesse supérieure avec l’arrivée d’un poids lourd du secteur : Google. Son service Google TV permet d’optimiser la connexion de l’écran de télévision du salon à Internet et de l’ouvrir aux contenus audiovisuels diffusés sur la toile. De tels systèmes ont pour objectif de permettre à l’utilisateur non seulement d’aller chercher des contenus sur le Web, mais surtout de pouvoir les organiser dans le but de fabriquer sa propre programmation. Le téléspectateur se transforme ainsi en producteur de sa grille de programmes et peut à tout moment intervenir sur le type de contenus auquel il souhaite accéder.

« Nous ne pensons pas que l’on doive abandonner la manière dont on regarde la télévision. Les utilisateurs pourront donc entrer et sortir du Web sans changer d’application, sans changer de télécommande. Une simple barre de recherche permettra de choisir ce qui vous intéresse entre les deux supports »,

précise Rishi Chandra, Group Product Manager chez Google. Avec un lancement plutôt chaotique, Google TV est symptomatique de la difficulté d’ajustements techniques entre les fabricants de téléviseurs et les producteurs de services, mais est symptomatique de la tendance à s’inscrire dans un univers connecté.

Le papier innove aussi

Les avancées techniques de l’imprimerie ouvrent également le champ à des solutions d’éditorialisation et de personnalisation des supports traditionnels. Les techniques numériques permettent aujourd’hui d’envisager d’imprimer certaines publications à faible tirage. Depuis 2010, par exemple, le journal Le Monde a ainsi changé sa politique de fabrication et de distribution de son quotidien à La Réunion pour permettre à la population locale de recevoir le journal du soir dès 17h00. Les techniques numériques permettent aujourd’hui de transmettre à la fois un fichier facilement par réseau et surtout de pouvoir l’imprimer localement sur une rotative numérique permettant des faibles tirages. Le lecteur réunionnais peut ainsi désormais découvrir les pages du quotidien avant celui de Paris. Plus fort : la Poste Suisse a étoffé son offre avec un service baptisé MyNewspaper, permettant à ses clients de recevoir quotidiennement une publication personnalisée compilant des articles d’une trentaine de journaux différents. Le bénéficiaire peut à loisir personnaliser et éditer sa publication en choisissant ses sujets de prédilection via un site Internet. Même initiative pour le magazine Otograff, dont les contenus disponibles sur Internet peuvent être sélectionnés par l’internaute pour composer sa propre publication qui lui sera envoyée imprimée par courrier. Des solutions qui permettent aux éditeurs de presse de toucher un nouveau lectorat et de trouver des relais de croissance dans l’impression et la diffusion de cette nouvelle forme de publication. Cette expérience tend surtout à prouver que le papier n’a pas encore totalement disparu des dispositifs éditoriaux. De support référent, il constitue désormais une option proposée aux utilisateurs.

Vers une nécessaire industrialisation des contenus ?

Industrialisation des contenusLa production de contenus reste-t-elle encore du ressort de la création ? Si Andy Warhol a prouvé qu’il était possible d’adopter une démarche industrielle dans l’acte de création artistique, on est en droit de se demander si ce modèle est transposable au monde des médias. La question se pose alors même que la croissance du nombre d’acteurs médiatiques interroge sur la capacité du « marché » à produire suffisamment de contenus pour des grilles de programmes toujours plus nombreuses et composites. Si YouTube, Flick’r ou Google sont des médias, ils ne sont rien sans le contenu qu’ils relaient. Les nouveaux modèles contributifs permettant de démultiplier la production de contenus par le plus grand nombre sont une première réponse. Mais laisser la production des contenus à la seule main des contributeurs ne peut pas être une solution satisfaisante à long terme, car elle pose la question fondamentale de l’organisation et de l’animation de ces contenus. Le développement d’une production de contenus à grande échelle, susceptible d’attirer une audience suffisante pour viabiliser un média, impose nécessairement une conception industrielle de la production des contenus. Un enjeu qui n’est pas nouveau puisque les agences de presse ont, dès le XIXe siècle, eu pour mission d’alimenter les différents supports en informations de toutes sortes. Reuters, Associated Press ou encore l’AFP sont autant de sources d’information historiques et plus ou moins officielles qui fournissent les médias en contenus écrits ou audiovisuels. De nouveaux venus, comme Capa, Relaxnews ou News Press font aujourd’hui leur apparition avec une offre plus ciblée.

L’information en self-service

Par ailleurs, les rédactions ont, depuis longtemps déjà, initié une réflexion autour de la mutualisation des contenus permettant d’alimenter les différents titres ou les différents supports d’un même groupe. L’information centrale est souvent dupliquée et son traitement adapté aux spécificités ou à la ligne éditoriale de chaque support. Les salles de rédaction mènent une réflexion permettant d’adapter les méthodes aux usages du numérique et à l’articulation entre les équipes des médias « chauds » et ceux plus adaptés à la réflexion. Le journaliste devient un producteur de contenus et la salle de rédaction se construit désormais sur un modèle permettant de faciliter l’échange et la circulation de l’information entre les différents services et les différents supports. Un modèle visant à « abolir les frontières physiques et culturelles », précise Raju Narisetti, rédacteur en chef au Washington Post.

Pour répondre à toujours plus de réactivité sont apparues depuis quelques années les fermes de contenu telles qu’Associated Contents, Demand Media, Nozzlemedia ou Wizdeo. Leur mission : produire à bas coût un contenu susceptible de nourrir de multiples supports mais surtout capable de drainer une audience suffi sante pour attirer les annonceurs. La mécanique repose sur une démarche selon laquelle les choix et les angles des sujets ne sont plus du ressort de la rédaction en chef ou des comités éditoriaux, mais bien de celui fi xé par la popularité des sujets, évaluée en fonction des principales requêtes remontant des moteurs de recherche à un instant T. Une fois les sujets déterminés par la machine, une batterie de pigistes issus du monde des forums, des blogs ou du journalisme prend la main pour livrer des papiers prêts à être mis en ligne et répondant, de fait, parfaitement à la demande du moment. Un journalisme d’opportunisme par excellence, visant avant tout à générer du clic. « Maximiser l’audience, la monétarisation suivra », confiait James Pitaro, vice-président de Yahoo ! Media au moment du rachat de la ferme Associated Content afin d’alimenter ses sites en contenus. Des contenus visant plus l’efficacité que la qualité, laissant peu de place (et peu de temps) à l’investigation et souvent issus d’une information prémâchée par des équipes de relations presse. Dès lors, on est en droit de se demander où se situe la frontière entre l’information et la communication.

Google Panda et le retour aux contenus originaux

Ce modèle de production de contenus présente aujourd’hui les limites de son principe même. Google, qui tire son efficacité de la pertinence de ses résultats, voit d’un mauvais œil la prolifération de ce type de contenus à faible valeur ajoutée pour l’internaute. Son système de recherche lancé en 2011, baptisé Panda, fait aujourd’hui la chasse à ces sites. La performance de cet algorithme fixe une fois de plus les règles du jeu sur Internet et a fait s’effondrer l’audience de ces sites la plupart du temps fondés sur la seule efficience de leur référencement naturel. Une évolution qui pose aujourd’hui la question de l’avenir des fermes de contenus et celui de tout l’éco-système qui s’était créé tout autour, mais qui ne résout pas pour autant la question de l’industrialisation des méthodes de production de contenus.