Le nouveau diktat de la transparence

TransparenceEn laissant la parole à l’homme de la rue, Internet a aussi ouvert une boîte de Pandore. Les nouveaux médias et les fonctionnalités du Web 2.0 ont potentiellement fait disparaître les filtres que peuvent représenter l’éditeur ou le rédacteur en chef. Une liberté de parole qui n’est pas toujours garante de qualité, mais qui favorise la spontanéité et la transparence des propos que l’on peut trouver sur le Web. C’est désormais au lecteur de jouer le rôle de filtre et de savoir trier le bon grain de l’ivraie dans le volume considérable et de qualité inégale des propos disponibles sur le Net. La faculté de réaction de la folksonomie sur les médias en ligne est un premier garant d’autocontrôle des propos et un outil puissant de débat. Le « mauvais geste », le réajustement stratégique discret ou la fausse déclaration ont aujourd’hui peu de chance de passer au travers des mailles étroites du filet de la blogosphère, qui les reprendront et les commenteront avant qu’elles ne soient éventuellement exploitées et mises au ban par les relais plus traditionnels que sont les grands médias. Le fact-checking constitue une autre caution de véracité des propos. Cette nouvelle pratique journalistique consiste à systématiser la vérification des faits et des affirmations politiques dans le but de faire émerger les éventuelles contradictions et révéler la vérité. Des sites Internet comme les décodeurs en France ou Politifact aux États-Unis se sont spécialisés dans ce type de révélations et constituent un contre-pouvoir performant. Parallèlement, le data-journalisme se veut être une nouvelle méthode d’investigation objective fondée uniquement sur le décryptage et l’analyse de données chiffrées. D’une manière comme d’une autre, ces nouveaux modes de journalisme participent à une volonté de plus de transparence de la part des acteurs de la sphère publique comme dans les méthodes d’investigation.

Dissimuler, c’est prendre le risque d’être exposé

Internet est donc devenu un vecteur puissant de transparence, dans la mesure où les propos diffamatoires, les mensonges ou les tentatives de manipulation courent le risque d’être révélés au plus grand nombre et amplifiés par l’effet de réseau. Un phénomène qualifié d’effet Streisand, en référence à une affaire qui opposa, en 2003, Barbara Streisand à un photographe au sujet d’une photographie de la maison de l’actrice publiée sans son consentement sur Internet. Cette plainte, considérée comme une tentative de censure par les internautes, eut pour effet de démultiplier sa diffusion sur les réseaux et donna, contrairement à ce qui était attendu, une visibilité mondiale à ce qui n’était à l’origine qu’une banale affaire de droit à l’image. Des affaires comme celle-là, Internet n’en manque pas et s’en fait même une spécialité. Des contenus de sex-tapes mystérieusement mis en ligne aux propos off the record des politiques relayés sur les réseaux sociaux, ces affaires prouvent qu’il est vain, voire dangereux de tenter de s’opposer à la diffusion d’une information sous peine de la voir immédiatement mise sur le devant de la scène numérique.

Une transparence de rigueur

L’État, l’entreprise ou la personne publique seraient donc désormais contraints à la transparence lorsqu’ils prennent la parole, sous peine de réaction immédiate et parfois violente de la part du citoyen dans le cas inverse.

« Dans nos sociétés contemporaines, démocratiques, ouvertes, il sera de plus en plus difficile, pour le pouvoir, d’avoir une double politique : l’une vis-àvis de l’extérieur, et l’autre plus opaque, plus secrète, à usage interne, où le droit et les lois peuvent être transgressés », nous dit Ignacio Ramonet.

Pour autant, toute vérité est-elle forcément bonne à dire ? En la matière, deux courants s’affrontent.

Wikileaks ou l’esprit libertaire d’Internet

L’exemple de Wikileaks nous fournit quelques éléments de réponse sur le sujet. Son principe, consistant à porter à la connaissance du plus grand nombre, de manière anonyme, les fuites d’informations juridiques, militaires ou financières a élevé la transparence au rang de valeur inaliénable et de conviction militante. « Nous sommes une organisation qui tente de faire un monde plus civique et agissons contre toutes organisations irrespectueuses qui tentent de tirer dans une direction opposée », confesse Julian Assange, le principal porte-parole du site. Avec, à son actif, des affaires comme les dérapages de l’armée américaine en Irak, les crimes de guerre commis en Afghanistan, la révélation de comptes en banques domiciliés dans les paradis fiscaux ou celle des critères de sécurité obsolètes des centrales nucléaires japonaises, Wikileaks fait office de porte-drapeau des défenseurs de la transparence absolue des propos sur Internet et se révèle être un contre-pouvoir redoutable contre toutes les sortes d’abus des détenteurs de pouvoirs de ce monde. La preuve en est que l’association a dû lutter de nombreuses fois contre les tentatives de certains lobbies de fermer le site par des voies légales, financières ou d’intimidation. Preuve que son action ne convient pas à tout le monde. De son côté, Google, rarement reconnu comme un exemple en matière de clarté, publie semestriellement un rapport de transparence relayant les « demandes de retrait de contenus et de divulgation d’informations sur des internautes émanant d’agences gouvernementales et de tribunaux du monde entier », qui permet de connaître la nature des demandes de retrait d’informations des moteurs de recherche provenant des plus hautes institutions des États. Un outil de transparence qui, aux côtés de modèles comme Wikileaks, ouvre la voie et conduit désormais les grandes organisations à considérer la sincérité et l’honnêteté comme des alternatives possibles à l’autorité.

De la transparence à la tyrannie

Pour autant, peut-on considérer que les révélations et la transparence à tout prix soient une garantie de plus de démocratie ? Doivent-elles se faire au détriment de certaines règles déontologiques ou légales ?

« Je trouve formidable la transparence, que tout sorte à la lumière. Cela nous préserve des intrigues, des manœuvres, des mensonges », déclare l’écrivain nobélisé Mario Vargas Llosa, pourfendeur de toute forme de dictature. « D’un autre côté, si tout sort à la lumière, si disparaît toute forme de confidentialité, de secret, je ne vois pas comment pourrait fonctionner un État. (…) Les États seraient d’une telle vulnérabilité que les institutions (…), l’essence même de la démocratie, seraient en danger. »

Et, de fait, la course à la révélation peut devenir profondément liberticide. En témoigne le scandale des écoutes téléphoniques du News of the World qui a secoué le monde de la presse au Royaume-Uni. Des pratiques qui se sont allègrement jouées de tout cadre réglementaire, allant jusqu’à des affaires de corruption de policiers susceptibles de fournir des informations pour nourrir les colonnes du tabloïd de Rupert Murdoch. La transparence s’apparente, dans ce cas, plus à la préoccupation de pouvoir nourrir les curiosités parfois morbides d’un public adepte des scandales.

« La technologie permet la transparence, ce n’est pas une raison suffisante pour tout rendre transparent », nous dit Thierry Crouzet. « Nous avons le droit au secret. Et si nous avons ce droit individuellement, nous ne pouvons faire autrement que de garantir aussi le secret des entités collectives. Cela signifie que nous devons décider des données à rendre transparentes, de celles qu’il est préférable de garder secrètes, tout au moins dans l’instantanéité. »

La transparence ne serait donc pas cette panacée que certains veulent bien nous faire croire. Pire, elle pourrait être à la source d’une déstabilisation du système politique des grandes démocraties, dans le sens où ce sont elles qui ont le plus à craindre de ces révélations.

La sincérité est le sentiment le plus toléré sur Internet

Reste que le sujet de la transparence est aujourd’hui un fait sur le réseau. L’individu, l’entreprise ou l’État se doivent aujourd’hui d’adopter un ton direct sur le Net, voire d’assumer leurs erreurs, les avouer, les argumenter si nécessaire. A contrario, celui qui n’est pas limpide dans ses propos peut être rapidement soupçonné d’avoir des choses à dissimuler. Cette tendance fait émerger un nouveau comportement de la part des individus, qui considèrent aujourd’hui la franchise comme une sorte de courage alors que la tentative de dissimulation, qui est tôt ou tard mise à jour par les arcanes complexes et incontrôlables d’Internet, est immédiatement sanctionnée. À moins de s’appeler Google ou Facebook, la transparence est donc une tendance de fond à laquelle toutes entreprises et organisations doivent désormais s’astreindre au-delà des données sociales ou d’éthique auxquelles elles sont désormais légalement amenées à apporter des preuves. Sous peine d’avoir un jour à présenter des comptes.

Quelle pérennité pour quel modèle économique ?

Quel modèle économique ?Conformément à la prédiction de Chris Anderson, la gratuité s’est aujourd’hui imposée pour les contenus de tous les secteurs du numérique : du logiciel à la musique en streaming, du conseil aux contenus vidéo, des émissions de radio aux programmes télé. Pour autant, peut-on raisonnablement considérer la gratuité comme un principe viable à long terme ? L’industrie musicale nous prévient déjà que le piratage d’aujourd’hui condamne la créativité de demain. Pour sa part, la presse online florissante ne parvient toujours pas à trouver son équilibre financier et puise aujourd’hui la plupart de ses ressources dans les recettes des médias traditionnels. Le modèle économique de la production de contenus peine à s’imposer et à trouver son équilibre. Or, aujourd’hui, le secteur de la presse écrite est en crise. En France, certains titres ne survivent que par les subventions qu’ils perçoivent. Aux États-Unis, 120 quotidiens ont purement et simplement disparu entre 2008 et 2010 alors que le volume de diffusion de la presse chute de 10 % par an. Dès lors, si les revenus des supports historiques ne permettent plus d’assurer le financement des contenus en ligne, la gratuité est-elle encore envisageable ?

Est-il possible de revenir à un modèle payant ?

Face à cette évolution, certains médias ont d’ores et déjà commencé à amorcer un retour à la raison et à redécouvrir les vertus du payant. Avec comme question centrale : Comment (re)monétiser l’accès aux contenus sans pour autant faire fuir le lecteur ? Dans ce cadre, l’exemple du Times est dans toutes les mémoires : étant revenu à un modèle d’accès payant à ses contenus en ligne en 2010, le site britannique a vu son audience s’effondrer instantanément de 22 millions à 200 000 lecteurs. Une fracture difficilement soutenable sans effets collatéraux sur la qualité des contenus.

« Il n’y a plus de raisons pour que les médias restent gratuits. Le gratuit va se dégrader d’autant plus que des versions payantes apparaissent et offrent au consommateur des surcroîts d’utilité », nous dit Olivier Bomsel. « Ainsi, les Deezer et autres Spotify peuvent obtenir d’autant plus de titres à faire entendre que leurs clients payants sont nombreux. S’ils ont assez d’abonnés en clair, ils ont intérêt à dégrader le gratuit pour vendre du premium… »

Une nouvelle situation qui pourrait changer la donne pour l’avenir.

Le micropaiement, avenir du payant en ligne ?

Le micropaiement, permettant d’acheter des contenus en ligne, semble peu à peu s’imposer comme modèle pour les contenus musicaux ou la VOD. La mise en place de plateformes comme l’iTune Store tend à prouver que la gratuité n’est pas une fatalité pour l’accès aux contenus audiovisuels et qu’un modèle payant est possible, dès lors qu’il n’est pas vécu comme une contrainte par l’utilisateur. La simplicité de l’acte d’achat, le débit automatique d’un compte centralisé et le volume du catalogue disponible ont ainsi propulsé la boutique d’Apple au premier plan des catalogues de vente en ligne, aux côtés de challengers tels que Google Music Store ou Amazon MP3 et enrayé par là même une partie de l’hémorragie due au piratage. Beaucoup de grands titres de presse, comme Le Monde, le New York Times ou le Wall Street Journal et certains pure players comme Médiapart ou Quoi.info font aujourd’hui le pari du freemium, modèle hybride faisant coexister des contenus libres d’accès avec des informations ou des services exclusifs réservés aux abonnés. Une formule qui semble émerger aujourd’hui comme alternative à la gratuité sans pour autant faire fuir les lecteurs. L’arrivée des smartphones et surtout des tablettes devrait encore contribuer à développer ce modèle tout en faisant émerger un nouveau mode d’accès payant : celui des kiosques comme ePresse, lancé en 2011 par le GIE Presse Premium composé des grands groupes de presse français et donnant accès sur un abonnement commun à des titres comme Le Figaro, Le Parisien, Aujourd’hui en France, Libération, L’Équipe, Le Nouvel Observateur, Le Point ou L’Express. Une initiative visant à contrer le géant Apple qui tente, par sa position hégémonique, d’imposer un système de redevance aux éditeurs de presse.

Entre information et communication : les risques des contenus financés par les marques

Face à ces offres émergentes, la prédominance des contenus gratuits fait également apparaître un type de financement beaucoup plus discutable car plus insidieux : celui des contenus « sponsorisés » par les marques. Ce qu’Hubert Beuve-Méry, fondateur du Monde, appelait « la presse d’industrie », c’est-à-dire dépendante des grands argentiers. Ce principe a pris une nouvelle mesure avec les médias audiovisuels et aujourd’hui ceux en ligne. Alors que les principaux groupes de presse sont aujourd’hui déjà financés par des industriels du CAC40, la dépendance à la publicité et la nécessité de remplir des grilles de programmes suscitent plus que jamais le doute sur les risques d’amalgame entre l’information et la communication.

« Il est de plus en plus difficile de distinguer ce qui relève de l’information, de la communication ou de la culture de masse. De plus en plus, un discours publicitaire et un titre de journal sont imaginés sur le même principe : accrocher, prendre des licences parfois importantes par rapport au contenu », nous dit Ignacio Ramonet.

Et, de fait, devant une certaine forme de démission des médias, les entreprises et les marques prennent aujourd’hui le relais et nous délivrent à leur tour de l’information.

Quelle éthique pour les contenus sponsorisés ?

Les méthodes employées sont couramment empruntées aux techniques de communication, délivrant un message en phase avec les attentes du lecteur ou du téléspectateur. Alors que la charte éthique précise que le journalisme « ne peut se confondre avec la communication », on est en droit de se demander si le rôle de l’information est de forcément satisfaire son audience. « L’information fatigue. La communication rassure, harmonise le corps social avec lui-même et avec le monde extérieur », nous dit le philosophe Daniel Bougnoux. Une situation qui pose toutefois un véritable problème de visibilité pour les lecteurs : jusqu’où les contenus élaborés par une marque, une entreprise ou une tierce personne sont-ils légitimes, crédibles. Peuvent-ils être considérés comme indépendants ? Et leur généralisation ne constitue-t-elle pas un problème d’éthique ? La vocation commerciale disparaît-elle toujours avec le logo de la marque ?

la monétisation passe par une information à valeur ajoutée

La généralisation de la gratuité des contenus présente les risques d’une diminution globale de la qualité et d’une limitation de la diversité éditoriale, voire à sa concentration aux mains de quelques acteurs monopolistiques. Après une période d’euphorie du « tout gratuit », les acteurs du Web semblent donc revenir à un certain réalisme économique. Producteurs de contenus comme utilisateurs prennent peu à peu conscience de la nécessité de revenir à un modèle plus raisonnable. Reste qu’il est plus difficile de sortir d’un modèle du tout gratuit vers du payant que l’inverse. L’audience, qui s’est transformée peu à peu en utilisateur et aujourd’hui en consommateur, cherche avant tout une valeur ajoutée dans ce qu’il est d’usage d’appeler l’expérience utilisateur. C’est la capacité à faire émerger une valeur ajoutée aux contenus délivrés qui constituera l’avenir de la presse en ligne. Cette valeur ajoutée passe par l’agrément, l’appartenance à une communauté, les cadeaux, l’ergonomie ou l’objet. Peu importe. Les producteurs de contenus doivent toutefois désormais intégrer cette donnée dans leur offre pour donner le sentiment de valoir « plus que le gratuit ».

Accès aux contenus : le dogme de la gratuité

Contenus gratuitsInternet apparaît aujourd’hui encore comme un terrain de liberté. À ce titre, il s’impose par extension comme un domaine de libre accès à une information pléthorique.

« Le Web est devenu le monde de la gratuité », nous dit Chris Anderson, rédacteur en chef du magazine Wired. « Les coûts sur Internet vont tous dans la même direction : vers zéro (…). Il est désormais clair que tout ce que le numérique touche évolue vers la gratuité » complète-t-il.

De fait, le Web a, dès son origine, installé la gratuité en tant que principe de base, remettant en question le modèle économique des acteurs traditionnels, bousculés par celui des nouveaux arrivants comme Google.

« Le “gratuit” est apparu explicitement en France fin 1998 avec les fournisseurs d’accès Internet (FAI) gratuits », nous rappelle Olivier Bomsel, professeur d’économie industrielle à l’École des Mines, auteur du livre Gratuit!. « Les World-Online, Freeserve, Freesbee, Free et autres Liberty Surf ont proposé alors des formules d’abonnement gratuit, avec communications payantes. Ensuite, le gratuit s’est étendu avec le déploiement du haut débit en 2002. Le haut débit s’est déployé grâce au piratage massif de la musique via les réseaux peer-to-peer ».

Dès lors, comment financer la production de contenus dans le cadre d’une gratuité de leur accès ?

La musique, aux origines des contenus gratuits sur le net

Dès 1999, Napster fut un des premiers acteurs à révéler la mutation des usages en permettant l’échange direct de fichiers musicaux entre internautes, s’affranchissant des redevances et des droits d’auteur traditionnellement dus sur l’exploitation d’une œuvre artistique. Sony, Polygram, Universal, Virgin et les autres grandes maisons de disques prirent rapidement conscience du risque et s’allièrent pour tenter de faire tomber ce perturbateur. Napster fut contraint de fermer son service en mars 2001, non sans avoir auparavant amorcé le déclin du CD en tant que support musical et installé le format MP3 comme symbole de la désincarnation et de la gratuité sur le Net. Une première brèche était désormais ouverte dans le sanctuaire de l’industrie du disque et du cinéma. De nombreux acteurs s’y sont engouffrés dans la foulée, entraînant une réaction du secteur allant jusqu’à la mise en place d’un cadre législatif, désormais matérialisé par la loi Hadopi, en France. Pour autant, le rythme législatif et judiciaire ne parvient pas à rivaliser avec l’adaptabilité et la réactivité de l’éco-système Internet. En septembre 2011, le site d’écoute musicale gratuit Deezer, qui avait refusé les conditions d’Universal Music France à limiter son offre gratuite à cinq écoutes, a ainsi remporté une victoire judiciaire décisive sur son adversaire, remettant en question la position dominante des éditeurs de musique.

L’erreur des contenus éditoriaux gratuits sur le net

Parallèlement à cette révolution musicale et à l’apparition d’une presse quotidienne gratuite, sur le modèle de 20Minutes ou Métro, les supports de presse ont entamé à leur tour la conquête du Web en diffusant leurs contenus en ligne, considérant dans un premier temps Internet comme un relais d’audience efficace et une source de fidélisation pour leurs contenus et installant durablement le modèle de la gratuité comme un dû dans l’esprit des gens. « La presse ancienne a fait une erreur historique en mettant ces contenus gratuitement sur le Web. C’est la première bataille que j’ai perdue au Monde », confesse Edwy Plenel, ancien rédacteur en chef du Monde et fondateur de Médiapart. De fait, le dogme de la gratuité remet aujourd’hui fortement en question un pan entier de l’économie de l’information ainsi que la condition des producteurs de contenus dans leur ensemble.

Google livre, ou la littérature en accès libre

Dernier en date, le monde de l’édition est en passe de connaître à son tour sa révolution du gratuit , remettant en cause le modèle économique et le rôle même des éditeurs, des distributeurs et des librairies. Google, à travers son programme de numérisation massive du patrimoine littéraire mondial amorcé en 2004, met à disposition le contenu d’un fonds de plus de 15 millions d’ouvrages en ligne, la plupart tombés dans le domaine public ou non réédités. Les conditions dans lesquelles les accords ont été passés avec les bibliothèques et la gestion exotique des droits d’auteur ont conduit à une levée de boucliers d’un très grand nombre d’acteurs de l’édition, notamment en France.

« Google est entré en Europe en conquérant et beaucoup lui ont ouvert la porte en signant des accords que je trouve inacceptables. Ils reposent sur une confidentialité excessive, des exclusivités impossibles, des clauses désinvoltes, voire léonines au regard du droit d’auteur », avait déclaré Frédéric Mitterrand à son encontre.

Néanmoins, la force de frappe et la capacité de numérisation du géant américain en font aujourd’hui l’acteur incontournable de la préservation du patrimoine littéraire mondial. Google fait donc ainsi entrer la gratuité dans les usages du livre, chamboulant encore un peu plus un secteur déjà lourdement plombé par l’arrivée des liseuses numériques et remettant en question le principe même de droit d’auteur, jugé obsolète par certains et inaliénable par d’autres.

Du copyright au Creative Commons

Dans le même temps, les œuvres publiées sous licence Creative Commons sont des alternatives intéressantes au copyright traditionnel. Elles permettent une diffusion libre des contenus d’un ouvrage tout en garantissant un cadre juridique à son auteur grâce à un système de licence régissant les droits d’utilisation de l’œuvre par autrui. Ce système, largement utilisé dans le cadre d’ouvrages relatifs à l’univers d’Internet, contribue à faciliter la diffusion et l’accès à certaines œuvres culturelles. Il contribue encore un peu plus à installer le gratuit comme une option possible pour la diffusion d’une œuvre. Il prouve dans le même temps que le principe de gratuité n’est pas forcément incompatible avec des contenus de qualité.

L’émergence d’un journalisme citoyen

Jounalisme citoyenInternet est aujourd’hui devenu le principal carrefour de l’expression citoyenne, dans le sens où, une fois les quelques rudiments techniques acquis, il est une tribune unique de l’individu sur le monde. Face à la perte progressive de la crédibilité journalistique, la parole citoyenne, qui s’exprime sur les blogs ou les plateformes d’information, émerge aujourd’hui comme une ultime source d’expression libre, indépendante de toute autorité politique ou éditoriale et pour laquelle Internet constitue une caisse de résonance inédite. Le citoyen est à même de devenir un producteur de contenus autoproclamé, pour le pire et le meilleur, proposant sa propre vision , son propre point de vue, remettant en cause le rôle même du journaliste ou de l’éditeur dans le paysage médiatique. Ce journalisme citoyen est aujourd’hui considéré comme un cinquième pouvoir, alors que le quatrième, celui des médias traditionnels, traverse une crise d’identité sans précédent.

« Progressivement, l’audience devient partie prenante dans le processus d’élaboration de l’information », nous disent les journalistes Shayne Bowman et Chris Willis. « Plutôt que d’accepter une information prise en main par les éditeurs, ils balancent des e-mails, critiquent sur les blogs ou les forums les erreurs détectées dans les contenus éditoriaux et supportent ou fondent des projets éditoriaux indépendants. »

Le journalisme citoyen ou la recherche de neutralité

Cette situation inédite voit l’émergence de médias faisant le pari d’un contenu éditorial essentiellement issu de la parole citoyenne.

« Nous sommes arrivés à un moment où il faut inventer de nouveaux modèles médiatiques qui concilient éthique et quête de neutralité informationnelle », dit Carlo Revelli, cofondateur d’Agoravox, une des principales plateformes d’expression citoyenne présentes sur le Net. « À Agoravox, la politique éditoriale est faite par les rédacteurs eux-mêmes, qui dans leur immense majorité ne sont pas journalistes. Nous sommes 100 % participatifs. »

Un modèle autogéré par ses propres membres/rédacteurs, partagé par d’autres projets comme peuvent l’être parolecitoyenne.org ou citizenside.com pour l’image. Un modèle dans lequel le citoyen a autant un rôle de contribution à l’information que de contrôle de la véracité des affirmations de la communauté.

« Pour la plupart des blogueurs et des acteurs du journalisme citoyen, le retour sur investissement (en supposant qu’il soit un but de l’auteur et quelle que soit la manière de le calculer en temps passé et/ou argent) est d’abord une question d’accroissement de sa réputation », rappelle Dan Gillmor, fervent partisan de l’ouverture.

L’assassinat de JFK : premier reportage citoyen ?

L’histoire du journalisme citoyen ne date pourtant pas de l’arrivée d’Internet. D’une certaine manière, le film amateur captant la scène de l’assassinat de JFK le 22 novembre 1963 peut être considéré comme le premier reportage citoyen, qui a permis d’informer un public encore majoritairement lecteur de magazines et partiellement téléspectateur. Par ce biais, une information émanant d’un simple citoyen venait d’apparaître en tant qu’élément additionnel à une source officielle, portée par les médias de l’époque. C’est dans ce modèle que se nichait, déjà, une des pistes d’avenir de l’information. À savoir, un modèle hybride incorporant des éléments non journalistiques dans la fabrication d’une information éditorialisée.

Compléter le travail du journaliste, pas le remplacer

Le succès du Huffington Post, lancé en 2005 sur Internet, met en pratique ce modèle et a montré le chemin à une information exploitant autant des sources traditionnelles que des contributions externes. Depuis, de nombreux médias comme Libération.fr, Le Monde.fr ou des pure players comme Rue89, Slate ou Médiapart emploient dans leurs colonnes numériques les contenus de blogueurs, qu’ils soient sous forme d’articles, de photos ou de vidéos. L’important est que ce contenu constitue un complément à l’information élaborée par les journalistes, qu’il exploite une source, un angle ou un traitement particulier qui n’aient pas été accessibles aux professionnels. La couverture de la révolte iranienne après la victoire contestée de Mahmoud Ahmadinejad en 2009, les images du printemps arabe ou de la catastrophe naturelle de Fukushima en 2011 sont autant d’événement où les contributions locales ont apporté autant d’information que celle issue des journalistes professionnels, qui n’avaient alors pas forcément accès au théâtre des événements. Les messageries instantanées, le microblogging ou Internet dans ses grandes largeurs sont aujourd’hui autant de moyens détournés permettant de contourner les tyrannies des frontières et de s’affranchir des éventuelles censures locales pour donner la priorité à l’information. Depuis longtemps, déjà, des images amateurs tirées des médias sociaux ou des plateformes vidéo comme YouTube sont intégrées à des reportages des grands networks. Le journalisme citoyen est donc l’expression d’une nouvelle forme de liberté qui exploite les différents canaux à sa disposition pour franchir les frontières et qui devient, de ce fait, impossible à contrôler par un pouvoir central.

Le cercle vertueux du journalisme citoyen

La prise de parole citoyenne fait donc aujourd’hui radicalement bouger les lignes. Elle s’est installée progressivement et profondément dans l’éco-système journalistique et constitue désormais une source d’information et un contre-pouvoir au même titre que le journalisme professionnel. Le citoyen nourrit désormais le journaliste qui, à son tour, nourrit le citoyen, construisant ainsi une dynamique inédite d’enrichissement et de pluralité de l’information. Celle-ci s’en retrouve d’autant plus renforcée. Avec parfois, pour corollaire, les excès d’un usage sans barrières déontologiques ni qualitatives.

De la résilience des contenus à la maîtrise de sa e-notoriété

Identité numériqueSi l’expression personnelle répond à un besoin universel de reconnaissance par son prochain, elle pose la question fondamentale du devenir de ces contenus sur le Web. Si Internet a avant tout pour vocation de faciliter les échanges d’informations entre les individus, il n’en demeure pas moins l’incarnation d’une forme de mémoire collective dans le sens où il conserve, dans ses fermes de serveurs, toute l’histoire numérique de ces vingt dernières années. Contenus, contributions, échanges, recherches, traces de navigation, données personnelles : absolument toute l’activité menée sur le réseau Internet constitue les métadonnées mises en mémoire et contribuant à faire émerger la notion de Big Data, c’est-à-dire ce volume considérable d’informations échangées sur le Net et qui, s’accumulant, oblige aujourd’hui à repenser l’architecture de stockage et de traitement de ces données.

Le web n’oublie rien !

Parmi elles, se trouvent les contenus continuellement diffusés, échangés, commentés et relayés par les internautes sur les différents réseaux. Cette puissance de démultiplication qui constitue une des forces du Web présente un risque notable pour l’individu. Dans cette mémoire globale et extensible qu’est Internet, le fait de poster des commentaires, des photos ou des vidéos peut avoir des répercussions notoires pour l’internaute. Ces informations laissent des traces numériques en ligne et peuvent potentiellement représenter un préjudice a posteriori dans la mesure où elles sont susceptibles de remonter à la surface du Net à la moindre requête sur un moteur de recherche. Cette résilience de l’information en ligne met en péril une liberté fondamentale de l’individu qui est celle liée au droit de changer d’avis.

Profil numérique et droit à l’oubli : priorité à la prudence

Ce constat implique une réflexion sur le droit à l’oubli ou, tout du moins, celui permettant une révision de ses informations personnelles sur le Net. Mais il fait également émerger une des principales limites du Web qui est celle liée à la difficulté de réguler avec des armes législatives souvent locales un sujet fondamentalement global. S’il est possible de contraindre une entreprise, il est illusoire de vouloir contraindre le Net dans son ensemble qui n’a, par définition, pas de modèle de gouvernance centralisée. Tout au plus est-on capable de mettre autour d’une table les principaux acteurs de l’économie numérique pour mettre en place certains accords et protocoles. Les litiges se résolvent aujourd’hui au cas par cas et souvent devant les tribunaux. En juillet 2011, la CNIL a ainsi contraint une association en charge de la numérisation d’actes de jurisprudence à anonymiser les documents avant leur mise en ligne. Certains plaignants avaient en effet subi des préjudices à voir leur nom accolé à une affaire de justice. L’un d’entre eux s’était vu refuser un emploi après qu’une recherche sur Google ait fait remonter une décision judiciaire sur des faits mineurs le concernant, 12 ans auparavant. Sans pour autant diaboliser Internet dans le sens où peu de cas font acte de malveillance délibéré, il convient de connaître les risques encourus par un étalage trop libre d’informations personnelles sur le réseau. Certaines compagnies d’assurance ont d’ailleurs commencé à proposer des solutions pour couvrir les dangers liés à l’identité sur Internet, proposant de nettoyer les données malveillantes qui ont pu être publiées de manière fortuite ou non. Sans en arriver là, les nouveaux usages réclament simplement aujourd’hui un apprentissage urgent des codes et demandent une vigilance quant à la capacité d’Internet à amplifier les choses. Car des règles ont déjà été fixées.

E-réputation et personal branding : les enjeux des contenus personnels

Devant la difficulté à légiférer et à mettre les différents acteurs du Net d’accord sur le sujet, tout porte à croire que les internautes apprendront à l’avenir à mieux contrôler les contenus qu’ils mettent en ligne et de façonner naturellement leur profil digital. Des services comme LinkedIn ou Viadeo représentent déjà, dans ce contexte, des versions modernes du CV. Partant du constat qu’aujourd’hui 78 % des recruteurs passent par les moteurs de recherche pour trouver des informations personnelles sur les candidats et que 64 % d’entre eux surveillent les médias sociaux, on comprend dès lors combien il devient hasardeux d’utiliser Internet comme simple exutoire et à quel point la gestion de ses contenus personnels sur le réseau devient cruciale pour sa vie professionnelle, voire personnelle. Une telle discipline consiste à alimenter le Net de données individuelles combinant parcours professionnel, activités diverses, appartenance à une communauté, expertise et opinions dans le but de faire émerger un profil personnel qui soit une représentation conforme à celle que chacun souhaite donner. Un enjeu qui prend encore une tout autre dimension dès lors que l’on devient un personnage public : hommes politiques, patrons d’entreprise, artistes et professionnels des médias mettent aujourd’hui sur pied de véritables stratégies de Personal Branding sur les réseaux afin d’installer leur image à l’instar de celle d’une marque. Et surtout éviter qu’un autre ne le fasse à leur place.

les nouveaux métiers de l’e-réputation

Selon les mêmes règles que les individus, les entreprises ont tôt fait d’exploiter cette capacité du Net à conserver les traces numériques pour la transformer en levier puissant d’influence. Aujourd’hui, il apparaît que 50 % des contenus de marques sur Internet proviennent d’une source qui n’est pas directement liée à son secteur d’activité. Une proportion qui montre à quel point il est important de surveiller l’ensemble des sources d’information pour faire en sorte que l’image que l’entreprise ou la marque souhaitent communiquer coïncide avec celle qui circule de manière spontanée sur le réseau. Des méthodes, posant les bases des techniques de construction de l’e-réputation, visent à occuper l’espace social sur le Net au travers d’une écoute du « bruit » ambiant mais aussi d’une prise de parole volontaire et de l’initialisation de la conversation auprès des réseaux d’influence. L’objectif : parvenir à cartographier l’image perçue, le dynamisme des conversations et permettre d’identifier les leviers d’orientation du discours à tenir sur le Net pour sa marque. Ces actions se sont radicalement sophistiquées ces dernières années, avec des investissements évalués à 190 millions d’euros pour le marché français en 2011 et l’émergence de nouveaux métiers comme les experts SEO, les Community Managers ou les nettoyeurs du Net. Des outils au service de l’image et qui doivent avant tout s’intégrer aux méthodes traditionnelles de marketing plus que dans celles de la gestion des risques dans laquelle ils sont trop souvent réduits. « Selon plusieurs études, les entreprises ont des difficultés à appréhender le concept de l’e-réputation », nous dit David Réguer, auteur de l’ouvrage e-réputation, manager la réputation à l’heure du digital, qui reproche une vision des sociétés à trop court terme du phénomène. « Elles ne perçoivent l’e-réputation que par le prisme de la gestion des risques et du monitoring d’un côté, et la création d’une page Facebook de l’autre, souvent sans lien entre les deux. »

Du café du commerce au comptoir global

Dans ce grand café du commerce que constitue le Web 2.0, prendre la parole pour un individu ou une entreprise n’est donc pas une chose anodine. Le réseau Internet, plus que nul autre, constitue une formidable tribune où se construit et se démonte une réputation, où se colportent les bons mots comme les jugements les plus arbitraires, où s’échangent l’information comme la désinformation. Il faut toutefois garder à l’esprit que la tribune s’est aujourd’hui étendue du zinc au comptoir global et les mots qu’elle diffuse restent gravés dans un coin de serveur et sont susceptibles de réapparaître n’importe quand sur Google. Maîtriser les contenus devient donc un exercice de spécialiste et un nouvel enjeu pour l’individu comme pour l’entreprise 2.0.

L’émergence des contenus « spontanés »

Le droit d’expression est une notion fondamentale des libertés individuelles. La Déclaration des droits de l’homme et du citoyen précise que :

« la libre communication des pensées et des opinions est un des droits les plus précieux de l’homme : tout citoyen peut donc parler, écrire, imprimer librement, sauf à répondre de l’abus de cette liberté, dans les cas déterminés par la loi ».

Un cadre qui prend une nouvelle dimension depuis la généralisation des fonctionnalités du Web 2.0. De nouveaux types de contenus viennent peu à peu augmenter de manière conséquente le volume d’informations disponible sur le Net : ceux générés par les utilisateurs et communément nommés « UGC », pour User Generated Contents (Contenus produits par les utilisateurs). Forums, chats, blogs, évaluation en ligne, commentaires, live-twitts sont autant de canaux permettant de prendre la parole et se présenter sur le Net. Les contenus se libéralisent et l’indépendance de ton devient une réalité dans le sens où elle est aujourd’hui l’affaire de chacun et ne dépend plus d’un tiers (éditeur, diffuseur, distributeur, etc.). Un écrivain ou un musicien peuvent donc aujourd’hui librement diffuser leur œuvre dès lors qu’ils sont capables d’utiliser les outils de diffusion à disposition. L’expérience communautaire telle que celles proposées par My Major Company ou Kiss Kiss Bank Bank vont jusqu’à changer le rapport de force pouvant exister entre l’individu et le monde fermé des éditeurs en donnant la possibilité à un artiste non seulement de la libre diffusion de son œuvre mais également celle de trouver un mode de financement permettant son éventuelle exploitation commerciale.

Les contenus spontanés comme modèle économique

Certains services, comme Yelp, Doctissimo, Tripadvisor ou Plebicity, tirent également l’essentiel de leur dynamisme éditorial des contenus issus des contributions et des échanges réalisés entre les internautes et les membres de ces communautés. Alors qu’on dénombrait en 2011 plus de 160 millions de blogs dans le monde et 30 milliards de contributions publiées chaque mois sur Facebook, on est en droit de se demander quels sont les mécanismes qui conduisent le citoyen à être actif sur Internet. Qu’est-ce qui nous fait twitter ? Pourquoi prenons-nous la parole sur des blogs ? Quels genres de pulsions nous poussent à poster notre vie sur les réseaux sociaux ? Quelles sont les raisons qui poussent certains d’entre nous à mettre leur expertise au service d’un projet comme Wikipedia ? Et cela alors qu’il n’y a pas de contrepartie financière immédiate ? Des questions aussi universelles que celles qui peuvent amener l’écrivain ou le journaliste à prendre la plume, mais qui prennent une tournure particulière dès lors que l’on touche aux informations personnelles. Mais des motivations essentielles dans la mesure où ce besoin représente la pierre angulaire du développement des réseaux sociaux, poussant toujours plus d’individus à se livrer sur Internet, au mépris, parfois, des risques que cela peut présenter.

« Il y a plusieurs facteurs qui font que les gens s’exposent malgré tout. D’abord, sur les réseaux sociaux, c’est en dévoilant des choses sur soi que l’on crée du lien, c’est même l’ingrédient sine qua non », nous dit l’économiste Fabrice Rochelandet, auteur d’un ouvrage sur l’économie des données personnelles et de la vie privée. « Ce qui est moins rationnel, c’est que les gens divulguent beaucoup de choses. Ce peut être parce que les autres le font ; du coup, on a l’impression que si tout le monde le fait, il y a moins de risques. (…) Et puis, même s’il est imprudent de trop se dévoiler, on ne sait pas quand cela va se retourner contre soi, ni comment. C’est diffus. Enfin, il ne faut pas oublier le petit plaisir immédiat qu’il y a à s’épancher ! »

La reconnaissance, moteur de la contribution

05-08-redaction-maslow

En même temps que le nombre de supports d’expression a explosé, les motivations sous-tendant le besoin de contribuer sur le Net semblent donc être multiples et hétérogènes. Elles sont toujours conformes aux besoins fondamentaux de l’individu qu’Abraham Maslow avait schématisé dans sa pyramide des comportements dès les années 40. Selon cette théorie, les besoins liés à l’appartenance, la reconnaissance ou l’accomplissement s’expriment chez l’individu dès lors que ses motivations primaires, comme celles liées à la survie et à la sécurité, sont satisfaites. Contribuer reviendrait donc à rechercher une reconnaissance et une valorisation individuelles qui peuvent parfois manquer dans notre société, alors que les besoins matériels sont, eux, satisfaits. Cela procède à la fois d’un besoin de reconnaissance proche du quart d’heure de célébrité warholien et d’un comportement autocentré. Prendre la parole, contribuer, évaluer ou commenter sur des services en ligne procèdent d’un besoin universel de se livrer pour acquérir un statut dans la société. La nébuleuse et le relatif anonymat du Net permettant, en plus, toutes les audaces que notre société, construite sur le jugement et l’évaluation d’autrui, ne permet pas toujours.

Du projet à la réalisation : les premiers exemples d’écriture collective

La contribution a donc des vertus fondamentales pour la valorisation individuelle. À ce titre, on s’aperçoit que le « Je », en tant qu’expression d’une pensée individuelle, fait son grand retour, symbolisant la prise de parole personnelle, la prise de position et un certain courage, même si tout cela reste à relativiser compte tenu du caractère anonyme du Web. Parallèlement, le « Nous » l’accompagne de plus en plus souvent dans le cadre des échanges sociaux. La contribution a en effet des implications collectives et certains projets prennent appui sur cette dynamique d’écriture individuelle à des fins d’un projet commun. Les réseaux sociaux donnent un cadre idéal à l’écriture collective en modernisant le principe du cadavre exquis, expérimenté par le courant surréaliste. Ainsi est née l’idée de L’exquise nouvelle, un projet éditorial lancé sur Facebook réunissant plusieurs dizaines d’auteurs confirmés et débutants participant à une aventure d’écriture collective. La contrainte : que chaque auteur participe au manuscrit à hauteur de 420 signes maximum, soit le volume d’un statut Facebook, et qu’il rebondisse sur le texte du contributeur précédent pour élaborer une histoire originale. Le résultat : un polar nous invitant à suivre les traces d’un tueur à l’andouillette. Un principe développé également par Alexandre Jardin, de manière plus sophistiquée, autour de son roman Fanfan2, qui ressuscite son personnage d’Alexandre, 15 ans après son premier roman. Se situant à l’issue du livre, le concept propose de participer à une aventure transmédia sur un site, des applications mobiles, un flux Twitter et quelques pages satellites permettant aux internautes de prolonger le récit de l’auteur et d’intervenir sur la narration et le fil de l’histoire, en conseillant son héros sur la manière de prolonger sa passion pour son héroïne. Une expérience d’écriture collaborative et collective a également été mise en œuvre par Orange dans le cadre d’un projet cinématographique baptisé We are producteurs. Ce concept proposait aux internautes de collaborer à l’élaboration d’un film en participant à son écriture, au choix des personnages ou du titre, aux séances de casting, ou à l’écriture des étapes clés du scénario. Une expérience de cocréation regroupant plus de 12 000 contributeurs, menée par Luc Besson en maître d’œuvre, qui aboutit au film À l’aveugle réalisé par Hervé Palud et sorti en salles en 2012. Une expérience qui permit de poser les bases d’un mécanisme de co-écriture d’un projet complexe comme peut l’être celui d’un film.

La dynamique du contributif recherchée par les marques

À l’heure où on déplore un relâchement dans les matières écrites et le lien social, les aspirations du citoyen à prendre la parole sur le Net sont une bonne nouvelle. Elles sont un creuset d’énergies exploité par un certain nombre de services et une source de créativité et d’expertise unique qui devient aujourd’hui un pilier du modèle économique des médias connectés. À tel point que cette dynamique des contenus spontanés est aujourd’hui recherchée par les entreprises comme preuve d’attachement à la marque et d’émulation auprès de différents réseaux sociaux.

Toujours plus de contenus pour toujours moins de valeur

Valeur du contenuLa prolifération de nouveaux espaces d’expression provoquée par l’arrivée des médias online a créé un appel d’air inédit pour les producteurs de contenus. Aussi performants soient-ils, la plupart des services en ligne restent fondamentalement élaborés autour des contenus. Si la qualité de ces services attire une audience, ce sont les contenus qui contribuent à la garder captive et à la fidéliser. Des espaces comme Deezer, DailyMotion ou Flickr ne sont que des coquilles vides sans le contenu qu’ils mettent à disposition et qu’ils permettent de partager avec le reste de la netosphère. Parallèlement, beaucoup de marques pure players présentes sur Internet ont compris les enjeux liés aux contenus dans le but d’établir une relation privilégiée avec leurs utilisateurs. Ainsi, le site de vente RueDuCommerce a, par exemple, lancé en 2011 son magazine en ligne pour créer une relation différente du simple acte de vente avec ses clients. Le roi Google lui-même s’est lancé dans la production de contenus propres pour présenter la profusion des innovations qu’il propose.

De la profusion des contenus nait sa banalisation

Cette situation confère aux contenus un rôle central et stratégique dans la capacité d’un site à développer sa propre audience : ils sont un catalyseur d’un public susceptible de produire son propre contenu et de développer, à son tour, une nouvelle audience. Une dynamique qui a rendu Internet gourmand en contenus de toutes sortes et conduit peu à peu à l’industrialisation des process de rédaction, dont les fermes de contenus sont un des principaux avatars. Mais une profusion de contenus disponibles qui pose in fine la question cruciale de sa valeur. Pas uniquement d’un point de vue du prix ou de la valeur marchande, mais plutôt du point de vue de celle perçue par le public. La question se pose d’abord en matière d’image. Hier considéré comme un bien rare, l’usage de la photographie s’est aujourd’hui généralisé avec l’arrivée du numérique. Elle est aujourd’hui devenue un média d’expression et de dialogue, qui s’échange via les mobiles ou se télécharge sur le Net aussi facilement que du texte. La vidéo, en s’embarquant sur les smartphones, est en passe de suivre le même chemin en devenant le nouveau moyen d’expression et de communication entre les individus. Le phénomène s’est aujourd’hui généralisé à l’univers de la musique et du cinéma qui, en perdant leur matérialité, ont aussi perdu une partie de leur valeur. Dès lors, comment peut-on demander de payer pour un contenu devenu aussi ordinaire que l’air qu’on respire ou l’eau qui sort du robinet ? Cette question est à la base du débat mené sur les DRM (Digital Right Management ou gestion des droits numériques) et sur le respect du droit patrimonial de l’artiste sur son œuvre. Il est en train de gagner les sphères des contenus au sens le plus large.

L’industrialisation de la production des contenus : la naissance d’un prolétariat

Le monde de la production de contenus est donc en passe d’éprouver une révolution liée à ses méthodes de production, au même titre que celle qui a secoué le monde industriel au XIXe siècle. L’« OS du clic » devient interchangeable, organisé en batterie se divisant le travail et a aujourd’hui pour unique vocation de fournir une matière première bon marché, prête à consommer. Avec la menace de baisse de qualité qui en découle. Dès lors, on peut aisément faire une analogie entre le monde de la production de contenus et celui des sweat-shops du Sud-Est Asiatique ayant pour but d’inonder le marché de produits textiles ou informatiques à bas prix. Les contenus seraient-ils en phase de devenir un bien de consommation au même titre qu’une paire de chaussures ou un écran de télévision ? À quand une délocalisation des salles de rédaction dans les pays à faible coût de main-d’œuvre ?

Quand la machine remplace l’homme

L’analogie ne s’arrête pas là. Dans la même logique qui a conduit à remplacer l’homme par la machine, une expérience d’intelligence artificielle baptisée Stats Monkey menée par la Northwestern University de l’Illinois (USA) pousse la démarche encore plus loin. Son but : confier à un robot l’élaboration intégrale d’un article de presse. La machine est ainsi capable, propulsée par un algorithme puissant, d’aller chercher automatiquement sur le Web les infos nécessaires à l’élaboration de l’article, à les croiser et les augmenter d’éléments de contexte tels que la météo, et à les mettre en forme pour donner lieu à un article intelligible, utilisant un style rédactionnel préétabli, adapté au lectorat et pouvant largement rivaliser avec des articles rédigés par des journalistes professionnels. Son champ d’application porte encore actuellement au seul domaine des résultats sportifs locaux, peu enclins à une analyse poussée et la plupart du temps construits sur des données factuelles (on a gagné, il a plu, il y avait un public nombreux, un joueur était blessé, etc.). Il ouvre cependant des perspectives, qualifiées par certains de boîtes de Pandore, à une automatisation intégrale de la production, éradiquant toute intervention humaine de processus d’élaboration des contenus. Certains projets explorent aujourd’hui la possibilité d’étendre ce domaine de compétence à l’audiovisuel ou à l’analyse politique. Posant par là même la question cruciale de l’avenir du mode de vérification des sources d’information et de celui du style journalistique.

La fin du journalisme ?

Fin du journalismeLa question de l’avenir du journalisme est universelle car elle est avant tout une question citoyenne. « Le droit du public à une information de qualité, complète, libre, indépendante et pluraliste, rappelé dans la Déclaration des droits de l’homme et la Constitution française, guide le journaliste dans l’exercice de sa mission. Cette responsabilité vis-à-vis du citoyen prime sur tout autre », nous rappelle la charte d’éthique des journalistes qui précise également que « le journalisme consiste à rechercher, vérifier, situer dans son contexte, mettre en forme, commenter et publier une information de qualité ». Ces précisions nous rappellent combien le journaliste exerce un rôle social d’intermédiation primordial pour l’équilibre des pouvoirs et le respect des libertés individuelles. Or, le nouveau modèle économique dans lequel il s’inscrit désormais remet profondément en question son rôle et son utilité. Voire sa pérennité. Ce qui pose in fine un véritable problème de démocratie.

La nécessaire évolution du journalisme

La multiplication des supports, la vaporisation des contenus, la demande accrue du public pour une information rapide et la tension qui existe sur le marché de l’information ont mis à mal un métier qui a des difficultés aujourd’hui à trouver ses marques.

« La crise transformationnelle à laquelle sont confrontés les journalistes des médias d’information, depuis moins de 10 ans, est un changement d’époque, aussi monumental que l’arrivée du télégraphe au XIXe siècle ; un séisme du même ordre que l’ invention de l’imprimerie pour les clercs de l’Église catholique au XVe siècle »,

écrit Éric Scherer, directeur de la prospective et de la stratégie numérique du Groupe France Télévisions, pour expliquer la crise de confiance brutale que traverse le métier dans la société.

« Déstabilisés, les journalistes y auront-ils encore un rôle ? Probablement pas s’ils choisissent le statu quo. À peu près certainement s’ils réinventent leur métier en devenant les filtres indispensables et pertinents du nouvel âge d’or de l’information, dominé par une nouvelle abondance », prévient-il.

Reste à savoir quels peuvent être les leviers disponibles pour redynamiser ce métier, qui est parfois une profession de foi.

Le journaliste n’est plus le seul professionnel des contenus

La crise du journalisme est l’aboutissement de la conjonction de deux événements majeurs survenus de manière simultanée. Le premier est sans aucun doute l’apparition d’une concurrence massive. L’expert et l’amateur ont fait leur apparition dans le paysage médiatique, se substituant de plus en plus au journaliste qui n’a désormais plus le monopole de l’observation et de l’analyse. Combien d’émissions de télévision donnent désormais la parole à des experts non-journalistes dans le cadre de chroniques, de rubriques ou même d’émissions entières ? Quels sont les quotidiens qui n’offrent pas des tribunes à certains sociologues, chercheurs ou universitaires dans les colonnes de leurs journaux ? Combien d’anciens sportifs sont devenus consultants pour la télévision ou la radio ? Sans parler, bien entendu, de la prise de parole des citoyens ou des marques sur les supports online ou du rôle d’outils comme Google, des réseaux sociaux ou des agrégateurs dans le tri et la hiérarchisation de l’information. Cette concurrence massive (et parfois efficace) pose la question fondamentale de la valeur du propos journalistique et sa capacité à être acheté par un lectorat de plus en plus habitué à la gratuité de l’information. Parallèlement à cela, certains scandales comme l’affaire Jayson Blair aux États- Unis, mais aussi l’amalgame de plus en plus courant entre journalisme et communication continuent à jeter le discrédit sur une profession déjà sinistrée et contribuent à faire désormais préférer le discours citoyen à celui du professionnel journaliste.

Retour au direct ou le piège du journalisme instantané

Le second événement est une généralisation d’un journalisme de direct, réclamé par le citoyen. « Aujourd’hui, les journalistes sont devenus des instantanéistes », nous disait déjà en 1999 Ignacio Ramonet, alors directeur du Monde diplomatique. Une situation qui ne s’est pas arrangée depuis l’avènement d’outils comme Twitter et la généralisation d’une information « transportable » et consommable « sur place », qui transforme le journaliste en pousse-bouton relayant une information brute. Or, priver le journaliste de son rôle d’analyse et de mise en perspective, c’est l’amputer d’une partie fondamentale de sa mission : celle de la médiation.

« Un article peut être considéré comme un sous-produit dans le process », nous dit le journaliste et blogueur américain Jeff Jarvis. « Quand le digital arrive en premier et qu’il est suivi par l’imprimé, alors l’article devient un agglomérat d’éléments permettant de remplir du papier mais n’est plus une fin en soi. »

Le journaliste américain considère ainsi l’article journalistique sur le Web comme une exception, un luxe insolite au regard de la grande masse de l’information désormais échangée brute sur le Web. « Je ne dis pas que l’article est inutile ou mort. Juste optionnel », conclut-il.

Du généraliste au spécialiste

L’avenir du journalisme passe donc par sa capacité à remettre en question sa position hégémonique pour attaquer le virage imposé par le numérique. Le premier levier est de parvenir à affirmer son expertise et développer un journalisme de niches.

« Le plus difficile, c’est de réussir avec un site d’infos généralistes », estime Bill Nichols, directeur de la rédaction du site Politico.com. « Vous devez convaincre vos lecteurs que vous allez leur offrir quelque chose qu’ils ne peuvent pas lire ailleurs. »

Et le fait est que si tout un chacun est aujourd’hui susceptible de faire suivre une info « généraliste » en maîtrisant les canaux de diffusion ouverts à tous, nul ne peut se substituer à la connaissance, au réseau et aux sources dont le journaliste doit se nourrir. Le journalisme, à l’instar du secteur médical, doit se spécialiser au détriment de la filière généraliste. Plus ces spécialités seront rares, plus elles seront valorisées auprès d’un lectorat qui sera prêt à acheter cette expertise.

Comment survivre dans un monde numérique encombré ?

Par ailleurs, si le temps réel est aujourd’hui devenu une réalité avec laquelle il faut compter, le journalisme se doit de se souvenir de ses fondamentaux pour mieux préparer son évolution et assurer sa pérennité. La mise en perspective, la recherche d’angle, l’approfondissement et le croisement des sources doivent définitivement rester la plus-value du journaliste. Le cadre des médias connectés apparaît plutôt comme une opportunité plus qu’un risque pour le respect de ces valeurs fondamentales. L’avenir est donc plutôt à un journalisme collaboratif, contributif, enrichi de son environnement numérique et susceptible de collaborer avec le reste des acteurs de l’information. Ce qu’Éric Scherer qualifie de « journalisme augmenté (…) plus démocratique et moins en surplomb, qui donne une large part à la coproduction avec le public, avec ses pairs, avec d’autres corps de métiers. » Il est vain de lutter contre le sens de l’histoire. Le modèle imposé par les médias connectés est désormais avéré. Le journalisme de demain doit l’exploiter comme une chance plutôt que de tenter de s’y opposer.

Changement de paradigme

Compte tenu de la profusion des médias gourmands de contenus, il est donc peu probable que le journalisme soit amené à disparaître. Le journalisme est aujourd’hui devenu protéiforme et ne répond plus à la définition académique que souhaiteraient encore certains de ses pairs. Reste à convaincre de la viabilité de certaines de leurs formes d’expression, comme le journalisme d’enquête ou de reportage, essentiel pour le débat démocratique mais que le modèle économique des nouveaux médias ne semble plus pouvoir s’offrir. Certains d’entre eux ont trouvé une alternative : ils ont déserté les colonnes des journaux ou les émissions de télévision pour partir à la conquête d’autres supports médiatiques. Le succès des ouvrages de Pierre Péan ou des films de Michael Moore témoigne que le travail journalistique de temps long peut encore trouver un public nombreux dans l’univers de l’édition ou du cinéma. Des médias où il est encore d’usage de payer pour un contenu de qualité…

La tyrannie de l’urgence

ImmédiatetéLe nouveau rapport au temps imposé par les médias connectés exerce une influence directe sur le mode de rédaction et la manière de relayer l’information. La contrainte de temps n’est pourtant pas nouvelle. Elle peut même être considérée comme intrinsèque à la création des médias, qui ont toujours eu à répondre au challenge des délais de transmission de l’information. La presse a ainsi toujours eu à se plier aux contraintes de bouclage dictées par la mise sous presse. Et dans ce domaine, le cérémonial du bouclage d’un quotidien se distingue de celui d’un magazine hebdomadaire. La télévision est assujettie aux règles strictes des grilles de programmes. La radio, média du direct par excellence, ne peut pour sa part supporter aucun retard à l’antenne, sous peine de « blancs » assourdissants.

La recherche du scoop : la vitesse au cœur du journalisme

Le journalisme de l’instant a, pour sa part, toujours existé et n’est pas l’apanage d’Internet. « On veut s’informer vite, au lieu d’informer bien. La vérité n’y gagne pas », disait déjà Albert Camus en 1944. La grande nouveauté d’Internet n’est pas de s’être imposé comme le média de l’instantanéité, mais plutôt d’en avoir fait sa marque de fabrique et de l’avoir peu à peu imposée en tant que principe fondamental aux autres médias. Ça n’a pourtant pas toujours été le cas. Au contraire, le Web était, à l’origine, plutôt considéré comme un espace de stockage et de pérennité, permettant de garder des travaux de recherche ou des actes de colloques à la disposition du plus grand nombre, au même titre qu’un fichier sur un serveur distant. La première « affaire » ayant amorcé le sacre d’Internet comme média de l’immédiateté remonte à la fin des années 90 et au Monica Gate qui faillit coûter la place à la présidence pour Bill Clinton. En janvier 1998, l’affaire Lewinsky fut dévoilée pour la première fois sur le site Internet du journaliste américain Matt Drudge, au nez et à la barbe du très officiel Newsweek qui, en média responsable, préférait attendre de vérifier ses sources avant de déclencher le scandale. S’ensuivit un certain nombre de révélation plus ou moins fantaisistes qui marquèrent le coup d’envoi de la course à la vitesse qui ne s’est toujours pas arrêtée.

Le dogme de l’instant : une création d’Internet ?

L’organisation des internautes en réseaux sociaux et l’incroyable dynamisme des échanges dont ils sont le cadre ont été le second déclencheur de la dictature de l’immédiateté.« Le New York Times est suivi sur Twitter par 15,8 millions de followers. (…) Un article du NYT est twitté toutes les quatre secondes », nous dit son président Arthur Sulzberger, démontrant l’attente des citoyens en matière d’instantanéité. La plupart des sites sont aujourd’hui construits sur le principe déclaratif de l’instant : le fil d’actualité de Facebook, la cellule « Que faites-vous ? » de Twitter, le « Quoi de neuf ? » de Google+, le « What are you working on ? » de Yammer, le système de check-in de Foursquare, etc. La chasse au scoop s’est ainsi rapidement transformée en course à l’urgence et au relais de l’information en temps réel. La simplicité de diffusion des contenus sur le Web a fait le reste. Internet devenant aujourd’hui le média de référence en termes d’information, les médias traditionnels se voient contraints de rivaliser désormais sur le terrain de l’immédiateté pour continuer à exister.

Vitesse et précipitation : les démons de la société de l’information

Le premier risque évident de ce nouveau modèle porte sur la dérive de voir la course à l’exclusivité l’emporter sur l’analyse, relayer de l’information s’avérant plus simple que la commenter. Les phénomènes comme Twitter et sa dictature des 140 signes est symptomatique de l’émergence d’une forme de journalisme d’alerte aux dépens de celui d’investigation, perdant en profondeur ce que l’on y gagne en largeur, c’est-à-dire en volume d’information traitée. La télévision et la radio, médias de la retransmission, avaient, en leur temps, déjà imposé le direct sur leurs antennes au détriment de la presse, contrainte de suivre pour les raisons inhérentes à ses circuits de production.

« La domination d’un modèle de l’information marquée par l’urgence et l’événement a nécessairement un impact très lourd sur toute la conception de l’information », nous dit Dominique Wolton, directeur de recherche au CNRS. « Il y a nécessairement une contradiction entre la rapidité de l’information, la simplification qui en résulte et la complexité de l’histoire et des problèmes de société. »

La tendance est donc plus que jamais à la recherche de sensationnalisme ou d’informations off the record.

Retour au direct : un mélange des genres

Le second risque porte plus particulièrement sur le danger planant sur la véracité de l’information. Le live media s’installe aujourd’hui en tant que modèle pour les événements majeurs. On a pu le constater dans le courant 2011 lors des épisodes du printemps arabe, de l’accident de la centrale de Fukushima ou du scandale Strauss-Kahn. Tous les médias se sont efforcés de relayer l’information en essayant d’être le premier à nous livrer une exclusivité, nous offrant au passage un florilège d’informations non vérifiées, de témoignages peu crédibles et contradictoires, d’images d’archive, d’approximations, et d’hypothèses fumeuses remises en cause du jour au lendemain. « La vérité est rétive à toute immédiateté. Elle exige recul, patience, recoupements, vérifications, interprétation, mémoire », prévient le journaliste écrivain Jean-Claude Guillebaud. Une exigence qui répond avant tout à une question de déontologie et qui est aujourd’hui fortement remise en question par le maelström de contenus bruts où il devient difficile de distinguer l’information professionnelle de celle émanant du citoyen, la calomnie des faits avérés. Rappelons que l’affaire DSK avait déjà éclaté sur la base d’un obscur SMS de militant UMP, repris par la presse avant d’être sujet à caution, puis d’être à nouveau réhabilité. De quoi brouiller la perception des lecteurs et entretenir le doute sur la véracité de toute l’histoire.

L’image à tout prix

La course à l’instantanéité constitue une révolution du même calibre que celle qui secoua les médias lors de la première guerre du Golfe. La profusion d’images, alors diffusées en boucle par CNN, a marqué l’origine de l’info-spectacle, fondée sur une transmission de l’information en flux continu et une diffusion massive d’images en direct du théâtre des opérations. L’info-temps réel repose aujourd’hui sur cette même nécessité de transmission à tout prix, sans pour autant que les éléments fournis apportent une quelconque information supplémentaire. La différence majeure est qu’aujourd’hui l’information n’est plus aux seules mains de CNN mais potentiellement à tout citoyen susceptible de révéler l’information, apporter l’image inédite ou dénicher l’image d’archive qui « fait la différence ». Une concurrence accrue qui contraint à toujours plus d’instantanéité.

Une information immédiate pour une société qui s’accélère

Cette course à la rapidité n’est toutefois pas le monopole de l’univers de l’information et des contenus. Les médias ne sont qu’un révélateur de l’accélération du rythme de nos sociétés.

« Le journalisme, aujourd’hui, est-ce courir plus vite que son voisin ? Ce vertige de l’immédiateté ruine notre profession. Le journalisme est un métier qui nécessite du temps; il faut le réaffirmer », martèle Jérôme Bouvier, journaliste médiateur de Radio France et fervent défenseur d’une information raisonnée. « Le meilleur moyen de tuer le journalisme, que l’on dise dans 5 ans ou dans 10 ans il n’y a plus besoin de ce métier, que ce métier n’a plus aucun sens, c’est que l’on continue à conjuguer immédiateté et journalisme », rajoute-t-il.

Le slow movement : un retour à la raison ?

Devant l’impossibilité de rivaliser avec le diktat de l’urgence, certaines initiatives prônent aujourd’hui un retour au slow-media. Établi sur le modèle du slowfood apparu dans les années 80 en Italie, le slow-media se range du côté d’une information réfléchie, respectueuse, étayée et prône un retour au plaisir de l’élaboration, d’une part, et celui de la dégustation, d’autre part. Une lenteur qui n’est pas pour autant synonyme d’inaction, mais plutôt de qualité et de retour au sens. En témoigne le succès des revues XXI ou Clés ou du documentaire en ligne qui donne un signal du retour au format long et qui prouve l’intérêt retrouvé du public à une information documentée et analysée. Et le principe se généralise aujourd’hui à d’autres secteurs, avec l’émergence du slow-travel, du slow-design, des slow-cities ou du slowsex. Effets de mode ou retour profond de nos sociétés à la raison ?

Une histoire sans fin

InfiniLa littérature, le cinéma, la peinture, la photographie ou le théâtre sont considérés comme des médias d’émotion, dans le sens où ils délivrent un contenu qui est avant tout le fruit d’une démarche artistique. Ils ont aussi la particularité d’être considérés, une fois achevés, comme des œuvres fermées. Le roman, une fois publié, n’a a priori que peu de raison d’être modifié par son auteur. Une règle qu’il convient toutefois de relativiser puisque pour le seul domaine littéraire, la période pré-Gutenberg était propice à l’enrichissement des textes par les copistes en charge de leur reproduction et à l’exégèse des interprètes de la parole, qui était essentiellement divine à l’époque. Par la suite, les grandes œuvres des encyclopédistes des Lumières furent à de multiples reprises remaniées et augmentées pour intégrer l’avancée des connaissances de l’époque. Le théâtre, dans la grande tradition de la Commedia dell’arte, faisait aussi la part belle à l’interprétation de l’œuvre par l’acteur. Le caractère intangible de l’œuvre n’est donc pas à considérer comme un dogme mais plutôt comme une conséquence du support sur lequel elle s’exprime et se diffuse.

Une œuvre est-elle intangible ?

En 1968, Roland Barthes nous donnait une vision du statut de l’auteur d’une étonnante modernité au regard de l’évolution des médias. Selon lui, l’auteur est dessaisi de son œuvre dès lors que celle-ci est publiée. « La naissance du lecteur doit se payer de la mort de l’auteur », affirme-t-il. Selon lui, l’interprétation du lecteur participerait donc activement à la démarche artistique en tant que telle. L’écriture ne serait donc plus considérée comme un acte clos, mais bien au contraire comme une démarche vivante et ouverte à la réappropriation par le lecteur. Tout tend donc à prouver qu’une œuvre n’a pas pour vocation à rester un acte fini : les repentirs, les alternatives narratives, les commentaires participent à la globalité de l’œuvre elle-même. Un livre, un film ou un tableau ne sont ainsi jamais finis tant qu’ils suscitent des réactions. Une vision philosophique qui rentre en résonance avec ce qui se passe actuellement sur les médias connectés et qui prend aujourd’hui tout son sens, puisqu’un certain nombre de projets de création puisent leur modèle économique dans ce principe de temps infini. La démarche liée au logiciel libre en fait évidemment partie. Le livre augmenté, permettant à tout un chacun d’enrichir ses contenus, est une des pistes de développement les plus sérieuses du e-book connecté. Un modèle qui trouve également matière à développement dans l’univers de la presse. L’arrivée des outils d’instantanéité que sont les flux RSS, les pratiques de live-blogging, les possibilités de contribution transforment peu à peu l’exercice journalistique en ouvrage de Pénélope. Au même titre que l’œuvre d’art décrite par Barthes, l’article journalistique n’est plus considéré comme un produit fini mais comme le point de départ du débat et de la discussion. Autrement dit, il ne peut pas être considéré comme achevé tant que le dernier commentaire n’a pas été posté.

Le contenu, matière première en mouvement perpétuel

Les contenus mis en ligne acquièrent donc l’immortalité alors que peu à peu leurs auteurs tendent à s’effacer derrière leurs contributions. Aujourd’hui, la matière première que constitue l’article compte autant en termes d’information que ses « produits dérivés ». Qu’il soit écrit ou audiovisuel, le contenu est donc toujours une matière en mouvement. Il est relayé, commenté, repris, augmenté, interprété avec une vitalité jamais atteinte auparavant. Si on considère de surcroît que, sur Internet, rien ne disparaît jamais, il est possible de penser que les contenus sont aujourd’hui rentrés dans un modèle de mouvement perpétuel, soumis à une inflation éternelle de leurs volumes. Mais aussi, peut-être, d’un éternel goût d’inachevé.