Accès aux contenus : le dogme de la gratuité

Contenus gratuitsInternet apparaît aujourd’hui encore comme un terrain de liberté. À ce titre, il s’impose par extension comme un domaine de libre accès à une information pléthorique.

« Le Web est devenu le monde de la gratuité », nous dit Chris Anderson, rédacteur en chef du magazine Wired. « Les coûts sur Internet vont tous dans la même direction : vers zéro (…). Il est désormais clair que tout ce que le numérique touche évolue vers la gratuité » complète-t-il.

De fait, le Web a, dès son origine, installé la gratuité en tant que principe de base, remettant en question le modèle économique des acteurs traditionnels, bousculés par celui des nouveaux arrivants comme Google.

« Le “gratuit” est apparu explicitement en France fin 1998 avec les fournisseurs d’accès Internet (FAI) gratuits », nous rappelle Olivier Bomsel, professeur d’économie industrielle à l’École des Mines, auteur du livre Gratuit!. « Les World-Online, Freeserve, Freesbee, Free et autres Liberty Surf ont proposé alors des formules d’abonnement gratuit, avec communications payantes. Ensuite, le gratuit s’est étendu avec le déploiement du haut débit en 2002. Le haut débit s’est déployé grâce au piratage massif de la musique via les réseaux peer-to-peer ».

Dès lors, comment financer la production de contenus dans le cadre d’une gratuité de leur accès ?

La musique, aux origines des contenus gratuits sur le net

Dès 1999, Napster fut un des premiers acteurs à révéler la mutation des usages en permettant l’échange direct de fichiers musicaux entre internautes, s’affranchissant des redevances et des droits d’auteur traditionnellement dus sur l’exploitation d’une œuvre artistique. Sony, Polygram, Universal, Virgin et les autres grandes maisons de disques prirent rapidement conscience du risque et s’allièrent pour tenter de faire tomber ce perturbateur. Napster fut contraint de fermer son service en mars 2001, non sans avoir auparavant amorcé le déclin du CD en tant que support musical et installé le format MP3 comme symbole de la désincarnation et de la gratuité sur le Net. Une première brèche était désormais ouverte dans le sanctuaire de l’industrie du disque et du cinéma. De nombreux acteurs s’y sont engouffrés dans la foulée, entraînant une réaction du secteur allant jusqu’à la mise en place d’un cadre législatif, désormais matérialisé par la loi Hadopi, en France. Pour autant, le rythme législatif et judiciaire ne parvient pas à rivaliser avec l’adaptabilité et la réactivité de l’éco-système Internet. En septembre 2011, le site d’écoute musicale gratuit Deezer, qui avait refusé les conditions d’Universal Music France à limiter son offre gratuite à cinq écoutes, a ainsi remporté une victoire judiciaire décisive sur son adversaire, remettant en question la position dominante des éditeurs de musique.

L’erreur des contenus éditoriaux gratuits sur le net

Parallèlement à cette révolution musicale et à l’apparition d’une presse quotidienne gratuite, sur le modèle de 20Minutes ou Métro, les supports de presse ont entamé à leur tour la conquête du Web en diffusant leurs contenus en ligne, considérant dans un premier temps Internet comme un relais d’audience efficace et une source de fidélisation pour leurs contenus et installant durablement le modèle de la gratuité comme un dû dans l’esprit des gens. « La presse ancienne a fait une erreur historique en mettant ces contenus gratuitement sur le Web. C’est la première bataille que j’ai perdue au Monde », confesse Edwy Plenel, ancien rédacteur en chef du Monde et fondateur de Médiapart. De fait, le dogme de la gratuité remet aujourd’hui fortement en question un pan entier de l’économie de l’information ainsi que la condition des producteurs de contenus dans leur ensemble.

Google livre, ou la littérature en accès libre

Dernier en date, le monde de l’édition est en passe de connaître à son tour sa révolution du gratuit , remettant en cause le modèle économique et le rôle même des éditeurs, des distributeurs et des librairies. Google, à travers son programme de numérisation massive du patrimoine littéraire mondial amorcé en 2004, met à disposition le contenu d’un fonds de plus de 15 millions d’ouvrages en ligne, la plupart tombés dans le domaine public ou non réédités. Les conditions dans lesquelles les accords ont été passés avec les bibliothèques et la gestion exotique des droits d’auteur ont conduit à une levée de boucliers d’un très grand nombre d’acteurs de l’édition, notamment en France.

« Google est entré en Europe en conquérant et beaucoup lui ont ouvert la porte en signant des accords que je trouve inacceptables. Ils reposent sur une confidentialité excessive, des exclusivités impossibles, des clauses désinvoltes, voire léonines au regard du droit d’auteur », avait déclaré Frédéric Mitterrand à son encontre.

Néanmoins, la force de frappe et la capacité de numérisation du géant américain en font aujourd’hui l’acteur incontournable de la préservation du patrimoine littéraire mondial. Google fait donc ainsi entrer la gratuité dans les usages du livre, chamboulant encore un peu plus un secteur déjà lourdement plombé par l’arrivée des liseuses numériques et remettant en question le principe même de droit d’auteur, jugé obsolète par certains et inaliénable par d’autres.

Du copyright au Creative Commons

Dans le même temps, les œuvres publiées sous licence Creative Commons sont des alternatives intéressantes au copyright traditionnel. Elles permettent une diffusion libre des contenus d’un ouvrage tout en garantissant un cadre juridique à son auteur grâce à un système de licence régissant les droits d’utilisation de l’œuvre par autrui. Ce système, largement utilisé dans le cadre d’ouvrages relatifs à l’univers d’Internet, contribue à faciliter la diffusion et l’accès à certaines œuvres culturelles. Il contribue encore un peu plus à installer le gratuit comme une option possible pour la diffusion d’une œuvre. Il prouve dans le même temps que le principe de gratuité n’est pas forcément incompatible avec des contenus de qualité.

De la résilience des contenus à la maîtrise de sa e-notoriété

Identité numériqueSi l’expression personnelle répond à un besoin universel de reconnaissance par son prochain, elle pose la question fondamentale du devenir de ces contenus sur le Web. Si Internet a avant tout pour vocation de faciliter les échanges d’informations entre les individus, il n’en demeure pas moins l’incarnation d’une forme de mémoire collective dans le sens où il conserve, dans ses fermes de serveurs, toute l’histoire numérique de ces vingt dernières années. Contenus, contributions, échanges, recherches, traces de navigation, données personnelles : absolument toute l’activité menée sur le réseau Internet constitue les métadonnées mises en mémoire et contribuant à faire émerger la notion de Big Data, c’est-à-dire ce volume considérable d’informations échangées sur le Net et qui, s’accumulant, oblige aujourd’hui à repenser l’architecture de stockage et de traitement de ces données.

Le web n’oublie rien !

Parmi elles, se trouvent les contenus continuellement diffusés, échangés, commentés et relayés par les internautes sur les différents réseaux. Cette puissance de démultiplication qui constitue une des forces du Web présente un risque notable pour l’individu. Dans cette mémoire globale et extensible qu’est Internet, le fait de poster des commentaires, des photos ou des vidéos peut avoir des répercussions notoires pour l’internaute. Ces informations laissent des traces numériques en ligne et peuvent potentiellement représenter un préjudice a posteriori dans la mesure où elles sont susceptibles de remonter à la surface du Net à la moindre requête sur un moteur de recherche. Cette résilience de l’information en ligne met en péril une liberté fondamentale de l’individu qui est celle liée au droit de changer d’avis.

Profil numérique et droit à l’oubli : priorité à la prudence

Ce constat implique une réflexion sur le droit à l’oubli ou, tout du moins, celui permettant une révision de ses informations personnelles sur le Net. Mais il fait également émerger une des principales limites du Web qui est celle liée à la difficulté de réguler avec des armes législatives souvent locales un sujet fondamentalement global. S’il est possible de contraindre une entreprise, il est illusoire de vouloir contraindre le Net dans son ensemble qui n’a, par définition, pas de modèle de gouvernance centralisée. Tout au plus est-on capable de mettre autour d’une table les principaux acteurs de l’économie numérique pour mettre en place certains accords et protocoles. Les litiges se résolvent aujourd’hui au cas par cas et souvent devant les tribunaux. En juillet 2011, la CNIL a ainsi contraint une association en charge de la numérisation d’actes de jurisprudence à anonymiser les documents avant leur mise en ligne. Certains plaignants avaient en effet subi des préjudices à voir leur nom accolé à une affaire de justice. L’un d’entre eux s’était vu refuser un emploi après qu’une recherche sur Google ait fait remonter une décision judiciaire sur des faits mineurs le concernant, 12 ans auparavant. Sans pour autant diaboliser Internet dans le sens où peu de cas font acte de malveillance délibéré, il convient de connaître les risques encourus par un étalage trop libre d’informations personnelles sur le réseau. Certaines compagnies d’assurance ont d’ailleurs commencé à proposer des solutions pour couvrir les dangers liés à l’identité sur Internet, proposant de nettoyer les données malveillantes qui ont pu être publiées de manière fortuite ou non. Sans en arriver là, les nouveaux usages réclament simplement aujourd’hui un apprentissage urgent des codes et demandent une vigilance quant à la capacité d’Internet à amplifier les choses. Car des règles ont déjà été fixées.

E-réputation et personal branding : les enjeux des contenus personnels

Devant la difficulté à légiférer et à mettre les différents acteurs du Net d’accord sur le sujet, tout porte à croire que les internautes apprendront à l’avenir à mieux contrôler les contenus qu’ils mettent en ligne et de façonner naturellement leur profil digital. Des services comme LinkedIn ou Viadeo représentent déjà, dans ce contexte, des versions modernes du CV. Partant du constat qu’aujourd’hui 78 % des recruteurs passent par les moteurs de recherche pour trouver des informations personnelles sur les candidats et que 64 % d’entre eux surveillent les médias sociaux, on comprend dès lors combien il devient hasardeux d’utiliser Internet comme simple exutoire et à quel point la gestion de ses contenus personnels sur le réseau devient cruciale pour sa vie professionnelle, voire personnelle. Une telle discipline consiste à alimenter le Net de données individuelles combinant parcours professionnel, activités diverses, appartenance à une communauté, expertise et opinions dans le but de faire émerger un profil personnel qui soit une représentation conforme à celle que chacun souhaite donner. Un enjeu qui prend encore une tout autre dimension dès lors que l’on devient un personnage public : hommes politiques, patrons d’entreprise, artistes et professionnels des médias mettent aujourd’hui sur pied de véritables stratégies de Personal Branding sur les réseaux afin d’installer leur image à l’instar de celle d’une marque. Et surtout éviter qu’un autre ne le fasse à leur place.

les nouveaux métiers de l’e-réputation

Selon les mêmes règles que les individus, les entreprises ont tôt fait d’exploiter cette capacité du Net à conserver les traces numériques pour la transformer en levier puissant d’influence. Aujourd’hui, il apparaît que 50 % des contenus de marques sur Internet proviennent d’une source qui n’est pas directement liée à son secteur d’activité. Une proportion qui montre à quel point il est important de surveiller l’ensemble des sources d’information pour faire en sorte que l’image que l’entreprise ou la marque souhaitent communiquer coïncide avec celle qui circule de manière spontanée sur le réseau. Des méthodes, posant les bases des techniques de construction de l’e-réputation, visent à occuper l’espace social sur le Net au travers d’une écoute du « bruit » ambiant mais aussi d’une prise de parole volontaire et de l’initialisation de la conversation auprès des réseaux d’influence. L’objectif : parvenir à cartographier l’image perçue, le dynamisme des conversations et permettre d’identifier les leviers d’orientation du discours à tenir sur le Net pour sa marque. Ces actions se sont radicalement sophistiquées ces dernières années, avec des investissements évalués à 190 millions d’euros pour le marché français en 2011 et l’émergence de nouveaux métiers comme les experts SEO, les Community Managers ou les nettoyeurs du Net. Des outils au service de l’image et qui doivent avant tout s’intégrer aux méthodes traditionnelles de marketing plus que dans celles de la gestion des risques dans laquelle ils sont trop souvent réduits. « Selon plusieurs études, les entreprises ont des difficultés à appréhender le concept de l’e-réputation », nous dit David Réguer, auteur de l’ouvrage e-réputation, manager la réputation à l’heure du digital, qui reproche une vision des sociétés à trop court terme du phénomène. « Elles ne perçoivent l’e-réputation que par le prisme de la gestion des risques et du monitoring d’un côté, et la création d’une page Facebook de l’autre, souvent sans lien entre les deux. »

Du café du commerce au comptoir global

Dans ce grand café du commerce que constitue le Web 2.0, prendre la parole pour un individu ou une entreprise n’est donc pas une chose anodine. Le réseau Internet, plus que nul autre, constitue une formidable tribune où se construit et se démonte une réputation, où se colportent les bons mots comme les jugements les plus arbitraires, où s’échangent l’information comme la désinformation. Il faut toutefois garder à l’esprit que la tribune s’est aujourd’hui étendue du zinc au comptoir global et les mots qu’elle diffuse restent gravés dans un coin de serveur et sont susceptibles de réapparaître n’importe quand sur Google. Maîtriser les contenus devient donc un exercice de spécialiste et un nouvel enjeu pour l’individu comme pour l’entreprise 2.0.

L’émergence des contenus « spontanés »

Le droit d’expression est une notion fondamentale des libertés individuelles. La Déclaration des droits de l’homme et du citoyen précise que :

« la libre communication des pensées et des opinions est un des droits les plus précieux de l’homme : tout citoyen peut donc parler, écrire, imprimer librement, sauf à répondre de l’abus de cette liberté, dans les cas déterminés par la loi ».

Un cadre qui prend une nouvelle dimension depuis la généralisation des fonctionnalités du Web 2.0. De nouveaux types de contenus viennent peu à peu augmenter de manière conséquente le volume d’informations disponible sur le Net : ceux générés par les utilisateurs et communément nommés « UGC », pour User Generated Contents (Contenus produits par les utilisateurs). Forums, chats, blogs, évaluation en ligne, commentaires, live-twitts sont autant de canaux permettant de prendre la parole et se présenter sur le Net. Les contenus se libéralisent et l’indépendance de ton devient une réalité dans le sens où elle est aujourd’hui l’affaire de chacun et ne dépend plus d’un tiers (éditeur, diffuseur, distributeur, etc.). Un écrivain ou un musicien peuvent donc aujourd’hui librement diffuser leur œuvre dès lors qu’ils sont capables d’utiliser les outils de diffusion à disposition. L’expérience communautaire telle que celles proposées par My Major Company ou Kiss Kiss Bank Bank vont jusqu’à changer le rapport de force pouvant exister entre l’individu et le monde fermé des éditeurs en donnant la possibilité à un artiste non seulement de la libre diffusion de son œuvre mais également celle de trouver un mode de financement permettant son éventuelle exploitation commerciale.

Les contenus spontanés comme modèle économique

Certains services, comme Yelp, Doctissimo, Tripadvisor ou Plebicity, tirent également l’essentiel de leur dynamisme éditorial des contenus issus des contributions et des échanges réalisés entre les internautes et les membres de ces communautés. Alors qu’on dénombrait en 2011 plus de 160 millions de blogs dans le monde et 30 milliards de contributions publiées chaque mois sur Facebook, on est en droit de se demander quels sont les mécanismes qui conduisent le citoyen à être actif sur Internet. Qu’est-ce qui nous fait twitter ? Pourquoi prenons-nous la parole sur des blogs ? Quels genres de pulsions nous poussent à poster notre vie sur les réseaux sociaux ? Quelles sont les raisons qui poussent certains d’entre nous à mettre leur expertise au service d’un projet comme Wikipedia ? Et cela alors qu’il n’y a pas de contrepartie financière immédiate ? Des questions aussi universelles que celles qui peuvent amener l’écrivain ou le journaliste à prendre la plume, mais qui prennent une tournure particulière dès lors que l’on touche aux informations personnelles. Mais des motivations essentielles dans la mesure où ce besoin représente la pierre angulaire du développement des réseaux sociaux, poussant toujours plus d’individus à se livrer sur Internet, au mépris, parfois, des risques que cela peut présenter.

« Il y a plusieurs facteurs qui font que les gens s’exposent malgré tout. D’abord, sur les réseaux sociaux, c’est en dévoilant des choses sur soi que l’on crée du lien, c’est même l’ingrédient sine qua non », nous dit l’économiste Fabrice Rochelandet, auteur d’un ouvrage sur l’économie des données personnelles et de la vie privée. « Ce qui est moins rationnel, c’est que les gens divulguent beaucoup de choses. Ce peut être parce que les autres le font ; du coup, on a l’impression que si tout le monde le fait, il y a moins de risques. (…) Et puis, même s’il est imprudent de trop se dévoiler, on ne sait pas quand cela va se retourner contre soi, ni comment. C’est diffus. Enfin, il ne faut pas oublier le petit plaisir immédiat qu’il y a à s’épancher ! »

La reconnaissance, moteur de la contribution

05-08-redaction-maslow

En même temps que le nombre de supports d’expression a explosé, les motivations sous-tendant le besoin de contribuer sur le Net semblent donc être multiples et hétérogènes. Elles sont toujours conformes aux besoins fondamentaux de l’individu qu’Abraham Maslow avait schématisé dans sa pyramide des comportements dès les années 40. Selon cette théorie, les besoins liés à l’appartenance, la reconnaissance ou l’accomplissement s’expriment chez l’individu dès lors que ses motivations primaires, comme celles liées à la survie et à la sécurité, sont satisfaites. Contribuer reviendrait donc à rechercher une reconnaissance et une valorisation individuelles qui peuvent parfois manquer dans notre société, alors que les besoins matériels sont, eux, satisfaits. Cela procède à la fois d’un besoin de reconnaissance proche du quart d’heure de célébrité warholien et d’un comportement autocentré. Prendre la parole, contribuer, évaluer ou commenter sur des services en ligne procèdent d’un besoin universel de se livrer pour acquérir un statut dans la société. La nébuleuse et le relatif anonymat du Net permettant, en plus, toutes les audaces que notre société, construite sur le jugement et l’évaluation d’autrui, ne permet pas toujours.

Du projet à la réalisation : les premiers exemples d’écriture collective

La contribution a donc des vertus fondamentales pour la valorisation individuelle. À ce titre, on s’aperçoit que le « Je », en tant qu’expression d’une pensée individuelle, fait son grand retour, symbolisant la prise de parole personnelle, la prise de position et un certain courage, même si tout cela reste à relativiser compte tenu du caractère anonyme du Web. Parallèlement, le « Nous » l’accompagne de plus en plus souvent dans le cadre des échanges sociaux. La contribution a en effet des implications collectives et certains projets prennent appui sur cette dynamique d’écriture individuelle à des fins d’un projet commun. Les réseaux sociaux donnent un cadre idéal à l’écriture collective en modernisant le principe du cadavre exquis, expérimenté par le courant surréaliste. Ainsi est née l’idée de L’exquise nouvelle, un projet éditorial lancé sur Facebook réunissant plusieurs dizaines d’auteurs confirmés et débutants participant à une aventure d’écriture collective. La contrainte : que chaque auteur participe au manuscrit à hauteur de 420 signes maximum, soit le volume d’un statut Facebook, et qu’il rebondisse sur le texte du contributeur précédent pour élaborer une histoire originale. Le résultat : un polar nous invitant à suivre les traces d’un tueur à l’andouillette. Un principe développé également par Alexandre Jardin, de manière plus sophistiquée, autour de son roman Fanfan2, qui ressuscite son personnage d’Alexandre, 15 ans après son premier roman. Se situant à l’issue du livre, le concept propose de participer à une aventure transmédia sur un site, des applications mobiles, un flux Twitter et quelques pages satellites permettant aux internautes de prolonger le récit de l’auteur et d’intervenir sur la narration et le fil de l’histoire, en conseillant son héros sur la manière de prolonger sa passion pour son héroïne. Une expérience d’écriture collaborative et collective a également été mise en œuvre par Orange dans le cadre d’un projet cinématographique baptisé We are producteurs. Ce concept proposait aux internautes de collaborer à l’élaboration d’un film en participant à son écriture, au choix des personnages ou du titre, aux séances de casting, ou à l’écriture des étapes clés du scénario. Une expérience de cocréation regroupant plus de 12 000 contributeurs, menée par Luc Besson en maître d’œuvre, qui aboutit au film À l’aveugle réalisé par Hervé Palud et sorti en salles en 2012. Une expérience qui permit de poser les bases d’un mécanisme de co-écriture d’un projet complexe comme peut l’être celui d’un film.

La dynamique du contributif recherchée par les marques

À l’heure où on déplore un relâchement dans les matières écrites et le lien social, les aspirations du citoyen à prendre la parole sur le Net sont une bonne nouvelle. Elles sont un creuset d’énergies exploité par un certain nombre de services et une source de créativité et d’expertise unique qui devient aujourd’hui un pilier du modèle économique des médias connectés. À tel point que cette dynamique des contenus spontanés est aujourd’hui recherchée par les entreprises comme preuve d’attachement à la marque et d’émulation auprès de différents réseaux sociaux.

Toujours plus de contenus pour toujours moins de valeur

Valeur du contenuLa prolifération de nouveaux espaces d’expression provoquée par l’arrivée des médias online a créé un appel d’air inédit pour les producteurs de contenus. Aussi performants soient-ils, la plupart des services en ligne restent fondamentalement élaborés autour des contenus. Si la qualité de ces services attire une audience, ce sont les contenus qui contribuent à la garder captive et à la fidéliser. Des espaces comme Deezer, DailyMotion ou Flickr ne sont que des coquilles vides sans le contenu qu’ils mettent à disposition et qu’ils permettent de partager avec le reste de la netosphère. Parallèlement, beaucoup de marques pure players présentes sur Internet ont compris les enjeux liés aux contenus dans le but d’établir une relation privilégiée avec leurs utilisateurs. Ainsi, le site de vente RueDuCommerce a, par exemple, lancé en 2011 son magazine en ligne pour créer une relation différente du simple acte de vente avec ses clients. Le roi Google lui-même s’est lancé dans la production de contenus propres pour présenter la profusion des innovations qu’il propose.

De la profusion des contenus nait sa banalisation

Cette situation confère aux contenus un rôle central et stratégique dans la capacité d’un site à développer sa propre audience : ils sont un catalyseur d’un public susceptible de produire son propre contenu et de développer, à son tour, une nouvelle audience. Une dynamique qui a rendu Internet gourmand en contenus de toutes sortes et conduit peu à peu à l’industrialisation des process de rédaction, dont les fermes de contenus sont un des principaux avatars. Mais une profusion de contenus disponibles qui pose in fine la question cruciale de sa valeur. Pas uniquement d’un point de vue du prix ou de la valeur marchande, mais plutôt du point de vue de celle perçue par le public. La question se pose d’abord en matière d’image. Hier considéré comme un bien rare, l’usage de la photographie s’est aujourd’hui généralisé avec l’arrivée du numérique. Elle est aujourd’hui devenue un média d’expression et de dialogue, qui s’échange via les mobiles ou se télécharge sur le Net aussi facilement que du texte. La vidéo, en s’embarquant sur les smartphones, est en passe de suivre le même chemin en devenant le nouveau moyen d’expression et de communication entre les individus. Le phénomène s’est aujourd’hui généralisé à l’univers de la musique et du cinéma qui, en perdant leur matérialité, ont aussi perdu une partie de leur valeur. Dès lors, comment peut-on demander de payer pour un contenu devenu aussi ordinaire que l’air qu’on respire ou l’eau qui sort du robinet ? Cette question est à la base du débat mené sur les DRM (Digital Right Management ou gestion des droits numériques) et sur le respect du droit patrimonial de l’artiste sur son œuvre. Il est en train de gagner les sphères des contenus au sens le plus large.

L’industrialisation de la production des contenus : la naissance d’un prolétariat

Le monde de la production de contenus est donc en passe d’éprouver une révolution liée à ses méthodes de production, au même titre que celle qui a secoué le monde industriel au XIXe siècle. L’« OS du clic » devient interchangeable, organisé en batterie se divisant le travail et a aujourd’hui pour unique vocation de fournir une matière première bon marché, prête à consommer. Avec la menace de baisse de qualité qui en découle. Dès lors, on peut aisément faire une analogie entre le monde de la production de contenus et celui des sweat-shops du Sud-Est Asiatique ayant pour but d’inonder le marché de produits textiles ou informatiques à bas prix. Les contenus seraient-ils en phase de devenir un bien de consommation au même titre qu’une paire de chaussures ou un écran de télévision ? À quand une délocalisation des salles de rédaction dans les pays à faible coût de main-d’œuvre ?

Quand la machine remplace l’homme

L’analogie ne s’arrête pas là. Dans la même logique qui a conduit à remplacer l’homme par la machine, une expérience d’intelligence artificielle baptisée Stats Monkey menée par la Northwestern University de l’Illinois (USA) pousse la démarche encore plus loin. Son but : confier à un robot l’élaboration intégrale d’un article de presse. La machine est ainsi capable, propulsée par un algorithme puissant, d’aller chercher automatiquement sur le Web les infos nécessaires à l’élaboration de l’article, à les croiser et les augmenter d’éléments de contexte tels que la météo, et à les mettre en forme pour donner lieu à un article intelligible, utilisant un style rédactionnel préétabli, adapté au lectorat et pouvant largement rivaliser avec des articles rédigés par des journalistes professionnels. Son champ d’application porte encore actuellement au seul domaine des résultats sportifs locaux, peu enclins à une analyse poussée et la plupart du temps construits sur des données factuelles (on a gagné, il a plu, il y avait un public nombreux, un joueur était blessé, etc.). Il ouvre cependant des perspectives, qualifiées par certains de boîtes de Pandore, à une automatisation intégrale de la production, éradiquant toute intervention humaine de processus d’élaboration des contenus. Certains projets explorent aujourd’hui la possibilité d’étendre ce domaine de compétence à l’audiovisuel ou à l’analyse politique. Posant par là même la question cruciale de l’avenir du mode de vérification des sources d’information et de celui du style journalistique.

L’écriture à la conquête de l’espace

Ecriture dans l'espaceLa structure d’un récit est essentielle à son intelligibilité. Traditionnellement conçue selon une ligne narrative fixe, cette structure permet de donner le cadre dont l’esprit a besoin pour se laisser guider par l’histoire. « Qu’on écrive un roman ou un scénario, on organise des rencontres, on vit avec des personnage ; c’est le même plaisir, le même travail. On intensifie la vie », disait François Truffaut. L’écriture est le média permettant ces rencontres et cette transcendance. À cette fin, on peut considérer que le schéma linéaire est symbolisé au cinéma par le scénario, pour les médias audiovisuels par le conducteur ou par le chemin de fer pour la presse.

De l’hyperlien au transmédia : les contenus se délinéarisent

L’apparition des médias online a brutalement changé ce paradigme linéaire immuable. Le principe d’hyperlien a rompu cette linéarité en introduisant la notion de digression narrative et d’exploration disruptive des contenus. Et ce dès le début du Web. Les enjeux qui accompagnent la délinéarisation des contenus et l’émergence de la notion de transmédia constituent une révolution sans précédent dans la manière d’organiser l’information.

Le spectateur devient acteur de la narration

Le support Internet donne tout d’abord un cadre à un accès fondamentalement multimédia des contenus. En cela, il permet d’alterner des modes très différents d’écriture mais aussi potentiellement de supports distincts, permettant une complémentarité et une synergie entre les différents médias et les différentes formes narratives. Internet permet, d’autre part, une déstructuration de la narration et une interactivité inédite avec le lecteur. L’histoire n’est donc plus abordée sur un mode linéaire, mais bien plutôt sur la base d’une exploration d’un récit à tiroirs, suivant de multiples entrées, raccourcis, ellipses. L’auteur fournit un cadre et une intention à son histoire mais n’impose plus un déroulement. Dans ce cadre, il laisse au spectateur le soin d’en être le moteur et de construire sa propre expérience. Les techniques d’écriture empruntent ainsi beaucoup à celles du jeu vidéo, découpées en grands modules de jeu, chaque brique contribuant à délivrer des clés de lecture participant à la compréhension d’un tout. Les enjeux d’un tel modèle résident moins dans les limites fixées par la créativité que dans la capacité à délivrer une histoire intelligible quelle que soit la partie par laquelle on l’aborde, sans jamais courir le risque de tomber dans la confusion.

Un décloisonnement des contenus

Dans cette vision des choses, la trame narrative s’arrache du carcan purement chronologique pour conquérir une nouvelle dimension. L’écriture se fait désormais en 3D et la structure linéaire de l’histoire se transforme en arborescence, regroupant les embranchements vers d’autres contenus permettant d’enrichir l’expérience. « Nous assistons actuellement à une mutation des gènes des contenus vers un ADN transmédia permettant le développement de schémas narratifs s’affranchissant des unités de lieu, de temps et d’action », précise Alexandre Callay, directeur d’Eurodata TV Worldwide. La notion de scénarisation transmédia conduit ainsi à appréhender l’écriture non plus comme une duplication d’un même contenu sur plusieurs supports, mais plutôt sous forme de modules interdépendants, s’additionnant pour constituer un univers intelligible. Une conception de l’écriture symbolisée sous le terme de compréhension additionnelle. « La narration transmédia est un processus où l’intégralité des éléments d’une fiction est dispersée au travers de multiples canaux dans le but de créer une expérience de divertissement unifiée et coordonnée », nous dit Henry Jenkins, professeur de communication et de journalisme à l’université de Californie du Sud, et qui fut un des premiers à intégrer l’étude des jeux vidéo dans les techniques de communication. « Idéalement, chaque médium apporte sa propre contribution au processus narratif global. » Une logique que l’on retrouve, par exemple, dans la saga de La guerre des étoiles où l’épisode The Clone War, réalisé en images de synthèse, doit permettre de faire le lien narratif entre l’épisode II et III. La série de George Lucas reste un exemple de narration transmédia, avec un univers complexe décliné sur des supports comme la BD, les jeux vidéo, les romans, les séries télé et, bien sûr, le cinéma.

Objectif : enrichir la lecture et favoriser l’immersion

La plupart des médias qui se sont numérisés explorent aujourd’hui les ressources de cette nouvelle dimension. Elle est au cœur de la richesse de la presse en ligne, qui permet l’accès à des contenus connexes donnant, par exemple, un cadre historique, des témoignages, les sources externes et les commentaires des lecteurs. Elle est un des enjeux de développement du livre numérique permettant des approfondissements de lecture au travers d’éléments de contexte, d’enrichissements narratifs (développement des personnages, description des lieux, etc.), voire des chemins alternatifs à l’histoire centrale. Le webdocumentaire, enfin, demeure le symbole de ce nouveau mode de narration, dans le sens où il constitue la fusion la plus aboutie du texte, de l’image et de l’histoire. Un format qui se prête à l’immersion et à l’exhaustivité.

La TV connectée : nouveau terrain de jeu narratif ?

Il y a fort à parier que ces nouveaux modes de narration se généraliseront à l’avenir avec le développement des médias online et notamment de la TV connectée, qui risque fort de devenir le support central à cette expérience, transformant dans le même temps le téléspectateur en téléacteur.

Le storytelling ou l’art de se raconter

StorytellingRodé par des années d’exposition aux discours habilement construits, le citoyen consommateur a aujourd’hui acquis une acuité à décrypter les chausse-trappes dans lesquelles les discours politiques et marketing veulent trop souvent le faire tomber. Dans le même temps, ce dernier a acquis la capacité à réagir sur le réseau et n’hésite plus à partager ses doutes quant aux promesses des discours descendants. Celui du journaliste lui-même est aujourd’hui remis en question en même temps que son indépendance vis-à-vis du pouvoir politique et des pressions de l’argent.

La puissance de la narration

Face à ce scepticisme ambiant, les gourous du marketing, du management et de la communication politique cherchent continuellement de nouveaux leviers de séduction et de dialogue avec le citoyen. Prenant conscience qu’il était plus facile de transmettre l’aridité d’un discours politique ou publicitaire au travers d’une belle histoire, le principe de storytelling s’est progressivement imposé aux marketeurs et autres spin-doctors comme alternative aux techniques de communication traditionnelles. Car force est de constater que le monde de la communication et celui des arts narratifs, comme le cinéma, le théâtre ou la littérature, partagent un point commun : faire passer des émotions pour capter l’attention et créer l’adhésion à une histoire.

Storytelling : la communication à hauteur d’homme

Même si la méthode ne date pas d’hier et que le marketing s’est toujours efforcé d’enrober l’austérité des produits manufacturés dans un écrin narratif servant la séduction, c’est à partir des années 90 que cette démarche s’est construite de manière consciente et structurée. En adoptant les techniques narratives, l’entreprise ou la marque se livre, s’installe dans un contexte, explique sa problématique, décrit son environnement, devient accessible, prouve ses valeurs et son éthique, subit des péripéties. Bref, elle devient un « homme comme les autres ». C’est cette connivence qui est recherchée pour permettre de donner un cadre dans lequel le citoyen peut se référer et y renouer une forme de proximité.

Les clés d’une bonne histoire

Depuis Homère ou La chanson de Roland, les bases des structures narratives se construisent sur des piliers intangibles bien connus des scénaristes.

« Une bonne histoire est une histoire qui capte votre attention et que vous avez ensuite envie de raconter à votre tour », nous dit Sébastien Durand, auteur de l’ouvrage Storytelling. « On peut discerner sept typologies d’histoires : la reconnaissance de sa propre valeur, la conquête du pouvoir, l’exercice de ce même pouvoir, le maintien de la confiance, le partage de la connaissance, la recherche de la jeunesse éternelle, la libération des sens (…). À l’intérieur de ces archétypes, on articule le schéma actanciel : la quête, le protagoniste, l’antagoniste, la crise et sa résolution, le retour à la raison et enfin la continuation de l’histoire : dans le storytelling, il faut en effet toujours prévoir le chapitre suivant. »

Ce schéma reste fondamental dans la force narrative de l’histoire, sa tension dramatique, celle qui permettra de capter l’auditoire et de l’entraîner sur son propre terrain.

La création des personnages, moteur de la narration

Une bonne histoire, c’est aussi la force des personnages. Selon Carol S. Pearson, la plupart des contes et légendes est sous- tendue par une typologie très limitée de personnages aptes à transmettre les messages et à jouer un rôle dans la mécanique d’appropriation. Du héros au bienfaiteur, du rebelle au magicien, ils seraient au total douze archétypes de personnages, possédant chacun leurs propres traits de caractère, leur mode de relation aux autres et leurs motivations pour conduire l’histoire. Dans la vraie vie, ils sont incarnés par des patrons charismatiques comme pouvait l’être Steve Jobs, des personnages secondaires, courants en politique, permettant de mettre en valeur le personnage principal ou encore par des avatars comme peuvent l’être Tony Parker, Heidi Klum, Cerise de Groupama ou le Bibendum Michelin. Chacun ayant pour mission particulière d’enrichir de leurs personnages les valeurs et l’image d’une marque ou d’un univers. Enfin, pour terminer, l’histoire se nourrit aussi d’un style narratif, susceptible de témoigner de l’univers dans lequel on souhaite s’inscrire : l’humour, la créativité, l’innovation, la proximité, la sobriété, etc. Une individualité qui pourra ensuite se décliner dans tous les compartiments de la communication.

Faire porter le regard ailleurs

Qualifiées d’« armes de distraction massive » par le chercheur et écrivain français Chritian Salmon les techniques de communication narrative se révèlent d’une puissance implacable pour ceux qui savent les manier. Elles permettent de focaliser l’attention sur le fil d’un récit, plus riche en émotion qu’un produit en valeur absolue. Quitte à parfois frôler la limite de la manipulation. Une dérive mise en exergue par la journaliste canadienne Naomi Klein dans son livre No logo où elle nous explique comment la relation émotionnelle établie par des marques comme Nike, Microsoft ou Tommy Hilfiger contribue à faire adhérer à un univers plutôt qu’à un produit manufacturé fabriqué à bas coût.

« Ce que ces entreprises produisaient surtout, ce n’étaient pas des objets, selon eux, mais des images de leurs marques. Leur véritable travail n’était pas la fabrication, mais le marketing. »

Manipuler sans jamais mentir

Mais manipulation ne veut pas dire pour autant mensonge. Travestir la vérité reviendrait à prendre le risque de s’exposer à une sanction immédiate. Car le citoyen devient également un acteur de la grande histoire qui se déroule. En dévoilant ses goûts sur les réseaux sociaux, en se signalant sur les sites de géolocalisation, en postant ses photos, en prenant la parole sur les blogs ou en donnant son avis sur les sites de partage, il contribue à enrichir l’univers des marques en même temps que sa propre histoire et à donner aux autres l’image qu’il souhaite véhiculer. En partant du principe qu’il possède toutes les clés pour maîtriser cette image…

Contenus et publicité : un mélange des genres ?

Contenu et Publicité : mélange des genresUn autre défi concerne la définition d’une frontière, de plus en plus ténue, entre les producteurs de contenus et les régies publicitaires. Certains acteurs tels que Yahoo!, Facebook ou Microsoft, jouent habilement sur les deux tableaux, faisant émerger la suspicion d’un risque de connivence entre les deux métiers. Une situation qui n’est évidemment pas sans créer, ici aussi, un risque de conflit d’intérêts, rien ne permettant de penser que la frontière entre les deux métiers ne soit pas régulièrement franchie. La société de vente en ligne Amazon, par exemple, habituée du profilage de ses clients à des fins de suggestion d’achat a ainsi été un temps accusée de profiter de sa position en adaptant abusivement ses prix de vente au profil de ses utilisateurs. Des pratiques tout aussi inquiétantes chez Facebook, régulièrement montré du doigt pour monétiser les informations personnelles de ses membres. En 2010, la firme de Mark Zuckerberg avait été interpellée par le Wall Street Journal pour avoir intégré, dans ses codes, une fonctionnalité permettant aux régies publicitaires d’accéder directement aux informations particulières des internautes ayant cliqué sur leurs bannières publicitaires. Un bug rapidement corrigé par la firme, accompagné des excuses de son PDG fondateur. En septembre 2011, le réseau social s’est de nouveau vu reprocher des pratiques frauduleuses. En cause, cette fois, l’utilisation de cookies traceurs permettant de repérer les agissements de l’internaute, même lorsqu’il était déconnecté du réseau social. Un événement qui a rapidement fait le tour du Web et a une nouvelle fois obligé la firme de Palo-Alto à faire des excuses publiques.

La résistance s’organise

Une accumulation de dérapages inquiétants de la part d’acteurs résolument globaux et en charge d’informations potentiellement sensibles si elles venaient à être mal utilisées. Face à ce constat, une certaine forme de résistance commence à animer les acteurs du Net. De plus en plus d’internautes se plaignent du manque de transparence dans la gestion de leurs contenus personnels et revendiquent un droit à l’oubli fondamental de leurs agissements sur Internet. Les associations d’internautes dénoncent, quand elles le peuvent, les dérives autoritaires des régies publicitaires. Les blogueurs influents stigmatisent les abus des géants du Web. Aux États-Unis s’organisent des Quit Facebook Days ou des campagnes Web diffusées sur Times Square sur le thème de Do not track me, lancées à l’initiative de certains activistes. Le réseau Diaspora tente, de son côté, de s’imposer comme une alternative libre et éthique à Facebook, permettant de garantir la confidentialité des échanges de ses membres. Enfin, certains « hacktivistes », comme les Anonymous, souhaitent dénoncer la violation régulière de la vie privée des utilisateurs en visant une destruction pure et simple de Facebook par des méthodes virales. Des méthodes extrêmes qui témoignent toutefois d’une certaine impuissance de la société à contrôler et réglementer ces entreprises.

Dépôts de plaintes : Google, Microsoft et Facebook dans le collimateur

Parallèlement à cette cristallisation d’énergies individuelles, la voie réglementaire demeure encore une solution privilégiée par certains. Une plainte, déposée en nom collectif en 2010 aux États-Unis à l’encontre de Google, vise ainsi à récolter des dommages et intérêts pour les individus dont les informations confidentielles ont été illégalement communiquées à des tiers. En Europe, La Commission européenne a été saisie début 2011 par plusieurs acteurs du monde de l’Internet pour abus de position dominante et déréférencement sauvage du moteur de recherche. Même les géants de l’informatique s’organisent pour tenter de stopper le développement incontrôlable de ces mastodontes dopés à la publicité. Microsoft a ainsi saisi la Commission européenne pour pratiques anticoncurentielles de Google. Preuve que l’inquiétude gagne aussi les rangs des concurrents.

La CNIL : des labels du bon usage de la vie privée

Dernière initiative : la CNIL propose désormais une alternative à l’attaque. En lançant un système de labellisation des sites respectueux de la vie privée, elle souhaite se positionner en tant qu’acteur référent dans le paysage économique et technologique et créer une émulation chez ceux qui jouent un rôle dans la publicité sur Internet. Au même titre qu’un industriel trouve désormais un avantage concurrentiel à se déclarer « éco-responsable », l’obtention d’un label de la CNIL permettra désormais aux entreprises de se distinguer par la qualité de leurs produits ou de leurs procédures au regard des critères de la loi Informatique et Libertés.

des armes nationales pour des entreprises globales : un combat perdu d’avance ?

Toutes ces actions ne semblent pourtant pas atteindre les acteurs majeurs qui régissent l’éco-système du Net. Leurs audiences, toujours en hausse, montrent à quel point ils sont devenus indispensables aux internautes. Il faut dire que trois pays sur quatre n’ont aujourd’hui toujours pas de législation encadrant la protection des données sur le réseau Internet. Du pain béni pour ces sociétés dont la cour de récréation est résolument mondiale et qui se jouent des frontières nationales.

Profilage des contenus et libertés individuelles : les risques de débordement

03-03-Pub-conflitCompte tenu des intérêts qui sont en jeu, la généralisation des techniques de profilage publicitaire ne va évidemment pas sans l’arrivée concomitante de quelques conflits d’intérêts. Mettant parfois à mal le respect des droits des personnes à contrôler la diffusion de leurs données personnelles, conformément à la directive européenne 95/46/CE. Selon un baromètre réalisé par ETO et le cabinet d’études Market Audit, 76 % des personnes interrogées estiment que le stockage des données les concernant est problématique, 70 % d’entre elles estimant n’être pas suffisamment informées de l’utilisation qui en est faite par la suite.

La CNIL gardienne des libertés individuelles

La CNIL, partenaire de ce baromètre, veille à ce que l’internaute dispose d’une information aussi claire et complète que possible sur le sujet, ainsi que sur les moyens de contrôler les traces qu’il laisse sur Internet. Elle veille également, au travers de la loi Informatique et Libertés, au contrôle du fichage des informations personnelles. Une tâche qui s’avère ardue dès lors que ces mécanismes d’extraction des données sont souvent automatisés et contrôlés par les grandes majors de la publicité. En témoignent les nombreux litiges qui opposent régulièrement ces dernières aux associations de consommateurs. Comme ces excuses publiques faites par Mark Zuckerberg, fondateur du réseau Facebook, à l’issue du lancement de son service Beacon. Ce système prévoyait d’afficher abusivement les achats, réalisés sur les sites de e-commerce partenaires, dans la page personnelle des internautes, sans pour autant avoir obtenu leur autorisation préalable. Une pratique jugée évidemment intrusive par la communauté et qui a contraint Facebook à faire amende honorable. « Plutôt que de réagir rapidement, nous avons pris trop de temps pour décider de la bonne décision à prendre », a déclaré Mark Zuckerberg sur son blog. Un mea-culpa qui montre à quel point la complexité des fonctionnalités liées à la circulation des informations en ligne et le respect fondamental des données finissent même par échapper à l’état-major du plus gros dépositaire d’informations personnelles au monde. Reste à distinguer ce qui est du domaine de l’« erreur » et de celui de la démarche volontaire.

Entre pratiques frauduleuses et vide juridique

Dans un autre domaine, Phorm a ainsi créé la polémique en Angleterre en 2009. Associé au fournisseur d’accès British Telecom, la société a installé, à l’insu de ses clients, un logiciel espion capable de remonter les informations liées à la navigation sur Internet. À la différence de services tels que Google, eBay ou Fnac.com qui perdent la trace de l’internaute au moment de la déconnexion, Phorm, lui, gardait en mémoire au niveau du serveur du fournisseur d’accès, l’intégralité des agissements sur le Net. Une pratique qui permettait de proposer des contenus publicitaires fortement qualifiés, car tenant compte d’un croisement important des données de navigation. Mais une pratique totalement illégale qui a suscité un certain émoi chez les internautes d’outre-Manche et a conduit la société éditrice du logiciel et le fournisseur d’accès devant les tribunaux. Des pratiques abusives qui ont touché plus récemment la sphère sensible de la téléphonie mobile. L’éditeur de logiciels techniques Carrier IQ a créé la polémique fin 2011 en installant sur certains smartphones fonctionnant sous Android un programme capable de transmettre, sans le consentement de l’utilisateur, un ensemble d’informations relatives à l’usage que ce dernier en fait. Applications utilisées, sites visités, localisations GPS, numéros de téléphone composés : tout était susceptible de remonter vers les serveurs de l’éditeur. Une fonctionnalité permettant d’optimiser la technologie du matériel, selon la ligne de défense du fabricant. Mais une pratique parfaitement illicite, ici aussi, du point de vue de la protection des données et de la vie privée et qui fut largement relayée par le Net, obligeant les fabricants de téléphones à remettre à jour un parc de 140 millions d’appareils dans le monde. Autant de cas qui amènent à se poser la question des risques de généralisation de ces logiciels espions dans l’univers du marketing numérique gourmand en informations individuelles. De l’aveu même de la CNIL :

« La publicité ciblée, et en particulier la publicité comportementale, n’est qu’aux prémices de son développement. Celui-ci est susceptible de poser un certain nombre de défi s au regard de la loi Informatique et Libertés. »

Défis parmi lesquels on compte tout d’abord une propension dangereuse à la concentration des acteurs de la publicité en ligne et à une mainmise d’une quantité phénoménale de contenus personnels par un nombre de plus en plus réduit d’acteurs. Avec pour effet de permettre à ces derniers d’acquérir une position prédominante leur permettant de fixer les règles du jeu, sans réel contre-pouvoir.

Les contenus gratuits peuvent-ils (vraiment) être indépendants ?

Le financement par la publicité devenant le modèle économique de référence pour la plupart des sites de contenus, il en découle que les principaux acteurs de la publicité en ligne possèdent de fait un pouvoir de censure considérable sur les éditeurs. L’autorité de la concurrence a ainsi été saisie en février 2010 pour tenter de statuer sur la position hégémonique occupée par certains acteurs, Google en tête, dans le monde de la publicité en ligne. L’avis rendu présente les risques d’une telle position dominante pour les différents acteurs, clients annonceurs ou éditeurs de contenus. Une situation qui devrait encore s’accentuer depuis le rachat par Google, en 2007, de la régie DoubleClick pour 3,1 milliards de dollars, imposant un peu plus le moteur de recherche comme acteur monopolistique sur le Search et désormais le Display. À tel point que Yahoo!, Microsoft et AOL se sont associés fin 2011 autour d’une offre commune pour tenter de contrer l’essor irrésistible de Google, mais aussi de Facebook, qui s’impose désormais comme le challenger sur le marché des bannières.

Google, juge et partie: une situation intenable

Si Google est régulièrement épinglé pour les pratiques obscures adoptées dans le domaine de l’affichage des publicités, il l’est également pour celui du mode de hiérarchisation des résultats affichés dans son moteur de recherche. Il doit faire face à des dépôts de plaintes réguliers d’annonceurs lui reprochant de favoriser ses propres services dans les résultats proposés, au détriment de ceux d’acteurs jugés trop concurrentiels. La société française Navx, fournisseur de services pour la cartographie numérique, a créé l’événement dans ce domaine en prouvant en 2010 les pratiques discriminatoires du géant de Mountain View. Jugé sans doute comme exerçant une activité trop proche des services Street-view, Google avait purement et simplement bloqué la campagne de liens sponsorisés lancée via le service Adwords par l’entreprise française au début de 2010. L’autorité de la concurrence, saisie par Navx, avait alors jugé que :

« la politique de contenus du service Adwords avait été mise en œuvre par Google dans des conditions qui manquaient d’objectivité et de transparence et qui conduisaient à traiter de façon discriminatoire les fournisseurs de base de données radars ».

Ce précédent n’est pas passé inaperçu chez le géant américain qui a été contraint, depuis, de clarifier le système de fonctionnement Adwords vers plus de transparence dans la relation contractuelle.

La presse peut-elle encore gagner face au géant Google ?

Que dire de la presse qui, face à la position prédominante de certains acteurs, voit ses contenus produits par les journalistes professionnels cannibalisés et monétisés par des géants comme Google ou Facebook, sans pour autant recevoir de compensation financière d’aucune sorte. Google s’est ici encore vu reprocher, par l’autorité de la concurrence, d’agir de manière discriminante en excluant d’office les contenus des éditeurs de presse dans les résultats de recherche quand ceux-ci refusaient de céder les droits de diffusion sur Google Actualités, le service d’agrégation de contenus de presse en ligne de Google.

« Les éditeurs de presse doivent pouvoir demander et obtenir d’être exclus de Google Actualités sans pour autant être déréférencés du moteur Google », précise le communiqué de l’autorité.

Une décision qui n’est toutefois pas sans poser de problèmes de conflits d’intérêts, les éditeurs de presse ayant toujours besoin de cette formidable vitrine qu’est le Net pour trouver des leviers d’audience à leurs contenus. Un conflit qui oppose désormais le géant de Mountain View à la plupart des éditeurs européens et donne lieu à une proposition de loi visant à taxer les gains publicitaires réalisés par Google sur les contenus créés par les titres de presse et indexés dans son moteur de recherche. Un combat de David contre Goliath qui s’en remet aujourd’hui à l’arbitrage du politique.

Search, Display, rich-média, vidéo : à chaque contenu son format

03-01-Pub-displayEn se numérisant, les spots publicitaires se sont aussi perfectionnés en adoptant les fonctionnalités des supports en ligne. Aujourd’hui, la plupart des marques ont compris que, pour jouer la proximité et nourrir leur image, les médias traditionnels ne suffisaient plus. Si hier, une entreprise envisageait son plan média en fonction de quelques supports presse ou affichage ou de plages d’audience dans le cas de l’audiovisuel, les médias digitaux ont changé la donne. Aujourd’hui, par le jeu des plateformes de ad exchange et du Display en temps réel, les régies publicitaires online ciblent un grand nombre de sites dont l’annonceur n’aura pas forcément connaissance.

Internet, vecteur de performance publicitaire

Une étude menée par Kantar Média sur les investissements publicitaires indique que 11,3 % du mix-média revient désormais au support Internet pour le premier semestre 2011. Une tendance qui s’inscrit dans la continuité de l’année 2010 et qui montre qu’un volume considérable de budgets de communication est en train de migrer des médias traditionnels vers Internet. Il faut dire que les médias connectés font preuve d’une efficacité redoutable en termes de retour sur investissement. Ainsi, selon une enquête de l’Ifop, 41 % des sondés déclarent avoir déjà au moins une fois accompli un acte d’achat après avoir cliqué sur un encart publicitaire. Une performance que les médias traditionnels ne peuvent, par nature, pas revendiquer. Une étude de décembre 2009 menée par Digitas confirme que 24 % des annonceurs estiment que la réactivité est la raison essentielle expliquant une migration des investissements vers Internet. Cette même étude indique également que l’innovation est un levier majeur expliquant ce transfert. Les médias online devront faire la preuve de leur créativité pour continuer à attirer les annonceurs.

Répartition du chiffre d'affaires net de l'e-publicité - Source UDECAM

Il n’y a pas un type de publicité en ligne comme on peut considérer qu’il y a un type d’annonce spécifique pour chacun des autres médias. Dans le domaine des formats d’annonces, on considère généralement les publicités online sous deux formes : le Search et le Display. Le premier, largement majoritaire pour l’instant avec plus de 524 millions d’euros d’investissements au premier semestre 2012, concerne essentiellement les liens commerciaux s’affichant en marge des moteurs de recherche en réponse à une requête. Google et sa régie Adwords demeure évidemment l’acteur référent dans ce domaine et préempte, à lui seul, 73,6 % de parts de marché aux États-Unis. Microsoft avec son moteur Bing et Yahoo! suivent de très loin avec respectivement 6,9 % et 10,7 %.

Le Display : une créativité en berne

Le Display, quant à lui, représentant 321 millions d’euros d’investissements en 2012, concerne plus particulièrement l’insertion d’encarts publicitaires dans les sites de contenus, qu’ils soient sous forme de bannières, de pop-up, ou d’habillage de page. Une étude Comscore réalisée aux États-Unis indique toutefois qu’en termes de contenus, près de 60 % des campagnes Display exploitent encore un format d’affichage en jpeg ou gif, majoritairement sous forme de bannières. On est loin de la démarche créative débridée demandée par les annonceurs. Un écart qui s’explique sans doute, en partie, par la part occupée dans ce secteur par les petits annonceurs pour qui un format Flash® ou Rich-média représentent une technologie trop complexe entraînant un investissement trop lourd à réaliser. En investissant sur le Web par la petite porte, les annonceurs n’ont semble-t-il pas encore réellement pris la mesure du potentiel des médias digitaux.

La vidéo, nouvel eldorado publicitaire

Par ailleurs, est en train d’émerger, dans le cadre de l’offre Display, le format vidéo. Rendue envisageable par le développement du haut débit et, pour l’instant, encore plutôt réservée aux plus gros annonceurs habitués aux campagnes cross-média, la vidéo est en passe de devenir le nouvel Eldorado publicitaire. En cause : la démocratisation du matériel léger de tournage et surtout la généralisation de ce média au travers des plateformes de partage comme YouTube, Dailymotion ou Vimeo. Moins chère que la télévision, plus interactive qu’un film publicitaire traditionnel, la vidéo sur le Net bénéficie d’un taux de conversion bien supérieur à celui d’une bannière statique.

« Elles représentent une valeur ajoutée plus forte que les publicités textuelles ou graphiques classiques », nous dit Olivier Heckmann, PDG fondateur de Kewego, plateforme de partage de vidéos à destination des professionnels. « Elles sont très implicantes, ont un effet immersif. Il est donc facile de suggérer quelque chose à l’utilisateur qui est entré dans l’histoire que lui a racontée l’annonceur au travers de ce film. »

Le format vidéo tire la croissance publicitaire

Au final, selon une enquête menée en 2009 par Brightroll aux États- Unis, 87 % des directeurs d’agence de publicité déclaraient que leurs clients prévoyaient d’augmenter à l’avenir leurs investissements publicitaires sur le média vidéo. Le volume des investissements atteint 90 millions d’euros en 2012 selon l’Observatoire de l’e-publicité, soit trois fois plus qu’en 2010. Une croissance qui s’accompagne, cerise sur le gâteau, par une tendance à davantage de créativité grâce à des formats plus interactifs et une couverture résolument multicanal.

« Les annonceurs français ont compris le pouvoir social de la vidéo en ligne et réussissent avec brio à créer des publicités engageantes, de plus en plus partagées et commentées par les internautes », nous dit Olivier Raussin, directeur YouTube et Display de Google France. « Les nouveaux formats publicitaires vidéo permettent eux aussi d’amplifier ce phénomène. Grâce par exemple au format Trueview, qui permet aux internautes de choisir les spots publicitaires qu’ils souhaitent ou non regarder, les annonceurs peuvent aujourd’hui compter sur une audience engagée, prête à interagir avec la publicité et ainsi renouer le dialogue avec la marque. »

Reste toutefois que, quel que soit son format, 47 % des internautes souhaitent que la publicité en ligne demeure une information qui soit bien identifiée, sous la forme de lien sponsorisé ou de bandeau en marge et ne soit pas amalgamée aux contenus d’un site. Un chiffre qui confirme que le consommateur de contenus, qu’il soit téléspectateur, lecteur de magazines, cinéphile, utilisateur de services en ligne ou membre d’un réseau social, désire toujours une publicité qui ne soit pas vécue comme intrusive.