Catégories
Digital Humanities Sociologie des médias

Qu’est-ce qui fait le succès d’Instagram ?

Instagram a été lancé aux États-Unis le 6 octobre 2010. La promesse de ce nouveau réseau social ? Permettre à ses utilisateurs de partager leurs plus belles photos, sublimées par les fameux filtres Instagram. Aujourd’hui, l’application rachetée par Meta est devenue un incontournable de nos smartphones. Elle est utilisée chaque jour par des millions de personnes partout dans le monde, qui y partagent photos, vidéos, « stories », « reels » ou encore de nombreux messages privés. Alors que les taux d’engagement organique sur les réseaux historiques – Facebook et Twitter – sont en chute libre, Instagram demeure l’un des médias sociaux les plus plébiscités par les internautes. Qu’est-ce qui fait le succès d’Instagram ?

Contrairement à des plateformes comme Facebook ou Twitter de plus en plus décriées pour altérer l’expérience utilisateur en invisibilisant toute publication non-sponsorisée, Instagram enregistre une forte augmentation de sa communauté[1] ainsi que des taux d’engagement organique bien supérieurs[2].

Les créateurs d’Instagram semblent avoir pris en compte le phénomène de mondialisation, exacerbée par la démocratisation d’internet, dans la conception de leur réseau social. À défaut d’une langue mondiale, Instagram semble avoir misé sur l’image comme langage universel. Ne dit-on pas qu’une image vaut mille mots ?  

En tant qu’instagrammeuse – plutôt passionnée – depuis environ deux ans, j’ai été souvent interpellée par les profils qui s’abonnaient à mon compte. Long story short, des personnes de tout horizon, de tout âge et surtout de tout idiome… Il semblerait que sur Instagram tout se passe comme si la question linguistique ne constituait guère une barrière pour profiter des contenus des autres… My guess? Nul besoin de parler la même langue pour apprécier un paysage insolite, un rayon de lumière, voire un plat préparé avec soin.

L’auto-censure censurée sur Instagram ?

La parole, les mots sont essentiels au fonctionnement des réseaux comme Twitter ou LinkedIn, et cela d’autant plus avec leur transformation progressive dans de véritables plateformes d’information. Avec l’image qui y règne en maître, Instagram, en revanche, sauvegarde d’abord sa fonction de divertissement, mais surtout l’accessibilité de ses contenus.

Le poids des mots… On sait à quel point l’usage d’un mot plutôt que d’un autre laisse entrevoir une grille de lecture du monde ainsi qu’un ancrage idéologique. Les mots deviennent donc des barrières à l’engagement, d’une part parce qu’ils sont exprimés dans une langue spécifique par définition non-universelle, et d’autre part parce qu’ils renforceraient le phénomène d’auto-censure.

Dans les premières années de Facebook, le ratio entre les créateurs de contenu (ceux qui publiaient) et ceux qui consommaient ces contenus passivement (vues, likes..) était de 10 % vs. 90 %. On observe que se reproduisent en ligne des phénomènes sociaux préexistants, comme le fait que les gens préfèrent souvent passer sous silence des opinions qu’ils savent minoritaires. La « spirale du silence » théorisée par Elisabeth Noelle-Neumann en 1974 met en avant le fait l’individu, face à la crainte de se retrouver isolé dans son environnement social, aura tendance à taire son avis. A cela s’ajoutent les barrières sociales plus classiques, comme le fait de ne pas être en mesure d’écrire dans la « langue dominante », en employant les « bons mots », et donc de ne pas se sentir légitime à écrire[3].

Avec l’acculturation aux réseaux et le développement en masse du web social, ce ratio a été modifié. Les fameuses bulles informationnelles créées par les algorithmes de certains réseaux sociaux ont permis la libération de la parole de nombreuses personnes, confortées justement par l’impression de partager des opinions majoritaires, et ce pour le meilleur (avec la libération de la parole des classes minoritaires, des victimes, me too, etc.) ou pour le pire (avec la prolifération des théories complotistes et des fake news). Mais combien d’entre nous avons toujours un (faux) compte Twitter qui nous permet de suivre sans jamais tweeter ?

L’auto-censure peut naître également du fait que l’on a de plus en plus conscience des phénomènes de surveillance ou tout simplement du fait que nos présences sociales sont constamment analysées par des amis, des connaissances, voire par d’éventuels partenaires d’affaires ou employeurs, et qu’elles peuvent, selon les subjectivités de chacun.e, nous porter préjudice.  

« Une image vaut mille mots », le fonds de commerce d’Instagram

Insta – instant – instantané. Gram du grec ancien γράμμα, grámma (« signe, écrit »). À la recherche d’une étymologie un peu poétique du nom de l’outil, on peut entrevoir la promesse de l’application. L’image-signe, l’image-langage comme point de rencontre, de lien.  

Si Instagram est une plateforme résolument visuelle, c’est parce qu’elle se veut universelle, tout comme son contenu. Si les images sur Instagram racontent des histoires, nous faisons l’hypothèse qu’entre l’histoire racontée par celle ou celui qui publie son cliché et la réception de ce dernier, il y a un éventuel décalage.

En effet, l’interprétation d’une image ne peut être que personnelle, donc plurielle, ce qui fait que la majorité du contenu publié sur Instagram est facile d’accès. Pour accueillir, pour interpréter une image, on fait appel à notre propre grille de lecture du monde et à notre imaginaire propre. Dès lors, Instagram, contrairement aux autres réseaux, débloquerait à la fois le phénomène d’auto-censure et celui de l’enfermement dans une bulle (algorithmique ou choisie), dans une communauté partageant exactement les mêmes idées et les mêmes valeurs que soi. Davantage qu’un journal intime donné à voir aux autres, Instagram serait-il un reflet de soi, un miroir où l’on voit ce qu’on a envie de voir ?

Quoi qu’il en soit, une image pourra ainsi « parler » à des personnes de toute culture, de toute classe socio-professionnelle, de tout idiome, de toute zone géographique, bref de tout horizon ! Chacun n’y verra ni n’en retiendra pas forcément la même chose, et ce n’est pas grave. Cela empêche notamment le risque de polarisation constaté sur les autres réseaux sociaux – Twitter et Facebook en chefs de file. Instagram devient ainsi un lieu de partage de symboles et de construction progressive d’un horizon symbolique commun. Par ailleurs, un réseau qui fonctionne comme un miroir de soi est plus réconfortant, davantage capable de débloquer la parole (ou plutôt l’image-parole). Le fait que le visuel, l’image représente la première fonction et le fonds de commerce d’Instagram explique au moins en partie son succès.

De nouvelles fonctions pour Instagram pour renforcer l’universalité de ses contenus

Depuis fin 2022, Instagram déploie une nouvelle fonctionnalité qui permet de donner une ambiance musicale aux photos sur le réseau. Ainsi, au même titre que pour les stories ou les reels, les utilisateurs ont désormais la possibilité d’accompagner leurs photos par un morceau sonore de leur choix. Quoi de mieux pour renforcer l’universalité des contenus sur Instagram, si ce n’est l’ajout d’un second langage universel ?

La musique est une part importante de l’expression sur Instagram, et nous sommes ravis d’offrir la possibilité d’ajouter de la musique aux publications photos dans le feed comme cela est possible avec Reels and Stories. Quel que soit le format qui fonctionne le mieux pour raconter votre histoire, vous pouvez désormais ajouter une bande-son à vos publications photos préférées pour leur donner vie ! explique Instagram dans sa publication annonçant sa nouvelle fonctionnalité.

Bien entendu, il n’est pas surprenant de voir Instagram développer davantage de fonctions axées sur la musique, laquelle est un élément clé du succès de son concurrent direct : TikTok. Sur la plateforme chinoise, les marques médianes gagnent un taux d’engagement moyen par abonné de 4,1 %, soit 6 fois plus que sur Instagram et bien plus que sur Facebook ou Twitter. Il s’agit d’ailleurs du réseau social qui enregistre la plus forte croissance de sa communauté en 2022. Si TikTok mise dès le départ non pas sur la photo, mais sur la vidéo comme typologie de contenu phare pour son réseau, l’usage qui en est fait – sans être exclusif – est particulièrement intéressant et ne vient que renforcer les idées exprimées jusqu’à présent. On trouve sur TikTok majoritairement de la danse et de la musique : là encore, pas besoin de parler pour se comprendre !


[1] Instagram a atteint plus de 1,2 milliard d’utilisateurs en 2022, avec environ 32 millions de nouveaux utilisateurs en un an. 

[2] Le taux d’engagement moyen sur Instagram en 2022 était de 1,9 % vs. 0,07 % pour Facebook ou encore 0,05 % pour Twitter.

[3] Voir la sociologie de Pierre Bourdieu les concepts « capital culturel » et « habitus »

Catégories
Digital Humanities

La ré-intermédiation, véritable trait de figure de l’économie numérique ?

Ces 20 dernières années, les grands acteurs du numérique ont complètement bouleversé les modèles économiques traditionnels. Dans un monde où la désintermédiation semblait être la norme, ces challengeurs ont émergé sur des positions d’intermédiaires par excellence, en captant de grandes parties de la chaîne de valeur au sein de nombreuses industries. Le phénomène de « ré- intermédiation » serait-il le concept clé permettant de comprendre et de définir l’économie numérique dans son ensemble ?

A partir des années 70, on assiste à un phénomène de désintermédiation. L’individu, de moins en moins syndiqué, de moins en moins encarté, de moins en moins en proie au fait religieux, ne compte plus sur les grandes structures façonneuses de récits et de réalités qui édictaient historiquement la marche à suivre. L’apparition et la démocratisation d’internet à partir des années 2000 n’ont dans un premier temps fait que généraliser ce trait de figure de nos sociétés, notamment sur le plan économique. En effet, la désintermédiation a donné au consommateur la possibilité d’accéder directement au produit ou au service dont il avait besoin, sans contrainte de temps ni d’espace. Pour ne prendre que les exemples les plus emblématiques, Internet a largement favorisé la désintermédiation dans le domaine du voyage, du tourisme ou encore dans le secteur bancaire. Cependant, cette désintermédiation liée aux débuts de l’ère Internet n’a été que de courte durée.

Un phénomène de désintermédiation-réintermédiation des échanges

Ainsi, la désintermédiation s’est presqu’immédiatement accompagnée d’une réintermédiation. En effet, l’économie numérique n’a fait que remplacer les intermédiaires historiques qui ont vu leurs activités décroître au profit de nouveaux intermédiaires, la plupart du temps des plateformes Internet. Uber (transport), Airbnb (logement), Zoom, Whatsapp, Facebook Messenger (télécommunications), Amazon (commerce de détail), Spotify (musique), Netflix (vidéos), sont devenus des intermédiaires incontournables entre le consommateur et le service ou le produit qu’il recherche. Si on veut aller plus loin encore, Google, véritable façonneur de réalités, nous apparaît comme le roi de l’intermédiation par excellence, celui qui rend possible la rencontre de l’offre et de la demande sur le web. Par ailleurs, au regard du fonctionnement actuel de l’ensemble des médias sociaux, même s’ils ont été conçus initialement comme des intermédiaires permettant la rencontre virtuelle de personnes et de communautés, avec l’accumulation de data et le targetting publicitaire, ils sont devenus une marketplace comme une autre – le lieu où le consommateur, exposé à des publicités extrêmement ciblées, remplit son panier et paie.

C’est justement cette position d’intermédiation qui met l’ensemble de ces géants du numérique sous les feux des critiques : droits voisins, amendes liées à la concurrence déloyale, etc. Au regard des impressionnantes capitalisations boursières de ces acteurs, il apparait injuste en effet qu’ils arrivent à capter autant de valeur alors qu’ils ne produisent rien au sens de l’économie réelle.

L’intermédiation est-elle vouée à perdurer ? Constitue-t-elle le véritable business model de ces acteurs économiques ou s’agit-il d’une étape intermédiaire supplémentaire dans le chemin vers le monopole ?

La loi du monopole sur le web

En effet, si on regarde de près l’évolution de chacune des plateformes ainsi que les choix stratégiques opérés par leurs fondateurs, on peut aisément identifier le mécanisme à l’œuvre au sein de cette « nouvelle » économie.

Nous faisons ainsi l’hypothèse selon laquelle l’économie numérique est régie par une bataille incessante qui pourrait être aisément réfléchie à partir du concept d’Elias, « loi du monopole »[1]. Cette bataille a lieu en deux temps.

D’abord, on assiste à des combats lancés au sein d’un certain nombre de secteurs qui viennent à être « parasités » par de nouveaux acteurs du numérique. Au sein de chaque secteur donné, cette course aboutit au remplacement des anciens intermédiaires, grâce à la capacité que ces nouvelles plateformes ont à s’imposer comme indispensables. L’un des plus illustres exemples de cette dynamique ? Amazon.

Conçu initialement en tant que librairie en ligne sans problématique liée aux stocks et pouvant mettre à disposition de ses clients des livres rares, Amazon est d’abord apparu comme une opportunité pour les utilisateurs, mais aussi pour les éditeurs qui y ont référencé leurs produits en masse. Depuis, Amazon s’est lancé dans la vente des livres d’occasion. Cette évolution a mis les libraires dans une posture de concurrence vis-à-vis du géant du web, ou plus précisément les a basculés dans un système de « coopétition »[2] dans le cadre d’une plateforme à trois versants — éditeurs, internautes et libraires — dont le grand gagnant est Amazon.

Et son évolution ne s’est pas arrêtée là. Après avoir monopolisé le marché du livre, Amazon a amplement diversifié son offre de services pour se dédier à la vente online de presque tout (prêt-à-porter, jeux, produits alimentaires…). L’enjeu ? Monopoliser l’intégralité de l’e-commerce ?

Dans un second temps, une fois qu’un secteur donné a été monopolisé par une plateforme numérique, une nouvelle bataille s’enclenche, cette fois-ci jouée exclusivement sur le territoire des grands du numérique, où la loi du plus fort l’emporte. Mange ou tu seras mangé. Les rachats intempestifs de tout challengeur par les géants du web (Facebook qui s’offre Instagram, Google qui achète Youtube…) , mais surtout la course à l’autarcie menée par chacun des GAFAM sont des symptômes concrets de ce mouvement.

L’exemple le plus tangible aujourd’hui est peut-être celui de Google, dont les fondations remontent à 1998 avec sa solution éponyme, à savoir le moteur de recherche créé pour faciliter l’usage et accentuer la serendipité du web. Premier et inégalable sur un marché qu’il a lui-même créé – celui des moteurs de recherche, Google ne s’est pas satisfait d’une position monopolistique sur ce dernier, mais a rapidement cherché à s’y appuyer pour consolider des positions de pouvoir ailleurs – voire une position monopolistique sur le web dans son entièreté ? En effet, via sa société Alphabet, Google mène depuis plusieurs années une politique de diversification forte, procédant à de nombreuses acquisitions au fil des années. II détient aujourd’hui de nombreux logiciels et sites web notables parmi lesquels YouTube, le système d’exploitation pour téléphones mobiles Android, ainsi que d’autres services tels que Gmail, Google Drive, Google EarthGoogle Maps ou Google Play… Softwarehardwaresoftpower, de quoi bâtir un royaume ! Google serait-il en train de coloniser le web et de devenir le détenteur du monopole de la violence symbolique légitime[3] sur le world wide web ?

Difficile de savoir si les acteurs du numérique peuvent être conçus comme des acteurs rationnels – on dit que les gens ne savent pas l’histoire qu’ils font – et d’ailleurs celui qui semble fort aujourd’hui ne le sera peut-être plus demain, mais il est certain que les règles de survie dans cette nouvelle économie numérique sont les règles d’une course irréfrénée au monopole. Mais lequel ? Et si cette ré-intermédiation n’était qu’une étape de plus vers la suivante ?

Netflix, plateforme de streaming par excellence, crée depuis longtemps ses propres fictions au détriment de la diffusion des œuvres issues de l’industrie cinématographique. Et si Amazon se mettait à produire les produits qu’il vend ? Et si Google créait l’information qu’il délivre ? Et si Airbnb investissait massivement dans l’immobilier ?…


[1] Selon Norbert Elias, la genèse de l’État moderne passe par la monopolisation du pouvoir sur un territoire. « C’est à la suite de la formation progressive de ce monopole permanent du pouvoir central et d’un appareil de domination spécialisé que les unités de domination prennent le caractère d’État» (La dynamique de l’Occident, 1975). Si notre territoire est le web et que l’ensemble des GAFAM, NATU et co’ sont les organisations politico-militaires qui se livraient des combats autrefois, l’analogie nous semble prendre tout son sens.

[2] Mot-valise d’origine anglo-saxonne réunissant les mots « cooperation » (coopération) et « competition » (concurrence). La coopétition désigne donc une démarche qui vise à coopérer à plus ou moins long terme avec des acteurs de la concurrence.

[3] Il s’agit de la définition de l’État donnée par le sociologue français Pierre Bourdieu qui reprend la définition du sociologue allemand Max Weber pour lequel l’État était « le monopole de la violence physique légitime ». En développant le concept de violence symbolique, Bourdieu enrichit la réflexion en y apportant cette nuance essentielle pour comprendre la légitimité étatique dans des pays pacifiés. Dans l’acception bourdieusienne, l’État devient ainsi par son pouvoir de nomination « la banque centrale du capital symbolique », au même titre que Google qui consolide des positions monopolistiques dans le numérique et se place en régisseur des normes du web.

Catégories
Citoyenne éclairée Digital Humanities

Les NFT, ces étranges objets de Désir

Les NFT – non fungible tokens ou encore jetons non fongibles[i] – structurent depuis peu un véritable marché qui s’élève aujourd’hui à plus de 40 milliards de dollars. Leur visée ? Authentifier des objets numériques, voire redéfinir la propriété dans le monde digital. Décriés, inquiétants d’un point de vue environnemental, les NFT, dont la technologie est basée sur la blockchain[ii], fascinent et deviennent l’objet du désir des amateurs d’art, mais aussi des spéculateurs… Réflexion sur les NFT, ces étranges objets de Désir.

©Unsplash, Tom Beier

Les NFT ont initialement été conçus en 2014, avec un objectif plutôt vertueux : permettre aux artistes et aux créateurs de contenu numérique d’obtenir une preuve d’authenticité de leur œuvre et pouvoir ainsi rémunérer leur travail en échappant aux risques inhérents du web liés au piratage et au non-respect de la propriété intellectuelle. Cette fonction des NFT est encore à l’œuvre à l’intérieur du marché de l’art. Des initiatives inédites le prouvent, comme la création du Meta History : Museum of War, permettant à 146 artistes ukrainiens de préserver la mémoire des événements et de collecter des dons pour soutenir les victimes de guerre.

Cependant, les NFT ne profitent pas qu’aux artistes du numérique ou encore au financement de « bonnes causes ». La sociologie des usages nous permet encore une fois de constater l’écart entre l’objectif initialement fixé par le créateur d’une innovation technologique, sociale, etc. et l’usage qui découle de cette dernière. Qui aurait prédit en 2004 que les réseaux sociaux, dont les dispositifs sociotechniques devaient simplement permettre de rester en contact et de communiquer avec ses proches, allaient devenir des plateformes d’information et des marchés de prédilection pour la publicité ? Amazon, Uber, Airbnb… en ce qui concerne l’économie numérique, nombreux sont les exemples de ces écarts entre l’idéation et l’usage ou la réalité du projet en perpétuelle construction.  

De la même façon, l’usage des NFT ne se limite pas au marché de l’art numérique, mais vient le surplomber, avec l’entrée sur le marché de tout un tas de « produits »[iii] plus ou moins étranges, joujoux des spéculateurs.

Les NFT ou la naissance d’une nouvelle place de marché 

Alors que les premiers NFT remontent à 2014,  le concept n’a touché le grand public qu’entre 2020 et 2021, suite à quelques ventes particulièrement médiatisées comme celle du premier tweet de Jack Dorsey, acheté en mars 2021 pour 3 millions de dollars.

En effet, tweets, cartes de jeux vidéo ou de footballeurs, mèmes, cryptokitties, mini-vidéos … constituent une partie du champ d’application des NFT à date. Leur promesse ? La possibilité de transformer un objet pléthorique – les données numériques – en quelque chose de rare, donc de désirable.

Ainsi, la ligue américaine de basket-ball NBA vend des mini-vidéos authentifiées pour des centaines de milliers de dollars. De son côté, Nike a eu pour projet de vendre des baskets certifiées numériquement. L’idée ? Associer à chaque paire de baskets physique un correspondant NFT ; autrement dit, faire usage des nouvelles « normes » du numérique pour combattre la contrefaçon dans le monde physique.

Les NFT ou comment « authentifier » sa valeur personnelle dans nos « sociétés numériques »

Art, gamification, nouvelle manière de breveter des objets numériques, mais aussi matériels, les applications des NFT sont déjà riches. Si certains grands collectionneurs ou puristes du NFT pensent que cette technologie va redéfinir la propriété dans le monde numérique, l’engouement autour de ces actifs peut, à mon sens, être assez aisément expliqué à travers un détour sociologique.  

S’étonner que certaines personnes soient disposées à payer littéralement des fortunes pour posséder un objet dont l’usage est à portée de main de tou.te.s – le plus souvent à distance d’une requête Google et d’un clic – revient à s’étonner que certaines personnes sont depuis bien plus longtemps disposées à payer littéralement des fortunes pour posséder des objets de luxe. Plus c’est rare, plus c’est précieux, plus c’est désirable. Quelle différence réelle entre le fameux Birkin Bag de Hermès et un sac à main artisanal et original mais peu marketé ?

Pourquoi les fans de baseball s’arrachent-ils des battes à des milliers, voire à des millions de dollars, alors que le prix d’entrée sur le marché d’une batte sortie d’usine s’élève seulement à une vingtaine de dollars ?

On paie le prix qu’il faut pour se distinguer ou pour être assimilé à un certain groupe social, le plus souvent à celui qui est dominant dans un champ donné (économique, culturel, politique etc.). Pierre Bourdieu l’expliquait d’ailleurs si justement dans La Distinction. Une critique sociale du jugement (1979), un ouvrage qui a bouleversé les catégories sur le beau, l’art et la culture.

Cette théorie, selon laquelle s’offrir un NFT objet de désir ou de convoitise revient à chercher (à acheter ?) la reconnaissance de pairs dans le cadre d’un groupe social prédéfini, se confirme très objectivement avec le phénomène des Bored Ape Yacht Club – une série d’avatars NFT uniques représentant des singes nonchalants. Alors que la valeur des Bored Apes est purement subjective et spéculative, certains avatars ont été achetés pour des valeurs avoisinant les 3 millions de dollars. Comment est-ce possible ? Comme son nom l’indique, le « club » créé par deux trentenaires en Floride a très rapidement été rejoint par des célébrités, musiciens, athlètes et autres influenceurs du web qui ont choisi d’exprimer leur appartenance au club en affichant ces NFT en guise d’avatars sur Twitter. L’équation est dès lors très simple : vous souhaitez être apparenté à des personnalités particulièrement médiatisées, symboles populaires du pouvoir, du succès, de la célébrité ? Très bien ! Achetez-vous un singe !

Les NFT, un nouvel espace du « non-droit » ? Limites et dérives de cet enfant du web 3.0

Cependant, derrière l’apparente futilité des NFT, les limites et les potentielles dérives de cette technologie sont multiples.

Tout d’abord, cette nouvelle économie numérique a un impact environnemental désastreux. Aussi vertigineusement innovante que la technologie blockchain puisse l’être, héberger cette infinie base de donnée échappant théoriquement à tout contrôle central sur des milliers de serveurs partout dans le monde a un coût important, et ce coût est malheureusement d’abord environnemental. En effet, selon le New York Times, la production d’un seul NFT représenterait plus de 200 kilos d’émission de CO2, l’équivalent d’un trajet d’environ 800 kilomètres parcourus par une voiture à essence américaine classique.

Deuxièmement, ce nouveau marché – purement spéculatif, puisqu’aujourd’hui la très grande majorité des NFT proposés n’ont aucune importance au sens de l’économie réelle – semble être une fabuleuse nébuleuse, un espace de non-droit. OpenSea, l’une des principales plateformes de création et de vente des NFT, reconnaît d’ailleurs sur son compte Twitter qu’aujourd’hui  « plus de 80 % des NFT créés à l’aide de son outil de frappe[iv] gratuit seraient plagiés, faux ou du spam. »

Enfin, économiquement parlant, il est impossible de mesurer si les NFT sont un investissement durable ou un simple effet de mode… Selon les dernières estimations, il semblerait que le fameux tweet de Jack Dorsey vendu il y un an à quelques millions de dollars ne vaudrait aujourd’hui plus que quelques 10 000 euros…

Découvrez plusieurs articles dédiés à des sujets d’actualité liés à l’économie numérique ou plus globalement circonscrits au champ d’étude des digital humanities[v] sur le site internet « Citoyenne éclairée. »


[i] Selon les sources, le concept récent de NFT désigne tantôt un certificat d’authenticité associé à un objet numérique, tantôt l’objet numérique lui-même auquel est associé un certificat d’authenticité.

[ii] La blockchain, en français « chaîne de blocs », est un type de base de données qui, contrairement à une base de données classique, est faite d’une série de « blocs » – des données reliées entre elles. Cette chaîne de blocs donne naissance à une immense collection ou encore à un immense livre partagé qui enregistre l’activité et les informations au sein de la chaîne. Puisque la blockchain est stockée sur des milliers de serveurs dans le monde entier, n’importe qui sur le réseau peut voir les entrées de tous les autres. Cette technologie de pair à pair fait qu’il est pratiquement impossible de falsifier ou d’altérer les données d’un bloc. Voici donc nos NFT sains et saufs ! 

[iii] Actifs numériques

[iv] La « frappe » permet à une œuvre numérique de s’inscrire sur la blockchain.

[v] Humanités numériques

Catégories
Digital Humanities

LinkedIn restera-t-il un réseau social professionnel ?

Vous est-il déjà arrivé de scroller votre fil d’actualité Facebook en étant plus ou moins inconsciemment persuadé d’être sur Instagram ? Vous est-il déjà arrivé d’enchaîner une série de Reels sur Insta avec la certitude de passer un petit bon moment sur TikTok ? Twitter, quant à lui, a depuis longtemps abandonné ce qui faisait sa spécificité – les fameux 140 caractères pour devenir une plateforme éminemment visuelle et motrice au même titre que les réseaux précédemment cités. Cet été, via l’implémentation d’une série de nouvelles fonctionnalités, LinkedIn aurait-il, lui-aussi, franchi le cap’ pour se ranger dans la vague uniformisatrice du web, au risque d’oublier sa fonction différenciante, celle d’être un réseau social professionnel ?

©Unsplash, Greg Bulla, LinkedIn company headquarters

Dans un monde du travail complètement transformé par la pandémie, LinkedIn, tout comme les autres réseaux sociaux, a connu en 2020 une forte hausse des connexions et du temps passé par les internautes sur sa plateforme. Besoin de combler la distanciation sociale liée au télétravail ? Besoin, plus que jamais, de performer et de se rendre visible professionnellement pour combattre le doute et l’incertitude ? Qu’importent les raisons. LinkedIn a quoi qu’il en soit décidé d’en tirer partie en offrant à ses utilisateurs de nouvelles fonctionnalités leur permettant de passer encore plus de temps sur sa plateforme. Un article de blog paru le 30 mars dernier signé par Tomer Cohen, Senior Vice President and Chief Product Officer chez LinkedIn, annonçait l’ensemble de ces transformations qui allaient être implémentées dès cet été. Les avez-vous remarquées ? Quelles sont donc ces nouvelles fonctionnalités de LinkedIn ?

Les « nouvelles » cover stories 

Désormais, à condition que vous le souhaitiez, votre photo de profil peut prendre vie en auto-play silencieux lors de n’importe quelle connexion à votre profil. Cela ne vous rappelle rien ? Techniquement identique à la cover video de Facebook et bien entendu bien semblable aux stories d’Instagram, cette fonctionnalité est tout de même marketée à vocation professionnelle. En effet, la vidéo de promotion de celle-ci met en avant quelques exemples où des professionnels en font usage pour parler de leurs services ou encore de leurs ambitions professionnelles.

©LinkedIn

Qu’en est-il de l’utilité réelle de cette fonctionnalité ? Les utilisateurs de LinkedIn vont-ils l’employer de la manière dont LinkedIn le préconise ? Qu’il s’agisse de la recherche d’emploi ou des activités de prospection, il paraît en effet intéressant, pour un éventuel employeur ou un client potentiel, d’avoir un aperçu de ce que vous êtes via cet outil. Cependant, deux risques sont associés à cette nouveauté : que les internautes la jugent soit trop semblable à ce que d’autres plateformes proposent déjà, soit peu professionnelle car trop exhibitionniste. Par ailleurs, si elle apparaît comme étant intéressante pour des professionnels de la communication, il peut paraître injuste de juger un ingénieur ou un analyste sur des compétences dans lesquels il n’est pas censé exceller.

Encore plus de streaming

Aussi, LinkedIn met encore plus le live à l’honneur ! Si vous utilisiez d’ores et déjà cette fonctionnalité, vous pourrez constater que désormais lors de vos transmissions live, ces dernières remplaceront provisoirement votre photo de couverture pour donner à vos contenus live encore plus de visibilité.

©LinkedIn

En effet, on estime que d’ici 2022, 82 % du trafic internet global viendra du streaming et du téléchargement de vidéos (Cisco, 2019), ce qui représente une augmentation de 72,3 % par rapport à 2017. Il n’est donc pas étonnant que LinkedIn se mette à la page et fasse du streaming un réel cheval de bataille.

L’introduction du Creator mode

Enfin, LinkedIn propose désormais un mode spécialement conçu pour les créateurs de contenu, autrement dit pour les leaders d’opinion. Comme indiqué sur son site, ce mode permettrait aux utilisateurs du réseau d’augmenter leurs audiences. Comment ? Une fois le mode créateur activé, le bouton « Se connecter » sera remplacé par le bouton « Suivre » et le nombre d’abonnés précis – et non plus le fameux « Plus de 500 relations » (qui jusqu’ici préservait les utilisateurs du diktat du nombre) – sera affiché dans l’introduction de votre profil. Au même titre que sur Twitter ou sur Instagram, vous pourrez aussi choisir d’afficher via des hashtags les sujets sur lesquels vous publiez du contenu. Par ailleurs, ce mode réorganisera votre profil pour afficher en premier lieu les sections « Sélection de contenus » et « Activité ».

Vous l’aurez compris, le Creator mode n’est rien d’autre que la sacralisation de l’influenceur sur LinkedIn. Mais qu’en est-il de la vocation initiale de ce réseau social professionnel ? Les influenceurs y ont-ils vraiment leur place ? Tomer Cohen ne cache même pas les intentions stratégiques de LinkedIn :

At the heart of our ecosystem is our creator community. People love to see creators give their take on what’s happening in the news or share insights into a specific industry — whether that’s a post, a video, an article, or even a comment. If this is you, check out the new creator mode in your Profile dashboard. 

Tomer Cohen, Vice President and Chief Product Officer Linkedin

Si les sujets professionnels spécifiques aux enjeux des différentes industries seront toujours tolérés, il est attendu de ces influenceurs qu’ils expriment leurs points de vue notamment sur l’actualité et l’information.

Mais politiser et polariser les échanges sur LinkedIn ne risque-t-il pas d’être contre-productif sur un réseau où la raison de notre inscription était avant tout celle de rester en contact avec d’autres professionnels ? Par ailleurs, distribuer et commenter l’actualité n’est-t-il pas déjà le hobby principal des internautes sur d’autres réseaux comme Twitter ou Facebook ? Sur un marché du social où l’uniformisation est la norme, en essayant de faire comme les autres, LinkedIn ne risque-t-il pas la noyade ?


Pour résumer, beaucoup de vidéo, plus de personnalisation, de mise en avant de soi et des arguments de « vente » à prime abord plutôt bien bâtis. Mais qu’en est-il de l’utilité réelle de ces nouveautés ? Ces nouvelles fonctionnalités, qui rapprochent encore plus le fonctionnement de LinkedIn de celui d’autres médias sociaux, ne risquent-elles pas de modifier structurellement la vocation professionnelle initiale de ce réseau ? Il n’y a que le temps qui puisse confirmer ou infirmer cette hypothèse. Le temps et surtout nos usages ! En conclusion, on ne peut que rappeler à quel point la récente histoire du développement des grandes plateformes nous a prouvé que les volontés des fondateurs et des PDG ne sont que des inflexions minimes, et que, pour analyser les évolutions du numérique dans son ensemble, il est absolument indispensable de passer par une sociologie des usages. Alors quels sont les vôtres ? Avez-vous remarqué ces nouvelles fonctionnalités de LinkedIn ? Les utilisez-vous ? Preneuse d’insights en commentaire ! 

Catégories
Citoyenne éclairée Digital Humanities

Google est-il sexiste ?

Just go and google it! Rien de plus naturel dans notre quotidien à tous… Les chiffres le prouvent puisqu’avec ses 92,5 milliards de visites mensuelles, le moteur de recherche est, de loin, le site le plus visité au monde. Sa mission ? « Organiser les informations à l’échelle mondiale pour les rendre accessibles et utiles à tous »[1]. Mais selon quelles logiques ? L’algorithme de Google est-il infaillible ? Et si les « réponses » de Google à nos requêtes comportaient un biais sexiste ? C’est en tout cas l’hypothèse que nous allons tester dans ce papier.

©Unsplash Reza Rostampisheh

Le point de départ de cette réflexion est constitué par une interrogation très concrète : ayant lancé en janvier dernier un site intitulé « Citoyenne éclairée » (citoyenne-eclairee.com) dont le référencement naturel est plutôt bien travaillé, je me suis rapidement aperçue qu’alors que le site ressortait en première position sur Google en réponse à la requête citoyenne éclairée, il ressortait seulement en page 17 à la requête formulée au masculin, citoyen éclairé. Pourtant, en réponse à la requête formulée au féminin, des sites positionnés sur ces mots clés au masculin ressortaient, quant à eux, en première SERP. Une citoyenne éclairée ne ferait-elle pas partie selon Google des citoyens éclairés au même titre que n’importe quel autre citoyen éclairé ?

Sans rentrer dans le débat sur l’écriture inclusive, en français la règle grammaticale est que le masculin l’emporte lorsqu’il y a des hommes et des femmes dans un groupe. Cela veut dire donc que le masculin est inclusif, tandis que le féminin, lui, exclut le masculin.

Si on retranscrit cette règle grammaticale de manière bête et méchante dans notre usage des moteurs de recherche, on s’attendrait donc à ce qu’une recherche formulée au masculin comporte des résultats formulés à la fois au masculin et au féminin, et à ce qu’une recherche formulée au féminin comporte des résultats exclusivement au féminin. Est-ce bien ce qui se passe ? 

Reprenons notre exemple initial qui prenait comme référence la position du site citoyenne-eclairee.com sur Google. Voici ce que l’on observe en comparant les résultats de différents moteurs de recherche, selon la formulation de la requête au féminin ou au masculin :

 citoyenne éclairée
citoyen éclairé
GoogleSERP 1 (position 1) – environ 1 060 000 résultats
la SERP 1 affiche des résultats qui renvoient aux formulations « citoyen éclairé » et « citoyenneté éclairée »
SERP 17 – environ 5 860 000 résultats
renvoi vers une page du site qui affiche en gras le syntagme au pluriel masculin « citoyens éclairés »
Yahoo!SERP 1 (position 1)
la SERP 1 affiche des résultats qui renvoient à des formulations comme « citoyens éclairés » et « citoyen éclairé »
SERP 1 (position 8)
renvoi vers une page du site qui affiche en gras le syntagme féminin singulier « citoyenne éclairée »
BingSERP 1 (position 1)
231 000 résultats
la SERP 1 affiche des résultats qui renvoient à des formulations comme « citoyens éclairés » et « citoyen éclairé »
SERP 1 (position 8) – 279 000 résultats
renvoi vers une page du site qui affiche en gras le syntagme féminin singulier « citoyenne éclairée »
QwantSERP 1 (position 1)
la SERP 1 affiche des résultats qui renvoient à des formulations comme « citoyens éclairés » et « citoyen éclairé »
SERP 1 (position 2 et 7) – 278 000 résultats  
renvoi vers 2 pages du site qui affichent en surligné la formulation au féminin du syntagme
EcosiaSERP 1 (position 1)
233 000 résultats La SERP 1 n’affiche que des formulations au féminin singulier ou au pluriel : « citoyens éclairés »
SERP 1 (positions 2 et 6)
renvoi vers 2 pages du site qui affichent en surligné la formulation au féminin du syntagme
Position du site citoyenne-eclairee.com sur les moteurs de recherche et analyse des liens bleus proposés en SERP 1

A la lecture de ce tableau qui compare la position du site citoyenne-eclairee.com dans les SERPs des cinq moteurs de recherche les plus utilisés en France[1] on s’aperçoit que tandis que Yahoo!, Bing, Ecosia et Qwant affichent le site en première page de résultats indépendamment du genre choisi pour la requête, Google quant à lui, en réponse à la requête formulée au masculin réserve au site Citoyenne éclairée une place en 17ème page de son moteur de recherche. A prime abord, tout laisse penser que de manière contre-intuitive, chez Google le féminin serait inclusif et ferait afficher des résultats formulés au féminin et au masculin, tandis que le masculin serait exclusif et ne ferait afficher que des résultats formulés au masculin.

Est-ce suffisant pour affirmer que l’algorithme de Google comporte un sérieux biais sexiste ?

Notre première intuition a été de considérer cette différence de position du site pourrait se justifier essentiellement par le fait que Google indexe un plus gros volume de pages que ses concurrents, ainsi que par le fait que les producteurs de contenus écrivent plus souvent nos deux mots clés au masculin (environ 5 860 000 résultats pour la requête citoyen éclairé) qu’au féminin (environ 1 060 000 résultats pour la requête citoyenne éclairée). Par ailleurs, connaissant l’importance de son fameux PageRank[2] dans le fonctionnement de son algorithme, s’agissant d’un site relativement nouveau sans politique de netlinking fortement développée, on conçoit que Google ne puisse pas le faire apparaître en première SERP… Mais en 17ème ?! Autant dire, que l’internaute qui cherche une citoyenne éclairée en tapant sur Google citoyen éclairé, n’a strictement aucune chance de la trouver ! Une blague dans le domaine du SEO veut que pour cacher un cadavre, il suffise de le cacher en deuxième page des résultats Google.

Mais alors Google est-il sexiste, oui ou non ?

Impossible de tirer des conclusions à partir d’un seul et unique exemple ! Dès lors, nous avons constitué un mini corpus pour vérifier l’hypothèse initiale dans une optique moins nombriliste ! J Nous avons donc analysé les résultats affichés en SERP 1 de Google selon les formulations au masculin et au féminin de quelques autres requêtes : metteur en scène vs. metteuse en scène, consommateur responsable vs. consommatrice responsable, créateur meuble vs. créatrice meuble, électeur informé vs. électrice informée etc.

Pour plus de lisibilité, nous analyserons seulement 2 de ces exemples :

  • électeur informé vs. électrice informée
 électeur informéÉlectrice informée
Googlela SERP 1 de Google affiche des résultats qui renvoient à des pages de sites qui ont trait aux élections et à ceux qui expriment leur volonté politique aux urnes.Pour Google l’internaute qui tape électrice informée dans sa barre de recherche cherche, sans doute aucun, des informations au sujet de l’électricité ou des trottinettes électriques.
Yahoo!la SERP 1 de Yahoo ! affiche des résultats qui renvoient à des pages de sites qui ont trait aux élections et à ceux qui expriment leur volonté politique aux urnes.Pour Yahoo! il y a un doute. Si les liens bleus en SERP 1 renvoient vers des pages de sites qui ont trait aux questions électorales, les aperçus d’images en haut de la page proposent quant à eux des trottinettes électriques…
Bingla SERP 1 de Bing affiche des résultats qui renvoient à des pages de sites qui ont trait aux élections et à ceux qui expriment leur volonté politique aux urnes.Bing propose en premier résultat une page référencée sur le mot clé électricien, mais arrive, à la différence de Google, à isoler des pages ayant trait aux questions électorales et à celles qui expriment leur volonté politique aux urnes.
Qwantla SERP 1 de Qwant affiche des résultats qui renvoient à des pages de sites qui ont trait aux élections et à ceux qui expriment leur volonté politique aux urnes.Si les liens bleus en SERP 1 ont exclusivement trait aux élections et à celles qui vont aux urnes pour exprimer leur volonté politique, la sélection d’image de Qwant renvoie aussi vers des photos de trottinettes électriques…
Ecosiala SERP 1 d’Ecosia affiche des résultats qui renvoient à des pages de sites qui ont trait aux élections et à ceux qui expriment leur volonté politique aux urnes.la SERP 1 d’Ecosia affiche exclusivement de résultats qui renvoient à des pages de sites qui ont trait aux élections et surtout à celles qui expriment leur volonté politique aux urnes (la plupart des mots clés surlignés en gras sont formulés au féminin).

Pour résumer, sur les 5 moteurs de recherche en question, le seul et unique qui ne comprend pas la formulation au féminin du syntagme « électeur informé » – et donc est incapable de proposer des résultats pertinents pour la requête – est Google. Alors que Yahoo!, Bing et Qwant proposent des liens pertinents par rapport à la requête au féminin, leur fonctionnalité images confond les électrices informées et les trottinettes électriques. Ecosia nous apparaît comme le moteur de recherche le plus pertinent sur cette requête.

  • auteurs philosophie vs. autrices philosophie

Une fonctionnalité que le seul moteur de recherche Google propose pour améliorer l’expérience utilisateur a retenu toute notre attention. Il s’agit d’une liste de portraits de philosophes qui nous est proposée comme accueil de la SERP 1 pour les deux requêtes. Avec 51 entrées, la requête formulée au masculin recense 50 hommes et 1 seule et unique femme – Hannah Arendt, dont le portrait en question pourrait d’ailleurs porter à confusion. La liste affichée en réponse à la requête formulée au féminin est, quant à elle, un peu plus diversifiée ; cependant, ce sont toujours les illustres figures masculines qui l’emportent, tant quantitativement (sur les 51 entrées de cette nouvelle liste, seules 16 philosophes sont des femmes) que qualitativement (avec en tête de liste un homme : Jean-Paul Sartre). Là encore, à une exception près, il semble que, faisant fi de la règle grammaticale, l’algorithme de Google considère que le masculin est exclusif alors que le féminin, lui, accueille la gente masculine.

La contribution des femmes à toute œuvre collective et/ou individuelle semble ainsi subir une double peine. Invisibilisées dans les textes en raison d’une langue intrinsèquement porteuse d’une réalité historique multiséculaire, sur le web, elles sont à nouveau invisibilisées par l’algorithme d’un moteur de recherche comme Google, alors même que nos requêtes cherchaient à les faire découvrir en priorité. Au regard de l’influence que ce moteur de recherche, plébiscité par la plupart, a dans la perpétuelle construction de nos représentations, il serait intéressant que cette problématique puisse être traitée de manière transparente par les ingénieurs et informaticiens de chez Google. A défaut de modifications structurelles, des explications !

La toile regorge d’autres exemples qui dénoncent le fonctionnement du moteur de recherche qui répliquerait dans son fonctionnement des biais sexistes ou racistes pré-existants :

Et vous ? Auriez-vous découvert d’autres exemples concrets qui contribueraient à dénoncer un éventuel biais sexiste de l’algorithme du moteur de recherche star ? Partagez-les en commentaire ou sur les réseaux sociaux en utilisant les hashtags #GoogleSexiste et #CitoyenneEclairée !


[1]D’après la page de présentation de la société sur : https://about.google/

[2] Les moteurs de recherche les plus populaires en France, Statistia.

[3] Le PageRank ou PR est l’algorithme d’analyse des liens concourant au système de classement des pages Web utilisé par le moteur de recherche Google. Il mesure quantitativement la popularité d’une page web. Le PageRank n’est qu’un indicateur parmi d’autres dans l’algorithme qui permet de classer les pages du Web dans les résultats de recherche de Google. Ce système a été inventé par Larry Page, cofondateur de Google.

Catégories
Digital Humanities Sociologie des médias

La double mainmise sur l’espace public. Réflexion.

Qu’il s’agisse de l’intimidation et de la répression opérées auprès des journalistes de Canal+ ou encore de la suspension et de la censure de plusieurs comptes féministes sur Twitter, Instagram et Facebook, l’actualité de ces dernières semaines ne manque pas de nous rappeler à quel point la question de la liberté d’expression et de la mainmise sur l’espace public est devenue aujourd’hui essentielle. Contrairement aux idéaux universalistes qui voyaient dans l’avènement de l’ère internet la possibilité d’une évolution positive permettant plus de pluralité et de représentativité dans la configuration de l’espace public, le début du XXIe siècle marquerait-il paradoxalement le renforcement d’une double mainmise économique sur ce dernier ?

©Unsplash, @Samule

Information, pouvoir et promesse démocratique

La parole : une distribution inégalitaire au fil des époques

Depuis que les sources nous permettent de rentrer dans l’histoire, la parole est associée à la notion de pouvoir. D’abord prononcée, ensuite écrite, elle semble être, à chaque époque, ce qui matérialise le fossé entre ceux qui accèdent au pouvoir et au « droit » de dire le monde et ceux qui sont invisibilisés dans la masse et inaudibles, car la foule n’a pas de mode d’expression autre que la clameur de joie ou de colère.

Ainsi, dans la démocratie athénienne, la parole, l’information et la chose publique étaient l’apanage des citoyens réunis sur l’Agora, les esclaves, les femmes et les métèques y étant exclus. A l’époque féodale, le pouvoir séculier et le pouvoir spirituel s’octroyaient et se partageaient ces prérogatives. Au sein de la démocratie représentative censée caractériser – au moins dans les textes ! – nos systèmes d’organisation politique et sociale actuels, la parole publique est d’abord l’apanage des représentants de la nation à l’Assemblée, et, de plus en plus, de celles et ceux qui en vertu d’une influence ou d’une expertise particulière prennent la parole dans de nouvelles « arènes » d’expression du pouvoir, notamment dans les médias.

L’espace public : un lieu d’exercice du contre-pouvoir

Parler de parole publique revient à parler d’espace public. Dans son ouvrage le plus connu, L’espace public : archéologie de la publicité comme dimension constitutive de la société bourgeoise (1962), Habermas décrit le processus au cours duquel le public constitué d’individus faisant usage de leur raison s’approprie la sphère publique contrôlée par l’autorité et la transforme en une sphère où la critique s’exerce contre le pouvoir de l’État. En effet, selon lui, l’espace public naît des activités de communication de la société bourgeoise des XVII-XVIIIe siècles. Les réunions de salon et les cafés étaient en effet des endroits propices à la multiplication des discussions et des débats politiques relayés par les médias de l’époque : relations épistolaires et presse naissante.

L’information : le journalisme et la promesse démocratique

En France, si sous l’Ancien Régime les premières publications (La Gazette etc.) étaient l’instrument de communication du pouvoir monarchique, c’est à la Révolution que le principe d’une presse libre voit le jour pour la première fois. L’article 11 de la Déclaration des droits de l’homme et du citoyen pose que « tout citoyen peut parler, écrire, imprimer librement ».

 C’est de ce principe que naît ce que nous appelonscommunément aujourd’hui le contre-pouvoir ou le quatrième pouvoir dans l’État, celui des médias et des journalistes. En réalité, les démocraties représentatives actuelles ne tiennent qu’à la croyance dans l’indépendance de ce contre-pouvoir et dans sa capacité à permettre à chacun de se tenir au courant des affaires de la cité. Comme Julia Cagé et Benoît Huet l’affirment, « l’information est un bien public indispensable au bon fonctionnement de nos démocraties »[1].

L’espace public, l’apanage des puissances économiques ?

Transition d’une mainmise politique vers une mainmise économique

Le XXe siècle est marqué par plusieurs révolutions qui secouent le journalisme et questionnent son rôle en profondeur. Après la radio, la démocratisation de la télévision rebat entièrement les cartes du jeu, d’autant plus que la France en fait un monopole d’État pendant plusieurs années.[2] « Informer, éduquer, distraire » voici les raisons d’être affichées de ce nouveau média qu’Alain Peyrefitte, ministre de l’Information de l’époque, résume par la célèbre phrase qu’il prononce lors de l’inauguration du nouveau JT : « La télévision c’est le gouvernement dans la salle à manger de chaque Français. »

Les années 80 marquent en Europe ce que nous appelons en science politique le tournant néo-libéral. L’économie de marché s’emballe et l’information à la télévision, dégagée du poids politique, subit désormais de nouvelles contraintes, cette fois économiques et commerciales ; le diktat de l’audimat érige une place de choix au divertissement, au détriment de l’information.

Cela ne se passe pas de manière linéaire, mais on observe une tendance forte : la connivence politico-médiatique est peu à peu remplacée par une connivence économico-médiatique. On assiste ainsi à un transfert de mainmise sur l’espace public.

Concentration des médias…

Mais en quoi cette mainmise économique consiste-t-elle ? Au-delà de la connivence entretenue entre certains acteurs[3] ou encore des pratiques courantes dans le métier[4] pouvant créer des situations d’influence avec des répercussions sur l’information, c’est surtout la forte concentration des médias à laquelle on assiste en France depuis une dizaine d’années qui nous apparaît comme particulièrement dangereuse.

En effet, les grands industriels et, de manière globale, les plus grosses fortunes ont souvent eu tendance à acquérir des groupes de presse. Jeux d’influence, positionnement, cadrage, droit à la parole, mainmise, pouvoir. La tendance est particulièrement virulente dans les pays de l’Est à la chute du mur, où les espaces du possible s’ouvrent soudainement. Sur le terrain de la transition et du « non-droit », les médias « libres » (le contre-pouvoir) voient le jour sous la houlette de la nomenklatura, la nouvelle élite économico-politique, puis des grands trusts mondiaux. Une étude de cas sur la naissance de l’espace public démocratique et des médias libres en Roumanie ou en Ukraine, pour ne prendre que deux exemples, mériteraient dans ce sens une attention toute particulière.

La tendance se confirme également en France, et encore plus fortement ces dix dernières années : aujourd’hui 90 % des médias sont détenus par neuf personnes ou familles qui font partie des 100 plus grosses fortunes du pays. A le lire, on pourrait croire que financièrement les médias se portent plus que bien… Or, en s’y penchant de plus près, on s’aperçoit qu’aucune de ces grandes fortunes n’a comme origine le pendant lucratif de l’industrie médiatique. Depuis les années 2000, avec l’avènement du 2.0, le cocotier des médias a été durablement secoué et, aujourd’hui encore, les rédactions peinent à trouver des modèles économiques leur garantissant à la fois sécurité financière et indépendance. En effet, l’ensemble des magnats des médias en France sont en réalité des industriels dont le cœur de métier n’a rien à voir avec la presse ou l’audiovisuel. Pour ne rappeler que quelques cas flagrants :

IndustriesMédiasFamilles
BTP, télécomsTF1, LCI…Bouygues
Transport, logistique, énergieCanal +, C8, CNews etc..Bolloré
Luxe (LVMH)Les Echos, Le ParisienArnault
Industrie aéronautiqueLe FigaroDassault
TélécomsLibération, BFM Tv…Drahi

Pour un panorama exhaustif rendant compte de la concentration de l’industrie médiatique, Le Monde Diplomatique en collaboration avec Acrimed ont réalisé une infographie qu’ils prennent le soin de mettre à jour au rythme des rachats intempestifs :

©Acrimed, Monde diplomatique, seizième version d’une infographie évolutive dont la première version a été publiée le 6 juillet 2016.

A la lecture de cette infographie, ce qui frappe c’est avant tout la forte convergence entre les réseaux et les contenus. Pour ne prendre qu’un exemple, trois des 4 plus grands opérateurs de téléphonie mobile et d’accès internet en France – SFR, Bouygues Télécom et Free mobile sont les entreprises de grands détenteurs de médias :  Patrick Drahi, la famille Bouygues et Xavier Niel. Infrastructures, médias et contenus ne semblent plus faire qu’un. Quel impact sur l’information avec un grand I ?

…rime-t-elle avec emprise sur l’espace public ?

Au niveau individuel, cette concentration médiatique crée des effets d’auto-censure inévitables de la part de certains journalistes soucieux de conserver leur position au sein des rédactions. Plus les monopoles deviennent puissants, plus la concentration médiatique devenue systémique pose un réel problème de mainmise économique sur l’espace public, avec des effets indésirables inscrits dans le temps long. La course à l’acquisition des médias transforme l’industrie médiatique en une industrie comme les autres, soumise aux règles de la concurrence. Des postes de contrôleurs de gestion sont créés à tous les échelons, y compris dans les rédactions, et les budgets destinés à la recherche et au traitement de l’information sont réduits. Pour les nouveaux industriels des médias, l’information, devenue un produit, est soumise aux mêmes règles d’abaissement des coûts, lesquelles entrent en contradiction avec les normes et les standards nécessaires à la production de l’information, pourtant vitale à nos démocraties.

Dans leur course au low-cost et à l’uniformisation, les médias reflètent une idéologie à part entière, caractérisée par une mise en avant de l’individu tout puissant, un rapport linéaire au temps et une forte pensée utilitariste… avec des répercussions très fortes sur le politique et sur l’état de santé démocratique de l’espace public.

Mais le cadre national nous permet-il encore de réfléchir entièrement la question d’une mainmise sur l’espace public ? Peut-on encore en 2021 tenter de contenir ce concept aux frontières floues aux frontières d’un État-nation ? Nous faisons ici l’hypothèse d’un double étage, d’une double mainmise sur l’espace public, lequel s’élargit au fur et à mesure de l’amplification de nos interconnexions.

Le double étage ou la « supra-mainmise » des géants du numérique sur l’espace public

Une inadéquation d’échelle ?

Nous l’avons vu, la financiarisation et les concentrations font peser des dangers sur le traitement de l’information, sur l’indépendance des journalistes et sur le pluralisme des idées, ce qui fait croître inexorablement la méfiance de la société civile envers ceux qui sont tacitement mandatés dans les démocraties pour effectuer le travail critique face au pouvoir.

Et si la méfiance était également le fait d’une inadéquation d’échelle ? Lorsque les flux financiers sont mondiaux, lorsqu’avec une épidémie comme celle du Coronavirus, nous prenons d’un coup conscience de notre interdépendance à l’échelle mondiale, lorsqu’avec un peu de recul, on accepte que les enjeux du siècle[5] ne peuvent se concevoir qu’à l’échelle planétaire, on est forcé de constater que l’échelle nationale semble inefficace pour réfléchir le monde de manière efficace.

Cette inadéquation d’échelle est d’ailleurs rendue criarde à partir des années 2010 avec l’avènement de l’ère des médias sociaux, qui semblaient dans un premier temps constituer le paroxysme de l’idéal universaliste de Tim Berners Lee lorsqu’il inventait le World Wide Web : rapprocher les gens et faire circuler librement l’information.

Cet idéal semble encore aujourd’hui nourrir les ambitions affichées des géants du numérique. La signature de Google l’énonce très clairement : « Notre objectif est d’organiser les informations à l’échelle mondiale pour les rendre accessibles et utiles à tous »[6]. En effet, à bien y réfléchir, Google, Facebook & co. sont tout simplement devenus les plus grands éditeurs au monde et cela impacte directement l’activité et les recettes des entreprises de presse. Fortes d’un très grand nombre d’utilisateurs dont les données leur ont fourni un avantage stratégique capable d’annihiler toute concurrence aussi sérieuse soit-t-elle, ces plateformes se sont imposées petit à petit en suscitant un engouement sans précédent presque partout dans le monde[7].

Les GAFAM ou le double étage

Comme nous l’abordions déjà avec précision dans un article-manifeste proposant une critique du flux inhérent à l’ensemble des plateformes sociales, les GAFAM, via leurs algorithmes et leurs choix stratégiques, décident aujourd’hui de l’information à diffuser, des sources à mettre en avant et des formats à privilégier.

Vous l’aurez compris, là où, à l’échelle nationale, une mainmise économique s’exerce au sein d’un certain nombre de rédactions pour préserver des réputations ou encore pour favoriser des intérêts particuliers, à l’échelle internationale en revanche, la mainmise sur l’espace public est régie par des algorithmes dont personne ne connaît réellement le fonctionnement.

Au premier étage, on assiste à des phénomènes assez classiques de pressions ou d’autocensure. Au deuxième étage, les ambitions sont bien différentes : il s’agit de classifier, d’organiser, et de donner à voir. Au premier étage, l’audience est limitée à la fois par le cadre national et par l’ancrage idéologique des médias. Au deuxième étage, l’audience est potentiellement planétaire malgré l’éventuelle barrière de la langue et l’existence de stratégies nationales menées par les GAFA.

Au premier étage les enjeux économiques sont forts. Au deuxième étage ils le sont d’autant plus, car nous constatons une certaine dépendance entre l’économie classique et l’économie numérique qui vient la surplomber.

Par ce jeu d’interférences et d’intermédiation, le double étage semble en effet fortement interpénétrer le premier et y exercer une forte domination. Comment ?

Si la totalité des médias ont cherché à jouer le jeu des plateformes à un moment où le numérique venait ébranler la profession, c’est parce que ces dernières apparaissaient aux industries médiatiques comme des alliées fiables et incontournables. Sans chercher à faire une démonstration d’économie numérique déjà faite ailleurs[8], rappelons les grandes étapes qui ont renforcé la mainmise des géants du numérique sur l’espace public :

  • Au début des années 2000, la démocratisation d’internet s’accompagne en apparence par la poursuite de sa promesse initiale liée à l’accessibilité de l’information notamment à travers le principe de gratuité du web.
  • La plupart des contenus d’information, anciennement payants (au tarif de la publication papier) deviennent gratuits pour leurs lecteurs connectés.
  • L’ensemble des éditeurs, tous secteurs confondus, deviennent concurrents sur un seul et unique marché – la publicité. Le modèle économique ? Rattraper le coût de production de l’information à travers le versant publicitaire. Ainsi, plus le média jouissait d’une forte audience (trafic), plus les recettes étaient élevées.
  • Ce mouvement a bien entendu affecté les consommateurs d’information et de contenus, puisque la gratuité est devenue presqu’une évidence[9].
  • Au milieu des années 2000, les premiers réseaux sociaux voient le jour. Ils semblent alors bel et bien être la progéniture fidèle du www, et la gratuité de leurs services semble être dans leur ADN. Sur son formulaire d’inscription, Facebook mentionnait jusqu’en 2019 la célèbre phrase : « c’est gratuit et ça le restera toujours ».
  • Dans leur quête d’audiences, les médias ont vite investi les réseaux sociaux, avec l’ambition d’en faire un lieu d’information ; les usagers en ont manifestement fait un espace de partage et d’accès à l’actualité…
  • Ce n’est qu’au milieu des années 2010, lorsque les présences sur les réseaux sociaux faisaient l’objet de véritables stratégies de diffusion de l’information de la part des médias, que les plateformes ont virulemment investi le pendant publicitaire de leurs activités. Plusieurs choix stratégiques à rappeler :
  1. Fortes des données utilisateurs récupérées au fil d’une décennie, les plateformes investissent les publicités ciblées comme nul autre acteur du web ne l’avait fait jusqu’alors.
  2. On assiste à des modifications structurelles des algorithmes d’affichage des publications ; seules les publications sponsorisées émergent quantitativement dans les flux des usagers
  3. Via les évolutions techniques successives des plateformes, les géants du web font en sorte de retenir davantage les utilisateurs dans le flux de leurs services ou sur des pages pop-in internalisées[10], les empêchant de quitter leur environnement pour des sites d’information par exemple.

L’ensemble de ces évolutions stratégiques ont complètement faussé toute possibilité de concurrence loyale sur le marché de la pub. Ces géants du numérique se sont partagé les plus grosses parts du gâteau, puisqu’ils sont devenus des portails d’accès aux contenus, de véritables prescripteurs d’information. Aux médias les miettes, à eux de se réinventer une nouvelle fois et de trouver des modèles économiques leur permettant de survivre.

Le spectre d’une hégémonie algorithmique

En se positionnant en instances de classification, Google, Facebook, Twitter & co. deviennent les nouveaux gatekeepers[11] de l’espace public, alors qu’ils ne produisent guère l’information ni n’en assument la responsabilité.

Et si les internautes étaient allés sur ces plateformes justement grâce aux contenus offerts par les médias ? Dès lors, ne serait-il pas juste de penser que ce n’est pas aux industries médiatiques de payer pour se rendre visibles sur ces plateformes, mais plutôt à ces plateformes de payer pour pouvoir indexer l’information qui fait leur richesse ?

C’est ce que l’ensemble des débats sur les droits voisins semblent mettre en avant. En effet, les éditeurs du monde entier cherchent à obtenir une contre-partie financière de la part des GAFA pour les contenus qu’ils ont créés. Le bras de fer est violent, comme l’a montré la récente censure par Facebook de l’ensemble des médias d’information australiens. Dernièrement les géants du numérique ont cédé à des accords bilatéraux avec un certain nombre d’éditeurs – le plus souvent les plus notoires de chaque pays – ce qui risque de menacer la pluralité des idées, la liberté d’expression, et qui questionne directement nos démocraties. Si seuls les plus grands sont financés pour leurs contenus par Facebook, Google et co., seuls les plus grands survivront – les plus grands qui subiront encore plus fortement cette double mainmise économique qui dénature l’espace public et le visage même de la démocratie.

D’où provient cette terrible vague qui menace d’emporter avec elle tout ce qui est coloré, tout ce qui est particulier dans nos vies ?

Stefan Zweig, L’uniformisation du monde, 1925

Uniformisation des contenus pour répondre aux exigences des plateformes, surpression de la pluralité des points de vue nécessaires pour permettre à des citoyens de s’informer et d’être éclairés sur les enjeux du monde… quels sont les autres risques de cette supra mainmise des géants du numérique sur l’espace public conçu à l’échelle planétaire ?

Nous avons été nombreux à nous « réjouir » début janvier à la nouvelle de la suppression du compte Twitter de Donald Trump. La décision avait pourtant un caractère symbolique fort. Twitter a prouvé avoir le pouvoir de censurer la parole du président des États-Unis. A mon sens, c’est le signal d’un tournant extrêmement dangereux pour la liberté d’expression.

Février, mars, avril n’ont fait que confirmer le phénomène, puisque nous avons assisté assez passivement à un renforcement de ce que je vais appeler un caractère autoritaire des plateformes sociales. En effet, sous prétexte de se ranger du bon côté de l’histoire et de chercher à combattre les maux de la société numérique – fake news, désinformation, propos haineux, trolling – ces plateformes s’octroient désormais le droit de décider à qui donner la parole, quand et sur quels sujets[12].

En réalité, pour que cette mainmise devienne totale il ne manquerait à mon sens plus qu’une chose : que Google, Facebook & co. se mettent à créer leurs propres contenus informationnels, ce qui ne semble pas complètement dystopique lorsqu’on regarde les évolutions de positionnement de plateformes comme Netflix ou Amazon… Si ces géants se sont d’abord imposés en ayant recours à l’intermédiation pour faciliter la rencontre de l’offre et de la demande, chacun dans son champ, ils ont rapidement changé de posture. Netflix s’est ainsi transformé dans un créateur de contenus presque à part entière, qui via la diffusion privilégiée de ses fictions structure et diffuse de nouveaux archétypes, crée de nouvelles représentations du social, du politique…

La course à l’hégémonie culturelle sera-t-elle remportée par les algorithmes ?

Assisterait-on à une nouvelle colonisation, à une colonisation par le nombre, algorithmique, qui s’exerce à un deuxième étage -dans le numérique – mais qui résonne fortement dans le réel, de manière à questionner nos organisations économiques, politiques et sociales ?


[1] Julia Cagé, Benoît Huet, L’information est un bien public, Seuil, 2021

[2] Court historique du monopole étatique sur les ondes :

  • 27 juin 1964 : création de l’Office de radiotélévision française (ORTF) comme établissement de service public national.
  • 3 juillet 1972 : reprise en main de l’ORTF après une ébauche de libéralisation en 1968 et 1969 sous le gouvernement de Jacques Chaban-Delmas. Le service public national de radiodiffusion-télévision est déclaré monopole d’Etat.
  • 7 août 1974 : éclatement de l’ORTF en sept sociétés indépendantes : quatre sociétés nationales de programme (TF1, A2, FR3, Radio-France), un établissement public de diffusion (Télédiffusion de France, TDF), une société de production (SFP) et un Institut national de l’audiovisuel (INA). Même si elle instaure les principes de concurrence entre les chaînes, la loi maintient le monopole d’État.
  •  9 novembre 1981 : loi sur l’octroi de dérogations au monopole d’Etat.
  • 29 juillet 1982 : fin du monopole et création de la Haute autorité. Cette dernière accorde les autorisations d’exploitation des stations de radio et de télévision, nomme les présidents des chaînes publiques, établit le cahier des charges et veille aux règles de concurrence.

[3] En s’intéressant de près à la sociologie des acteurs, on s’aperçoit que les élites journalistiques, économiques et politiques ont des profils socio-culturels très semblables et ont souvent fréquenté les mêmes écoles et lieux de socialisation secondaire. De ce fait, des situations de connivence, d’emprise, censure ou auto-censure peuvent aisément avoir lieu à un niveau individuel.

[4] Les départements relations presse des grandes entreprise connaissent l’importance de soigner les relations avec les journalistes spécialisés dans le secteur de leur entreprise. Pour des lancements très spécifiques, les entreprises ont souvent recours à des voyages de presse, des conférences organisées dans des conditions particulières etc qu’ils proposent à des journalistes invités. Dans ce cadre, il se pourrait que certains accueils particulièrement chaleureux puissent influencer le traitement d’un papier.

[5] L’urgence écologique et la lutte contre les inégalités

[6] D’après la page de présentation de la société sur : https://about.google/

[7] Certains États, dont la Chine ou la Russie, proposent des plateformes nationales. Quelques exemples : Baidu est le « Google chinois » tandis que VKontakte est le « Facebook russe ».

[8] L’absentéisme systémique. Un trait de figure des GAFA ? Voir la deuxième partie de l’article « Covid-19 : qu’ont fait les GAFA pour nous dans cette période ? » sur le site Citoyenne éclairée.

[9] On voit aujourd’hui à quel point des rédactions indépendantes peinent à s’assurer une sécurité financière en réintroduisant la tarification des contenus notamment à travers la vente d’abonnements (chercher article campagnes de crowdfunding Arrêt sur images ?)

[10] (qui affichent des contenus qui ne leur appartiennent pas)

[11] L’expression gatekeeping ou gardien en français désigne dans le domaine de la communication, les intermédiaires chargés de gérer l’accès de certaines informations ou événements à la sphère publique, par le choix de la médiatisation. Par exemple, les journalistes sont des gatekeepers qui jouent le rôle de « portier » : ils laissent entrer certaines informations dans le champ public, et en bloquent d’autres.

[12] Twitter censure des messages sur la pandémie à la demande du gouvernement indien.

Facebook et Twitter se comportent comme des ennemis de la liberté, donc de la démocratie

Censure : 14 féministes assignent Instagram en justice : « On ne peut plus subir ce deux poids, deux mesures »

Catégories
Digital Humanities

L’homo numericus existe-t-il ? Cadre théorique

Australopithèque, homo habilis, homo erectus, homo sapiens, homo sapiens-sapiens et… homo numericus ? Les évolutions technologiques et d’usages caractéristiques de ces vingt dernières années auraient-elles impacté l’être humain de manière suffisamment profonde – sociologiquement, psychologiquement, voire neurologiquement – pour insuffler une nouvelle évolution de l’espèce humaine ? Le sapiens sapiens serait-il devenu un homo numericus ?

©Unsplash Johannes Plenio @jplenio

Qu’est-ce que l’homme ? Une définition (quasi-)impossible

Mais tout d’abord, qu’est-ce que c’est qu’être humain ? Avec quels outils définir l’humanité ? La biologie, la philosophie, la sociologie, la psychologie, les neurosciences… ? Probablement aucun ou tous en même temps, sans que cela ne nous permette d’aboutir à une définition suffisamment complète. 

Ouvrez un dictionnaire à la lettre « H »… Humain, homme… Les définitions semblent inachevées, maladroites. Vous le remarquerez, aucune d’entre elles ne s’attache à tenter de proposer une définition exhaustive du terme. 

Ainsi, sur le CNTRL, l’adjectif « humain » est défini ainsi : « qui est formé, composé d’hommes. Genre humain concentration, race, société humaine. », « Ce qui est humain, qui appartient à l’homme, qui lui est propre. » L’homme, quant à lui, n’est défini que par son appartenance à une espèce en particulier du règne animal.En biologie, il est donc un « mammifère de l’ordre des Primates, seule espèce vivante des Hominidés, caractérisé par son cerveau volumineux, sa station verticale, ses mains préhensiles et par une intelligence douée de facultés d’abstraction, de généralisation, et capable d’engendrer le langage articulé. »

Peut-être que ce qui fait l’humain est justement sa capacité à s’interroger sur son être et sur son devenir, sa perpétuelle tentative de se définir. Biologiquement parlant, la génétique prouve que l’évolution de l’humain ne s’est jamais arrêtée. En sociologie, le constructivisme analyse l’humain en tant que construction sociale jamais achevée, toujours en devenir… En psychologie, Freud propose une double définition de l’homme, lequel est à la fois « homme-machine », mû et motivé physiologiquement, et « homme-social », car il a besoin d’autres personnes pour satisfaire à la fois ses besoins de conservation et ses besoins libidinaux.[1]  Le philosophe Nietzsche, quant-à-lui, exhortait ses semblables en proposant la formule « Deviens ce que tu es ! ». Cette dernière, largement reprise depuis, est revisitée par l’anthropologue Jean-Loup Amselle qui propose : « Sois ce que tu deviens ». 

Vous l’aurez compris, aucune volonté de ma part de parvenir à définir l’être humain ! Ces différentes manières de dire l’humain sont d’ailleurs volontairement extrêmement hétéroclites… Mon objectif ? Dépasser d’emblée l’idée de l’humanité en tant qu’essence. « L’existence précède l’essence »[2]. En effet, selon Sartre et les existentialistes, l’homme se définit de manière négative, en opposition à ce qui n’est pas lui… Ainsi, « l’homme existe d’abord, se rencontre, surgit dans le monde, et se définit après […] L’homme n’est rien, il ne sera qu’ensuite, et il sera tel qu’il se sera fait » [3]Peut-être que pour penser l’homme en 2021, il faut revenir aux bases – aux contractualistes. Dans sa tentative de peindre l’homme à l’état naturel, Jean-Jacques Rousseau dans son Discours sur l’origine de l’inégalité faisait de la perfectibilité l’une des caractéristiques permettant d’individualiser et de distinguer l’homme de l’animal. La perfectibilité est un néologisme qui met en exergue le fait que la « nature » de l’homme n’est pas fixe. Dès lors, c’est l’évolutivité et la perpétuelle mouvance qui permettent d’établir un clivage métaphysique fort entre animalité et humanité. Si on peut assimiler l’animal à une machine (cf. la théorie de l’animal-machine de Descartes), l’être humain se caractérise par sa volonté libre, laquelle l’entraîne à changer, à évoluer.

L’habitus numérique : une théorisation possible

Dès lors, comment capter l’entièreté de quelque chose qui est en perpétuelle évolution ? Si nous tentions de photographier l’humain en 2021, en cherchant à apercevoir toute sa complexité kaléidoscopique – sans prétendre pouvoir capter le jeu de lumières – est-ce l’homo numericus que nous pourrions entrevoir ? 

Numericus. Depuis la seconde moitié du XXe siècle, on a pris l’habitude de désigner comme « numériques » les données informatiques. Ainsi, l’adjectif « numérique » qualifie une représentation de l’information par des variables discrètes constituées par un nombre fini de valeurs réelles. Se dit, par opposition à l’analogique, de la représentation de données ou de grandeurs physiques au moyen de caractères – des chiffres généralement.[4]

Le numérique n’est ainsi rien d’autre qu’une innovation technique appartenant à l’humain qui façonne fortement son environnement et ses conditions de vie. A la recherche de l’homo numericus, nous partons donc d’une acception exclusivement sociologique du terme numérique. Loin du fantasme du transhumanisme[5], de la vie éternelle ou encore des expériences en laboratoire portées sur les gènes humains – des sujets à part entière qui occupent déjà une place prépondérante dans l’espace public, notamment numérique – notre ambition est moindre ou en tout cas plus réduite. 

En effet, le constat est éclatant. Le numérique croise aujourd’hui de nombreux domaines : la physique, l’éducation, la santé, la médecine, l’environnement, les sciences de la vie… autant de disciplines intrinsèquement liées au quotidien de l’humain du XXIe siècle et dont les prouesses et la pratique seraient aujourd’hui inenvisageables sans le numérique. A l’échelle de l’individu, ses usages, son activité, ses loisirs, son quotidien se voient aussi profondément transformés par la digitalisation du monde. Notre hypothèse ? Les évolutions de ces dernières décennies – la miniaturisation des devices, l’hyperconnexion, la data, le flux avec notamment l’avènement de l’ère des médias sociaux – sont des phénomènes susceptibles d’impacter l’individu neurologiquement, psychologiquement et socialement. Le sapiens sapiens serait-il devenu un homo numericus ? Ces constats suffisent-ils pour parler de l’avènement d’une nouvelle « espèce » ? 

Mais numericus ne peut se joindre à homo que dans la mesure où nous concevons la révolution numérique comme le résultat direct de la perfectibilité au sens rousseauiste du terme. Ainsi, endogène d’un point de vue purement théorique[6]ou exogène lorsque le qualificatif numérique est conçu en tant qu’attribut non pas de l’humain mais de son environnement – la société numérique –, ce terme nous apparaît inéluctablement incontournable pour réfléchir l’humain en 2021.[7]

Sans pouvoir parler d’une nouvelle espèce au sens génétique du terme, nous proposons un concept hybride permettant de rendre compte de l’ensemble des effets du numérique sur l’humain et sur la société, celui de « habitus numérique ».

Concept de base de la sociologie bourdieusienne, l’habitus est « le produit du travail d’inculcation et d’appropriation nécessaire pour que ces produits de l’histoire collective que sont les structures objectives (e. g.de la langue, de l’économie, etc.) parviennent à se reproduire, sous la forme de dispositions durables, dans tous les organismes (que l’on peut, si l’on veut, appeler individus) durablement soumis aux mêmes conditionnements, donc placés dans les mêmes conditions matérielles d’existences ».[8]Parler d’un habitus numérique revient alors à s’interroger sur les effets du numérique sur la théorie des champs[9]et plus largement sur l’individu en 2021. Le numérique rebat-il les cartes et donne-t-il naissance à un nouveau champ régi par des règles nouvelles agissant et façonnant l’humain, ou ne fait-il que reproduire à l’identique dans ce nouvel espace numérique des logiques sociales préexistantes ? 

Pour répondre à cette question et vérifier la validité des concepts comme homo numericus ou l’habitus numérique, il nous semble essentiel de s’atteler à répondre à une nouvelle question : le numérique fait-il réellement émerger une nouvelle culture psychologique qui interroge le social, le politique et l’économique ? Au regard de la complexité et de l’ambition de la question, il s’agira de pistes que nous souhaitons poursuivre au fil de différents articles sur le site Citoyenne éclairéeStay tuned!


[1]Fromm Erich. « Le modèle de l’homme chez Freud et ses déterminants sociaux » IL’Homme et la société, N. 13, 1969. Sociologie et philosophie. p. 111-125. http://www.persee.fr/doc/homso_0018-4306_1969_num_13_1_1230

[2]Jean-Paul Sartre, L’existentialisme est un humanisme (1946).

[3]Ibid.

[4]Les progrès des technologies de l’information et de la communication reposent pour l’essentiel sur une innovation technique fondamentale : la numérisation. Dans les systèmes traditionnels – dits analogiques – les signaux (radio, télévisions, etc.) sont véhiculés sous la forme d’ondes électriques continues. Avec la numérisation, ces signaux sont codés comme des suites de nombres, eux-mêmes souvent représentés en système binaire par des groupes de 0 et de 1. Le signal se compose alors d’un ensemble discontinu de nombres : il est devenu un fichier de nature informatique.

[5]Courant de pensée selon lequel les capacités physiques et intellectuelles de l’être humain pourraient être accrues grâce au progrès scientifique et technique. Pour aller plus loin, lire l’excellent papier de The Conversation : Humanisme, posthumanisme, transhumanisme : de quoi parle-t-on exactement ?

[6]Syllogisme : le numérique est l’émanation (résultat direct) de la perfectibilité. La perfectibilité est selon Rousseau l’un des deux attributs qui distinguent l’homme de l’animal. Dès lors, le numérique est une émanation directe de ce qui fait que l’homme est homme. Autrement dit, le numérique est endogène à l’homme.

[7]En effet, à moins de proposer une nouvelle fiction qui cherche à extraire l’individu de son contexte historique pour retenter une nouvelle essentialisation, nous l’avons prouvé, l’humain et son environnement sont intrinsèquement liés ; et il est difficile de rendre intelligible l’un sans réfléchir l’autre.

[8]Bourdieu Pierre, Esquisse d’une théorie de la pratique. Précédé de « Trois études d’ethnologie kabyle ». Librairie Droz, « Travaux de Sciences Sociales », 1972. URL : https://www.cairn.info/esquisse-d-une-theorie-de-la-pratique–9782600041553.htm

[9]La notion de champ est centrale dans la théorie de Pierre Bourdieu. Le champ est un microcosme social relativement autonome à l’intérieur du macrocosme social. Chaque champ (politique, religieux, médical, journalistique, universitaire, juridique, footballistique…) est régi par des règles qui lui sont propres et se caractérise par la poursuite d’une fin spécifique. Ainsi, la loi qui régit le champ artistique (l’art pour l’art) est inverse à celle du champ économique (les affaires sont les affaires). Les enjeux propres à un champ sont illusoires ou insignifiants pour les personnes étrangères au champ : les querelles poétiques ou la lutte d’un journaliste pour l’accès à la Une semblent futiles à un banquier, et les préoccupations d’un banquier sont mesquines pour un artiste ou pour un militant écologique. La logique d’un champ s’institue à l’état incorporé chez les individus engagés dans le champ sous la forme d’un sens du jeu et d’un habitus spécifique.

Catégories
Écologie de l'attention

Le snack content : une fausse bonne question ? – #Episode5

Après avoir étudié ses origines, ses limites et son mode d’emploi, on peut désormais affirmer que le snack content n’est guère du junk content. Il nous apparaît cependant que son téléversement en masse sur les réseaux sociaux par tous les acteurs du web de manière effrénée[1] ressemble bien, quant-à-lui, à la ramasse des poubelles… Et si la question était mal posée ? Et si le problème n’était pas de savoir si le snack content était un format efficace ou non ? Et si nous déplacions le point de vue de manière à interroger plutôt son contexte de réception, autrement dit, le flux ? Ce cinquième et dernier épisode de notre série dédiée au snack content est un « article-manifeste » proposant une critique du flux, l’une de ces réalités qui semblent aujourd’hui impossibles à remettre en question sur l’ensemble des plateformes sociales. #SortezLaTêteDuFlux ! En savoir plus…

©unDraw illustrations

Gasters à l’hybris démesurée ou encore Chronos dévorant sa progéniture[2], ces images fortes permettent d’illustrer de manière assez précise le fonctionnement du flux proposé aujourd’hui par l’ensemble des réseaux sociaux. Mais qu’est-ce que le flux ? Comment influe-t-il sur nos réceptions des contenus et de l’information ? Quelles pistes de réflexion pour préserver la relation de confiance et de (bon) sens entre le consommateur et le producteur de contenu ?

« Ce que les réseaux font aux cerveaux »[3]

« Nous sommes confrontés à un fait historique majeur : c’est la disponibilité de l’information. Au début des années 2000, au moment de l’apparition et de la démocratisation d’Internet, plus d’informations se sont publiées que depuis l’invention de l’imprimerie par Gutenberg. Pour accélérer les choses, 90 % des informations disponibles ont été produites ces deux dernières années ». Gérald Bronner, sociologue, membre de l’Académie des technologies, enseignant à l’université Paris-Diderot est un spécialiste des croyances collectives et de la cognition humaine qui prône une sociologie interdisciplinaire, ouverte aux sciences cognitives, à l’anthropologie et aux neurosciences. Dans son dernier ouvrage, Apocalypse cognitive  (PUF, 2020), il pose une question fondamentale que nous allons reprendre à notre compte : « comment sauver notre temps de cerveau disponible sur le marché très concurrentiel de l’attention ? »

[Pour en savoir plus, écouter « Ce que les réseaux font aux cerveaux » sur France Culture]

En effet, comme nous l’avions déjà vu dans le troisième article de la série à travers le concept de content shock de Mark Schaefer, la production de contenus disponibles sur Internet augmenterait beaucoup plus vite que le temps et l’attention disponibles des individus à qui sont destinés les contenus (voir le schéma ci-dessous).

Gérald Bronner nuance ce concept : si l’augmentation de la quantité de contenus disponibles est absolument tangible, à cela s’ajoute également une augmentation sans précédent du temps de cerveau disponible, et ce serait le croisement de ces deux variables qui pourrait devenir nuisible, en cas d’implosion. On assisterait ainsi aujourd’hui à un « tournant civilisationnel » pour lequel le temps de cerveau disponible, gagné avec le progrès qui réduit nos tâches et nos contraintes, devient un enjeu de taille. En effet, avant les innovations perpétuelles de ces dernières décennies, qui modifient notre rapport au temps et au travail, la grande majorité des pulsions[4] de nos ancêtres répondaient à un besoin de survie. Aujourd’hui, à l’ère des réseaux et de l’hyperconnexion, nos pulsions seraient manipulées dans le contexte du marché de l’information et des contenus, et ce pour le meilleur ou pour le pire…

Il y a dans ce temps de cerveau disponible toute l’Histoire de l’humanité, le pire comme le meilleur.

Gérald Bronner

Fake news, deepfake, post-vérité, infobésité, morcellement, perte de sens ? Quelques mots pour décrire une partie de ce que constitue la société numérique actuelle. 

Exercice de pensée : la société numérique pourrait aisément être définie, en déplaçant le concept bourdieusien de l’habitus, comme une « structure structurée prompte à fonctionner comme structure structurante »[5] et en perpétuelle expansion. Pourquoi tenter de réfléchir à la question d’un « habitus numérique » ou d’un homo numericus ? Nous pensons que les évolutions de ces vingt dernières années – la miniaturisation des devices, l’hyperconnexion, le flux… sont des phénomènes susceptibles d’impacter l’individu neurologiquement[6], psychologiquement et socialement. Conçus comme le prolongement de l’individu, l’ensemble des outils digitaux (devices et couches applicatives) ont donné à l’être humain l’opportunité de se créer une nouvelle identité numérique, parfois en opposition à son identité réelle. Cet habitus numérique peut constituer une échappatoire pour l’individu dans une société en manque de repères. Il fait émerger une nouvelle culture psychologique[7] qui interroge le social, le politique et l’économique… Cependant, au regard de l’actualité de cette dernière année, le réel nous rattrape ou devrait nous rattraper. Dès lors, il  est de plus en plus essentiel de faire preuve d’esprit critique et de chercher à se regarder en face, de se libérer des mythes et, si nécessaire, de penser contre soi-même ! Pour Gérald Bronner, ce n’est que « par ce travail de lucidité et de rationalisme, que nous répondrons au défi civilisationnel qui se pose aujourd’hui. »

L’impact du flux sur la réception et sur la consommation de contenus

Ce ne sont pas les écrans qui sont coupables en soi, ce sont simplement des fenêtres sur ce qu’il se produit sur le marché cognitif : un alignement inédit entre toutes les offres possibles et toutes les demandes imaginables.

Gérald Bronner

Nous avons essayé tout au long des quatre épisodes précédents de remettre en question un format extrêmement répandu sur le web social, le snack content. En étudiant notamment les origines de ces micro-contenus qui foisonnent sur le web, nous avons pu déterminer que le snack content n’était en réalité qu’une adaptation de la part des producteurs de contenus aux contraintes intrinsèques des réseaux, autrement dit, l’intégration et la conformation de leurs productions à la logique du flux.

Très vite, nous avons eu l’intuition de twister la problématique de cette série d’articles. Le snack content, aussi limitatif qu’il soit, peut en effet s’avérer une stratégie marketing redoutable. Le vrai sujet est en réalité constitué par les audiences, la réception et la consommation des (micro-)contenus à l’ère de ce que nous avons appelé la société numérique. Vous l’aurez compris, nous allons parler flux et conséquences de cette exposition à l’information morcelée et morcelante. 

Il va de soi que le contexte de réception d’un contenu, d’une information ou d’un récit influence sa réception. En effet, regarder un film au cinéma est souvent plus apprécié que chez soi. Regarder une vidéo pendant qu’on poursuit le scroll du flux ne revient pas au même que de la regarder en plein écran… Dans ces quelques exemples de consommation de contenus vidéo, tout se passe comme si la taille d’affichage de la vidéo était directement proportionnelle à l’attention que nous souhaitons lui donner. Ainsi, pour visionner un film d’auteur, nous nous enfermons dans une salle obscure où la connexion de nos devices est brouillée et on signe le pacte des 120 minutes environ de déconnexion du quotidien et du numérique, en même temps que le pacte fictionnel proposé par l’œuvre cinématographique. On renonce ainsi à nos extensions pour pouvoir se “connecter” et vivre pleinement le moment présent, en l’occurrence celui du film… En ce qui concerne la vidéo en plein écran, on pourrait concevoir ce contexte de réception comme une évasion du flux. L’internaute a réussi à identifier un contenu auquel il souhaite accorder son attention et il choisit de l’extraire du flux en appuyant sur le mode plein écran. Enfin, dans le cas de la vidéo en miniature qui continue à avancer sur l’un des coins de l’écran de manière concomitante à la poursuite du scroll, on peut faire l’hypothèse qu’il s’agit d’un mode de consommation passif ;  la majorité de l’attention du consommateur est en effet dédiée avant tout à la poursuite de sa quête du “bon” contenu.

Mais que dit cette fonctionnalité relativement récente des plateformes comme Facebook sur l’évolution des usages ? Ce que nous retenons c’est que cette évolution fonctionnelle ne fait qu’entretenir le trop plein. Sans que l’internaute soit satisfait ou qu’il identifie un contenu qui soit digne d’être consommé ou en mesure d’accaparer sa pleine attention, il adhère à l’impératif de consommation de contenus sur le web. Atteint de malinfo, il consomme sans prêter réellement attention, restant toujours en alerte et en recherche du contenu qui lui permettra de s’extraire du flux qu’il dévore et qui le dévore. En effet, nous faisions tout à l’heure une analogie entre le fonctionnement du flux et Chronos dévorant sa progéniture. Si le snack content est bien l’enfant des médias sociaux, il nous apparaît que ces derniers le dévorent et l’utilisent comme un carburant de première qualité. Cette métaphore semble s’appliquer aussi à cet homo numericus façonné par le flux… Tout comme Chronos, divinité primordiale du temps dans la mythologie grecque, le flux vient absorber l’internaute dans une bulle virtuelle, le piège et façonne sa perception de la réalité et du temps…

Pour revenir à la question de l’attention, comme nous l’avons exposé dans l’épisode introductif de cette série d’articles, nous réfutons la théorie, souvent reprise ces dernières années sur la toile, selon laquelle la capacité d’attention des Millenials[8] serait désormais moindre que celle d’un poisson rouge – soit d’environ 9 secondes. Mais rassurez-vous ! Loin d’être des petits OVNIs pourvus de branchies et de nageoires leur permettant de naviguer aisément dans les flots du web, les Millenials, ces jeunes de 24 à 39 ans lisent des livres, parfois longs et parfois vite, regardent des films, des documentaires, vont au théâtre, fréquentent les foires culturelles, les expositions… Plus encore, les Millenials sont eux-aussi submergés par le flux, tout autant que n’importe quelle autre génération connectée ! L’image du poisson rouge demeure néanmoins stimulante, non pas pour décrire le temps de cerveau disponible ou la capacité d’attention de toute une génération, mais plutôt pour décrire un usage imposé par le fonctionnement inhérent des fils d’actualité des réseaux sociaux. Les 30 minutes théoriques prévues pour la consultation d’un article de fond sont ainsi dispersées et souvent perdues dans le flux, lequel offre une si grande diversité de propositions que l’internaute atteint d’infobésité et de la pulsion consommatrice est incapable de choisir.

Ainsi, le flux donne naissance à une perception morcelée de la réalité, contribue à l’infobésité et donne naissance à un drôle de paradoxe : dans la société numérique actuelle que certains qualifient de “post-internet”, tout se passe comme si l’abondance d’informations, au lieu de nous permettre de mieux saisir le monde et ses enjeux, ne faisait que brouiller le sens et créer des spectres…[9]

Que faire alors ? #SortezLaTêteDuFlux !  

Réflexions et questionnements sur l’« intermédiation », un trait saillant de l’économie numérique

Dans les articles précédents, on formulait l’hypothèse selon laquelle la communication corporate avait fortement investi les réseaux sociaux et adopté des outils comme le snack content en raison du fait que c’était désormais là que les audiences se trouvaient… Et si on posait la question inversement ? Et si les internautes étaient allés sur ces plateformes justement grâce aux contenus ? Si cette nouvelle hypothèse s’avérait au moins en partie correcte, ne serait-il pas juste alors de penser que ce n’est pas aux contenus de s’adapter aux exigences de ces plateformes, mais plutôt inversement à ces « nouveaux » médias de s’adapter aux contenus ?

Loin de moi quelconque prétention de faire du Christopher Nolan ! C’est juste qu’en lisant beaucoup de littérature sur le sujet je me rends compte à quel point on a souvent tendance à regarder les conséquences des phénomènes sociaux numériques plutôt que de chercher à analyser leurs fondations. La question même du snack content à laquelle nous avons dédié cette série d’articles n’est qu’une fausse bonne question. Nous l’avons vu, pour comprendre l’apparition et la popularité de ce format, il est nécessaire de questionner les usages ainsi que les positionnements des grands acteurs du numérique qui façonnent aujourd’hui la société numérique dans son ensemble.

Parmi ces usages et ces positionnements, il est intéressant de se pencher sur la question de l’intermédiation, un trait saillant de l’économie numérique.

A partir des années 70, le phénomène de la désintermédiation décrit en science politique la société néo-libérale où l’individu, de moins en moins syndiqué, de moins en moins encarté, de moins en moins en proie au fait religieux, ne compte plus sur les grandes structures façonneuses de récits et de réalités qui édictaient historiquement la marche à suivre. L’apparition et la démocratisation d’internet n’ont dans un premier temps fait que généraliser ce trait de figure de nos sociétés, notamment sur le plan économique. Internet  a par exemple largement favorisé la désintermédiation dans le domaine du voyage et du tourisme ou bien dans celui de la distribution de certains logiciels ou jeux. Ainsi, la vente en ligne de billets d’avion par les compagnies aériennes provoque un phénomène de désintermédiation au détriment des agences de voyages traditionnelles.

Mais qu’en est-il de la société numérique actuelle ? Une marche de l’histoire lisse voudrait qu’internet nous ait d’ores et déjà permis l’aboutissement de ce phénomène, notamment  avec le triomphe de la démocratie directe rendue possible grâce aux évolutions technologiques. Certains ont également vu dans l’invention de la cryptomonnaie comme les bitcoins une probable suppression imminente de toute autorité centrale et de contrôle des marchés financiers… Or, paradoxalement, en regardant de plus près, on s’aperçoit que la société numérique post-internet est plutôt caractérisée par un fort phénomène de ré-intermédiation.

En effet, au début des années 2010, dans un monde où les logiques marchandes – et notamment les techniques de publicité et de marketing – atteignent leur paroxysme, seules quelques grandes entreprises mondiales du tech semblent pouvoir se passer de la publicité. Le meilleur exemple ? Classé depuis plusieurs années dans le top 5 des marques les plus chères au monde[10], Google, ce moteur de recherche qu’on utilise tous les jours, n’a jamais eu besoin de passer par la publicité… Le fonctionnement inhérent de Google veut qu’il propose une fenêtre sur le monde :  à une requête donnée, les fameux 10 ou 20 liens bleus qu’il affiche en SERP 1 permettent à l’homo numericus d’appréhender un fait, un phénomène ou un concept. Véritable façonneur de réalités, Google nous apparaît comme un intermédiaire par excellence. Mais ce n’est qu’un exemple. Si on regarde les NATU, on se rend compte que l’intermédiation est un trait de figure constant de l’économie numérique de ces vingt dernières années. Netflix, devenu désormais également producteur de contenus, a fait sa richesse en proposant une plateforme payante permettant la rencontre de l’offre et de la demande : ses abonnés consomment les films et les séries mis à disposition directement depuis leur canapé. Spotify, Deezer ? Rien que des intermédiaires permettant de réguler l’industrie musicale fortement impactée par le piratage et la violation des droits d’auteurs dans les premières années d’internet. Uber, Airbnb ? Toujours des plateformes permettant simplement le croisement de l’offre et de la demande…

Tous ces acteurs sont extrêmement influents sur les marchés financiers, avec des cotations impressionnantes. La société numérique devient ainsi une société de la ré-intermédiation, dans laquelle quelques acteurs qui façonnent nos usages, nos besoins et nos comportements captent la plupart de la richesse alors qu’ils ne produisent rien au sens de l’économie réelle.

Quel rapport avec le flux et les réseaux sociaux dont nous parlons depuis le début ? Eh bien, si nous exploitons l’hypothèse selon laquelle les réseaux sociaux ont très rapidement oublié leurs fonctions socio-techniques initiales pour se dédier fortement à la fonction sociale de partage de l’information, on se rend compte que ceux-ci ne sont qu’un intermédiaire de plus. Leur algorithmes savamment réfléchis font se rencontrer une offre – venant souvent des grands médias, mais également des leaders d’influence qui opèrent quant à eux une première sélection – et une demande concrétisée dans le besoin d’information de l’homo numericus… Dans tout cela, le flux n’est rien d’autre qu’un marché. Le snack content ? Des petits fruits exotiques qui sautent aux yeux… Le vrai problème ? Tous les stands sont la propriété de quelques géants qui décident du nombre et de la taille des produits qu’on peut y vendre, et surtout qui choisissent qui a le droit ou non d’étaler sa marchandise à la vue de tout le monde.

Et voilà, cette série d’articles dédiés au snack content est maintenant terminée ! Mais comme vous l’aurez peut-être constaté, j’ai profité de ce papier conclusif pour poser de nouvelles interrogations,  lancer de nouvelles pistes de réflexion que je souhaite approfondir dans mes prochains articles… Stay tuned!

[1] C’est ce que nous avons appelé l’usage outrancier du snack content.

[2] D’autant plus que nous avons déterminé que le snack content était un enfant des médias sociaux !

[3] Titre de l’émission À PRÉSENT par Frédéric Worms qui reçoit le sociologue Gérard Bronner et le neurologue Lionel Naccache pour comprendre les mécanismes et interactions opérés entre cerveaux et réseaux, 22/01/2021, France Culture.

[4] Concept phare de la psychanalyse ; méthode d’investigation psychologique visant à élucider la signification inconsciente des conduites et dont le fondement se trouve dans la théorie de la vie psychique formulée par Freud. Dans la recherche du meilleur rendement, le marketing et la communication ont souvent été critiquées pour leur capacité à faire appel aux pulsions afin de “mieux vendre”. Pour en savoir plus, consultez l’article de Bernard Stiegler, « Prologue. Une pensée critique du marketing ».

[5] Dans la définition d’un de ses concepts phare – l’habitus, Pierre Bourdieu faisait appel à cette formulation : « l’habitus est un ensemble de dispositions durables et transposables, structure structurée prompte à fonctionner comme structure structurante ». Nous nous y référons de manière assez provocatrice pour essayer modestement de réfléchir le poids et les effets du numérique sur l’individu. Homo numericus… qu’est-ce que l’habitus numérique ?

[6] Voir les écrits de Lionel Naccache, neurologue à l’hôpital de La Pitié-Salpêtrière à Paris et chercheur en neurosciences cognitives au sein de l’unité Inserm Neuro-imagerie cognitive.

[7] Siècle Digital, La société numérique : réalités et perspectives.

[8]https://www.lepoint.fr/invites-du-point/philippe-labro/philippe-labro-sommes-nous-des-poissons-rouges-12-04-2019-2307254_1444.php

[9] fake news, deepfake, la comploto-sphère, polarisation… extrémisme..

[10] Interbrand

Catégories
Écologie de l'attention

Le snack content : une stratégie gagnante mais à quelles conditions ? — #Episode4

Dans ce nouvel épisode nous tâcherons de définir le « mode d’emploi » du snack content sur les médias sociaux pour en faire une stratégie marketing gagnante.
©unDraw illustrations

Pour les lecteurs qui auraient pu entrevoir jusque-là dans l’ensemble de mes écrits dédiés au snack content un aveu de faiblesse, un mea culpa de communicante ou une sorte de critique implacable et irrévocable de cette stratégie éditoriale tant louée par mes pairs, je risque de vous décevoir ! Si les trois dernières années de consulting au sein d’une agence de communication spécialisée dans le contenu étaient à refaire, je recommencerais à l’identique ! Je conseillerais à nouveau le snack content à mes clients, en tenant compte comme toujours des conditions essentielles pour faire de cette stratégie marketing, une stratégie gagnante dans le cadre de la communication corporate.

Snack content oui, mais à quelles conditions ?

Condition #1 : le snack content est du contenu natif produit spécifiquement pour les médias sociaux

En effet, nous avons déterminé dans le deuxième épisode de cette série le fait que les réseaux sociaux presque sans exception (Linkedin, Twitter, Instagram, Facebook, Snap, Tik Tok etc..) étaient des espaces régis par des règles bien spécifiques qui constituent, selon le point de vue, des opportunités ou de fortes contraintes pour nos stratégies narratives. Si dans un monde idéal, les géants du numérique feraient en sorte que leurs plateformes soient modulables selon les usages et parfaitement adaptées à la richesse créative liée à la forme et au fond de nos contenus, lorsqu’on communique on jongle avec les règles du jeu telles qu’elles sont et non pas telles qu’elles devraient être. Dès lors, intégrer les tendances, les normes régissant les algorithmes, les contraintes liées aux formats spécifiques à chaque réseau social devient indispensable !

Si le snack content faisait souvent partie de mes recommandations éditoriales, je ne le préconisais jamais sans l’associer à la notion de « contenu natif ». Pourquoi ? Mes clients savent que je considère que la pédagogie est l’un des instruments les plus précieux du communicant ; ainsi, il n’est pas question pour moi de préconiser un dispositif plutôt qu’un autre pour répondre à une problématique précise sans veiller à bien expliciter les raisons de cette recommandation. En effet, dans mon acception, le snack content est par définition du contenu natif, c’est-à-dire du contenu original produit pour être hébergé directement sur la plateforme à laquelle il est destiné.

Comme nous l’avons vu dans « Le snack content : les origines — #Episode2 », le snack naît de la volonté des départements de communication des entreprises de répondre aux exigences des différentes plateformes afin de mieux adresser les audiences qui logent au sein de chaque réseau social. Parmi ces exigences, la nativité des contenus est en première lice.

Ainsi, il est bien connu que l’algorithme de Facebook privilégie les vidéos hébergées sur sa plateforme au détriment de celles qui seraient hébergées sur Youtube et partagées par un simple lien[1]. Il est également bien connu que sur Twitter une vidéo native est plus consultée que des vidéos partagées via lien depuis d’autres plateformes ou encore depuis les sites institutionnels. Pourquoi ? Les vidéos natives bénéficient sur Twitter d’un affichage en grand format dans le fil d’actualité, d’un déclenchement automatique[2] dès que le tweet est survolé, ainsi que d’une possibilité d’optimisation complète au sein du Twitter Media Studio[3]. De cette manière, les contenus natifs prennent plus de place effective sur l’écran, attirent davantage l’attention et ont tout simplement plus de chances de devenir viraux ! Le hic ? Twitter impose des limites en termes de poids et de longueur afin d’accepter d’héberger vos contenus vidéos. La taille de fichier maximale du format riche que vous pouvez tweeter de manière native est de 512 Mo et la durée de votre vidéo est de maximum 2 minutes et 20 secondes. Ces fameuses 2 minutes maximum dont on parle tant depuis quelques années quand on parle vidéo… Vous vous en souvenez ?

Bref, vous l’aurez compris : oui pour le court oui pour le snack content, mais à condition de savoir pourquoi, quand et où l’employer ! Il me semblerait par exemple contre-productif de se mettre en quatre pour raccourcir au maximum un contenu vidéo de qualité seulement pour ne pas dépasser les fameuses deux minutes tant plébiscitées, si votre vidéo n’a aucune vocation à être partagée de manière native sur Twitter. Même si votre stratégie social media prévoit bien le partage natif au sein de chacun des réseaux sociaux, à mon sens, il est toujours contre-productif d’écourter de manière drastique vos propos et contenus lorsqu’ils ont par nature besoin de plus de temps pour garantir leur qualité ! Comment faire alors ?

Condition #2 : le snack content a pour vocation principale le teasing[4]

On l’a déjà dit, l’efficacité du snack content dans le monde de la publicité où un message très court et percutant peut avoir une puissance de frappe commerciale redoutable n’est pas à remettre en question. Par ailleurs, le snack content comme stratégie marketing exclusive semble fonctionner à merveille pour certains influenceurs ou humoristes qui y ont un recours exclusif sur des réseaux sociaux comme Instagram ou Twitter. Je fais référence à l’ensemble de memes géniaux qui foisonnent sur le web et qui franchement, par moments peuvent même faire une journée ! Quelques exemples de comptes que je suis personnellement : Stagiaire des AffichesGrowing Up RomanianYugnat999

En effet, dans ces deux cas de figure, le snack content a vocation à vivre par et pour lui-même. Toute entreprise ou marque pourrait ainsi envisager une présence spécifique sur des réseaux sociaux bien choisis avec une ligne éditoriale bien définie basée sur le snack content exclusivement. Pour plus de fraîcheur et crédibilité, cette parole pourrait être incarnée par des influenceurs et ambassadeurs de la marque ou tout simplement par des collaborateurs de l’entreprise. Mais, à défaut d’une stratégie spécifique développée dans ce sens, l’époque du « community manager clown » — bien que très sympathique je m’en souviens — m’apparaît désormais comme révolue. Si on parle communication corporate et comptes institutionnels d’entreprises (surtout à raison d’être[5] !) sur les réseaux sociaux, il convient alors de concevoir votre production de snack content quasi exclusivement comme une manière de faire du teasing, de promouvoir vos événements, vos contenus de marque, vos collaborateurs, vos réussites, vos défis…

Cas pratique :

Admettons que vous souhaitiez intégrer nativement sur Twitter une vidéo de cinq minutes (et non 2 minutes 20) et dont chacune des 300 secondes est extrêmement précieuse et contribue à l’intelligibilité globale du propos. Quelle recommandation dans ce cas de figure ? Surtout ne jamais raccourcir vos contenus pour de mauvaises raisons ! Qu’il s’agisse de vos vidéos (interviews, reportages, animations, motion-designs etc.) de vos infographies ou de vos articles, ne jamais raccourcir dans le seul but de faire plus court donc parce que des lois — trop écrites — sur le web l’auraient édicté ; d’autres solutions existent.

Si l’objectif principal est de faire en sorte d’attirer sur un site institutionnel les usagers de x réseau social ; le KPI visé étant ainsi le taux de clic sur un CTA donné :
Si l’objectif est de faire partie au maximum des conversations inhérentes à ce réseau, de maximiser la consultation du snack content et son partage :

Ces quelques solutions permettent d’attiser la curiosité de votre audience, de créer un effet d’attente positive et d’augmenter de manière qualitative et justifiée votre nombre de publications sur le réseau social en question, de manière à augmenter également vos chances que vos publications soient vues. Vous l’aurez compris, s’agissant de la communication corporate, la fonction teasing du snack content se doit de l’emporter presque toujours.

Condition #3 : le snack content n’est qu’une stratégie au sein d’un mix éditorial complexe

Suite à la publication de l’introduction de cette série de tribunes, une de mes camarades me disait que pour elle le snack content n’était pas l’inverse d’un repas gastronomique. Son argument ? Dans la cuisine gastronomique, il y a finalement très peu dans l’assiette, mais les saveurs se trouvent exacerbées. Et je suis la première à plussoyer l’image ! Les vrais combats éditoriaux autour du snack content sont en effet la densification et l’adaptation des contenus à la variété des motivations des audiences.

Cependant, contrairement au fast-food, on ne se contente jamais d’une entrée ou d’un plat unique dans un restaurant gastronomique, quelles que soient les vertus de ce plat de chef. En effet, le propre du gastronomique se trouve dans le parfait alliage et enchaînement des différents plats. Dès lors, il n’est guère question de snack dans le gastro, mais d’un voyage savamment réfléchi qui invite le voyageur à une traversée d’un point A à un point B, qui lui apportera pleine satisfaction.

Il revient alors aux professionnels de la communication que nous sommes de bien choisir les formats pour chaque type de communication et de se souvenir que le snack content n’est qu’une stratégie éditoriale parmi d’autres et que les médias sociaux restent des canaux de diffusion parmi d’autres. Il nous revient d’accepter et de bien intégrer le fait que tous les sujets ne se prêteront néanmoins jamais à un traitement type snack content. À nous de devenir les garde-fous des effets de mode. La tentation du facile peut être grande, les « exhausteurs de goût » nombreux…[6]

Il revient aux professionnels de la communication que nous sommes de se souvenir que le snack content n’est qu’une stratégie éditoriale parmi d’autres. À nous de devenir les garde-fous des effets de mode…

Une citoyenne éclairée.

Pour rendre les messages plus efficaces, plus écologiques, plus pédagogiques, il est essentiel de produire des contenus utiles, ingénieux, créatifs, inspirants… bref, des contenus à réelle valeur ajoutée, que ces derniers soient synthétiques ou non. En effet, le snack content est du contenu spécifique pour les réseaux sociaux, qui ne vit pas réellement par et pour lui-même. C’est du contenu qui n’aurait assez souvent aucune raison d’être sans vos contenus de fond, vos positions et prises de parole médiatiques, vos actions et celles de vos collaborateurs, vos événements, etc. C’est l’ensemble de vos actions de communication qui permettra de « rassasier » vos communautés, clients, prospects, parties-prenantes, chacun en fonction de son appétit et de son envie.

Le snack content n’est donc qu’une stratégie de contenu parmi d’autres, permettant à votre marque de parler toutes les langues du digital. Il apparaît donc aujourd’hui — au regard des contraintes actuelles des plateformes — comme étant indispensable, comme une stratégie de contenu gagnante, à condition qu’il fasse bien partie d’un mix éditorial savamment réfléchi qui veille à proposer du contenu diversifié, en lien direct avec le cœur du métier et la raison d’être de votre entreprise.

Vous l’aurez compris la question n’est donc pas de savoir si on est pour ou contre le snack content, mais plutôt de savoir pourquoi (pour communiquer efficacement/exister sur les réseaux sociaux), comment (de manière native à chaque plateforme et au sein d’un mix éditorial qui va bien au-delà de cette stratégie), quand (consultez vos tableaux de programmation éditoriale !) et où (médias sociaux) employer cette stratégie de contenus. Le snack content ne devient du junk content que dans son usage outrancier, lorsqu’il ne sert d’autre objectif que la satisfaction des fonctionnements inhérents des réseaux sociaux qui, sans limite imposée par les producteurs ou les consommateurs de contenu, fonctionnent comme des gasters à l’hybris démesurée… Mais il s’agira du sujet de notre prochain et dernier épisode de la série : « Le snack content : une fausse bonne question ? — #Episode5 ».

✔ En savoir plus sur le projet une Citoyenne éclairée.


[1]Les uploads des vidéos natives sur Facebook ont une portée dix fois supérieure aux partages de liens YouTube (Socialbakers).

[2]autoplay

[3]Twitter Media Studio permet l’intégration des sous-titres pour rendre accessible la vidéo, l’ajout d’un CTA (Call to action) pour renvoyer vers votre site web par exemple et notamment d’une configuration des éléments clés de la vidéo comme la miniature, le titre, la description, la catégorie.

[4]Le teasing est une technique de communication attirant le public par un message (court et pertinent) basé sur l’interpellation. En savoir plus sur le site Définitions marketing.

[5]La raison d’être d’une entreprise désigne la façon dont elle entend jouer un rôle dans la société au-delà de sa seule activité économique. Depuis 2019, les entreprises peuvent désormais s’ auto-déclarer entreprises à mission et intégrer dans leurs statuts une « raison d’être » qui s’inscrit dans un cadre stratégique.

[6]design pompeux au service de lui-même sans poursuite d’aucun objectif communicationnel précis (pédagogie, inspiration, compréhension etc;..) ; langue de bois etc. …

Catégories
Écologie de l'attention

Le snack content, enfant prodig(u)e de la communication – #Episode3

Récapitulons. Ceci est une série de tribunes au sujet du snack content qui questionne l’omnipotence de ce format dans le cadre de la communication corporate. Jusque-là, nous avons réussi à déterminer que le snack content semble être né du croisement de deux phénomènes : d’une part, un drôle de mimétisme avec la publicité, pour laquelle le format court apparaissait comme évident pour des raisons essentiellement financières et, d’autre part, l’avènement de l’ère des médias sociaux, qui, via un fonctionnement de flux, entérinent la success story du snack content. Dans ce troisième épisode de la série nous allons chercher à identifier les éventuelles limites du snack content. Prêt(e)s ?

©unDraw illustrations

Tout d’abord, je me permets de préciser que cette tribune ne vise guère à exprimer des points de vue tranchés sur la question qui seraient les miens ; mon objectif est plutôt d’interroger mes propres pratiques en tant que communicante, de poser des questions et de les partager avec vous pour faire avancer le débat. 

Une citoyenne éclairée.

Nous avons en effet établi dans la tribune précédente qu’à l’époque de la maturité des médias sociaux on a vu apparaître tout un ensemble de spécialistes du social media qui ont joué un rôle important dans ce que nous avons appelé l’avènement du snack content. Ainsi, toutes les entreprises confondues se sont retrouvées à appliquer sur les médias sociaux les mêmes « bonnes recettes » formelles que celles qui avaient été en définitive prévues pour la publicité, parmi lesquelles le très court, le snack content, qui visait initialement à impacter les publics en réalisant des conversions immédiates[1]. Or, nous le savons, la communication corporate ne cherche pas à vendre des produits, mais plutôt à promouvoir une entreprise, à instaurer un dialogue avec l’ensemble de ses parties prenantes et à faire accroître ainsi sa notoriété, son influence, et, si possible, sa puissance commerciale. En cherchant à coller formellement aux règles de la pub et aux exigences des plateformes sociales, via l’intronisation des stratégies de contenu comme le snack content par exemple, la com’ corporate oublierait-elle sa vocation initiale ? En quoi un recours abusif au snack content peut-il desservir la com’ corporate ? Voici trois limites du snack content :

#Limite1 : le snack content est cher, et pas si ROIste que cela

Ainsi, la principale limite de cette pratique exacerbée du snack content par la com’ corporate semble être le fait que des entreprises investissent du temps et du budget dans la production de formats souvent à faible valeur ajoutée, peu différenciants, qui ne font que s’ajouter au bruit de fond permanent[2]. Ainsi, à défaut des budgets conséquents similaires à ceux dont disposent les équipes de la pub pour sponsoriser leurs contenus, les snacks si prometteurs se retrouvent noyés dans l’ensemble des micro-bouts d’informations, GIFS, memes, tweets, stories, mini vidéos, etc. qui foisonnent sur les réseaux.  Les spécialistes du contenu et du social media organique se trouvent ainsi obligés de se réjouir pour quelques dizaines de likes par contenu, tandis que les plus optimistes d’entre eux s’amusent à jongler avec des chiffres un peu plus conséquents au regard d’autres KPI comme les impressions[3], avec les limites que cela comporte… 

#Limite2 : le snack content nuit à l’écologie de l’attention

Pour mieux comprendre les éventuelles limites du snack content, il convient déjà d’expliciter le concept de content shock[4], formulé par Mark Schaefer. L’expression « content shock » est utilisée pour désigner le fait que la production de contenus disponibles sur Internet augmente beaucoup plus vite que le temps et l’attention disponibles des individus à qui sont destinés ces contenus. En d’autres termes, il s’agit du paradoxe que je soulevais dans une autre de mes tribunes traitant de l’emballement médiatique lié à la pandémie du Coronavirus par la question : « et si l’information aujourd’hui créait moins le sens qu’elle ne le brouillait ? ».

En effet, ces contenus, souvent plus ou moins identiques sur le fond – et a fortiori sur la forme – qui se noient dans les fils d’actualité infinis des médias sociaux, ont pour effet direct le fait de donner aux internautes atteints d’infobésité un sentiment d’impuissance. Submergés et dépassés par la richesse de ces plateformes alimentées en continu par des micro-bouts d’information instantanées, ces internautes n’arrivent plus à capter la valeur de ces contenus. Le snack content, qui devait initialement répondre à la problématique liée au manque d’attention, dans son usage “abusif” par l’ensemble des acteurs du web semble ainsi produire l’effet inverse et contribuer à cette pathologie civilisationnelle, la malinfo.

#Limite3 : le snack content nuit à l’écologie tout court

Virtuel, numérique, digital, immatériel ? Au-delà de l’« immatériel », le monde digital est bel et bien fondé sur du hardware qui lui… pèse. En effet, à cette ère que beaucoup d’optimistes appellent d’ores et déjà « post-Covid », on s’interroge de plus en plus sur les conséquences de nos actes, de notre consommation et, puisque c’est le sujet, de notre production de contenu. Or les statistiques montrent que l’empreinte environnementale du numérique est en forte hausse.

En 2019, la quantité nécessaire pour alimenter les serveurs, les centres de données, les réseaux de communication et les appareils utilisés pour naviguer sur internet était équivalente à la consommation énergétique de l’ensemble du Royaume-Uni ! (416,2 TWh). Ces émissions carbone représentent 2 % des émissions mondiales, soit tout autant que celles l’industrie aéronautique qui est considérée comme l’une des plus polluantes…[5] En effet, une page de site internet consultée entraînerait en moyenne la production de 1,76 gramme de CO2, tandis qu’une requête Google produirait quant à elle 7 grammes de CO2 dégagés dans l’atmosphère.

On parlait dans les précédentes tribunes d’une surproduction de contenus… À cela s’ajoute le fait que les contenus que nous mettons en ligne sont de plus en plus performants, et donc lourds…[6] Par ailleurs, force est de rappeler que si les producteurs de contenus et les webmasters ne tardent jamais à mettre en ligne leurs nouveaux articles et vidéos, ils oublient souvent de les retirer lorsque ces derniers ne s’inscrivent plus dans l’actualité…

Pour revenir à la question du snack content, à prime abord inoffensif car court et plus léger que d’autres formats, c’est bel et bien dans son utilisation outrancière par tous les producteurs de contenu du web qu’il devient fortement nuisible d’un point de vue écologique. En effet, derrière ce mur de petites briques à petit goût et faible valeur « nutritionnelle », se cachent les serveurs super puissants et super polluants des géants du numérique, qui les hébergent volontiers et gratuitement…[7]

________

Alors, le snack content : prodige ou prodigue ? Cela dépend ! Comme tout, il faut l’utiliser avec modération et à bon escient !

Puisque nous avons mis en exergue quelques-unes des limites du snack content, il est désormais temps que nous nous intéressions aux conditions sine qua non pour faire du snack content une stratégie marketing gagnante ! Rendez-vous la semaine prochaine avec « Le snack content : une stratégie gagnante, mais à quelles conditions ? – #Episode4 ». Stay tuned!


[1] Désigne la réalisation d’une action spécifique par un internaute sur un site.

[2] C’est ce que nous avons appelé « infobésité ». Découvrez une autre de mes tribunes qui traite ce concept de manière appliquée à l’emballement médiatique lié à la pandémie du Coronavirus.

[3] Sur les réseaux sociaux, une impression désigne l’indicateur de performance vous permettant de connaître le nombre de fois où votre lien, action ou publicité a été vue.

[4] https://businessesgrow.com/2014/01/06/content-shock/

[5] https://blog.adimeo.com/comment-mesurer-l-empreinte-carbone-d-un-site-web

[6] La taille moyenne d’une page web en 2019 est 4 fois plus élevée qu’en 2010.

[7] On reviendra sur ce point spécifique dans un autre épisode de la série.