Catégories
Citoyenne éclairée Digital Humanities

Google est-il sexiste ?

Just go and google it! Rien de plus naturel dans notre quotidien à tous… Les chiffres le prouvent puisqu’avec ses 92,5 milliards de visites mensuelles, le moteur de recherche est, de loin, le site le plus visité au monde. Sa mission ? « Organiser les informations à l’échelle mondiale pour les rendre accessibles et utiles à tous »[1]. Mais selon quelles logiques ? L’algorithme de Google est-il infaillible ? Et si les « réponses » de Google à nos requêtes comportaient un biais sexiste ? C’est en tout cas l’hypothèse que nous allons tester dans ce papier.

©Unsplash Reza Rostampisheh

Le point de départ de cette réflexion est constitué par une interrogation très concrète : ayant lancé en janvier dernier un site intitulé « Citoyenne éclairée » (citoyenne-eclairee.com) dont le référencement naturel est plutôt bien travaillé, je me suis rapidement aperçue qu’alors que le site ressortait en première position sur Google en réponse à la requête citoyenne éclairée, il ressortait seulement en page 17 à la requête formulée au masculin, citoyen éclairé. Pourtant, en réponse à la requête formulée au féminin, des sites positionnés sur ces mots clés au masculin ressortaient, quant à eux, en première SERP. Une citoyenne éclairée ne ferait-elle pas partie selon Google des citoyens éclairés au même titre que n’importe quel autre citoyen éclairé ?

Sans rentrer dans le débat sur l’écriture inclusive, en français la règle grammaticale est que le masculin l’emporte lorsqu’il y a des hommes et des femmes dans un groupe. Cela veut dire donc que le masculin est inclusif, tandis que le féminin, lui, exclut le masculin.

Si on retranscrit cette règle grammaticale de manière bête et méchante dans notre usage des moteurs de recherche, on s’attendrait donc à ce qu’une recherche formulée au masculin comporte des résultats formulés à la fois au masculin et au féminin, et à ce qu’une recherche formulée au féminin comporte des résultats exclusivement au féminin. Est-ce bien ce qui se passe ? 

Reprenons notre exemple initial qui prenait comme référence la position du site citoyenne-eclairee.com sur Google. Voici ce que l’on observe en comparant les résultats de différents moteurs de recherche, selon la formulation de la requête au féminin ou au masculin :

 citoyenne éclairée
citoyen éclairé
GoogleSERP 1 (position 1) – environ 1 060 000 résultats
la SERP 1 affiche des résultats qui renvoient aux formulations « citoyen éclairé » et « citoyenneté éclairée »
SERP 17 – environ 5 860 000 résultats
renvoi vers une page du site qui affiche en gras le syntagme au pluriel masculin « citoyens éclairés »
Yahoo!SERP 1 (position 1)
la SERP 1 affiche des résultats qui renvoient à des formulations comme « citoyens éclairés » et « citoyen éclairé »
SERP 1 (position 8)
renvoi vers une page du site qui affiche en gras le syntagme féminin singulier « citoyenne éclairée »
BingSERP 1 (position 1)
231 000 résultats
la SERP 1 affiche des résultats qui renvoient à des formulations comme « citoyens éclairés » et « citoyen éclairé »
SERP 1 (position 8) – 279 000 résultats
renvoi vers une page du site qui affiche en gras le syntagme féminin singulier « citoyenne éclairée »
QwantSERP 1 (position 1)
la SERP 1 affiche des résultats qui renvoient à des formulations comme « citoyens éclairés » et « citoyen éclairé »
SERP 1 (position 2 et 7) – 278 000 résultats  
renvoi vers 2 pages du site qui affichent en surligné la formulation au féminin du syntagme
EcosiaSERP 1 (position 1)
233 000 résultats La SERP 1 n’affiche que des formulations au féminin singulier ou au pluriel : « citoyens éclairés »
SERP 1 (positions 2 et 6)
renvoi vers 2 pages du site qui affichent en surligné la formulation au féminin du syntagme
Position du site citoyenne-eclairee.com sur les moteurs de recherche et analyse des liens bleus proposés en SERP 1

A la lecture de ce tableau qui compare la position du site citoyenne-eclairee.com dans les SERPs des cinq moteurs de recherche les plus utilisés en France[1] on s’aperçoit que tandis que Yahoo!, Bing, Ecosia et Qwant affichent le site en première page de résultats indépendamment du genre choisi pour la requête, Google quant à lui, en réponse à la requête formulée au masculin réserve au site Citoyenne éclairée une place en 17ème page de son moteur de recherche. A prime abord, tout laisse penser que de manière contre-intuitive, chez Google le féminin serait inclusif et ferait afficher des résultats formulés au féminin et au masculin, tandis que le masculin serait exclusif et ne ferait afficher que des résultats formulés au masculin.

Est-ce suffisant pour affirmer que l’algorithme de Google comporte un sérieux biais sexiste ?

Notre première intuition a été de considérer cette différence de position du site pourrait se justifier essentiellement par le fait que Google indexe un plus gros volume de pages que ses concurrents, ainsi que par le fait que les producteurs de contenus écrivent plus souvent nos deux mots clés au masculin (environ 5 860 000 résultats pour la requête citoyen éclairé) qu’au féminin (environ 1 060 000 résultats pour la requête citoyenne éclairée). Par ailleurs, connaissant l’importance de son fameux PageRank[2] dans le fonctionnement de son algorithme, s’agissant d’un site relativement nouveau sans politique de netlinking fortement développée, on conçoit que Google ne puisse pas le faire apparaître en première SERP… Mais en 17ème ?! Autant dire, que l’internaute qui cherche une citoyenne éclairée en tapant sur Google citoyen éclairé, n’a strictement aucune chance de la trouver ! Une blague dans le domaine du SEO veut que pour cacher un cadavre, il suffise de le cacher en deuxième page des résultats Google.

Mais alors Google est-il sexiste, oui ou non ?

Impossible de tirer des conclusions à partir d’un seul et unique exemple ! Dès lors, nous avons constitué un mini corpus pour vérifier l’hypothèse initiale dans une optique moins nombriliste ! J Nous avons donc analysé les résultats affichés en SERP 1 de Google selon les formulations au masculin et au féminin de quelques autres requêtes : metteur en scène vs. metteuse en scène, consommateur responsable vs. consommatrice responsable, créateur meuble vs. créatrice meuble, électeur informé vs. électrice informée etc.

Pour plus de lisibilité, nous analyserons seulement 2 de ces exemples :

  • électeur informé vs. électrice informée
 électeur informéÉlectrice informée
Googlela SERP 1 de Google affiche des résultats qui renvoient à des pages de sites qui ont trait aux élections et à ceux qui expriment leur volonté politique aux urnes.Pour Google l’internaute qui tape électrice informée dans sa barre de recherche cherche, sans doute aucun, des informations au sujet de l’électricité ou des trottinettes électriques.
Yahoo!la SERP 1 de Yahoo ! affiche des résultats qui renvoient à des pages de sites qui ont trait aux élections et à ceux qui expriment leur volonté politique aux urnes.Pour Yahoo! il y a un doute. Si les liens bleus en SERP 1 renvoient vers des pages de sites qui ont trait aux questions électorales, les aperçus d’images en haut de la page proposent quant à eux des trottinettes électriques…
Bingla SERP 1 de Bing affiche des résultats qui renvoient à des pages de sites qui ont trait aux élections et à ceux qui expriment leur volonté politique aux urnes.Bing propose en premier résultat une page référencée sur le mot clé électricien, mais arrive, à la différence de Google, à isoler des pages ayant trait aux questions électorales et à celles qui expriment leur volonté politique aux urnes.
Qwantla SERP 1 de Qwant affiche des résultats qui renvoient à des pages de sites qui ont trait aux élections et à ceux qui expriment leur volonté politique aux urnes.la SERP 1 d’Ecosia affiche exclusivement de résultats qui renvoient à des pages de sites qui ont trait aux élections et surtout à celles qui expriment leur volonté politique aux urnes (la plupart des mots clés surlignés en gras sont formulés au féminin)
Ecosiala SERP 1 d’Ecosia affiche des résultats qui renvoient à des pages de sites qui ont trait aux élections et à ceux qui expriment leur volonté politique aux urnes.Si les liens bleus en SERP 1 ont exclusivement trait aux élections et à celles qui vont aux urnes pour exprimer leur volonté politique, la sélection d’image de Qwant renvoie aussi vers des photos de trottinettes électriques…

Pour résumer, sur les 5 moteurs de recherche en question, le seul et unique qui ne comprend pas la formulation au féminin du syntagme « électeur informé » – et donc est incapable de proposer des résultats pertinents pour la requête – est Google. Alors que Yahoo!, Bing et Qwant proposent des liens pertinents par rapport à la requête au féminin, leur fonctionnalité images confond les électrices informées et les trottinettes électriques. Ecosia nous apparaît comme le moteur de recherche le plus pertinent sur cette requête.

  • auteurs philosophie vs. autrices philosophie

Une fonctionnalité que le seul moteur de recherche Google propose pour améliorer l’expérience utilisateur a retenu toute notre attention. Il s’agit d’une liste de portraits de philosophes qui nous est proposée comme accueil de la SERP 1 pour les deux requêtes. Avec 51 entrées, la requête formulée au masculin recense 50 hommes et 1 seule et unique femme – Hannah Arendt, dont le portrait en question pourrait d’ailleurs porter à confusion. La liste affichée en réponse à la requête formulée au féminin est, quant à elle, un peu plus diversifiée ; cependant, ce sont toujours les illustres figures masculines qui l’emportent, tant quantitativement (sur les 51 entrées de cette nouvelle liste, seules 16 philosophes sont des femmes) que qualitativement (avec en tête de liste un homme : Jean-Paul Sartre). Là encore, à une exception près, il semble que, faisant fi de la règle grammaticale, l’algorithme de Google considère que le masculin est exclusif alors que le féminin, lui, accueille la gente masculine.

L’invisibilisation de la contribution et de la participation des femmes à toute œuvre collective et individuelle semble ainsi subir une double peine. Invisibilisées dans les textes en raison d’une langue intrinsèquement porteuse d’une réalité historique multiséculaire, sur le web, elles sont à nouveau invisibilisées par l’algorithme d’un moteur de recherche comme Google, alors même que nos requêtes cherchaient à les faire découvrir en priorité. Au regard de l’influence que ce moteur de recherche, plébiscité par la plupart, a dans la perpétuelle construction de nos représentations, il serait intéressant que cette problématique puisse être traitée de manière transparente par les ingénieurs et informaticiens de chez Google. A défaut de modifications structurelles, des explications !

La toile regorge d’autres exemples qui dénoncent le fonctionnement du moteur de recherche qui répliquerait dans son fonctionnement des biais sexistes ou racistes pré-existants :

Et vous ? Auriez-vous découvert d’autres exemples concrets qui contribueraient à dénoncer un éventuel biais sexiste de l’algorithme du moteur de recherche star ? Partagez-les en commentaire ou sur les réseaux sociaux en utilisant les hashtags #GoogleSexiste et #CitoyenneEclairée !


[1]D’après la page de présentation de la société sur : https://about.google/

[2] Les moteurs de recherche les plus populaires en France, Statistia.

[3] Le PageRank ou PR est l’algorithme d’analyse des liens concourant au système de classement des pages Web utilisé par le moteur de recherche Google. Il mesure quantitativement la popularité d’une page web. Le PageRank n’est qu’un indicateur parmi d’autres dans l’algorithme qui permet de classer les pages du Web dans les résultats de recherche de Google. Ce système a été inventé par Larry Page, cofondateur de Google.

Catégories
Digital Humanities Sociologie des médias

La double mainmise sur l’espace public. Réflexion.

Qu’il s’agisse de l’intimidation et de la répression opérées auprès des journalistes de Canal+ ou encore de la suspension et de la censure de plusieurs comptes féministes sur Twitter, Instagram et Facebook, l’actualité de ces dernières semaines ne manque pas de nous rappeler à quel point la question de la liberté d’expression et de la mainmise sur l’espace public est devenue aujourd’hui essentielle. Contrairement aux idéaux universalistes qui voyaient dans l’avènement de l’ère internet la possibilité d’une évolution positive permettant plus de pluralité et de représentativité dans la configuration de l’espace public, le début du XXIe siècle marquerait-il paradoxalement le renforcement d’une double mainmise économique sur ce dernier ?

©Unsplash, @Samule

Information, pouvoir et promesse démocratique

La parole : une distribution inégalitaire au fil des époques

Depuis que les sources nous permettent de rentrer dans l’histoire, la parole est associée à la notion de pouvoir. D’abord prononcée, ensuite écrite, elle semble être, à chaque époque, ce qui matérialise le fossé entre ceux qui accèdent au pouvoir et au « droit » de dire le monde et ceux qui sont invisibilisés dans la masse et inaudibles, car la foule n’a pas de mode d’expression autre que la clameur de joie ou de colère.

Ainsi, dans la démocratie athénienne, la parole, l’information et la chose publique étaient l’apanage des citoyens réunis sur l’Agora, les esclaves, les femmes et les métèques y étant exclus. A l’époque féodale, le pouvoir séculier et le pouvoir spirituel s’octroyaient et se partageaient ces prérogatives. Au sein de la démocratie représentative censée caractériser – au moins dans les textes ! – nos systèmes d’organisation politique et sociale actuels, la parole publique est d’abord l’apanage des représentants de la nation à l’Assemblée, et, de plus en plus, de celles et ceux qui en vertu d’une influence ou d’une expertise particulière prennent la parole dans de nouvelles « arènes » d’expression du pouvoir, notamment dans les médias.

L’espace public : un lieu d’exercice du contre-pouvoir

Parler de parole publique revient à parler d’espace public. Dans son ouvrage le plus connu, L’espace public : archéologie de la publicité comme dimension constitutive de la société bourgeoise (1962), Habermas décrit le processus au cours duquel le public constitué d’individus faisant usage de leur raison s’approprie la sphère publique contrôlée par l’autorité et la transforme en une sphère où la critique s’exerce contre le pouvoir de l’État. En effet, selon lui, l’espace public naît des activités de communication de la société bourgeoise des XVII-XVIIIe siècles. Les réunions de salon et les cafés étaient en effet des endroits propices à la multiplication des discussions et des débats politiques relayés par les médias de l’époque : relations épistolaires et presse naissante.

L’information : le journalisme et la promesse démocratique

En France, si sous l’Ancien Régime les premières publications (La Gazette etc.) étaient l’instrument de communication du pouvoir monarchique, c’est à la Révolution que le principe d’une presse libre voit le jour pour la première fois. L’article 11 de la Déclaration des droits de l’homme et du citoyen pose que « tout citoyen peut parler, écrire, imprimer librement ».

 C’est de ce principe que naît ce que nous appelonscommunément aujourd’hui le contre-pouvoir ou le quatrième pouvoir dans l’État, celui des médias et des journalistes. En réalité, les démocraties représentatives actuelles ne tiennent qu’à la croyance dans l’indépendance de ce contre-pouvoir et dans sa capacité à permettre à chacun de se tenir au courant des affaires de la cité. Comme Julia Cagé et Benoît Huet l’affirment, « l’information est un bien public indispensable au bon fonctionnement de nos démocraties »[1].

L’espace public, l’apanage des puissances économiques ?

Transition d’une mainmise politique vers une mainmise économique

Le XXe siècle est marqué par plusieurs révolutions qui secouent le journalisme et questionnent son rôle en profondeur. Après la radio, la démocratisation de la télévision rebat entièrement les cartes du jeu, d’autant plus que la France en fait un monopole d’État pendant plusieurs années.[2] « Informer, éduquer, distraire » voici les raisons d’être affichées de ce nouveau média qu’Alain Peyrefitte, ministre de l’Information de l’époque, résume par la célèbre phrase qu’il prononce lors de l’inauguration du nouveau JT : « La télévision c’est le gouvernement dans la salle à manger de chaque Français. »

Les années 80 marquent en Europe ce que nous appelons en science politique le tournant néo-libéral. L’économie de marché s’emballe et l’information à la télévision, dégagée du poids politique, subit désormais de nouvelles contraintes, cette fois économiques et commerciales ; le diktat de l’audimat érige une place de choix au divertissement, au détriment de l’information.

Cela ne se passe pas de manière linéaire, mais on observe une tendance forte : la connivence politico-médiatique est peu à peu remplacée par une connivence économico-médiatique. On assiste ainsi à un transfert de mainmise sur l’espace public.

Concentration des médias…

Mais en quoi cette mainmise économique consiste-t-elle ? Au-delà de la connivence entretenue entre certains acteurs[3] ou encore des pratiques courantes dans le métier[4] pouvant créer des situations d’influence avec des répercussions sur l’information, c’est surtout la forte concentration des médias à laquelle on assiste en France depuis une dizaine d’années qui nous apparaît comme particulièrement dangereuse.

En effet, les grands industriels et, de manière globale, les plus grosses fortunes ont souvent eu tendance à acquérir des groupes de presse. Jeux d’influence, positionnement, cadrage, droit à la parole, mainmise, pouvoir. La tendance est particulièrement virulente dans les pays de l’Est à la chute du mur, où les espaces du possible s’ouvrent soudainement. Sur le terrain de la transition et du « non-droit », les médias « libres » (le contre-pouvoir) voient le jour sous la houlette de la nomenklatura, la nouvelle élite économico-politique, puis des grands trusts mondiaux. Une étude de cas sur la naissance de l’espace public démocratique et des médias libres en Roumanie ou en Ukraine, pour ne prendre que deux exemples, mériteraient dans ce sens une attention toute particulière.

La tendance se confirme également en France, et encore plus fortement ces dix dernières années : aujourd’hui 90 % des médias sont détenus par neuf personnes ou familles qui font partie des 100 plus grosses fortunes du pays. A le lire, on pourrait croire que financièrement les médias se portent plus que bien… Or, en s’y penchant de plus près, on s’aperçoit qu’aucune de ces grandes fortunes n’a comme origine le pendant lucratif de l’industrie médiatique. Depuis les années 2000, avec l’avènement du 2.0, le cocotier des médias a été durablement secoué et, aujourd’hui encore, les rédactions peinent à trouver des modèles économiques leur garantissant à la fois sécurité financière et indépendance. En effet, l’ensemble des magnats des médias en France sont en réalité des industriels dont le cœur de métier n’a rien à voir avec la presse ou l’audiovisuel. Pour ne rappeler que quelques cas flagrants :

IndustriesMédiasFamilles
BTP, télécomsTF1, LCI…Bouygues
Transport, logistique, énergieCanal +, C8, CNews etc..Bolloré
Luxe (LVMH)Les Echos, Le ParisienArnault
Industrie aéronautiqueLe FigaroDassault
TélécomsLibération, BFM Tv…Drahi

Pour un panorama exhaustif rendant compte de la concentration de l’industrie médiatique, Le Monde Diplomatique en collaboration avec Acrimed ont réalisé une infographie qu’ils prennent le soin de mettre à jour au rythme des rachats intempestifs :

©Acrimed, Monde diplomatique, seizième version d’une infographie évolutive dont la première version a été publiée le 6 juillet 2016.

A la lecture de cette infographie, ce qui frappe c’est avant tout la forte convergence entre les réseaux et les contenus. Pour ne prendre qu’un exemple, trois des 4 plus grands opérateurs de téléphonie mobile et d’accès internet en France – SFR, Bouygues Télécom et Free mobile sont les entreprises de grands détenteurs de médias :  Patrick Drahi, la famille Bouygues et Xavier Niel. Infrastructures, médias et contenus ne semblent plus faire qu’un. Quel impact sur l’information avec un grand I ?

…rime-t-elle avec emprise sur l’espace public ?

Au niveau individuel, cette concentration médiatique crée des effets d’auto-censure inévitables de la part de certains journalistes soucieux de conserver leur position au sein des rédactions. Plus les monopoles deviennent puissants, plus la concentration médiatique devenue systémique pose un réel problème de mainmise économique sur l’espace public, avec des effets indésirables inscrits dans le temps long. La course à l’acquisition des médias transforme l’industrie médiatique en une industrie comme les autres, soumise aux règles de la concurrence. Des postes de contrôleurs de gestion sont créés à tous les échelons, y compris dans les rédactions, et les budgets destinés à la recherche et au traitement de l’information sont réduits. Pour les nouveaux industriels des médias, l’information, devenue un produit, est soumise aux mêmes règles d’abaissement des coûts, lesquelles entrent en contradiction avec les normes et les standards nécessaires à la production de l’information, pourtant vitale à nos démocraties.

Dans leur course au low-cost et à l’uniformisation, les médias reflètent une idéologie à part entière, caractérisée par une mise en avant de l’individu tout puissant, un rapport linéaire au temps et une forte pensée utilitariste… avec des répercussions très fortes sur le politique et sur l’état de santé démocratique de l’espace public.

Mais le cadre national nous permet-il encore de réfléchir entièrement la question d’une mainmise sur l’espace public ? Peut-on encore en 2021 tenter de contenir ce concept aux frontières floues aux frontières d’un État-nation ? Nous faisons ici l’hypothèse d’un double étage, d’une double mainmise sur l’espace public, lequel s’élargit au fur et à mesure de l’amplification de nos interconnexions.

Le double étage ou la « supra-mainmise » des géants du numérique sur l’espace public

Une inadéquation d’échelle ?

Nous l’avons vu, la financiarisation et les concentrations font peser des dangers sur le traitement de l’information, sur l’indépendance des journalistes et sur le pluralisme des idées, ce qui fait croître inexorablement la méfiance de la société civile envers ceux qui sont tacitement mandatés dans les démocraties pour effectuer le travail critique face au pouvoir.

Et si la méfiance était également le fait d’une inadéquation d’échelle ? Lorsque les flux financiers sont mondiaux, lorsqu’avec une épidémie comme celle du Coronavirus, nous prenons d’un coup conscience de notre interdépendance à l’échelle mondiale, lorsqu’avec un peu de recul, on accepte que les enjeux du siècle[5] ne peuvent se concevoir qu’à l’échelle planétaire, on est forcé de constater que l’échelle nationale semble inefficace pour réfléchir le monde de manière efficace.

Cette inadéquation d’échelle est d’ailleurs rendue criarde à partir des années 2010 avec l’avènement de l’ère des médias sociaux, qui semblaient dans un premier temps constituer le paroxysme de l’idéal universaliste de Tim Berners Lee lorsqu’il inventait le World Wide Web : rapprocher les gens et faire circuler librement l’information.

Cet idéal semble encore aujourd’hui nourrir les ambitions affichées des géants du numérique. La signature de Google l’énonce très clairement : « Notre objectif est d’organiser les informations à l’échelle mondiale pour les rendre accessibles et utiles à tous »[6]. En effet, à bien y réfléchir, Google, Facebook & co. sont tout simplement devenus les plus grands éditeurs au monde et cela impacte directement l’activité et les recettes des entreprises de presse. Fortes d’un très grand nombre d’utilisateurs dont les données leur ont fourni un avantage stratégique capable d’annihiler toute concurrence aussi sérieuse soit-t-elle, ces plateformes se sont imposées petit à petit en suscitant un engouement sans précédent presque partout dans le monde[7].

Les GAFAM ou le double étage

Comme nous l’abordions déjà avec précision dans un article-manifeste proposant une critique du flux inhérent à l’ensemble des plateformes sociales, les GAFAM, via leurs algorithmes et leurs choix stratégiques, décident aujourd’hui de l’information à diffuser, des sources à mettre en avant et des formats à privilégier.

Vous l’aurez compris, là où, à l’échelle nationale, une mainmise économique s’exerce au sein d’un certain nombre de rédactions pour préserver des réputations ou encore pour favoriser des intérêts particuliers, à l’échelle internationale en revanche, la mainmise sur l’espace public est régie par des algorithmes dont personne ne connaît réellement le fonctionnement.

Au premier étage, on assiste à des phénomènes assez classiques de pressions ou d’autocensure. Au deuxième étage, les ambitions sont bien différentes : il s’agit de classifier, d’organiser, et de donner à voir. Au premier étage, l’audience est limitée à la fois par le cadre national et par l’ancrage idéologique des médias. Au deuxième étage, l’audience est potentiellement planétaire malgré l’éventuelle barrière de la langue et l’existence de stratégies nationales menées par les GAFA.

Au premier étage les enjeux économiques sont forts. Au deuxième étage ils le sont d’autant plus, car nous constatons une certaine dépendance entre l’économie classique et l’économie numérique qui vient la surplomber.

Par ce jeu d’interférences et d’intermédiation, le double étage semble en effet fortement interpénétrer le premier et y exercer une forte domination. Comment ?

Si la totalité des médias ont cherché à jouer le jeu des plateformes à un moment où le numérique venait ébranler la profession, c’est parce que ces dernières apparaissaient aux industries médiatiques comme des alliées fiables et incontournables. Sans chercher à faire une démonstration d’économie numérique déjà faite ailleurs[8], rappelons les grandes étapes qui ont renforcé la mainmise des géants du numérique sur l’espace public :

  • Au début des années 2000, la démocratisation d’internet s’accompagne en apparence par la poursuite de sa promesse initiale liée à l’accessibilité de l’information notamment à travers le principe de gratuité du web.
  • La plupart des contenus d’information, anciennement payants (au tarif de la publication papier) deviennent gratuits pour leurs lecteurs connectés.
  • L’ensemble des éditeurs, tous secteurs confondus, deviennent concurrents sur un seul et unique marché – la publicité. Le modèle économique ? Rattraper le coût de production de l’information à travers le versant publicitaire. Ainsi, plus le média jouissait d’une forte audience (trafic), plus les recettes étaient élevées.
  • Ce mouvement a bien entendu affecté les consommateurs d’information et de contenus, puisque la gratuité est devenue presqu’une évidence[9].
  • Au milieu des années 2000, les premiers réseaux sociaux voient le jour. Ils semblent alors bel et bien être la progéniture fidèle du www, et la gratuité de leurs services semble être dans leur ADN. Sur son formulaire d’inscription, Facebook mentionnait jusqu’en 2019 la célèbre phrase : « c’est gratuit et ça le restera toujours ».
  • Dans leur quête d’audiences, les médias ont vite investi les réseaux sociaux, avec l’ambition d’en faire un lieu d’information ; les usagers en ont manifestement fait un espace de partage et d’accès à l’actualité…
  • Ce n’est qu’au milieu des années 2010, lorsque les présences sur les réseaux sociaux faisaient l’objet de véritables stratégies de diffusion de l’information de la part des médias, que les plateformes ont virulemment investi le pendant publicitaire de leurs activités. Plusieurs choix stratégiques à rappeler :
  1. Fortes des données utilisateurs récupérées au fil d’une décennie, les plateformes investissent les publicités ciblées comme nul autre acteur du web ne l’avait fait jusqu’alors.
  2. On assiste à des modifications structurelles des algorithmes d’affichage des publications ; seules les publications sponsorisées émergent quantitativement dans les flux des usagers
  3. Via les évolutions techniques successives des plateformes, les géants du web font en sorte de retenir davantage les utilisateurs dans le flux de leurs services ou sur des pages pop-in internalisées[10], les empêchant de quitter leur environnement pour des sites d’information par exemple.

L’ensemble de ces évolutions stratégiques ont complètement faussé toute possibilité de concurrence loyale sur le marché de la pub. Ces géants du numérique se sont partagé les plus grosses parts du gâteau, puisqu’ils sont devenus des portails d’accès aux contenus, de véritables prescripteurs d’information. Aux médias les miettes, à eux de se réinventer une nouvelle fois et de trouver des modèles économiques leur permettant de survivre.

Le spectre d’une hégémonie algorithmique

En se positionnant en instances de classification, Google, Facebook, Twitter & co. deviennent les nouveaux gatekeepers[11] de l’espace public, alors qu’ils ne produisent guère l’information ni n’en assument la responsabilité.

Et si les internautes étaient allés sur ces plateformes justement grâce aux contenus offerts par les médias ? Dès lors, ne serait-il pas juste de penser que ce n’est pas aux industries médiatiques de payer pour se rendre visibles sur ces plateformes, mais plutôt à ces plateformes de payer pour pouvoir indexer l’information qui fait leur richesse ?

C’est ce que l’ensemble des débats sur les droits voisins semblent mettre en avant. En effet, les éditeurs du monde entier cherchent à obtenir une contre-partie financière de la part des GAFA pour les contenus qu’ils ont créés. Le bras de fer est violent, comme l’a montré la récente censure par Facebook de l’ensemble des médias d’information australiens. Dernièrement les géants du numérique ont cédé à des accords bilatéraux avec un certain nombre d’éditeurs – le plus souvent les plus notoires de chaque pays – ce qui risque de menacer la pluralité des idées, la liberté d’expression, et qui questionne directement nos démocraties. Si seuls les plus grands sont financés pour leurs contenus par Facebook, Google et co., seuls les plus grands survivront – les plus grands qui subiront encore plus fortement cette double mainmise économique qui dénature l’espace public et le visage même de la démocratie.

D’où provient cette terrible vague qui menace d’emporter avec elle tout ce qui est coloré, tout ce qui est particulier dans nos vies ?

Stefan Zweig, L’uniformisation du monde, 1925

Uniformisation des contenus pour répondre aux exigences des plateformes, surpression de la pluralité des points de vue nécessaires pour permettre à des citoyens de s’informer et d’être éclairés sur les enjeux du monde… quels sont les autres risques de cette supra mainmise des géants du numérique sur l’espace public conçu à l’échelle planétaire ?

Nous avons été nombreux à nous « réjouir » début janvier à la nouvelle de la suppression du compte Twitter de Donald Trump. La décision avait pourtant un caractère symbolique fort. Twitter a prouvé avoir le pouvoir de censurer la parole du président des États-Unis. A mon sens, c’est le signal d’un tournant extrêmement dangereux pour la liberté d’expression.

Février, mars, avril n’ont fait que confirmer le phénomène, puisque nous avons assisté assez passivement à un renforcement de ce que je vais appeler un caractère autoritaire des plateformes sociales. En effet, sous prétexte de se ranger du bon côté de l’histoire et de chercher à combattre les maux de la société numérique – fake news, désinformation, propos haineux, trolling – ces plateformes s’octroient désormais le droit de décider à qui donner la parole, quand et sur quels sujets[12].

En réalité, pour que cette mainmise devienne totale il ne manquerait à mon sens plus qu’une chose : que Google, Facebook & co. se mettent à créer leurs propres contenus informationnels, ce qui ne semble pas complètement dystopique lorsqu’on regarde les évolutions de positionnement de plateformes comme Netflix ou Amazon… Si ces géants se sont d’abord imposés en ayant recours à l’intermédiation pour faciliter la rencontre de l’offre et de la demande, chacun dans son champ, ils ont rapidement changé de posture. Netflix s’est ainsi transformé dans un créateur de contenus presque à part entière, qui via la diffusion privilégiée de ses fictions structure et diffuse de nouveaux archétypes, crée de nouvelles représentations du social, du politique…

La course à l’hégémonie culturelle sera-t-elle remportée par les algorithmes ?

Assisterait-on à une nouvelle colonisation, à une colonisation par le nombre, algorithmique, qui s’exerce à un deuxième étage -dans le numérique – mais qui résonne fortement dans le réel, de manière à questionner nos organisations économiques, politiques et sociales ?


[1] Julia Cagé, Benoît Huet, L’information est un bien public, Seuil, 2021

[2] Court historique du monopole étatique sur les ondes :

  • 27 juin 1964 : création de l’Office de radiotélévision française (ORTF) comme établissement de service public national.
  • 3 juillet 1972 : reprise en main de l’ORTF après une ébauche de libéralisation en 1968 et 1969 sous le gouvernement de Jacques Chaban-Delmas. Le service public national de radiodiffusion-télévision est déclaré monopole d’Etat.
  • 7 août 1974 : éclatement de l’ORTF en sept sociétés indépendantes : quatre sociétés nationales de programme (TF1, A2, FR3, Radio-France), un établissement public de diffusion (Télédiffusion de France, TDF), une société de production (SFP) et un Institut national de l’audiovisuel (INA). Même si elle instaure les principes de concurrence entre les chaînes, la loi maintient le monopole d’État.
  •  9 novembre 1981 : loi sur l’octroi de dérogations au monopole d’Etat.
  • 29 juillet 1982 : fin du monopole et création de la Haute autorité. Cette dernière accorde les autorisations d’exploitation des stations de radio et de télévision, nomme les présidents des chaînes publiques, établit le cahier des charges et veille aux règles de concurrence.

[3] En s’intéressant de près à la sociologie des acteurs, on s’aperçoit que les élites journalistiques, économiques et politiques ont des profils socio-culturels très semblables et ont souvent fréquenté les mêmes écoles et lieux de socialisation secondaire. De ce fait, des situations de connivence, d’emprise, censure ou auto-censure peuvent aisément avoir lieu à un niveau individuel.

[4] Les départements relations presse des grandes entreprise connaissent l’importance de soigner les relations avec les journalistes spécialisés dans le secteur de leur entreprise. Pour des lancements très spécifiques, les entreprises ont souvent recours à des voyages de presse, des conférences organisées dans des conditions particulières etc qu’ils proposent à des journalistes invités. Dans ce cadre, il se pourrait que certains accueils particulièrement chaleureux puissent influencer le traitement d’un papier.

[5] L’urgence écologique et la lutte contre les inégalités

[6] D’après la page de présentation de la société sur : https://about.google/

[7] Certains États, dont la Chine ou la Russie, proposent des plateformes nationales. Quelques exemples : Baidu est le « Google chinois » tandis que VKontakte est le « Facebook russe ».

[8] L’absentéisme systémique. Un trait de figure des GAFA ? Voir la deuxième partie de l’article « Covid-19 : qu’ont fait les GAFA pour nous dans cette période ? » sur le site Citoyenne éclairée.

[9] On voit aujourd’hui à quel point des rédactions indépendantes peinent à s’assurer une sécurité financière en réintroduisant la tarification des contenus notamment à travers la vente d’abonnements (chercher article campagnes de crowdfunding Arrêt sur images ?)

[10] (qui affichent des contenus qui ne leur appartiennent pas)

[11] L’expression gatekeeping ou gardien en français désigne dans le domaine de la communication, les intermédiaires chargés de gérer l’accès de certaines informations ou événements à la sphère publique, par le choix de la médiatisation. Par exemple, les journalistes sont des gatekeepers qui jouent le rôle de « portier » : ils laissent entrer certaines informations dans le champ public, et en bloquent d’autres.

[12] Twitter censure des messages sur la pandémie à la demande du gouvernement indien.

Facebook et Twitter se comportent comme des ennemis de la liberté, donc de la démocratie

Censure : 14 féministes assignent Instagram en justice : « On ne peut plus subir ce deux poids, deux mesures »

Catégories
Digital Humanities

L’homo numericus existe-t-il ? Cadre théorique

Australopithèque, homo habilis, homo erectus, homo sapiens, homo sapiens-sapiens et… homo numericus ? Les évolutions technologiques et d’usages caractéristiques de ces vingt dernières années auraient-elles impacté l’être humain de manière suffisamment profonde – sociologiquement, psychologiquement, voire neurologiquement – pour insuffler une nouvelle évolution de l’espèce humaine ? Le sapiens sapiens serait-il devenu un homo numericus ?

©Unsplash Johannes Plenio @jplenio

Qu’est-ce que l’homme ? Une définition (quasi-)impossible

Mais tout d’abord, qu’est-ce que c’est qu’être humain ? Avec quels outils définir l’humanité ? La biologie, la philosophie, la sociologie, la psychologie, les neurosciences… ? Probablement aucun ou tous en même temps, sans que cela ne nous permette d’aboutir à une définition suffisamment complète. 

Ouvrez un dictionnaire à la lettre « H »… Humain, homme… Les définitions semblent inachevées, maladroites. Vous le remarquerez, aucune d’entre elles ne s’attache à tenter de proposer une définition exhaustive du terme. 

Ainsi, sur le CNTRL, l’adjectif « humain » est défini ainsi : « qui est formé, composé d’hommes. Genre humain concentration, race, société humaine. », « Ce qui est humain, qui appartient à l’homme, qui lui est propre. » L’homme, quant à lui, n’est défini que par son appartenance à une espèce en particulier du règne animal.En biologie, il est donc un « mammifère de l’ordre des Primates, seule espèce vivante des Hominidés, caractérisé par son cerveau volumineux, sa station verticale, ses mains préhensiles et par une intelligence douée de facultés d’abstraction, de généralisation, et capable d’engendrer le langage articulé. »

Peut-être que ce qui fait l’humain est justement sa capacité à s’interroger sur son être et sur son devenir, sa perpétuelle tentative de se définir. Biologiquement parlant, la génétique prouve que l’évolution de l’humain ne s’est jamais arrêtée. En sociologie, le constructivisme analyse l’humain en tant que construction sociale jamais achevée, toujours en devenir… En psychologie, Freud propose une double définition de l’homme, lequel est à la fois « homme-machine », mû et motivé physiologiquement, et « homme-social », car il a besoin d’autres personnes pour satisfaire à la fois ses besoins de conservation et ses besoins libidinaux.[1]  Le philosophe Nietzsche, quant-à-lui, exhortait ses semblables en proposant la formule « Deviens ce que tu es ! ». Cette dernière, largement reprise depuis, est revisitée par l’anthropologue Jean-Loup Amselle qui propose : « Sois ce que tu deviens ». 

Vous l’aurez compris, aucune volonté de ma part de parvenir à définir l’être humain ! Ces différentes manières de dire l’humain sont d’ailleurs volontairement extrêmement hétéroclites… Mon objectif ? Dépasser d’emblée l’idée de l’humanité en tant qu’essence. « L’existence précède l’essence »[2]. En effet, selon Sartre et les existentialistes, l’homme se définit de manière négative, en opposition à ce qui n’est pas lui… Ainsi, « l’homme existe d’abord, se rencontre, surgit dans le monde, et se définit après […] L’homme n’est rien, il ne sera qu’ensuite, et il sera tel qu’il se sera fait » [3]Peut-être que pour penser l’homme en 2021, il faut revenir aux bases – aux contractualistes. Dans sa tentative de peindre l’homme à l’état naturel, Jean-Jacques Rousseau dans son Discours sur l’origine de l’inégalité faisait de la perfectibilité l’une des caractéristiques permettant d’individualiser et de distinguer l’homme de l’animal. La perfectibilité est un néologisme qui met en exergue le fait que la « nature » de l’homme n’est pas fixe. Dès lors, c’est l’évolutivité et la perpétuelle mouvance qui permettent d’établir un clivage métaphysique fort entre animalité et humanité. Si on peut assimiler l’animal à une machine (cf. la théorie de l’animal-machine de Descartes), l’être humain se caractérise par sa volonté libre, laquelle l’entraîne à changer, à évoluer.

L’habitus numérique : une théorisation possible

Dès lors, comment capter l’entièreté de quelque chose qui est en perpétuelle évolution ? Si nous tentions de photographier l’humain en 2021, en cherchant à apercevoir toute sa complexité kaléidoscopique – sans prétendre pouvoir capter le jeu de lumières – est-ce l’homo numericus que nous pourrions entrevoir ? 

Numericus. Depuis la seconde moitié du XXe siècle, on a pris l’habitude de désigner comme « numériques » les données informatiques. Ainsi, l’adjectif « numérique » qualifie une représentation de l’information par des variables discrètes constituées par un nombre fini de valeurs réelles. Se dit, par opposition à l’analogique, de la représentation de données ou de grandeurs physiques au moyen de caractères – des chiffres généralement.[4]

Le numérique n’est ainsi rien d’autre qu’une innovation technique appartenant à l’humain qui façonne fortement son environnement et ses conditions de vie. A la recherche de l’homo numericus, nous partons donc d’une acception exclusivement sociologique du terme numérique. Loin du fantasme du transhumanisme[5], de la vie éternelle ou encore des expériences en laboratoire portées sur les gènes humains – des sujets à part entière qui occupent déjà une place prépondérante dans l’espace public, notamment numérique – notre ambition est moindre ou en tout cas plus réduite. 

En effet, le constat est éclatant. Le numérique croise aujourd’hui de nombreux domaines : la physique, l’éducation, la santé, la médecine, l’environnement, les sciences de la vie… autant de disciplines intrinsèquement liées au quotidien de l’humain du XXIe siècle et dont les prouesses et la pratique seraient aujourd’hui inenvisageables sans le numérique. A l’échelle de l’individu, ses usages, son activité, ses loisirs, son quotidien se voient aussi profondément transformés par la digitalisation du monde. Notre hypothèse ? Les évolutions de ces dernières décennies – la miniaturisation des devices, l’hyperconnexion, la data, le flux avec notamment l’avènement de l’ère des médias sociaux – sont des phénomènes susceptibles d’impacter l’individu neurologiquement, psychologiquement et socialement. Le sapiens sapiens serait-il devenu un homo numericus ? Ces constats suffisent-ils pour parler de l’avènement d’une nouvelle « espèce » ? 

Mais numericus ne peut se joindre à homo que dans la mesure où nous concevons la révolution numérique comme le résultat direct de la perfectibilité au sens rousseauiste du terme. Ainsi, endogène d’un point de vue purement théorique[6]ou exogène lorsque le qualificatif numérique est conçu en tant qu’attribut non pas de l’humain mais de son environnement – la société numérique –, ce terme nous apparaît inéluctablement incontournable pour réfléchir l’humain en 2021.[7]

Sans pouvoir parler d’une nouvelle espèce au sens génétique du terme, nous proposons un concept hybride permettant de rendre compte de l’ensemble des effets du numérique sur l’humain et sur la société, celui de « habitus numérique ».

Concept de base de la sociologie bourdieusienne, l’habitus est « le produit du travail d’inculcation et d’appropriation nécessaire pour que ces produits de l’histoire collective que sont les structures objectives (e. g.de la langue, de l’économie, etc.) parviennent à se reproduire, sous la forme de dispositions durables, dans tous les organismes (que l’on peut, si l’on veut, appeler individus) durablement soumis aux mêmes conditionnements, donc placés dans les mêmes conditions matérielles d’existences ».[8]Parler d’un habitus numérique revient alors à s’interroger sur les effets du numérique sur la théorie des champs[9]et plus largement sur l’individu en 2021. Le numérique rebat-il les cartes et donne-t-il naissance à un nouveau champ régi par des règles nouvelles agissant et façonnant l’humain, ou ne fait-il que reproduire à l’identique dans ce nouvel espace numérique des logiques sociales préexistantes ? 

Pour répondre à cette question et vérifier la validité des concepts comme homo numericus ou l’habitus numérique, il nous semble essentiel de s’atteler à répondre à une nouvelle question : le numérique fait-il réellement émerger une nouvelle culture psychologique qui interroge le social, le politique et l’économique ? Au regard de la complexité et de l’ambition de la question, il s’agira de pistes que nous souhaitons poursuivre au fil de différents articles sur le site Citoyenne éclairéeStay tuned!


[1]Fromm Erich. « Le modèle de l’homme chez Freud et ses déterminants sociaux » IL’Homme et la société, N. 13, 1969. Sociologie et philosophie. p. 111-125. http://www.persee.fr/doc/homso_0018-4306_1969_num_13_1_1230

[2]Jean-Paul Sartre, L’existentialisme est un humanisme (1946).

[3]Ibid.

[4]Les progrès des technologies de l’information et de la communication reposent pour l’essentiel sur une innovation technique fondamentale : la numérisation. Dans les systèmes traditionnels – dits analogiques – les signaux (radio, télévisions, etc.) sont véhiculés sous la forme d’ondes électriques continues. Avec la numérisation, ces signaux sont codés comme des suites de nombres, eux-mêmes souvent représentés en système binaire par des groupes de 0 et de 1. Le signal se compose alors d’un ensemble discontinu de nombres : il est devenu un fichier de nature informatique.

[5]Courant de pensée selon lequel les capacités physiques et intellectuelles de l’être humain pourraient être accrues grâce au progrès scientifique et technique. Pour aller plus loin, lire l’excellent papier de The Conversation : Humanisme, posthumanisme, transhumanisme : de quoi parle-t-on exactement ?

[6]Syllogisme : le numérique est l’émanation (résultat direct) de la perfectibilité. La perfectibilité est selon Rousseau l’un des deux attributs qui distinguent l’homme de l’animal. Dès lors, le numérique est une émanation directe de ce qui fait que l’homme est homme. Autrement dit, le numérique est endogène à l’homme.

[7]En effet, à moins de proposer une nouvelle fiction qui cherche à extraire l’individu de son contexte historique pour retenter une nouvelle essentialisation, nous l’avons prouvé, l’humain et son environnement sont intrinsèquement liés ; et il est difficile de rendre intelligible l’un sans réfléchir l’autre.

[8]Bourdieu Pierre, Esquisse d’une théorie de la pratique. Précédé de « Trois études d’ethnologie kabyle ». Librairie Droz, « Travaux de Sciences Sociales », 1972. URL : https://www.cairn.info/esquisse-d-une-theorie-de-la-pratique–9782600041553.htm

[9]La notion de champ est centrale dans la théorie de Pierre Bourdieu. Le champ est un microcosme social relativement autonome à l’intérieur du macrocosme social. Chaque champ (politique, religieux, médical, journalistique, universitaire, juridique, footballistique…) est régi par des règles qui lui sont propres et se caractérise par la poursuite d’une fin spécifique. Ainsi, la loi qui régit le champ artistique (l’art pour l’art) est inverse à celle du champ économique (les affaires sont les affaires). Les enjeux propres à un champ sont illusoires ou insignifiants pour les personnes étrangères au champ : les querelles poétiques ou la lutte d’un journaliste pour l’accès à la Une semblent futiles à un banquier, et les préoccupations d’un banquier sont mesquines pour un artiste ou pour un militant écologique. La logique d’un champ s’institue à l’état incorporé chez les individus engagés dans le champ sous la forme d’un sens du jeu et d’un habitus spécifique.

Catégories
Écologie de l'attention

Le snack content : une fausse bonne question ? – #Episode5

Après avoir étudié ses origines, ses limites et son mode d’emploi, on peut désormais affirmer que le snack content n’est guère du junk content. Il nous apparaît cependant que son téléversement en masse sur les réseaux sociaux par tous les acteurs du web de manière effrénée[1] ressemble bien, quant-à-lui, à la ramasse des poubelles… Et si la question était mal posée ? Et si le problème n’était pas de savoir si le snack content était un format efficace ou non ? Et si nous déplacions le point de vue de manière à interroger plutôt son contexte de réception, autrement dit, le flux ? Ce cinquième et dernier épisode de notre série dédiée au snack content est un « article-manifeste » proposant une critique du flux, l’une de ces réalités qui semblent aujourd’hui impossibles à remettre en question sur l’ensemble des plateformes sociales. #SortezLaTêteDuFlux ! En savoir plus…

©unDraw illustrations

Gasters à l’hybris démesurée ou encore Chronos dévorant sa progéniture[2], ces images fortes permettent d’illustrer de manière assez précise le fonctionnement du flux proposé aujourd’hui par l’ensemble des réseaux sociaux. Mais qu’est-ce que le flux ? Comment influe-t-il sur nos réceptions des contenus et de l’information ? Quelles pistes de réflexion pour préserver la relation de confiance et de (bon) sens entre le consommateur et le producteur de contenu ?

« Ce que les réseaux font aux cerveaux »[3]

« Nous sommes confrontés à un fait historique majeur : c’est la disponibilité de l’information. Au début des années 2000, au moment de l’apparition et de la démocratisation d’Internet, plus d’informations se sont publiées que depuis l’invention de l’imprimerie par Gutenberg. Pour accélérer les choses, 90 % des informations disponibles ont été produites ces deux dernières années ». Gérald Bronner, sociologue, membre de l’Académie des technologies, enseignant à l’université Paris-Diderot est un spécialiste des croyances collectives et de la cognition humaine qui prône une sociologie interdisciplinaire, ouverte aux sciences cognitives, à l’anthropologie et aux neurosciences. Dans son dernier ouvrage, Apocalypse cognitive  (PUF, 2020), il pose une question fondamentale que nous allons reprendre à notre compte : « comment sauver notre temps de cerveau disponible sur le marché très concurrentiel de l’attention ? »

[Pour en savoir plus, écouter « Ce que les réseaux font aux cerveaux » sur France Culture]

En effet, comme nous l’avions déjà vu dans le troisième article de la série à travers le concept de content shock de Mark Schaefer, la production de contenus disponibles sur Internet augmenterait beaucoup plus vite que le temps et l’attention disponibles des individus à qui sont destinés les contenus (voir le schéma ci-dessous).

Gérald Bronner nuance ce concept : si l’augmentation de la quantité de contenus disponibles est absolument tangible, à cela s’ajoute également une augmentation sans précédent du temps de cerveau disponible, et ce serait le croisement de ces deux variables qui pourrait devenir nuisible, en cas d’implosion. On assisterait ainsi aujourd’hui à un « tournant civilisationnel » pour lequel le temps de cerveau disponible, gagné avec le progrès qui réduit nos tâches et nos contraintes, devient un enjeu de taille. En effet, avant les innovations perpétuelles de ces dernières décennies, qui modifient notre rapport au temps et au travail, la grande majorité des pulsions[4] de nos ancêtres répondaient à un besoin de survie. Aujourd’hui, à l’ère des réseaux et de l’hyperconnexion, nos pulsions seraient manipulées dans le contexte du marché de l’information et des contenus, et ce pour le meilleur ou pour le pire…

Il y a dans ce temps de cerveau disponible toute l’Histoire de l’humanité, le pire comme le meilleur.

Gérald Bronner

Fake news, deepfake, post-vérité, infobésité, morcellement, perte de sens ? Quelques mots pour décrire une partie de ce que constitue la société numérique actuelle. 

Exercice de pensée : la société numérique pourrait aisément être définie, en déplaçant le concept bourdieusien de l’habitus, comme une « structure structurée prompte à fonctionner comme structure structurante »[5] et en perpétuelle expansion. Pourquoi tenter de réfléchir à la question d’un « habitus numérique » ou d’un homo numericus ? Nous pensons que les évolutions de ces vingt dernières années – la miniaturisation des devices, l’hyperconnexion, le flux… sont des phénomènes susceptibles d’impacter l’individu neurologiquement[6], psychologiquement et socialement. Conçus comme le prolongement de l’individu, l’ensemble des outils digitaux (devices et couches applicatives) ont donné à l’être humain l’opportunité de se créer une nouvelle identité numérique, parfois en opposition à son identité réelle. Cet habitus numérique peut constituer une échappatoire pour l’individu dans une société en manque de repères. Il fait émerger une nouvelle culture psychologique[7] qui interroge le social, le politique et l’économique… Cependant, au regard de l’actualité de cette dernière année, le réel nous rattrape ou devrait nous rattraper. Dès lors, il  est de plus en plus essentiel de faire preuve d’esprit critique et de chercher à se regarder en face, de se libérer des mythes et, si nécessaire, de penser contre soi-même ! Pour Gérald Bronner, ce n’est que « par ce travail de lucidité et de rationalisme, que nous répondrons au défi civilisationnel qui se pose aujourd’hui. »

L’impact du flux sur la réception et sur la consommation de contenus

Ce ne sont pas les écrans qui sont coupables en soi, ce sont simplement des fenêtres sur ce qu’il se produit sur le marché cognitif : un alignement inédit entre toutes les offres possibles et toutes les demandes imaginables.

Gérald Bronner

Nous avons essayé tout au long des quatre épisodes précédents de remettre en question un format extrêmement répandu sur le web social, le snack content. En étudiant notamment les origines de ces micro-contenus qui foisonnent sur le web, nous avons pu déterminer que le snack content n’était en réalité qu’une adaptation de la part des producteurs de contenus aux contraintes intrinsèques des réseaux, autrement dit, l’intégration et la conformation de leurs productions à la logique du flux.

Très vite, nous avons eu l’intuition de twister la problématique de cette série d’articles. Le snack content, aussi limitatif qu’il soit, peut en effet s’avérer une stratégie marketing redoutable. Le vrai sujet est en réalité constitué par les audiences, la réception et la consommation des (micro-)contenus à l’ère de ce que nous avons appelé la société numérique. Vous l’aurez compris, nous allons parler flux et conséquences de cette exposition à l’information morcelée et morcelante. 

Il va de soi que le contexte de réception d’un contenu, d’une information ou d’un récit influence sa réception. En effet, regarder un film au cinéma est souvent plus apprécié que chez soi. Regarder une vidéo pendant qu’on poursuit le scroll du flux ne revient pas au même que de la regarder en plein écran… Dans ces quelques exemples de consommation de contenus vidéo, tout se passe comme si la taille d’affichage de la vidéo était directement proportionnelle à l’attention que nous souhaitons lui donner. Ainsi, pour visionner un film d’auteur, nous nous enfermons dans une salle obscure où la connexion de nos devices est brouillée et on signe le pacte des 120 minutes environ de déconnexion du quotidien et du numérique, en même temps que le pacte fictionnel proposé par l’œuvre cinématographique. On renonce ainsi à nos extensions pour pouvoir se “connecter” et vivre pleinement le moment présent, en l’occurrence celui du film… En ce qui concerne la vidéo en plein écran, on pourrait concevoir ce contexte de réception comme une évasion du flux. L’internaute a réussi à identifier un contenu auquel il souhaite accorder son attention et il choisit de l’extraire du flux en appuyant sur le mode plein écran. Enfin, dans le cas de la vidéo en miniature qui continue à avancer sur l’un des coins de l’écran de manière concomitante à la poursuite du scroll, on peut faire l’hypothèse qu’il s’agit d’un mode de consommation passif ;  la majorité de l’attention du consommateur est en effet dédiée avant tout à la poursuite de sa quête du “bon” contenu.

Mais que dit cette fonctionnalité relativement récente des plateformes comme Facebook sur l’évolution des usages ? Ce que nous retenons c’est que cette évolution fonctionnelle ne fait qu’entretenir le trop plein. Sans que l’internaute soit satisfait ou qu’il identifie un contenu qui soit digne d’être consommé ou en mesure d’accaparer sa pleine attention, il adhère à l’impératif de consommation de contenus sur le web. Atteint de malinfo, il consomme sans prêter réellement attention, restant toujours en alerte et en recherche du contenu qui lui permettra de s’extraire du flux qu’il dévore et qui le dévore. En effet, nous faisions tout à l’heure une analogie entre le fonctionnement du flux et Chronos dévorant sa progéniture. Si le snack content est bien l’enfant des médias sociaux, il nous apparaît que ces derniers le dévorent et l’utilisent comme un carburant de première qualité. Cette métaphore semble s’appliquer aussi à cet homo numericus façonné par le flux… Tout comme Chronos, divinité primordiale du temps dans la mythologie grecque, le flux vient absorber l’internaute dans une bulle virtuelle, le piège et façonne sa perception de la réalité et du temps…

Pour revenir à la question de l’attention, comme nous l’avons exposé dans l’épisode introductif de cette série d’articles, nous réfutons la théorie, souvent reprise ces dernières années sur la toile, selon laquelle la capacité d’attention des Millenials[8] serait désormais moindre que celle d’un poisson rouge – soit d’environ 9 secondes. Mais rassurez-vous ! Loin d’être des petits OVNIs pourvus de branchies et de nageoires leur permettant de naviguer aisément dans les flots du web, les Millenials, ces jeunes de 24 à 39 ans lisent des livres, parfois longs et parfois vite, regardent des films, des documentaires, vont au théâtre, fréquentent les foires culturelles, les expositions… Plus encore, les Millenials sont eux-aussi submergés par le flux, tout autant que n’importe quelle autre génération connectée ! L’image du poisson rouge demeure néanmoins stimulante, non pas pour décrire le temps de cerveau disponible ou la capacité d’attention de toute une génération, mais plutôt pour décrire un usage imposé par le fonctionnement inhérent des fils d’actualité des réseaux sociaux. Les 30 minutes théoriques prévues pour la consultation d’un article de fond sont ainsi dispersées et souvent perdues dans le flux, lequel offre une si grande diversité de propositions que l’internaute atteint d’infobésité et de la pulsion consommatrice est incapable de choisir.

Ainsi, le flux donne naissance à une perception morcelée de la réalité, contribue à l’infobésité et donne naissance à un drôle de paradoxe : dans la société numérique actuelle que certains qualifient de “post-internet”, tout se passe comme si l’abondance d’informations, au lieu de nous permettre de mieux saisir le monde et ses enjeux, ne faisait que brouiller le sens et créer des spectres…[9]

Que faire alors ? #SortezLaTêteDuFlux !  

Réflexions et questionnements sur l’« intermédiation », un trait saillant de l’économie numérique

Dans les articles précédents, on formulait l’hypothèse selon laquelle la communication corporate avait fortement investi les réseaux sociaux et adopté des outils comme le snack content en raison du fait que c’était désormais là que les audiences se trouvaient… Et si on posait la question inversement ? Et si les internautes étaient allés sur ces plateformes justement grâce aux contenus ? Si cette nouvelle hypothèse s’avérait au moins en partie correcte, ne serait-il pas juste alors de penser que ce n’est pas aux contenus de s’adapter aux exigences de ces plateformes, mais plutôt inversement à ces « nouveaux » médias de s’adapter aux contenus ?

Loin de moi quelconque prétention de faire du Christopher Nolan ! C’est juste qu’en lisant beaucoup de littérature sur le sujet je me rends compte à quel point on a souvent tendance à regarder les conséquences des phénomènes sociaux numériques plutôt que de chercher à analyser leurs fondations. La question même du snack content à laquelle nous avons dédié cette série d’articles n’est qu’une fausse bonne question. Nous l’avons vu, pour comprendre l’apparition et la popularité de ce format, il est nécessaire de questionner les usages ainsi que les positionnements des grands acteurs du numérique qui façonnent aujourd’hui la société numérique dans son ensemble.

Parmi ces usages et ces positionnements, il est intéressant de se pencher sur la question de l’intermédiation, un trait saillant de l’économie numérique.

A partir des années 70, le phénomène de la désintermédiation décrit en science politique la société néo-libérale où l’individu, de moins en moins syndiqué, de moins en moins encarté, de moins en moins en proie au fait religieux, ne compte plus sur les grandes structures façonneuses de récits et de réalités qui édictaient historiquement la marche à suivre. L’apparition et la démocratisation d’internet n’ont dans un premier temps fait que généraliser ce trait de figure de nos sociétés, notamment sur le plan économique. Internet  a par exemple largement favorisé la désintermédiation dans le domaine du voyage et du tourisme ou bien dans celui de la distribution de certains logiciels ou jeux. Ainsi, la vente en ligne de billets d’avion par les compagnies aériennes provoque un phénomène de désintermédiation au détriment des agences de voyages traditionnelles.

Mais qu’en est-il de la société numérique actuelle ? Une marche de l’histoire lisse voudrait qu’internet nous ait d’ores et déjà permis l’aboutissement de ce phénomène, notamment  avec le triomphe de la démocratie directe rendue possible grâce aux évolutions technologiques. Certains ont également vu dans l’invention de la cryptomonnaie comme les bitcoins une probable suppression imminente de toute autorité centrale et de contrôle des marchés financiers… Or, paradoxalement, en regardant de plus près, on s’aperçoit que la société numérique post-internet est plutôt caractérisée par un fort phénomène de ré-intermédiation.

En effet, au début des années 2010, dans un monde où les logiques marchandes – et notamment les techniques de publicité et de marketing – atteignent leur paroxysme, seules quelques grandes entreprises mondiales du tech semblent pouvoir se passer de la publicité. Le meilleur exemple ? Classé depuis plusieurs années dans le top 5 des marques les plus chères au monde[10], Google, ce moteur de recherche qu’on utilise tous les jours, n’a jamais eu besoin de passer par la publicité… Le fonctionnement inhérent de Google veut qu’il propose une fenêtre sur le monde :  à une requête donnée, les fameux 10 ou 20 liens bleus qu’il affiche en SERP 1 permettent à l’homo numericus d’appréhender un fait, un phénomène ou un concept. Véritable façonneur de réalités, Google nous apparaît comme un intermédiaire par excellence. Mais ce n’est qu’un exemple. Si on regarde les NATU, on se rend compte que l’intermédiation est un trait de figure constant de l’économie numérique de ces vingt dernières années. Netflix, devenu désormais également producteur de contenus, a fait sa richesse en proposant une plateforme payante permettant la rencontre de l’offre et de la demande : ses abonnés consomment les films et les séries mis à disposition directement depuis leur canapé. Spotify, Deezer ? Rien que des intermédiaires permettant de réguler l’industrie musicale fortement impactée par le piratage et la violation des droits d’auteurs dans les premières années d’internet. Uber, Airbnb ? Toujours des plateformes permettant simplement le croisement de l’offre et de la demande…

Tous ces acteurs sont extrêmement influents sur les marchés financiers, avec des cotations impressionnantes. La société numérique devient ainsi une société de la ré-intermédiation, dans laquelle quelques acteurs qui façonnent nos usages, nos besoins et nos comportements captent la plupart de la richesse alors qu’ils ne produisent rien au sens de l’économie réelle.

Quel rapport avec le flux et les réseaux sociaux dont nous parlons depuis le début ? Eh bien, si nous exploitons l’hypothèse selon laquelle les réseaux sociaux ont très rapidement oublié leurs fonctions socio-techniques initiales pour se dédier fortement à la fonction sociale de partage de l’information, on se rend compte que ceux-ci ne sont qu’un intermédiaire de plus. Leur algorithmes savamment réfléchis font se rencontrer une offre – venant souvent des grands médias, mais également des leaders d’influence qui opèrent quant à eux une première sélection – et une demande concrétisée dans le besoin d’information de l’homo numericus… Dans tout cela, le flux n’est rien d’autre qu’un marché. Le snack content ? Des petits fruits exotiques qui sautent aux yeux… Le vrai problème ? Tous les stands sont la propriété de quelques géants qui décident du nombre et de la taille des produits qu’on peut y vendre, et surtout qui choisissent qui a le droit ou non d’étaler sa marchandise à la vue de tout le monde.

Et voilà, cette série d’articles dédiés au snack content est maintenant terminée ! Mais comme vous l’aurez peut-être constaté, j’ai profité de ce papier conclusif pour poser de nouvelles interrogations,  lancer de nouvelles pistes de réflexion que je souhaite approfondir dans mes prochains articles… Stay tuned!

[1] C’est ce que nous avons appelé l’usage outrancier du snack content.

[2] D’autant plus que nous avons déterminé que le snack content était un enfant des médias sociaux !

[3] Titre de l’émission À PRÉSENT par Frédéric Worms qui reçoit le sociologue Gérard Bronner et le neurologue Lionel Naccache pour comprendre les mécanismes et interactions opérés entre cerveaux et réseaux, 22/01/2021, France Culture.

[4] Concept phare de la psychanalyse ; méthode d’investigation psychologique visant à élucider la signification inconsciente des conduites et dont le fondement se trouve dans la théorie de la vie psychique formulée par Freud. Dans la recherche du meilleur rendement, le marketing et la communication ont souvent été critiquées pour leur capacité à faire appel aux pulsions afin de “mieux vendre”. Pour en savoir plus, consultez l’article de Bernard Stiegler, « Prologue. Une pensée critique du marketing ».

[5] Dans la définition d’un de ses concepts phare – l’habitus, Pierre Bourdieu faisait appel à cette formulation : « l’habitus est un ensemble de dispositions durables et transposables, structure structurée prompte à fonctionner comme structure structurante ». Nous nous y référons de manière assez provocatrice pour essayer modestement de réfléchir le poids et les effets du numérique sur l’individu. Homo numericus… qu’est-ce que l’habitus numérique ?

[6] Voir les écrits de Lionel Naccache, neurologue à l’hôpital de La Pitié-Salpêtrière à Paris et chercheur en neurosciences cognitives au sein de l’unité Inserm Neuro-imagerie cognitive.

[7] Siècle Digital, La société numérique : réalités et perspectives.

[8]https://www.lepoint.fr/invites-du-point/philippe-labro/philippe-labro-sommes-nous-des-poissons-rouges-12-04-2019-2307254_1444.php

[9] fake news, deepfake, la comploto-sphère, polarisation… extrémisme..

[10] Interbrand

Catégories
Écologie de l'attention

Le snack content : une stratégie gagnante mais à quelles conditions ? — #Episode4

Dans ce nouvel épisode nous tâcherons de définir le « mode d’emploi » du snack content sur les médias sociaux pour en faire une stratégie marketing gagnante.
©unDraw illustrations

Pour les lecteurs qui auraient pu entrevoir jusque-là dans l’ensemble de mes écrits dédiés au snack content un aveu de faiblesse, un mea culpa de communicante ou une sorte de critique implacable et irrévocable de cette stratégie éditoriale tant louée par mes pairs, je risque de vous décevoir ! Si les trois dernières années de consulting au sein d’une agence de communication spécialisée dans le contenu étaient à refaire, je recommencerais à l’identique ! Je conseillerais à nouveau le snack content à mes clients, en tenant compte comme toujours des conditions essentielles pour faire de cette stratégie marketing, une stratégie gagnante dans le cadre de la communication corporate.

Snack content oui, mais à quelles conditions ?

Condition #1 : le snack content est du contenu natif produit spécifiquement pour les médias sociaux

En effet, nous avons déterminé dans le deuxième épisode de cette série le fait que les réseaux sociaux presque sans exception (Linkedin, Twitter, Instagram, Facebook, Snap, Tik Tok etc..) étaient des espaces régis par des règles bien spécifiques qui constituent, selon le point de vue, des opportunités ou de fortes contraintes pour nos stratégies narratives. Si dans un monde idéal, les géants du numérique feraient en sorte que leurs plateformes soient modulables selon les usages et parfaitement adaptées à la richesse créative liée à la forme et au fond de nos contenus, lorsqu’on communique on jongle avec les règles du jeu telles qu’elles sont et non pas telles qu’elles devraient être. Dès lors, intégrer les tendances, les normes régissant les algorithmes, les contraintes liées aux formats spécifiques à chaque réseau social devient indispensable !

Si le snack content faisait souvent partie de mes recommandations éditoriales, je ne le préconisais jamais sans l’associer à la notion de « contenu natif ». Pourquoi ? Mes clients savent que je considère que la pédagogie est l’un des instruments les plus précieux du communicant ; ainsi, il n’est pas question pour moi de préconiser un dispositif plutôt qu’un autre pour répondre à une problématique précise sans veiller à bien expliciter les raisons de cette recommandation. En effet, dans mon acception, le snack content est par définition du contenu natif, c’est-à-dire du contenu original produit pour être hébergé directement sur la plateforme à laquelle il est destiné.

Comme nous l’avons vu dans « Le snack content : les origines — #Episode2 », le snack naît de la volonté des départements de communication des entreprises de répondre aux exigences des différentes plateformes afin de mieux adresser les audiences qui logent au sein de chaque réseau social. Parmi ces exigences, la nativité des contenus est en première lice.

Ainsi, il est bien connu que l’algorithme de Facebook privilégie les vidéos hébergées sur sa plateforme au détriment de celles qui seraient hébergées sur Youtube et partagées par un simple lien[1]. Il est également bien connu que sur Twitter une vidéo native est plus consultée que des vidéos partagées via lien depuis d’autres plateformes ou encore depuis les sites institutionnels. Pourquoi ? Les vidéos natives bénéficient sur Twitter d’un affichage en grand format dans le fil d’actualité, d’un déclenchement automatique[2] dès que le tweet est survolé, ainsi que d’une possibilité d’optimisation complète au sein du Twitter Media Studio[3]. De cette manière, les contenus natifs prennent plus de place effective sur l’écran, attirent davantage l’attention et ont tout simplement plus de chances de devenir viraux ! Le hic ? Twitter impose des limites en termes de poids et de longueur afin d’accepter d’héberger vos contenus vidéos. La taille de fichier maximale du format riche que vous pouvez tweeter de manière native est de 512 Mo et la durée de votre vidéo est de maximum 2 minutes et 20 secondes. Ces fameuses 2 minutes maximum dont on parle tant depuis quelques années quand on parle vidéo… Vous vous en souvenez ?

Bref, vous l’aurez compris : oui pour le court oui pour le snack content, mais à condition de savoir pourquoi, quand et où l’employer ! Il me semblerait par exemple contre-productif de se mettre en quatre pour raccourcir au maximum un contenu vidéo de qualité seulement pour ne pas dépasser les fameuses deux minutes tant plébiscitées, si votre vidéo n’a aucune vocation à être partagée de manière native sur Twitter. Même si votre stratégie social media prévoit bien le partage natif au sein de chacun des réseaux sociaux, à mon sens, il est toujours contre-productif d’écourter de manière drastique vos propos et contenus lorsqu’ils ont par nature besoin de plus de temps pour garantir leur qualité ! Comment faire alors ?

Condition #2 : le snack content a pour vocation principale le teasing[4]

On l’a déjà dit, l’efficacité du snack content dans le monde de la publicité où un message très court et percutant peut avoir une puissance de frappe commerciale redoutable n’est pas à remettre en question. Par ailleurs, le snack content comme stratégie marketing exclusive semble fonctionner à merveille pour certains influenceurs ou humoristes qui y ont un recours exclusif sur des réseaux sociaux comme Instagram ou Twitter. Je fais référence à l’ensemble de memes géniaux qui foisonnent sur le web et qui franchement, par moments peuvent même faire une journée ! Quelques exemples de comptes que je suis personnellement : Stagiaire des AffichesGrowing Up RomanianYugnat999

En effet, dans ces deux cas de figure, le snack content a vocation à vivre par et pour lui-même. Toute entreprise ou marque pourrait ainsi envisager une présence spécifique sur des réseaux sociaux bien choisis avec une ligne éditoriale bien définie basée sur le snack content exclusivement. Pour plus de fraîcheur et crédibilité, cette parole pourrait être incarnée par des influenceurs et ambassadeurs de la marque ou tout simplement par des collaborateurs de l’entreprise. Mais, à défaut d’une stratégie spécifique développée dans ce sens, l’époque du « community manager clown » — bien que très sympathique je m’en souviens — m’apparaît désormais comme révolue. Si on parle communication corporate et comptes institutionnels d’entreprises (surtout à raison d’être[5] !) sur les réseaux sociaux, il convient alors de concevoir votre production de snack content quasi exclusivement comme une manière de faire du teasing, de promouvoir vos événements, vos contenus de marque, vos collaborateurs, vos réussites, vos défis…

Cas pratique :

Admettons que vous souhaitiez intégrer nativement sur Twitter une vidéo de cinq minutes (et non 2 minutes 20) et dont chacune des 300 secondes est extrêmement précieuse et contribue à l’intelligibilité globale du propos. Quelle recommandation dans ce cas de figure ? Surtout ne jamais raccourcir vos contenus pour de mauvaises raisons ! Qu’il s’agisse de vos vidéos (interviews, reportages, animations, motion-designs etc.) de vos infographies ou de vos articles, ne jamais raccourcir dans le seul but de faire plus court donc parce que des lois — trop écrites — sur le web l’auraient édicté ; d’autres solutions existent.

Si l’objectif principal est de faire en sorte d’attirer sur un site institutionnel les usagers de x réseau social ; le KPI visé étant ainsi le taux de clic sur un CTA donné :
Si l’objectif est de faire partie au maximum des conversations inhérentes à ce réseau, de maximiser la consultation du snack content et son partage :

Ces quelques solutions permettent d’attiser la curiosité de votre audience, de créer un effet d’attente positive et d’augmenter de manière qualitative et justifiée votre nombre de publications sur le réseau social en question, de manière à augmenter également vos chances que vos publications soient vues. Vous l’aurez compris, s’agissant de la communication corporate, la fonction teasing du snack content se doit de l’emporter presque toujours.

Condition #3 : le snack content n’est qu’une stratégie au sein d’un mix éditorial complexe

Suite à la publication de l’introduction de cette série de tribunes, une de mes camarades me disait que pour elle le snack content n’était pas l’inverse d’un repas gastronomique. Son argument ? Dans la cuisine gastronomique, il y a finalement très peu dans l’assiette, mais les saveurs se trouvent exacerbées. Et je suis la première à plussoyer l’image ! Les vrais combats éditoriaux autour du snack content sont en effet la densification et l’adaptation des contenus à la variété des motivations des audiences.

Cependant, contrairement au fast-food, on ne se contente jamais d’une entrée ou d’un plat unique dans un restaurant gastronomique, quelles que soient les vertus de ce plat de chef. En effet, le propre du gastronomique se trouve dans le parfait alliage et enchaînement des différents plats. Dès lors, il n’est guère question de snack dans le gastro, mais d’un voyage savamment réfléchi qui invite le voyageur à une traversée d’un point A à un point B, qui lui apportera pleine satisfaction.

Il revient alors aux professionnels de la communication que nous sommes de bien choisir les formats pour chaque type de communication et de se souvenir que le snack content n’est qu’une stratégie éditoriale parmi d’autres et que les médias sociaux restent des canaux de diffusion parmi d’autres. Il nous revient d’accepter et de bien intégrer le fait que tous les sujets ne se prêteront néanmoins jamais à un traitement type snack content. À nous de devenir les garde-fous des effets de mode. La tentation du facile peut être grande, les « exhausteurs de goût » nombreux…[6]

Il revient aux professionnels de la communication que nous sommes de se souvenir que le snack content n’est qu’une stratégie éditoriale parmi d’autres. À nous de devenir les garde-fous des effets de mode…

Une citoyenne éclairée.

Pour rendre les messages plus efficaces, plus écologiques, plus pédagogiques, il est essentiel de produire des contenus utiles, ingénieux, créatifs, inspirants… bref, des contenus à réelle valeur ajoutée, que ces derniers soient synthétiques ou non. En effet, le snack content est du contenu spécifique pour les réseaux sociaux, qui ne vit pas réellement par et pour lui-même. C’est du contenu qui n’aurait assez souvent aucune raison d’être sans vos contenus de fond, vos positions et prises de parole médiatiques, vos actions et celles de vos collaborateurs, vos événements, etc. C’est l’ensemble de vos actions de communication qui permettra de « rassasier » vos communautés, clients, prospects, parties-prenantes, chacun en fonction de son appétit et de son envie.

Le snack content n’est donc qu’une stratégie de contenu parmi d’autres, permettant à votre marque de parler toutes les langues du digital. Il apparaît donc aujourd’hui — au regard des contraintes actuelles des plateformes — comme étant indispensable, comme une stratégie de contenu gagnante, à condition qu’il fasse bien partie d’un mix éditorial savamment réfléchi qui veille à proposer du contenu diversifié, en lien direct avec le cœur du métier et la raison d’être de votre entreprise.

Vous l’aurez compris la question n’est donc pas de savoir si on est pour ou contre le snack content, mais plutôt de savoir pourquoi (pour communiquer efficacement/exister sur les réseaux sociaux), comment (de manière native à chaque plateforme et au sein d’un mix éditorial qui va bien au-delà de cette stratégie), quand (consultez vos tableaux de programmation éditoriale !) et où (médias sociaux) employer cette stratégie de contenus. Le snack content ne devient du junk content que dans son usage outrancier, lorsqu’il ne sert d’autre objectif que la satisfaction des fonctionnements inhérents des réseaux sociaux qui, sans limite imposée par les producteurs ou les consommateurs de contenu, fonctionnent comme des gasters à l’hybris démesurée… Mais il s’agira du sujet de notre prochain et dernier épisode de la série : « Le snack content : une fausse bonne question ? — #Episode5 ».

✔ En savoir plus sur le projet une Citoyenne éclairée.


[1]Les uploads des vidéos natives sur Facebook ont une portée dix fois supérieure aux partages de liens YouTube (Socialbakers).

[2]autoplay

[3]Twitter Media Studio permet l’intégration des sous-titres pour rendre accessible la vidéo, l’ajout d’un CTA (Call to action) pour renvoyer vers votre site web par exemple et notamment d’une configuration des éléments clés de la vidéo comme la miniature, le titre, la description, la catégorie.

[4]Le teasing est une technique de communication attirant le public par un message (court et pertinent) basé sur l’interpellation. En savoir plus sur le site Définitions marketing.

[5]La raison d’être d’une entreprise désigne la façon dont elle entend jouer un rôle dans la société au-delà de sa seule activité économique. Depuis 2019, les entreprises peuvent désormais s’ auto-déclarer entreprises à mission et intégrer dans leurs statuts une « raison d’être » qui s’inscrit dans un cadre stratégique.

[6]design pompeux au service de lui-même sans poursuite d’aucun objectif communicationnel précis (pédagogie, inspiration, compréhension etc;..) ; langue de bois etc. …

Catégories
Écologie de l'attention

Le snack content, enfant prodig(u)e de la communication – #Episode3

Récapitulons. Ceci est une série de tribunes au sujet du snack content qui questionne l’omnipotence de ce format dans le cadre de la communication corporate. Jusque-là, nous avons réussi à déterminer que le snack content semble être né du croisement de deux phénomènes : d’une part, un drôle de mimétisme avec la publicité, pour laquelle le format court apparaissait comme évident pour des raisons essentiellement financières et, d’autre part, l’avènement de l’ère des médias sociaux, qui, via un fonctionnement de flux, entérinent la success story du snack content. Dans ce troisième épisode de la série nous allons chercher à identifier les éventuelles limites du snack content. Prêt(e)s ?

©unDraw illustrations

Tout d’abord, je me permets de préciser que cette tribune ne vise guère à exprimer des points de vue tranchés sur la question qui seraient les miens ; mon objectif est plutôt d’interroger mes propres pratiques en tant que communicante, de poser des questions et de les partager avec vous pour faire avancer le débat. 

Une citoyenne éclairée.

Nous avons en effet établi dans la tribune précédente qu’à l’époque de la maturité des médias sociaux on a vu apparaître tout un ensemble de spécialistes du social media qui ont joué un rôle important dans ce que nous avons appelé l’avènement du snack content. Ainsi, toutes les entreprises confondues se sont retrouvées à appliquer sur les médias sociaux les mêmes « bonnes recettes » formelles que celles qui avaient été en définitive prévues pour la publicité, parmi lesquelles le très court, le snack content, qui visait initialement à impacter les publics en réalisant des conversions immédiates[1]. Or, nous le savons, la communication corporate ne cherche pas à vendre des produits, mais plutôt à promouvoir une entreprise, à instaurer un dialogue avec l’ensemble de ses parties prenantes et à faire accroître ainsi sa notoriété, son influence, et, si possible, sa puissance commerciale. En cherchant à coller formellement aux règles de la pub et aux exigences des plateformes sociales, via l’intronisation des stratégies de contenu comme le snack content par exemple, la com’ corporate oublierait-elle sa vocation initiale ? En quoi un recours abusif au snack content peut-il desservir la com’ corporate ? Voici trois limites du snack content :

#Limite1 : le snack content est cher, et pas si ROIste que cela

Ainsi, la principale limite de cette pratique exacerbée du snack content par la com’ corporate semble être le fait que des entreprises investissent du temps et du budget dans la production de formats souvent à faible valeur ajoutée, peu différenciants, qui ne font que s’ajouter au bruit de fond permanent[2]. Ainsi, à défaut des budgets conséquents similaires à ceux dont disposent les équipes de la pub pour sponsoriser leurs contenus, les snacks si prometteurs se retrouvent noyés dans l’ensemble des micro-bouts d’informations, GIFS, memes, tweets, stories, mini vidéos, etc. qui foisonnent sur les réseaux.  Les spécialistes du contenu et du social media organique se trouvent ainsi obligés de se réjouir pour quelques dizaines de likes par contenu, tandis que les plus optimistes d’entre eux s’amusent à jongler avec des chiffres un peu plus conséquents au regard d’autres KPI comme les impressions[3], avec les limites que cela comporte… 

#Limite2 : le snack content nuit à l’écologie de l’attention

Pour mieux comprendre les éventuelles limites du snack content, il convient déjà d’expliciter le concept de content shock[4], formulé par Mark Schaefer. L’expression « content shock » est utilisée pour désigner le fait que la production de contenus disponibles sur Internet augmente beaucoup plus vite que le temps et l’attention disponibles des individus à qui sont destinés ces contenus. En d’autres termes, il s’agit du paradoxe que je soulevais dans une autre de mes tribunes traitant de l’emballement médiatique lié à la pandémie du Coronavirus par la question : « et si l’information aujourd’hui créait moins le sens qu’elle ne le brouillait ? ».

En effet, ces contenus, souvent plus ou moins identiques sur le fond – et a fortiori sur la forme – qui se noient dans les fils d’actualité infinis des médias sociaux, ont pour effet direct le fait de donner aux internautes atteints d’infobésité un sentiment d’impuissance. Submergés et dépassés par la richesse de ces plateformes alimentées en continu par des micro-bouts d’information instantanées, ces internautes n’arrivent plus à capter la valeur de ces contenus. Le snack content, qui devait initialement répondre à la problématique liée au manque d’attention, dans son usage “abusif” par l’ensemble des acteurs du web semble ainsi produire l’effet inverse et contribuer à cette pathologie civilisationnelle, la malinfo.

#Limite3 : le snack content nuit à l’écologie tout court

Virtuel, numérique, digital, immatériel ? Au-delà de l’« immatériel », le monde digital est bel et bien fondé sur du hardware qui lui… pèse. En effet, à cette ère que beaucoup d’optimistes appellent d’ores et déjà « post-Covid », on s’interroge de plus en plus sur les conséquences de nos actes, de notre consommation et, puisque c’est le sujet, de notre production de contenu. Or les statistiques montrent que l’empreinte environnementale du numérique est en forte hausse.

En 2019, la quantité nécessaire pour alimenter les serveurs, les centres de données, les réseaux de communication et les appareils utilisés pour naviguer sur internet était équivalente à la consommation énergétique de l’ensemble du Royaume-Uni ! (416,2 TWh). Ces émissions carbone représentent 2 % des émissions mondiales, soit tout autant que celles l’industrie aéronautique qui est considérée comme l’une des plus polluantes…[5] En effet, une page de site internet consultée entraînerait en moyenne la production de 1,76 gramme de CO2, tandis qu’une requête Google produirait quant à elle 7 grammes de CO2 dégagés dans l’atmosphère.

On parlait dans les précédentes tribunes d’une surproduction de contenus… À cela s’ajoute le fait que les contenus que nous mettons en ligne sont de plus en plus performants, et donc lourds…[6] Par ailleurs, force est de rappeler que si les producteurs de contenus et les webmasters ne tardent jamais à mettre en ligne leurs nouveaux articles et vidéos, ils oublient souvent de les retirer lorsque ces derniers ne s’inscrivent plus dans l’actualité…

Pour revenir à la question du snack content, à prime abord inoffensif car court et plus léger que d’autres formats, c’est bel et bien dans son utilisation outrancière par tous les producteurs de contenu du web qu’il devient fortement nuisible d’un point de vue écologique. En effet, derrière ce mur de petites briques à petit goût et faible valeur « nutritionnelle », se cachent les serveurs super puissants et super polluants des géants du numérique, qui les hébergent volontiers et gratuitement…[7]

________

Alors, le snack content : prodige ou prodigue ? Cela dépend ! Comme tout, il faut l’utiliser avec modération et à bon escient !

Puisque nous avons mis en exergue quelques-unes des limites du snack content, il est désormais temps que nous nous intéressions aux conditions sine qua non pour faire du snack content une stratégie marketing gagnante ! Rendez-vous la semaine prochaine avec « Le snack content : une stratégie gagnante, mais à quelles conditions ? – #Episode4 ». Stay tuned!


[1] Désigne la réalisation d’une action spécifique par un internaute sur un site.

[2] C’est ce que nous avons appelé « infobésité ». Découvrez une autre de mes tribunes qui traite ce concept de manière appliquée à l’emballement médiatique lié à la pandémie du Coronavirus.

[3] Sur les réseaux sociaux, une impression désigne l’indicateur de performance vous permettant de connaître le nombre de fois où votre lien, action ou publicité a été vue.

[4] https://businessesgrow.com/2014/01/06/content-shock/

[5] https://blog.adimeo.com/comment-mesurer-l-empreinte-carbone-d-un-site-web

[6] La taille moyenne d’une page web en 2019 est 4 fois plus élevée qu’en 2010.

[7] On reviendra sur ce point spécifique dans un autre épisode de la série.

Catégories
Écologie de l'attention

Le snack content : les origines – #Episode2

Les médias sociaux sont-ils des vecteurs d’hybridation entre le contenu et la pub ? Sont-ils les responsables de l’avènement du snack content comme dispositif incontournable du content marketing et de la communication corporate ? Si oui, comment ce mélange des genres se serait-il opéré ?

©unDraw illustrations

Nous l’abordions déjà dans le volet introductif de cette série d’articles dédiés au snack content : l’intérêt du format court, voire du très très court, va de soi dans le monde de la publicité. L’achat d’espace, d’abord dans la presse, ensuite à la radio, à la télé, et depuis une vingtaine d’années avec la publicité online – display[1], search[2]ou social[3] – a toujours représenté un pourcentage très important du budget des campagnes publicitaires. Ainsi, plus une publicité était courte (et idéalement efficace), moins elle coûtait cher ! Le succès du snack content en tant qu’outil à part entière du content marketing[4] et de la communication corporate[5] serait-il dû à un effet d’itération de ce procédé formel subi par le monde de la pub ?

Le snack content, enfant de la pub ?

Avec la miniaturisation des devices et le développement d’une connexion de plus en plus performante dans la plupart des parties du monde, la publicité online a gagné de plus en plus de parts de marché ces dernières années, si bien qu’aujourd’hui elle est le leader incontesté du marché de la publicité dans sa globalité.

Au sein de la pub digitale elle-même, si le search[6] reste depuis plusieurs années en tête avec un peu plus de 50 % des revenus publicitaires en ligne, c’est le social[7] qui enregistre la plus forte croissance et s’en sort le mieux dans le contexte de pandémie. En 2020, le social représente en France 25 % des revenus globaux de la publicité en ligne, soit 638 millions d’euros enregistrés au premier semestre 2020 seulement[8].

Une aussi forte rentabilité de la publicité sur les médias sociaux s’explique tout simplement parce que les audiences y sont…  C’est d’ailleurs pour conquérir ces mêmes audiences que la communication corporate aurait ainsi emprunté le snack content à la pub pour tenter de s’imposer au sein de l’Eldorado des réseaux sociaux.

Le snack content, enfant des réseaux sociaux ?

Le social media s’est imposé dans les stratégies de marketing et de communication des entreprises depuis plusieurs années jusqu’à devenir aujourd’hui un incontournable. L’avancée de cette « discipline » à part entière dans l’entreprise s’est faite de manière assez linéaire : 

  • naissance au milieu des années 2000, lorsque les « premiers » réseaux sociaux voyaient le jour. Quel accueil en entreprise ? Les réseaux sociaux étaient à cette époque la responsabilité exclusive des stagiaires et on se félicitait en tant que marque de posséder un compte Facebook. 
  • adolescence au début des années 2010, lorsque la plupart des entreprises et des acteurs institutionnels prenaient la parole sur les réseaux sociaux de façon indifférenciée par rapport aux autres canaux de diffusion et effectuaient parfois des actions aujourd’hui inconcevables comme l’achat de fans en masse. C’est cependant à cette même époque que nous avons vu naître aussi les premières stratégies de marque dédiées aux médias sociaux.
  • maturité depuis la fin des années 2010, lorsque ces stratégies social media se sont généralisées et qu’on a vu apparaître tout un ensemble de spécialistes du social media, lesquels ont joué un rôle important dans ce que nous avons appelé l’avènement du snack content.

L’avènement du snack content

Ainsi, en érigeant le social media comme un incontournable au sein des entreprises, les experts internes ou externes aux directions de communication ont préconisé le fait de répondre de plus en plus aux exigences des différentes plateformes pour chercher à se démarquer. Parmi leurs recommandations, on peut rappeler la production de contenus natifs, la prise en compte du fonctionnement des fils d’actualité et de la dynamique de flux, la sponsorisation des (micro-)contenus, l’adaptation des formats en fonction des médias de destination… A cela s’ajoute le nécessaire suivi des tendances des réseaux sociaux, des modifications constantes de leurs interfaces et de leurs fonctionnalités ou encore de leurs algorithmes qui petit à petit ont commencé à privilégier la publicité au détriment de tous les autres contenus[9]… 

C’est dans ce cadre précis que le snack content s’est vu petit à petit ériger une place de choix dans les stratégies de contenus mises en place par les directions de communication corporate des entreprises et dans les recommandations des agences spécialisées… à raison ou à tort ?

Vous l’aurez compris, il est question désormais de pointer les éventuelles limites de ce que nous avons appelé l’avènement du snack content au sein de la communication corporate. Ce sera l’objet du prochain article de la série intitulé « Le snack content, enfant prodig(u)e de la communication ? ». Stay tuned!

[1]La publicité display, dans le domaine du marketing digital, désigne le marché et les formats publicitaires graphiques et audio de type bannières et vidéos.

[2] Le « search marketing » ou « search engine marketing » regroupe l’ensemble des techniques consistant à positionner favorablement des offres commerciales, sites internet, applications mobiles ou autres contenus sur les pages de réponses des moteurs de recherche.

[3] Publicités sur les réseaux sociaux.

[4] Le content marketing, ou marketing de contenu, désigne les pratiques qui visent à mettre à disposition des prospects ou des clients un certain nombre de contenus utiles ou ludiques. En savoir plus.

[5] La communication corporate regroupe l’ensemble des actions de communication qui visent à promouvoir l’image de l’entreprise ou d’une organisation vis-à-vis de ses clients et de ses différents partenaires. 

[6] Au niveau mondial, Google détient le monopole de la publicité sur les moteurs de recherche. Hormis la Chine et la Russie, avec respectivement Baidu et Yandex, le reste des pays affichent souvent plus de 90 % de parts de marchés pour Google. Même si les chiffres datent de novembre 2018, l’infographie d’Abondance (Olivier Andrieu) reste toujours un excellent outil pour rendre concret ce monopole. C’est par ici !

[7] Selon le Blog du Modérateur, avec une baisse de 5 %, le social est le levier qui a le moins subi la crise du Covid. Les plus petits annonceurs se sont engagés plus fortement sur ce secteur orienté vers la performance, ce qui a compensé l’arrêt des campagnes des acteurs plus importants. Le marché du social a aussi été porté par Instagram, qui a connu un trafic d’audience important avec de très bons revenus publicitaires grâce à un meilleur ciblage alimenté par la data. Snapchat, LinkedIn ou encore Twitter ont été moins impactés du fait de la diversification des dépenses des annonceurs.

[8] Pour en savoir plus et retrouver les chiffres précis, consultez l’« Observatoire de l’e-pub : les chiffres clés de la publicité digitale en 2020 ».

[9] De manière peu surprenante, puis que leur business model se structure quasi exclusivement sur la publicité extrêmement ciblée (en passant par la récolte de la data).

Catégories
Écologie de l'attention

Le snack content est-il du junk content ? – #Episode1

Le snack content est-il du junk content ? C’est la question volontairement provocatrice à laquelle je tente de m’attaquer dans cette nouvelle série de tribunes. Mais qu’est-ce que le snack content ? Traduit littéralement en français « micro-contenu », ce concept jargonneux est un terme marketing utilisé pour décrire un contenu court ou très court qui va droit à l’essentiel, facile à consommer, et souvent – mais pas uniquement – dédié à un usage sur les réseaux sociaux et/ou à un usage mobile1. Depuis quelques années il perce et cartonne dans la communication corporate, à tort ou à raison… En savoir plus !

©unDraw illustrations

Mais qui aurait envie d’un snack quand on pourrait choisir un repas gastronomique à la place ? L’analogie avec la consommation de contenus en ligne n’est pas anodine puisque les éléments à considérer pour choisir entre deux contenus et deux plats sont semblables. Tout comme au restaurant, sur le marché des contenus en ligne, il est aussi question d’un coût à prendre en compte. La différence ? Sur l’internet, il est de moins en moins question d’argent, le coût d’entrée se mesurant de plus en plus en temps, en attention, en « temps de cerveau disponible », comme le veut la désormais célèbre phrase d’un publicitaire français. 

Le snack content apparaissait dans le monde de la communication corporate il y a quelques années comme étant le Saint Graal,  la solution ultime à un problème générationnel irrémédiable : le manque d’attention2. Avec cette préoccupation en tête, toute une génération de professionnels de la communication ont érigé une place de choix au snack content parmi les solutions à cette « équation impossible »3 liée à la consommation de contenus sur le web :  la richesse des contenus disponibles vs. une attention de plus en plus limitée4

Snack content… et si on se trompait sur toute la ligne ?

Cela fait bientôt trois ans  que je suis consultante en stratégie éditoriale et digitale au sein d’une agence de communication corporate spécialisée dans le contenu. Cela fait bientôt trois ans  que moi aussi je conseille régulièrement à mes clients – ils sauront le reconnaître –  de passer par le snack pour faire passer leurs messages. Entre pairs, il nous est d’ailleurs souvent arrivé de juger de la qualité d’un contenu en prenant clairement en compte cette variable : la « snackabilité »5 de ce dernier. 

Si l’intérêt du court et du très très court va de soi dans le monde de la publicité, serait-il possible qu’en l’adoptant aussi religieusement dans le monde du content marketing, on se soit trompé sur toute la ligne ? C’est en tout cas la thèse que je souhaite explorer dans cette série de mini articles dédiés au snack content intitulée « Pour en finir avec le snack content ? ». 

Dans le prochain épisode intitulé « Le snack content : les origines – Episode #2 » nous allons nous intéresser à l’histoire du snack content… Stay tuned!


1Pour aller plus loin dans la définition du concept de snacking content, consultez le site Définitions marketing. 

2Des études plus ou moins fiables titraient il y a quelques années que la capacité d’attention de l’être humain (génération Millennials) serait désormais moindre que celle d’un poisson rouge, l’estimant à hauteur d’environ 9 secondes. 

3Appelée également « content shock ». En savoir plus sur le site Définitions marketing. 

4Tout un mouvement pour une écologie de l’attention tente par ailleurs de répondre à cette équation de manière éthique et responsable.

5Barbarisme provenant du franglais signifiant la qualité de ce qui est snackable, donc facilement consommable sur le pouce.

Catégories
Digital Humanities

Google e(s)t le ROI sur Internet

Google s’est donné comme mission « d’organiser les informations à l’échelle mondiale pour les rendre accessibles et utiles à tous »¹. Or, tout le monde sait que l’information c’est le pouvoir. Qu’est-ce donc que d’aller au-delà de la détention de l’information pour se placer en organisateur de celle-ci, sinon un privilège monarchique et un pouvoir absolu ? Google, roi d’Internet, est aussi maître du ROI (return on investment). Quelle est l’étendue de son pouvoir ?

Signature Google
©Google

Google roi de l’information

Just go and google it!, rien de plus naturel dans notre quotidien à tous… Les chiffres le prouvent puisqu’en janvier 2020, 6 milliards de recherches Google étaient effectuées chaque jour par 1,17 milliards d’utilisateurs uniques. En moyenne, 71 000 requêtes sont effectuées toutes les secondes à l’échelle mondiale. En effet, Google satisfait nos curiosités, notre soif de savoir, de divertissement, d’information ; il est même juge de nos débats avec nos pairs ! Quand deux ou plusieurs personnes n’arrivent pas à se mettre d’accord sur un sujet, c’est Google qui a raison ! Et plus personne ne doute.

Qu’est-ce que Google pour la plupart d’entre nous ? Un moteur de recherche nous ayant fait oublier tous les autres. La loi du monopole d’Elias² semble s’appliquer à Google (et à l’espace virtuel) puisque plus aucun challengeur n’approche. Qu’est-ce donc que Google ? Une institution dont nous avons oublié les fondements. Plus encore ? Une évidence. La solution si simple et gratuite pour répondre à ce besoin si ancré et si important pour nous, le besoin d’information qui nous relie aux autres.

Un drôle de pouvoir, une drôle d’équation. Google répond à toutes les questions du monde sauf à une : comment fait-il pour y répondre ? Grand paradoxe. Son algorithme, qui trie parmi les 130 000 milliards de pages indexées en 2020, fait partie de ces secrets industriels les mieux gardés au monde. Sauf que Google ne vend pas du soda ou des burgers, il donne des réponses. Sous prétexte de secret industriel au même titre que la recette de Coca-Cola, Google défie la démarche scientifique qui veut que le savoir soit issu d’une méthodologie précise basée sur l’expérimentation et sur la preuve, et il nous apporte des réponses comme par magie, nous faisant ainsi sortir du paradigme cartésien. Et cela ne semble pas nous poser problème.

Google roi du contenu

Google punit les sites qui ne sont pas mobile friendly ou UX, Google punit les contenus qui ne sont pas enrichis par des images ou des vidéos, le trop de caractères sans répétition incessante de la requête principale, le pas assez… Le SEO, vous en avez entendu parler ? Le Search Engine Optimization ou l’optimisation pour les moteurs de recherche, enfin, pour le moteur de recherche roi, Google. Un acronyme bien connu dans le monde de la communication qui a donné lieu à un métier à temps plein : le métier de référenceur web. Ce dernier n’est ni un journaliste, ni un rédacteur, il n’est pas un communicant non plus, mais un spécialiste de Google qui cherche sans cesse à en décrypter l’algorithme.

Le monde libre du web se perdait dans son propre désordre… Heureusement que Google, avec son fameux « PageRank »³, a légiféré et prospère désormais en tant que grand ordonnateur des lois qu’il a lui-même édictées. Dans un monde de l’information où les institutions, les entreprises, les personnes physiques deviennent des médias, Google semble pousser l’ensemble des producteurs de contenus face à un véritable choix cornélien : écrire pour Google ou écrire pour son public ? La question ne se pose pas ?! Si. Dans la mesure où ne pas se plier aux exigences techniques et rédactionnelles du web régi par Google revient à ne jamais être visible pour son public. Or ne pas être vu — et donc ne pas être lu — c’est frustrant quand on a un message à faire passer ; ne pas être vu — et donc ne pas être lu — revient même dans certains cas à ne plus pouvoir produire de contenus.

Qu’il s’agisse de certains médias qui fondent leur modèle économique sur la publicité ou des services de communication des entreprises, la notion de performance — le taux de clic, le taux de rebond, le ROI (Retour sur investissement) en un seul mot — distingue ceux qui pourront poursuivre leur activité de ceux qui, faute de ressources, devront nécessairement l’arrêter⁴.

Écrire pour Google alors ! Mais à quel prix ? Il existe deux voies possibles. La première est la pratique exacerbée du SEO, qui revient à participer sciemment à l’appauvrissement et à l’uniformisation des contenus disponibles sur le web⁵. La seconde est de payer Google pour ne pas se retrouver noyé dans la richesse quantitative des contenus qu’il indexe et surpasser ainsi tous les autres. En effet, si vous n’êtes pas partisan du SEO, Google a une réponse pour vous : le SEA. Le terrain du Search Engine Advertising qui signifie littéralement « publicité sur les moteurs de recherche » a été fortement investi par Google qui multiplie de plus en plus les liens commerciaux ou publicitaires sur ses pages lorsqu’il répond à nos requêtes. Google Ads est le « trésorier » qui collecte l’impôt auprès des annonceurs qui souhaitent assurer à tout prix⁶ la visibilité de leurs contenus.

Google se donne officiellement pour mission de rendre l’information universellement accessible et utile. Or, les règles régissant le SEM (Search Engine Marketing) soulèvent un paradoxe nouveau : si on peut payer pour rendre accessible n’importe quel contenu, il est aisé de penser que ce contenu n’est pas forcément le plus pertinent en réponse à une requête donnée et donc n’est pas forcément utile. Inversement, les contenus utiles, « les bonnes réponses » à une requête donnée qui ne bénéficieraient pas d’un lien sponsorisé ni d’une optimisation SEO, pourraient se voir noyées en SERP 10 sans jamais être accessibles. Une blague dans le domaine du SEO veut que pour cacher un cadavre, il suffise de le cacher en deuxième page des résultats de Google…

Sur Google, l’accessible et l’utile sans être totalement irréconciliables, ne vont donc pas forcément de paire.

Google roi du web

Google roi des moteurs de recherche, Google roi du contenu, Google roi de la publicité, Google roi de la cartographie, Google roi… Google roi du web ? Google ne s’est pas satisfait d’une position monopolistique sur le marché des moteurs de recherche, mais semble chercher à consolider une position monopolistique sur le web dans son entièreté⁷. En effet, via sa société Alphabet, Google mène une politique de diversification forte, procédant à de nombreuses acquisitions au fil des années. II détient aujourd’hui de nombreux logiciels et sites web notables parmi lesquels YouTube, le système d’exploitation pour téléphones mobiles Android, ainsi que d’autres services tels que Gmail, Google Drive, Google EarthGoogle Maps ou Google Play… Softwarehardwaresoftpower, de quoi bâtir un royaume ! Qu’est-ce donc que Google sinon le détenteur du monopole de la violence symbolique légitime⁸ sur le web ?

Si la publicité (display et achats de mots clés) ont fait la richesse de Google, c’est bel et bien sa promesse initiale, celle de son premier service — le moteur de recherche — qui lui a permis de s’assurer le monopole sur d’autres marchés numériques, et de commencer une entreprise qui s’apparente à une forme de colonisation du web. En effet, avec Google le syntagme « l’information c’est le pouvoir », n’a jamais été aussi vrai, dans la mesure où plus Google donne de l’information, plus il en récolte. Plus il donne de l’information, plus il consolide son pouvoir. Comment ? L’ensemble de ses services, dont la plupart sont gratuits, sont des grands collecteurs de data. Pas besoin de rappeler que lorsque c’est gratuit, le produit c’est vous, si ?

« Le Web auquel beaucoup se connectaient il y a des années n’est plus celui que les nouveaux utilisateurs trouveront aujourd’hui. Ce qui était autrefois une riche sélection de blogs et de sites Internet a été comprimé sous le lourd poids d’une poignée de plateformes dominantes [en mesure de] contrôler quelles idées et opinions sont vues et partagées ».

Tim Berners-Lee, le fondateur du Web, interview au Monde


¹ D’après la page de présentation de la société sur : https://about.google/

² Dans son ouvrage Sur le processus de civilisation (paru en France en deux volumes distincts, La Dynamique de l’Occident et La Civilisation des mœurs), le sociologue d’origine allemande Norbert Elias propose une analyse de la genèse de l’État à deux niveaux, sociogenèse et psychogenèse, mettant en évidence un processus de « conquête monopolistique ». Le point de départ de l’analyse de Norbert Elias se situe en Europe occidentale, dans le monde féodal du XIe siècle, c’est-à-dire dans une société divisée en multiples « unités de domination ». Le mécanisme non intentionnel par lequel une de ces unités (le royaume de France qui ne comprend à l’époque que le domaine royal proprement dit situé entre Paris et Orléans) va finir par supplanter les autres correspond à un processus concurrentiel par lequel celui qui n’accroît pas ses ressources risque de perdre ce qu’il possède déjà, ce qui exclut donc le maintien d’un statu quo ante entre ces « unités de domination ». L’auteur nous présente cette dynamique sociale sous la forme d’une loi du monopole. La conquête du web par une poignée d’acteurs dont Google apparaît en chef de file — les GAFA — ressemble fortement à la dynamique de concentration monopolistique menant à la création des États modernes décrite par Elias dans La Dynamique de l’Occident.

³ Le Pagerank est un système développé par les fondateurs de Google qui affecte une « notation » à une page web en fonction des liens externes pointant vers cette page et de la nature et qualité des sites sur lesquels ces liens sont présents.
Combiné aux autres critères SEO, le Pagerank contribue au score global attribué à une page en fonction d’une requête donnée et donc à la position de la page dans les SERPs Google.

⁴ Pour aller plus loin, consulter l’article « Facebook — nouvelle ère, nouvelles fonctionnalités, nouvelles ambitions ».

⁵ A combien de reprises ne vous est-il pas arrivé d’interroger Google sur un sujet assez technique (surtout qui concernait la marmite du web !) et vous avez naturellement cliqué sur le premier ou le deuxième lien naturel affiché en page 1 du moteur de recherche pour vous retrouver sur un article que je qualifierais de « bande d’annonce en boucle » qui souvent ne donne même pas la réponse à votre question ? Il s’agit là de l’œuvre de référenceurs qui trompent l’algorithme qui sélectionne pour afficher en premier des contenus non-pertinents mais respectant l’ensemble des contraintes techniques.

⁶ Un système d’enchères définit le prix de la position 1 dans la page de réponses de Google à une requête donnée.

⁷ Pour aller plus loin, découvrez l’article « Covid-19 : qu’on fait les GAFA pour nous dans cette période ? »

⁸ Il s’agit de la définition de l’État donnée par le sociologue français Pierre Bourdieu qui reprend la définition du sociologue allemand Max Weber pour lequel l’État était « le monopole de la violence physique légitime ». En développant le concept de violence symbolique, Bourdieu enrichit la réflexion en y apportant cette nuance essentielle pour comprendre la légitimité étatique dans des pays pacifiés. Dans l’acception bourdieusienne, l’État devient ainsi par son pouvoir de nomination « la banque centrale du capital symbolique », au même titre que Google qui consolide des positions monopolistiques dans le numérique et se place en régisseur des normes du web.

Catégories
Digital Humanities

Covid-19 : « Qu’ont fait les GAFA pour nous, dans cette période ? »

C’est en tout cas la question rhétorique qu’adressait Sébastien Bazin, PDG du Groupe Accor, dans son intervention dans le cadre du Online summit business rebound qui avait lieu le 29 avril dernier. En effet, face à la crise sanitaire mondiale, l’Europe entière se mobilise tous azimuts pour endiguer cette pandémie aux lourdes conséquences économiques. Ainsi, États en première ligne, mais aussi grands groupes, industriels, artistes ou encore personnalités de la société civile se mobilisent tous, à leur échelle, via des mesures, des financements extraordinaires, ou encore simplement des actions de sensibilisation. Dans une tribune publiée récemment, je me demandais si Facebook, et par extension les géants du web, n’étaient pas les grands gagnants de la crise. Or, with great power comes great responsibility. Comment les grands du numérique ont-ils rejoint cette mobilisation généralisée ? Quelles sont les mesures concrètes prises par les GAFA dans cette période ?

Les GAFA seraient-ils de manière paradoxale les grands absents de la mobilisation mondiale face au Covid-19 ? Enquête.

©unsplash

Les GAFA face au Covid-19 : entre mesures tech controversées et financements de surface

Les premiers jours de confinement ont été rythmés par une série d’articles issus de médias spécialisés, mais également de grands titres généralistes qui tantôt informaient, tantôt saluaient la mobilisation inédite de Google et de Facebook qui ont donné accès à une partie de leur data de géolocalisation aux gouvernements du monde entier pour leur permettre d’étudier la propagation de la pandémie. En effet, s’agissant des mesures technologiques, les GAFA, grands collecteurs et détenteurs de data, apparaissent comme les chefs de file de la mobilisation. Google et Apple ont annoncé par exemple leur union en vue de proposer des solutions de développement de contact tracing. Dès la mi-mai, les systèmes d’exploitation mobiles iOS et Android seront ainsi en mesure d’accueillir des applications de suivi numérique des patients malades. Le but ? Retracer les déplacements des patients infectés au Covid-19, pour remonter la chaîne de transmission du virus (voir qui a été en contact avec les malades) et arrêter sa propagation. Dans un deuxième temps, Google et Apple comptent directement intégrer le contact tracing dans leurs systèmes d’exploitation ; les utilisateurs qui souhaiteraient activer cette technologie ne devront même plus télécharger d’application.

Mais ces mesures exclusivement technologiques comportent intrinsèquement des limites dans la mesure où elles ne sont pas accompagnées d’une forte réflexion sociologique quant aux usages et aux conséquences que ces dernières peuvent avoir sur la vie privée ou encore sur les libertés personnelles. De nombreux chercheurs et philosophes ont ainsi cherché à alerter quant aux conséquences irréversibles que la mise en place de ce qui s’apparente à un système de surveillance de masse en Europe dans le contexte du Covid-19 pouvait avoir sur le visage-même de nos démocraties occidentales… En France, il n’a fallu que très peu de temps, avant de voir naître la polémique liée à l’appli #StopCovid, précurseure des solutions qui sont en train d’être mises au point par Google et Apple.

On peut donc espérer une réaction tout aussi virulente face à la récolte et au contrôle d’informations si précieuses par des entreprises privées américaines — lesquelles se chargent ainsi d’une forte dose de biopouvoir[1].

Sur un plan économique, nous avons vu ces dernières semaines fleurir des initiatives des grands groupes mondiaux qui annonçaient tout un ensemble de mesures leur permettant de se joindre aux efforts collectifs pour combattre la pandémie. Ainsi, de nombreux chefs d’entreprise ont fortement diminué leur rémunération de manière à ce que la différence d’argent soit allouée aux fonds pour la recherche, l’information ou la production/ l’achat de masques, etc. … Des grands groupes hôteliers ont ouvert leurs hôtels vidés par le confinement aux personnes sans domicile fixe, qui ont pu ainsi se protéger du virus et arrêter de contribuer involontairement à sa propagation. Des entreprises mondiales du secteur cosmétique ont mis la production des crèmes et des parfums en stand by en faveur de la production de gels hydroalcooliques. Des grands groupes du secteur bancaire ont également débloqué des dizaines de millions d’euros d’aides aux hôpitaux, aux populations fragiles et aux élèves en difficulté. On l’aura compris, la mobilisation est grande à la hauteur de la gravité de cette crise.

Les GAFA(M) ont elles aussi rejoint cette mobilisation financière, directement ou indirectement. Les chefs de ces grandes entreprises, qui sont d’ailleurs détenteurs à l’heure actuelle des plus grandes fortunes mondiales, ont fait la course aux dons pour combattre le Covid-19. Ainsi, Jack Dorsey (Twitter), Bill Gates (Microsoft), Jeff Bezos (Amazon) ou encore Mark Zuckerberg (Facebook) font partie des chefs d’entreprise dont les dons ont été les plus conséquents au monde. Mais que Mark Zuckerberg et son épouse, Priscilla Chan, décident de verser 25 millions de dollars, via leur fondation, pour la recherche de thérapies pour soigner les personnes atteintes du Coronavirus, ne revient pas à la même chose que Facebook s’engage à payer un « impôt de guerre contre le Covid-19 ». En effet, ces dons sont faits à titre privé et la confusion souvent faite entre ces PDG fondateurs, stars de l’économie numérique, et leurs entreprises-mêmes apparaît ici comme étant bénéfique à ces dernières.

Ceci étant dit, les GAFA ont également pris quelques engagements et fait des promesses. Ainsi, Apple a livré 20 millions de masques aux hôpitaux et s’est engagé, dans un tweet publié à partir du compte officiel de Tim Cook, à fabriquer 1 million de visières par semaine. Facebook a donné accès gratuitement à sa Workplace[2] aux gouvernements et aux services d’urgence et a promis des aides aux petites entreprises fortement touchées par le coronavirus dans 30 pays, à hauteur de 100 millions de dollars. Google, quant à lui , a lancé un Fonds mondial d’aide d’urgence pour le journalisme par le biais de la Google News Initiative afin d’aider les petites et moyennes entreprises de presse à produire des informations originales au niveau local.

De la mobilisation soit, mais pour des entreprises dont le capital social est supérieur aux PIB de la plupart des petits États du monde, tout cela paraît encore bien léger… en tout cas, encore bien éloigné de la mesure liée à une taxation des GAFA de plus en plus plébiscitée dans le contexte du Covid-19.

Par ailleurs, si Google, Facebook et Apple ont pris des engagements, les GAFA comptent également parmi leurs rangs un « très » mauvais élève : Amazon.

Conçu initialement en tant que librairie en ligne sans problématique liée aux stocks et pouvant mettre à disposition de ses clients des livres rares, Amazon est d’abord apparu comme une opportunité pour les utilisateurs, mais aussi pour les éditeurs qui ont référencé en masse leurs produits. Depuis, Amazon s’est lancé dans la vente des livres d’occasion — évolution qui a mis les libraires dans une posture de concurrence vis-à-vis du géant du web, ou plus précisément les a basculé dans un système de « co-opétition »[3] dans le cadre d’une plateforme à trois versants — éditeurs — internautes et libraires, dont le grand gagnant est Amazon.

S’il est décrié pour avoir ainsi monopolisé le marché du livre, et, depuis sa forte diversification à la vente online de presque tout (prêt-à-porter, jeux, produits alimentaires…), pour chercher à s’accaparer l’intégralité du e-commerce, Amazon l’est aussi quant à sa gestion de la crise sanitaire Covid-19. En effet, pendant que la France entière était confinée, les commerces de proximité fermés et leur existence-même mise en péril par la mesure, « en périphérie des grandes villes, il continuait à exister des lieux où l’on se confinait à plus de mille » : les entrepôts logistiques d’Amazon[4]. Face à cette situation de fait profondément inégalitaire, le 14 avril, le tribunal judiciaire de Nanterre, saisi par l’Union syndicale Solidaires, a ainsi condamné Amazon à ne livrer que les « produits essentiels » (alimentaires, d’hygiène ou médicaux), qui représentent moins de 10 % des produits habituellement vendus par le e-commerçant, sous peine d’une amende s’élevant à un million d’euros par jour et par infraction constatée. Résultat des courses : Amazon a immédiatement suspendu les activités de ses centres de distribution dans le pays.

Dans une économie globale qui s’effondre à cause de la crise liée au Covid-19, les GAFA affichent une « une santé économique insolente » exacerbée par le confinement, dans la mesure où celui-ci oblige les individus à donner aux gestes et aux habitudes du quotidien une dimension virtuelle. Acteurs économiques mondiaux de première lice, les GAFA se doivent donc de contribuer massivement à l’effort collectif. Or, sous couvert d’une participation au niveau du tech, qui les concernerait en priorité, les mesures concrètes prises jusqu’à présent demeurent minimes.

L’absentéisme systémique. Un trait de figure des GAFA ?

Bien avant la crise du Covid-19, les GAFA ont fréquemment été mises sur le devant de la scène, accusées de proliférer des fake-news, décriées pour nuire aux éditeurs qui exigent depuis octobre 2019 un droit voisin en vertu du fait que ce sont leurs contenus qui font la richesse des plateformes, ou encore jugées de manière répétitive dans des cours européennes pour le non-respect des règles de la concurrence. L’absence de mesures a souvent été la réponse des GAFA face aux polémiques.

Avec le numérique, les règles et le fonctionnement de l’économie ont fondamentalement changé, mais sans évolution adéquate du cadre régulateur. Adam Smith théorisait la « main invisible »[5] dans un monde où on se déplaçait en charrette. Qu’en est-il du nôtre où tout est jeu d’écriture, gestion de flux d’informations beaucoup moins visibles, où les gate keepers ont été remplacés par les gate watchers et tout devient une problématique d’accès plutôt que de mise en visibilité ? Gratuité, plateformes multiversants[6], effets de réseaux directs et indirects[7], publicité automatisée et ciblée… il ne s’agit là que de quelques réalités de cette nouvelle économie qui se structure sur Internet et dont le marché pertinent devient le marché de l’attention — ou encore le marché de la data, cela reste à définir. La problématique ? Ce marché se concentre autour d’une poignée d’entreprises, les GAFA essentiellement, qui captent toute la valeur, au détriment de tout un ensemble d’autres acteurs voués à disparaître ou encore au détriment des producteurs de contenus.

Le grand problème des OTT (over the top), c’est qu’il s’agit de plateformes qui ne créent pas de contenu, qui ne participent pas au financement des infrastructures[8] (du réseau), qui profitent de l’optimisation fiscale[9] et consolident ainsi des positions monopolistiques de fait, difficiles à remettre en question par des challengeurs.

Pour ne prendre qu’un exemple : une startup pourrait très bien mettre au point un algorithme de moteur de recherche beaucoup plus performant que celui de Google. Aurait-elle pour autant ses chances de s’imposer sur le marché des moteurs de recherche, où Google a le bénéfice de l’antériorité et récolte de la data depuis les années 1990 ? Sans accès à toute cette data, aucun challengeur ne pourrait perfectionner son produit et proposer ainsi une meilleure qualité de service, et ce même dans le cas où son algorithme de base serait objectivement meilleur.

L’historique des données fonctionne en effet comme une barrière dans l’entrée sur le marché. Si une parfaite concurrence walrassienne[10] demanderait un échange de l’ensemble des données récoltées avec tous les acteurs, dans le réel, cela poserait bien entendu de vrais problèmes liés à la protection des données. C’est ce qui explique en tout cas aujourd’hui l’émergence d’un modèle économique à part entière dans le monde des startups : je crée une super appli, j’investis tout ce qu’il y a à investir pendant 5 ans et ensuite je vends à Google. Il s’agit du modèle économique du rachat, qui devient un hobby très prenant, mais cela crée de vrais problèmes de distorsion par rapport au marché publicitaire notamment.

Quelles sont aujourd’hui les autorités compétentes pour réguler ces services transnationaux, over the top ? L’Autorité de la concurrence française, la Commission européenne, la Federal Trade Commission aux États-Unis ? Ce n’est pas clair, et c’est bien ce qui fait que l’ensemble des problématiques en cours ne sont jamais réellement et définitivement tranchées.

On l’aura compris, les GAFA sont les grands absents de ce qui rend possible matériellement et économiquement cette interconnexion mondiale appelée Internet, et paradoxalement, ce sont ceux qui en profitent le plus. L’absentéisme semble systémique et inhérent au fonctionnement même des GAFA. Comme déjà évoqué, la crise du Covid-19 ne bouleverse pas profondément cet habitus par des mesures à la hauteur de ce qu’on pourrait attendre d’elles. Cependant, à en croire les prises de parole officielles ou encore les modifications des interfaces de certaines GAFA, leur mobilisation dans le cadre du Covid-19 s’apparenterait quasiment à de l’activisme… Qu’en est-il en réalité ?

Parmi les GAFA, G&F les plus mobilisées ou les plus opportunistes ?

Au regard des premières réactions et des dispositifs mis en place dans la cadre du Covid-19, nous pouvons aisément séparer les GAFA en deux positionnements bien distincts.[11]

D’un côté, Amazon et Apple, qui n’ont pas des utilisateurs, mais des clients à satisfaire, ont mis en place des stratégies réactives, de réassurance, en affichant sur leur site internet de simples messages du type « Compte tenu de la situation actuelle, nos délais de livraison peuvent être rallongés » (Amazon), ou encore « Nos magasins sont fermés jusqu’à nouvel ordre. Nous tenons cependant à offrir le meilleur service possible à notre clientèle. […] Nous avons hâte de vous revoir » (Apple).

De l’autre, Facebook et Google ont, quant à eux, mis en place des stratégies proactives visant à les crédibiliser face à leurs utilisateurs, mais également face aux clients professionnels, à qui elles vendent des espaces publicitaires dont le prix augmente en fonction du trafic qu’elles génèrent. Leur positionnement apparaît donc avant tout comme opportuniste, puisque faire preuve d’implication civique et de crédibilité informationnelle dans la lutte contre la pandémie apparaissait comme la condition sine qua non pour fidéliser les usagers actuels et pour en attirer de nouveaux. En effet, face à une crise mondiale, c’est le pendant informationnel des services comme Google et Facebook qui apparait comme étant le plus stratégique, et la mainmise sur l’espace public via le contrôle de l’information devient la pomme de la discorde des géants du numérique. Mais regardons de plus près les évolutions opérées par Facebook et Google dans le cadre de leur mobilisation contre la pandémie Covid-19 !

J’ai récemment dédié une tribune entière à Facebook et notamment aux conséquences néfastes que son positionnement en tant que plateforme d’information, exacerbé dans le cadre de la crise du Covid-19, pouvaient avoir sur l’industrie de la production du contenu. J’y ai détaillé un certain nombre d’évolutions de son interface qui « trahissent » de manière assez explicite ce nouveau positionnement. Depuis le 20 avril, la date de la publication de cette tribune, quelques autres évolutions de l’interface de Facebook ont attiré mon attention et ne viennent que renforcer cette même idée. Je ne vais prendre qu’un seul exemple : chacune de nos toutes premières connexions quotidiennes sur Facebook, s’accompagnent désormais d’une mise en avant dynamique, de type pop-in de la désormais fameuse rubrique « Covid-19 : Centre d’information » :

Image for post

Mais assez avec Facebook. Qu’en est-il de Google ?

C’est en tout cas la question que je me suis posée lorsque j’ai tapé, il y a tout juste deux jours la toute première fois « Covid-19 » dans la barre dédiée aux requêtes du moteur de recherche. Voici ce sur quoi je suis tombée :

Rien ne vous surprend ? Sommes-nous toujours dans une SERP (page de résultats d’un moteur de recherche) ? Ou bien atterrissons-nous sur une page dédiée au Coronavirus structurée selon une logique bien précise de mise en scène de l’information et qui sert une ou plusieurs causes bien précises ? Vous l’aurez compris, ma question est rhétorique. Google a développé une landing page Covid-19, qui n’a pas besoin d’URL précise pour exister, qui s’affiche sans faille à une multitude de requêtes distinctes : « Covid-19 », « Coronavirus », « Covid », « nouveau coronavirus », « pandémie corona »… Bref, les chances que la sérendipité prétendue du web soit outrepassée et que l’on tombe sur cette page Google sont grandes…

Par ailleurs, cette page a une autre spécificité. A la différence de n’importe quel autre annonceur — gouvernemental, média, entreprise privée — pour créer cette landing page, Google n’a pas besoin d’être propriétaire des contenus présents sur cette dernière. Pour autant, cette page fournit au simple survol tout un tas d’informations qui peuvent se suffire en elles-mêmes (le nombre de cas, confirmés et de décès en France et dans le monde, les titres du jour dans les journaux nationaux et dans la presse locale, la liste des symptômes du virus, les moyens de prévention comme les gestes barrière, ou encore des statistiques détaillées…), justifiant par là-même la présence plus ou moins prolongée sur cette landing page d’un grand nombre de consommateurs d’information.

En réalité, cette évolution n’est pas si nouvelle que cela. Grâce à des snippets très enrichis, Google retient sur ses pages de recherches un trafic important d’internautes qui auparavant cliquaient sur le site de Météo-France pour connaître les pronostics météorologiques de la journée, se rendaient sur AlloCiné ou bien sur les sites des cinémas pour vérifier les prochaines séances, ou encore allaient sur les pages Wikipédia pour appréhender rapidement un sujet complexe ou une information qui leur échappait. En clair, via ce nouveau fonctionnement opportuniste, devenu criard dans le cadre de la crise actuelle liée au Coronavirus, Google détourne le trafic de tout un tas d’annonceurs qui deviennent obsolètes, ou en tout cas en directe concurrence avec Google lui-même qui choisit de rendre visible (ou non) les contenus que ces derniers produisent à leurs propres frais et efforts.

Image for post
Une fois que l’internaute a identifié la réponse à sa requête — et ce sans même un clic supplémentaire -, quel intérêt de se rendre sur le site grâce auquel Google a été en mesure d’être apporteur de réponse ? Aucun. Surtout pour un consommateur d’information de plus en plus habitué au snack content, au tweet, à la micro-information, trait de caractère de l’infobésité.

Quels effets pour les producteurs de contenus ? Eh bien dans le cadre du Covid-19, le fait que la page dédiée du Gouvernement apparaisse en chef de file est considéré comme étant un engagement de la part de Google dans la lutte contre les fake-news et pour l’information et la pédagogie de masse à mener pour combattre la propagation du virus. Par ailleurs, faire partie des quelques titres listés à la une à un moment donné devient le saint graal de tous les médias, car ces derniers gagnent en visibilité et les chances qu’un titre plus accrocheur qu’un autre affiché sur cette page fonctionne comme un clickbait sont grandes. Et si demain le clic n’a plus lieu ? Et si la prochaine évolution d’interface de Google laissait les internautes piégés dans les SERPs tels les jeunes Athéniens offerts en proie au Minotaure ?

Que deviendraient alors les producteurs de contenu dont le modèle économique impose de se rattraper sur le versant publicitaire, ou alors ceux dont le ROI (retour sur investissement) justifie ou non de nouveaux budgets alloués à leur mission de communication ? Et qu’en est-il des consommateurs d’information et surtout de ceux qui, sans fil d’Ariane, ne sont pas suffisamment armés pour s’extraire du labyrinthe ? Selon quelles logiques Google sélectionne-t-il les contenus pertinents sur sa toute nouvelle page dédiée au Covid-19 ? Pourquoi me verrai-je proposer un titre issu de 20 minutes plutôt qu’un titre du Monde Diplomatique ? Pourquoi Paris Match et non le Courrier International ?

Ce ne sont que des exemples, mais ceux-ci illustrent comment les GAFA viennent s’immiscer dans l’espace public et cherchent à mettre une mainmise sur ce dernier de manière à surplomber l’économie et à renforcer des positionnements over the top.

On l’aura compris, les géants du web ne sont devenus des géants que parce qu’ils ont réussi à surfer sur leur dimension transnationale pour échapper aux logiques de régulation de la concurrence, aux impôts nationaux, ainsi qu’aux financements des infrastructures ou encore des contenus qui donnent tout le sens à leurs plateformes… Dans le contexte de la crise du Covid-19, malgré une apparence de transformation et d’audibilité de la part d’entreprises comme Google et Facebook, on voit que le syntagme « business as usual » est peut-être plus fort que jamais, et que ces acteurs voient dans la crise sanitaire une opportunité pour renforcer leur mainmise sur le marché de l’information et par extension sur l’espace public.
Si l’ensemble de ces points méritent une réflexion et des réponses précises incarnées par des évolutions du social et du politique, les GAFA ne sont pas les seuls acteurs de l’économie du numérique à « mériter » d’être pointés du doigt. En effet, depuis quelques années, des challengers crédibles structurés selon des logiques similaires à celles inhérentes aux GAFA leur permettant de surplomber et d’avaler des secteurs et des métiers à part entière, ont vu le jour. Il s’agit bien entendu des NATU (Netflix, Airbnb, Tesla, Uber…) qui mériteraient eux-aussi une analyse à part entière.

[1] Le biopouvoir est un type de pouvoir qui s’exerce sur la vie : la vie des corps et celle de la population. Selon Michel Foucault, il remplace peu à peu le pouvoir monarchique de donner la mort. L’exercice de ce pouvoir constitue un gouvernement des hommes ; avant de s’exercer à travers les ministères de l’État, il aurait pris racine dans le gouvernement des âmes exercé par les ministres de l’Église.

[2] Le réseau social d’entreprise développé par Facebook, Inc. et proposant des outils tels que les groupes, la messagerie instantanée et le fil d’actualités.

[3] B. Nalebuff, A. Brandenburger, La Co-opétition, une révolution dans la manière de jouer concurrence et coopération, Village Mondial, 1996.

[4] Découvrez dans ce sens l’excellent dossier Derrière les murs de « l’usine à colis » du Monde Diplomatique.

[5] « La main invisible » est une expression forgée par Adam Smith au milieu du XVIIIe siècle qui désigne la théorie selon laquelle l’ensemble des actions individuelles des acteurs économiques, guidées uniquement par l’intérêt personnel de chacun, contribuent à la richesse et au bien commun.

[6] Il s’agit de plateformes structurées autour de 4–5 versants d’activités avec des synergies entres marchés qui peuvent se nuire les uns aux autres alors que leur cœur de métier est complètement différent, et ce avec des répercussions très graves sur la concurrence, mais aussi sur les consommateurs. Des métiers entiers seront progressivement voués à disparaître juste parce qu’ils n’auront pas réussi à être compétitifs selon ces nouvelles règles.

[7] On parle d’effet de réseau direct quand la présence d’un consommateur supplémentaire sur le marché entraîne une valeur supplémentaire pour le produit pour tous ceux qui le consomment déjà ou pour ceux qui ne le consomment pas encore (nouveaux utilisateurs). Exemple : si aucune de nos connexions interpersonnelles n’avait de compte Facebook, nous n’aurions pas intérêt d’en avoir un non plus. On parle d’effet de réseau indirect lorsqu’un marché numéro 1 crée de la valeur pour un marché connexe numéro 2. Exemple : le marché de la vente de musique en ligne crée de la valeur sur un marché numéro 2 qui est celui de la vente des casques.

[8] Aujourd’hui quand on veut se lancer en tant qu’opérateur de téléphonie mobile en France, le régulateur oblige l’entreprise entrante à couvrir un pourcentage de la population française, mais aussi un pourcentage du territoire géographique de la France via son propre réseau (25 % lorsque Free s’est lancé en 2011). C’est ce qu’on appelle le coût de desserte, qui n’est guère intéressant à couvrir économiquement parlant pour l’entreprise, mais qui permet d’assurer qu’il n’y ait pas de diagonale du vide ou de grands exclus sur le territoire français. S’agissant des géants du numérique, à défaut d’une autorité transnationale en capacité de réguler, même si l’ensemble des « produits » des GAFA ne pourraient simplement pas exister sans le réseau et la couverture du plus grand nombre, aucune de ces grandes entreprises du numérique n’a financé quelconque infrastructure, et encore pire, ils bénéficient de manière outrancière de la bande passante d’un grand nombre d’opérateurs qui les jugent comme étant prioritaires par rapport à de plus petits acteurs. On pourrait se demander aujourd’hui dans quelle mesure il ne relèverait pas de la responsabilité des GAFA de financer le coût de desserte du continent africain, pour ne prendre qu’un exemple.

[9] Un grand nombre de théoriciens et économistes ont conçu les utilisateurs d’un ensemble de services comme Facebook, non plus en tant que consommateurs, mais en tant que producteurs de contenus et d’interactions qui donnent de la valeur à la plateforme. En effet, dans la mesure où c’est bien le travail des internautes qui s’inscrivent et passent leur temps sur Facebook qui donne plus de valeur au service pour les utilisateurs qui y sont déjà et accroissent l’attractivité de la plateforme pour ceux qui n’y sont pas encore, cette présence facilement assimilable au travail justifierait économiquement parlant une rémunération. Il faudrait donc que Facebook paie ses utilisateurs, c’est en tout cas le postulat soutenu en France par le rapport Collin & Colin (2013) qui conclut sur le fait que plutôt que de payer chacun des utilisateurs à hauteur de X euros par mois, il suffirait simplement de multiplier le chiffre avec le nombre d’utilisateurs actifs de Facebook en France pour déboucher sur le juste prix d’imposition du géant américain dans l’Hexagone. Il s’agirait ainsi d’un possible calcul de la somme imposable de Facebook en France. Le même type de calcul peut néanmoins se faire avec tout autant d’aisance au niveau européen.

[10] Drouin, Jean-Claude. « 6. Léon Walras, théoricien de l’équilibre économique », Les grands économistes. Sous la direction de Drouin Jean-Claude. Presses Universitaires de France, 2012. URL : https://www.cairn.info/les-grands-economistes–9782130606260-page-63.htm.

[11] Mobilisation des GAFA contre la pandémie Covid-19 : business as usual. The Conversation.