Le 24 janvier 2025 à 17h23, Nour Halabi, un humoriste syrien, poste sur sa chaîne Telegram une fausse information sur des accords entre le Kremlin et les nouvelles autorités à Damas, ainsi que sur le retour de Maher al-Assad. La publication sera retirée par son auteur 3 minutes plus tard en précisant qu’il s’agissait d’une blague. La rumeur d’un retour des tenants du régime Assad était déjà lancée et allait entraîner le passage à l’acte de certains de leurs partisans, ainsi que l’identification des relais encore actifs.
Cet épisode, pris isolément, souligne à quel point, en situation de crise, les médias sociaux sont devenus de puissants outils de manipulation aux conséquences bien réelles. Ce contexte de stress informationnel se caractérise alors par la difficulté, pour chaque individu, à traiter l’information. Cette surcharge cognitive peut alors conduire à la paralysie de la décision ou, à l’inverse, à des réactions inappropriées.
Dans son livre Mindfuck, Christopher Wylie, ancien employé de Cambridge Analytica et lanceur d’alerte, dénonce pour sa part les pratiques de son ancienne entreprise qui a exploité les données personnelles de millions d’utilisateurs pour influencer des événements politiques, tels que l’élection de Donald Trump ou le référendum sur le Brexit. Ce que l’on retient de l’« affaire Cambridge Analytica », ce sont essentiellement les liens entre l’entreprise et Facebook, ainsi que la mise en lumière des techniques de micro-ciblage via les réseaux sociaux.
Dès lors, l’idée que l’on pouvait influencer les comportements à grands coups de campagnes numériques s’est progressivement imposée. Nous pensons qu’il s’agit là de l’émergence d’un mythe moderne qu’il faut analyser et déconstruire – X, Facebook, TikTok et Instagram étant devenus les instruments de ces nouveaux « ingénieurs du chaos ». Pourtant, sans une combinaison d’actions reposant sur une connaissance fine des auditoires et de leurs aspirations, l’action numérique seule semble limitée.
L’influence numérique, particulièrement celle exercée via les réseaux sociaux, est perçue comme un puissant levier de changement des opinions. Cependant, l’étude de la polarisation des opinions en ligne tend à démontrer que, loin de transformer les convictions des individus, les interactions numériques tendent plutôt à renforcer des croyances préexistantes. Dans un contexte où la désinformation et la manipulation de l’information sont désignées comme le premier risque systémique, la question de l’efficacité réelle des campagnes numériques doit être questionnée.
Enfin, dans la perspective de l’intégration de ces outils comme de nouvelles modalités d’actions dans une opération militaire, la mesure d’impact s’avère critique pour évaluer l’atteinte des objectifs. Cette dernière, partie intégrante de l’efficacité des actions, conditionne la bonne synchronisation des moyens mis en œuvre et alimente la boucle de décision.
Enfermement cognitif
Les réseaux sociaux, par leur structure, leur fonctionnement et les optimisations algorithmiques sous-jacentes, favorisent la création de « bulles de filtres », concept développé par Eli Pariser en 2011 dans son ouvrage The Filter Bubble: What the Internet Is Hiding from You. Ces dernières confrontent les utilisateurs principalement à des contenus qui reflètent et renforcent leurs opinions initiales, l’objectif des plateformes étant de retenir les internautes le plus longtemps possible pour maximiser l’exposition à la publicité. L’économiste Herbert A. Simon formule d’ailleurs, dès 1971, les fondements de l’économie de l’attention en soulignant que « dans un monde riche en informations, l’abondance d’informations entraîne la pénurie d’une autre ressource : la rareté devient ce que consomme l’information. Ce que l’information consomme est assez évident : c’est l’attention de ses receveurs. Ainsi, une abondance d’informations crée une rareté de l’attention et le besoin de répartir efficacement cette attention parmi la surabondance des sources d’informations qui peuvent la consommer. » Avant lui, comme le fait remarquer Yves Citton, le sociologue Gabriel Tarde (1843-1904) avait déjà compris que l’« industrialisation entraîne une surproduction de marchandises, dans laquelle ce sont les questions attentionnelles qui jouent un rôle central dans l’économie ».
Aujourd’hui, étant donné que le meilleur moyen de capter l’attention demeure le plaisir ou la peur, les réseaux sociaux ont donc naturellement optimisé leurs outils pour y parvenir.
Sur la plupart des plateformes, les algorithmes analysent les comportements des utilisateurs pour leur proposer des contenus similaires à ceux qu’ils apprécient déjà, créant ainsi un écosystème où les nouvelles informations ne servent qu’à conforter des croyances existantes. Cette logique algorithmique, s’appuie sur notre propension à la stabilité et valorise le « système un », pour reprendre l’expression de Daniel Kahneman. La réaction cognitive propose des réponses immédiates, intuitives et souvent non optimisées. L’aversion à la nouveauté réduit la probabilité que les utilisateurs soient confrontés à des perspectives différentes ou opposées, limitant ainsi la possibilité d’une véritable remise en question de leurs croyances.
En outre, lorsqu’un utilisateur est confronté à une information différente, il aura tendance à la rejeter plus facilement. L’essence même d’un réseau social est d’unir les proches et de renforcer les liens, mais la question de la formation des opinions dans un tel contexte s’avère être un sujet de recherche bien antérieur. Dès les années 1950, plusieurs chercheurs développent des concepts pour rendre compte de ces phénomènes. Le psychologue Léon Festinger, par exemple, évoque la dissonance cognitive, qui décrit l’état de désarroi et les stratégies d’évitement face à des opinions contraires aux siennes.
En 2000, dans leur article « Mixing Beliefs among Interacting Agents », les chercheurs Guillaume Deffuant, David Neau, Frederic Amblard et Gérard Weisbuch arrivent à une conclusion plus fine : un individu moyen n’adapte ses jugements que si les opinions auxquelles il est confronté ne sont pas trop éloignées des siennes. « C’est l’idée que si quelque chose est trop éloigné de ce à quoi je crois, je ne vais même pas lui accorder mon attention », résume Gianmarco de Francisci Morales.
Face à ces limites, pourquoi dès lors utiliser les réseaux sociaux pour tenter de modifier des comportements et façonner des opinions ? Pour atteindre des objectifs stratégiques, est-il utile de convaincre ses adversaires ?
Biais et persuasion : pour briser la bulle de filtre
La tendance structurelle des réseaux sociaux à l’enfermement cognitif est soutenue par la psychologie sociale et principalement les biais de confirmation, les biais d’autorité et l’effet de retournement. Ces biais poussent les individus à rechercher, à interpréter et à se souvenir des informations de manière sélective, de façon à conforter leurs convictions préexistantes. Les réseaux sociaux, en fournissant un flux constant d’informations adaptées aux préférences des utilisateurs, ne feraient que renforcer ce biais, rendant les croyances des individus de plus en plus imperméables aux informations contradictoires. Pourtant, un contre-argument est régulièrement mis en avant pour poursuivre et développer les opérations d’influence en ligne. Il s’agit d’exploiter un ou plusieurs autres biais, comme l’effet de simple exposition, qui, par la masse de contenus générés et l’exposition répétée, permettrait d’infléchir la perception des audiences.
C’est une façon simple de sortir de la « bulle de filtre » et d’imposer une première lecture des événements aux audiences. Ce sont ces stratégies qui sont régulièrement pratiquées par les acteurs en conflit. Qu’il s’agisse de la Russie, de l’Ukraine, d’Israël ou de leurs adversaires, l’idée que la diffusion intensive de contenus soutenant un récit viendra infléchir les perceptions est patente. Ainsi, l’amplification via les réseaux sociaux d’un narratif, dès les premières heures suivant un événement, peut-elle contribuer à infléchir la perception de ce dernier.
Comme le souligne David Chavalarias, « nous avons tous une tendance naturelle, en situation d’indécision, à regarder ce que pensent les autres pour se faire une idée. En modifiant la perception de l’importance de l’adhésion de votre entourage à une cause, il est ainsi possible d’augmenter la probabilité que vous adhériez vous-même à cette idée. Par ailleurs, cette amplification artificielle de l’activité en ligne permet de manipuler les algorithmes de recommandation des plateformes numériques, qui vont diffuser vos contenus bien au-delà du cercle des utilisateurs déjà acquis à vos idées. » C’est ainsi la pression intra-groupe qui est évoquée ici. Elle caractérise des communautés d’internautes particulières que John Scruggs désigne sous le terme de « chambres d’écho », c’est-à-dire des groupes où la « voix de chacun de leurs membres y ferait essentiellement écho à celle des autres ».
Dans ce contexte, l’exposition répétée à des contenus numériques combinée à un ciblage adapté (donc individualisé) pourrait contribuer à modifier les perceptions et, in fine, les comportements. En matière de choix électoraux, cette approche semble légitime et se justifie en partie par l’indécision croissante des électeurs à la veille des scrutins. Dès lors, l’objectif privilégié des actions d’influence numérique semble être d’infléchir l’opinion d’environ 10 % des utilisateurs. Pour la France, sur X, cela représentait en 2017 près de 900 000 personnes, chiffre plus important que l’écart de voix entre Marine Le Pen et Jean-Luc Mélenchon ou François Fillon à l’issue du premier tour de scrutin de l’élection présidentielle.
La surexposition sur TikTok de Călin Georgescu, candidat à l’élection présidentielle roumaine en 2024, illustre parfaitement comment, en amplifiant la présence en ligne par une combinaison d’actions, il est possible d’obtenir un effet sur le comportement électoral. Toutefois, est-ce suffisant pour appuyer la stratégie d’influence d’un État ou encore d’une armée en opération ? L’effet d’une telle saturation est-il durable et peut-il dès lors soutenir des objectifs militaires ?
La lutte informationnelle et les campagnes électorales
Ce qui intéresse les acteurs étatiques en matière d’influence et qui pousse certains à franchir la ligne rouge éthique en pratiquant la désinformation s’inscrit dans le cadre d’objectifs stratégiques de long terme. Il n’est pas simplement question de vendre un produit ou de faire élire un candidat lors d’un scrutin (événement ponctuel), mais bien plus de promouvoir des modèles de pensée et une vision des rapports de force internationaux.
La lutte informationnelle s’inscrit donc dans la durée et cherche à produire des effets structurels. Pour y parvenir, les mécanismes de saturation et d’amplification de narratif ne peuvent se suffire à eux-mêmes, à l’image de l’échec de l’opération chinoise « spamouflage » qui avait pourtant mobilisé près de 7 000 comptes Facebook, 954 pages et une quinzaine de groupes pour n’évoquer que les données de META. Ces techniques peuvent être intégrées dans une campagne plus vaste, mais ne sauraient se substituer à une approche globale des objectifs poursuivis. Sans une connaissance fine des auditoires et de leurs ressorts, cette stratégie de « carpet bombing » parait même contre-productive.
À l’inverse, le point commun entre les actions de la société militaire privée (SMP), Wagner, en République centrafricaine (RCA) et de Cambridge Analytica dans les campagnes électorales réside bien moins dans l’utilisation commune de Facebook comme vecteur de diffusion de contenus que dans les actions conduites sur le terrain en amont de l’exploitation sur les réseaux sociaux. Ainsi, la RCA a-t-elle pu être considérée par de nombreux observateurs comme le laboratoire de la stratégie d’influence russe en Afrique. Cette dernière s’est notamment matérialisée par l’émergence et la diffusion d’un discours anti-français auprès des populations urbaines connectées. Pour exacerber ce sentiment, certes préexistant, mais jusqu’alors limité, une cellule de communication russe a été mise en place à la présidence centrafricaine dès 2018. Comme pour Cambridge Analityca, la première étape du processus a consisté à comprendre les dynamiques déjà ancrées, les sujets et les préoccupations sur lesquels bâtir de nouveaux récits. Pour la RCA, les trois narratifs déjà présents et qui seront amplifiés sont rapidement exploités : « la France pille les ressources du pays », « la France soutient le terrorisme » (comprendre ici, tout mouvement susceptible de renverser le pouvoir en place), « la France, État colonial, cherche à contrôler le pays, elle choisit les présidents, etc. »
Lorsque les récits sont diffusés et artificiellement propulsés sur les réseaux par le double jeu des algorithmes de recommandation, d’une part, et par un écheveau de faux comptes et de robots, d’autre part, les auditoires sont prêts à l’accueillir. Le terrain ainsi préparé laisse la place à un phénomène qu’il est dès lors quasiment impossible de stopper.
Christopher Wylie évoque une chronologie assez similaire, insistant sur la phase préparatoire d’élaboration du récit sur la base d’une connaissance fine des audiences. Lors de sa rencontre avec Ken Strasma, en charge de la campagne de Barack Obama en 2008, ce dernier lui dira : « Tout ce que nous faisons est fondé sur notre compréhension de ceux à qui nous devons parler et de quoi. » Avant même d’investir le champ numérique, l’effort se porte, dans un cas comme dans l’autre, vers la connaissance de l’environnement humain, des dynamiques sociales, des peurs et des aspirations.
Ce travail au contact des populations, le réseau d’affaire d’Evgueni Prigojine va l’entretenir en investissant dans des associations locales en RCA, en finançant des leaders d’opinion (dont les griots) et les médias classiques (en particulier la radio). Cette emprise progressive s’est ensuite transposée vers les réseaux sociaux pour donner un élan significatif au mouvement et contribuer à saturer l’espace informationnel.
Cependant, à la différence de Christopher Wylie, Evgueni Prigojine n’a rien à vendre ni de candidat à faire élire ; ses objectifs sont différents. Agissant dans une relation symbiotique avec le régime du Kremlin, la SMP appuie la stratégie d’expansion russe tout en s’assurant des revenus substantiels. La conquête (ou reconquête) de puissance intègre la dimension informationnelle comme un champ de confrontation où il ne s’agit pas exclusivement de « convaincre 10 % d’électeurs » pour faire basculer un scrutin, mais où il est question de saper les fondements idéologiques adverses. Ce travail de sape ne peut se suffire d’une action numérique, fût-elle appuyée par de l’intelligence artificielle générative ou des réseaux de bots.
L’influence numérique via les réseaux sociaux ne modifie pas directement les croyances des audiences, mais crée un environnement où ces dernières sont continuellement renforcées, consolidant ainsi les divisions idéologiques et limitant les possibilités de dialogue. Les réseaux sociaux, loin d’être des moteurs de transformation sociale, sont davantage des miroirs déformants qui renvoient aux utilisateurs une version amplifiée de ce qu’ils croyaient déjà, perpétuant et renforçant ainsi les schémas de pensée existants.
Dans le contexte de la lutte informationnelle, espérer obtenir un effet sur les comportements ne nécessite pas forcément de modifier les croyances et les opinions des cibles. Il suffit bien souvent d’agir sur les perceptions ou sur l’environnement de ces dernières en activant des peurs et des préoccupations préexistantes. Dans Personal Influence de Paul Lazarsfeld et Elihu Kats (1955), le rôle des médias comme activateurs des mécanismes de renforcement des opinions existantes était d’ailleurs déjà souligné. Dès lors, l’utilisation des outils numériques n’est efficace qu’à la condition d’être intégrée dans une démarche multi-vecteurs qui laisse une large place aux dynamiques de terrain et aux groupes sociaux préexistants. Le prérequis demeure une connaissance fine des schémas de pensée des audiences.
C’est en diffusant des récits adaptés au sein de ces groupes de confiance que l’on multiplie les chances de succès. Conduire une action non ciblée, c’est-à-dire dont ni le vecteur ni le message ne sont adaptés à l’audience, revient à essayer de décrypter un mot de passe par une attaque « brute-force ». Tester aléatoirement toutes les possibilités en espérant tomber sur la bonne combinaison est, comme le souligne Christopher Wylie, une « technique terriblement inutile, même s’il lui arrive de réussir ».
Crédit photo : oatawa
Les commentaires sont fermés.