Étiquettes
Ainsi, au moment du printemps arabe, en 2011, colloques, livres et articles célébraient le miracle des réseaux sociaux et du Web 2.0 : le journalisme citoyen se développait, les blogs permettaient aux activistes de s’exprimer en se jouant des frontières et des censures, Youtube révélait des images de répression au monde entier, Facebook rassemblait les foules contre les autocrates, Twitter diffusait les mots d’ordre à la rue insurgée… Le peuple allait contrôler le pouvoir à travers ses écrans et non plus le contraire. Les démocrates du monde entier pourraient se coordonner en ligne, la vérité ne saurait plus être étouffée par la censure, les communautés virtuelles auto-organisées apporteraient la liberté réelle… Mais quelques mois plus tard, il fallait déchanter : face aux urnes ou coups d’État, la protestation en ligne trouvait ses limites. Peu après, on découvrait, grâce aux révélations de Snowden, combien nous sommes surveillés à chacune de nos connexions et combien il est illusoire de croire que le cyberespace échappe à l’État.
Fake news contre démocratie ?
Et puis, en 2016, ce fut la panique : Brexit, élection de Trump, poussée des populismes… Fallait-il attribuer à quelque manipulation high-tech la montée des votes ou de ces opinions illibérales si opposées à celles de la classe politique, des experts, des médias classiques, du cercle de la raison ? Les uns mettaient en cause une action de désinformation version 2.0 des services russes, d’autres la contamination des médias sociaux par les thèses complotistes et rumeurs extrémistes. On théorise vite la chose en termes de « post-vérité » (une période où, non seulement se répandent les visions les plus aberrantes de la réalité, mais où les masses les accueillent avec enthousiasme, comme indifférentes aux critères du savoir et de la vérification). Ou l’on s’inquiète des effets pervers des réseaux sociaux : chacun se bricole la réalité qui correspond à ses préjugés au mépris de l’autorité des faits et des principes moraux.
Face à un phénomène massif de croyance (en des idées choquantes) mais aussi de méfiance (à l’égard du discours des élites et des médias), beaucoup sont tentés d’incriminer les sources, les réseaux, et les modes de diffusion « alternatifs ». Sur les réseaux sociaux, il est plus facile de faire pénétrer des documents falsifiés ou des affirmations infondées, mais il est aussi plus aisé de les répandre et de faire l’écho de nouvelles douteuses. Surtout, il y est commode de renforcer ses préjugés en fréquentant des communautés qui les partagent et qui dirigent vers les informations qui confirment ces fantasmes, s’isolant par là-même davantage des opinions dominantes ou respectables. La conjonction d’une volonté perverse, de la prédisposition d’une certain public et l’effet de ces « bulles » d’isolement cognitif ou de confirmation pourraient représenter de dangereux leviers idéologiques. Ils fonctionnent de façon très différente de la vieille propagande déversée du haut vers le bas, avec des messages standardisés et des médias de masses.
Plus les accusations d’interférence fusent contre la Russie, ses trolls et ses hackers, plus on s’inquiète du succès de sphères d’information alternatives, complotistes ou extrémistes, plus la riposte mobilise le législateur, les médias adeptes du « fact-checking », la vérification, et grands du Net, unis contre le fléau des « fake news » (dont la meilleure traduction est sans doute « bobards »). Le point commun ? La conviction que les réseaux sociaux produisaient le chaos par le mensonge, permettaient de tromper les foules, de perturber le fonctionnement de la démocratie. Et que le rétablissement d’une confiance minimale des masses dans les faits avérés et les vérités scientifiques devenait une tâche prioritaire. L’hypothèse -des citoyens devenus irrationnels et ne partageant plus la même vision des faits et de la réalité, victimes de messages trompeurs -fait peur. Mais est-elle si établie ?
Certes, personne ne doute qu’il y ait des services d’État ou des organisations qui cherchent à influencer la vie politique d’autres pays par l’information, propagande ou désinformation. La chose n’est pas nouvelle. Sans remonter aux libelles anti-gouvernementaux imprimés à l’étranger au XVIII° siècle ou à la desinformatziya soviétique, les exemples n’ont pas manqué après la chute du Mur, de services d’État, d’ONG ou de groupes activistes notamment en ligne intervenant dans les révolutions de couleur ou le printemps arabe. L’US Information Agency ou l’US Agency for International Development, le National Endowment for Democracy, la Freedom House, la fondation Albert Einstein ou celles de George Sorros (Open Society) n’ont jamais fait mystère de leur volonté d’aider les activistes « démocrates », de leur fournir des médias et un écho international, de financer des activités que les autocrates nomment subversives. Et des agences de communication politique comme Rendon ou Hill & Knowlton se félicitent d’avoir déstabilisé des gouvernement autoritaires et anti-occidentaux.
De ce point de vue, il faudrait une grande naïveté pour imaginer qu’il n’y ait pas de ligne politique à RT ou Spoutnik, ou que « l’usine à trolls » de Saint-Petersbourg décrite par les médias occidentaux ne cherche pas à convaincre l’opinion occidentale, éventuellement avec de faux comptes américains ou européens. De la même façon, sans au moins la complaisance du Kremlin, on voit mal comment feraient les personnages qui, dans une émission d’Arte, se vantent de faire basculer l’opinion occidentale par ordinateurs interposés lors du Brexit ou de l’élection de Trump, sans oublier les fameux « hackers russes » constituant des « Advanced Persistent Threats » et que l’on suspecte souvent des grandes cyberattaques comme d’opérations de déstabilisation par l’information.
Mais une très probable volonté stratégique ne signifie pas une irrésistible efficacité rhétorique. Le croire serait tomber, sinon dans le complotisme, du moins dans l’explication par une causalité diabolique (les manipulateurs qui abusent le peuple avec l’aide de technologies de tromperie massive). Et ce serait justifier a contrario ceux qui imputent la révolte de Maïdan en Ukraine à la subversion occidentale et à l’argent de Sorros. Qu’il y ait des acteurs qui désirent soit faire élire leur candidat, ou plus subtilement saper la confiance en la démocratie d’autres pays par une stratégie du chaos, c’est imaginable. Resterait à démontrer qu’il en existe les moyens et qu’ils fonctionnent.
Le pouvoir de faire croire
Pour le dire autrement un message politique venu de l’extérieur, fût-il trompeur ou subversif, ne pourrait avoir une force de persuasion irrésistible que s’il rencontrait un milieu résolument favorable et n’était corrigé par aucune contre-influence. Encore faudrait-il qu’il puisse être identifié comme un facteur déterminant presque pur pour lui imputer des résultats d’une élection ou d’un référendum.
Au moment où se répandent dans les milieux stratégiques des anglicismes martiaux comme weaponization of information, hybrid warfare, sharp power (qui serait la version russe ou chinoise du soft power), il faut rappeler dans quels « arsenaux » de l’information puiseraient les manipulateurs.
Incontestablement, il existe des méthodes d’interférence et de déstabilisation géopolitiques. Sauf à contrôler un parti frère et une intelligentsia favorable dans le pays visé, les recettes se sont longtemps résumées à : entretenir des réseaux humains, culturels, politiciens ou militaires dans le pays cible, aider des Ong, financer et former des activistes, faire donner aux médias internationaux le plus large écho à ce qui s’y passe, notamment à la répression ou aux tricheries du pouvoir. Plus généralement l’influence idéologique a été confiée au pouvoir actif de la « diplomatie publique » (créer, par exemple, des médias qui émettent vers d’autres pays dans leur langue) ou à l’attraction douce du soft power (rayonner et séduire, répandre ses modèles culturels,…). Les technologies Web 2.0 ont enrichi ces répertoires stratégiques déjà impressionnants.
Il est techniquement aisé de produire de fausses images ou de faux témoignages crédibles, donc d’imiter de vrais événements. Cette falsification du contenu peut s’accompagner d’une falsification de la source : soit en créant un site qui a l’apparence d’un média classique, soit en multipliant des comptes avec des noms ou des nationalités imaginaires. On peut aussi fausser ou forcer l’attention en faisant artificiellement remonter certaines informations dans les circuits et moteurs de recherche, voire en simulant l’existence de mouvements d’opinion. C’est ce que l’on nomme astroturfing : des bataillons d’employés, ou, mieux encore, des algorithmes qui imitent des comptes tenus par des humains, font proliférer les messages qui vont dans le sens désiré et amplifient des courants qui, autrement, ne surnageraient guère dans les moteurs de recherche ou les recommandations des réseaux sociaux. Le fait que, sur ceux-ci, chacun puisse se faire propagateur à son tour des « nouvelles » (vraies, fausses ou idéologiquement réinterprétées). La lutte en ligne consiste à attirer le plus grand nombre possible de visites ou de minutes de cerveau humain vers les contenus que l’on veut.
La gamme des innovations techniques ne s’arrête pas là, puisqu’il est également possible de combiner espionnage électronique (viol du secret) et révélations sensationnelles (publication des secrets) pour affaiblir un adversaire politique. Dans ce cas, la mise sur la place publique d’une énorme masse de documents passe soit pas un lanceur d’alerte de l’intérieur (et est relayée par une organisation de type Wikileaks), soit par intrusion informatique. On a prêté un effet ravageur aux documents « fuités » du parti démocrate lors de l’élection de 2016, mais il faut noter que dans ce cas, il faudrait attribuer cet effet à l’authenticité des documents scandaleux, et non à un quelconque mécanisme de fake news.
Comme on le voit, les gammes d’actions en lignes sont vastes, dépassent largement le simple mécanisme mensonger des fake news (affirmer délibérément l’existence de ce qui n’a pas eu lieu) et les services d’un pays ou une quelconque « sphère » n’en ont certainement pas l’exlusivité. Dans tous les cas, comme le démontre chaque jour la stigmatisation par Trump des « fake news » propagés par les médias « du système », aucun camp n’en a ni le monopole, ni le monopole de la dénonciation et de l’exploitation idéologique du thème.
Surtout, l’art de persuader par des algorithmes – que nous pourrions qualifier de rhétorique numérique – est plus complexe. La récente affaire dite de Cambridge Analytica vient de révéler deux choses. L’une est que Facebook a peut-être laissé une société s’emparer de données privées de 50 millions de personnes, ce qui est inquiétant mais ne concerne pas notre propos. L’autre est que la persuasion de demain pourrait ne rien avoir à voir avec les intoxications et rumeurs à l’ancienne et tout avec le ciblage de chaque électeur. La méthode consiste à « utiliser des données pour changer des comportements », autrement dit à accumuler une connaissance si fine de chacun de nous en croisant de multiples données sur ses comportements, les liens, ses habitudes, ses envies et ses peurs, etc. si bien que l’ordinateur sera en mesure de lui adresser une incitation à voter ou à acheter répondant exactement à son attente. Il ne s’agit plus de nous convaincre d’adhérer, mais de nous faire apparaître un choix politique comme s’il nous venait spontanément.
Si l’on adopte ce schéma, nous passerions, en somme d’une persuasion politique de masses déversée par les médias à une sollicitation de proximité, au plus intime de nos désirs, mais après une brève phase où les réseaux sociaux incitaient à l’opinion de se former par interaction de communautés virtuelles. Et, dans tous les cas, ces dispositifs techniques de persuasion cohabiteraient avec les déterminants traditionnels – culturels, familiaux, religieux, sociaux, etc.- de nos choix politiques. Ce schéma est plus complexe que l’explication qui attribue l’élection de Trump aux rumeurs absurdes : le soutien que lui aurait apporté le pape ou des pizzerias pratiquant la prostitution pédophile pour financer Hillary Clinton. Dans tous les cas, l’imprévisibilité des élections européennes récentes (en ce sens que les résultats en Angleterre, en France, en Allemagne, en Italie n’ont guère correspondu aux attentes des sondages et des experts quelques mois avant) semble démontrer que ni les gourous du marketing politique, ni les manipulateurs des réseaux sociaux n’ont une recette simple et infaillible.
Confronter et conforter
Avons-nous des éléments scientifiques pour mesurer le pouvoir des fake news ? Certes, l’impact d’un facteur psychologique entre autres sur une élection est difficilement quantifiable. Nombre de centres et d’universités d’outre-Atlantique ont tenté de mesurer la corrélation fakes en ligne / élection de Trump. Une des études les plus citées, par le Journal of Economic Perspectives en résume les quatre constats majeurs :
Certes, il y a eu énormément de fake news et des millions d’Américains y ont été exposés au moins une fois.
La plupart de ces fausses nouvelles étaient sinon favorables à Trump, du moins hostiles à Clinton (même s’il y a eu des rumeurs dans les deux sens). Par ailleurs, beaucoup de fausses nouvelles relèvent du canular, du « piège à clics » (sites qui attirent des visites pour les revendre à des annonceurs en publiant n’importe quoi de choquant ou de surprenant), de l’erreur involontaire.
La circulation et la reprise des faux a été très inégalement répartie entre les deux camps (les partisans de Trump y croyant ou se complaisant bien davantage à les répandre que ceux de Clinton qui, il est vrai, avaient beaucoup plus d’occasions de renforcer leurs convictions en suivant les médias « mainstream ». L’idéologie sélectionne en amont ce qui constituera la réalité de l’un ou de l’autre.
Rien n’autorise à attribuer le résultat du vote aux fausses nouvelles, sinon comme facteur marginal de confirmation pour les déjà très convaincus.
D’autres travaux (Université de Dartmouth, Columbia School of journalism, etc.) rappellent que, si déplorable que soit la circulation d’informations fabriquées et calomnieuses, elle reste très minoritaire (que ce soit en nombre d’informations ou en temps de cerveau humain qui leur est consacré) par rapport à celle des informations classiques ou accréditées par de « vrais » médias. Tous conviennent que le partage des fausses nouvelles, comme la confiance que leur accorde le récepteur, sont très inégalement répartis. L’exemple français – l’impuissance de supposées rumeurs sur E. Macron et des révélations non moins supposées des Macronleaks à changer le vote – va dans le même sens.
En somme, il y a loin de l’exposition à une pseudo-nouvelle à l’adhésion à un vote, et la différence est considérable entre la confirmation des préjugés de quelques uns – qui en tout état de cause témoignent d’une grande suspicion à l’égard des mass médias – et un basculement global. La vraie question pourrait être davantage celle de la perte de confiance dans les médias classiques que celle du pouvoir trompeur de réseaux falsificateurs.
Enfin, le phénomène des fake news a une caractéristique notable : il est surtout connu par les alarmes qu’il suscite et par la responsabilité historique qu’on lui prête (l’ère de la « post-vérité »). Il y aurait actuellement 149 dispositifs de fact-checking répartis dans 53 pays. La chance pour une photographie truquée ou relégendée, pour une déclaration que son auteur présumé démentirait, pour un chiffre tiré du néant ou pour un événement inventé qui n’aurait pas de témoin, d’échapper à cette vigilance est assez faible. Les médias classique, qui jouent ici leur crédibilité et la justification de leur rôle face aux plateformes en ligne (les « infomédiaires ») ont très vite créé des dispositifs de vérification. Et les vérificateurs spontanés, tout heureux d’avoir démonté une falsification, se multiplient aussi.
Désormais les usagers des réseaux sociaux savent que, face à une révélation qu’il semblerait tentant de reprendre à son compte, il est plus prudent de vérifier que le couperet « fake news » n’est pas encore tombé et que personne n’a décelé une quelconque supercherie. Le temps de vie d’une fausse nouvelle peut ainsi être remarquablement court.
Et la sanction risque de ne l’être pas moins. En effet, les législations contre les fausses nouvelles se multiplient. Après l’Allemagne, la France se dote d’une loi sensée les combattre en ligne. Elle visera essentiellement à accélérer le retrait par les plateformes de fausses nouvelles susceptibles de perturber le processus électoral. C’est une reconnaissance implicite que la sanction judiciaire ou la volonté politique (comme dans le cas de retraits rapides de contenus djihadistes) ne peut jouer qu’exiger plus de diligence du pouvoir « technique », notamment celui des grands du Net.
Ce dernier est tout sauf négligeable. Accusés de fournir un écosystème aux extrémistes, aux complotistes, aux ennemis de la science et aux affabulateurs, voire tenus pour responsables de l’élection de Trump et de la dégradation du débat public, les dirigeants des GAFA ont mobilisé des modérateurs, des algorithmes de détection. Ils font aussi appel à la coopération des internautes et de médias respectables pour se purger des faux comptes et fausses nouvelles. L’idée s’est imposée que l’intelligence artificielle devrait être de plus en plus mobilisée pour repérer les contenus falsifiés (comme les discours de haine, les appels à l’extrémisme ou les théories délirantes que l’on tend volontiers à confondre dans un certain confusionisme moraliste).
Une hypothèse à retenir sérieusement est que la guerre du faux, le conflit dont l’enjeu sera l’accréditation ou l’élimination des descriptions de la réalité, devienne une sorte de compétition technologique de l’épée et du bouclier. Demain, avec les deepfakes, il sera même envisageable de faire prononcer à l’interviewé X ou Y les propos que l’on veut avec ce qui semble sa vraie tête, sa vraie voix et ses lèvres qui bougent parfaitement. On pourrait aussi imaginer des fake news 2.0, des récits ou des images plus sophistiqués et plus adaptés au public qu’elles visent.
Nous avons des raisons de suspecter que des acteurs politiques ou géopolitiques veuillent influencer par l’intermédiaire de représentations fausses pour favoriser des mouvements d’opinion, ou de manière quasi nihiliste, pour paralyser le mécanisme démocratique. Mais pour que ce plan réussisse, il faudrait encore qu’il rencontre des audiences prédisposées à les croire, qu’il rentre dans une compétition avec des adversaires idéologiques anxieux de dénoncer les trucages pour se poser comme le camp du vrai, mais aussi qu’ils l’emportent dans une compétition pour attirer les destinataires, accréditer et faire prédominer certaines sources. Les menaces présumées contre le système (épidémies de rumeurs et allergies des masses aux évidences) sont largement fantasmées et surtout ce sont plus des symptômes que des explications. Réduire les dissensions politiques à l’affrontement des véridiques et rationnels versus les naïfs et les délirants n’est pas le moyen de les comprendre et de les résoudre.