Cambridge Analytica et la manipulation offensive des réseaux sociaux : le piratage de la démocratie.

Révélé en 2018, le scandale Cambridge Analytica a suscité l’indignation et beaucoup de questionnements sur notre rapport aux plateformes de réseaux sociaux, et leur impact sur la démocratie. Cet évènement a mis en lumière la possibilité pour des sociétés d’exploitation de données de se servir des réseaux sociaux comme un moyen de diffusion de propagande. Ce phénomène nouveau a un nom : la manipulation offensive des réseaux sociaux. En partant de ce scandale peu médiatisé depuis 2018 vis-à-vis de son caractère grave, nous observons que les enjeux de ce phénomène inédit peuvent profondément remettre en cause le bon fonctionnement des élections et constituer un véritable facteur de fragilisation de nos démocraties.

Image tirée de Source Today.

Un profilage chirurgical pour une victoire électorale

Secoué par le scandale Cambridge Analytica, Facebook a dû s’excuser platement de la fuite massive des données de ses utilisateurs dont elle avait été victime. Les données personnelles de plus de 87 millions (1) d’utilisateurs ont été, sans le savoir, récoltées par la société britannique d’exploitation de données Cambridge Analytica entre 2014 et 2016. À partir des données collectées, la psychographie faite par l’entreprise britannique – grâce à l’intelligence artificielle des procédés de data mining – a permis à la société de déterminer au moins 3 000 points caractéristiques par utilisateur et donc prévoir leurs comportements électoraux. Grâce à ces mécanismes de collecte d'informations via les entreprises numériques, Cambridge Analytica a pu utiliser des données personnelles pour analyser le profil et le comportement des utilisateurs. Par l’utilisation de ces procédés psychographiques, l’entreprise a ensuite ciblé les utilisateurs américains de Facebook qui n’ont pas été identifiés comme ayant une position politique définie. De ce fait, pendant la campagne présidentielle américaine de 2016 (2), ces usagers catégorisés comme « influençables » étaient inondés de contenus publicitaires ou de fausses informations, notamment dans les swing-states (3). Le scandale a aussi révélé que Cambridge Analytica avait tenu un rôle de forte influence lors du vote sur le Brexit (4) la même année.

Ce scandale, à la fois politique et technologique, a montré que nos données personnelles pouvaient potentiellement être utilisées à des fins de manipulation électorale. Le faible contrôle ou la méconnaissance des individus à propos des mécanismes de récolte de données à des fins de ciblage ont été exploités par SCL Group et sa filiale Cambridge Analytica. Bien plus qu’une simple entreprise d’exploitation de données, la société britannique fondée par Robert Mercer et Steve Bannon (ancien directeur de campagne et conseiller spécial de Donald Trump) a en réalité été une entreprise de communication massive de propagande qui a – dès le milieu des années 2000 pour la société mère SCL – joué un rôle dans l’influence électorale de nombreux pays (5). Une activité qui s’apparente à des modes d’actions de la « guerre psychologique » selon Brittany Kaiser (6), ancienne directrice commerciale de Cambridge Analytica en poste lors des campagnes électorales de 2016.

Démantelé le 1e mai 2018, Cambridge Analytica représente probablement le début d’une ère nouvelle où les élections démocratiques seront désormais de moins en moins justes avec la répétition de pratiques similaires à celles de l’entreprise britannique. En effet, depuis la disparition de Cambridge Analytica, les membres de la filiale du groupe SCL poursuivent leurs activités au sein de l’entreprise Emerdata Limited mais aussi à travers d’autres structures, notamment Data Propria, HuMn Behavior et Phunware qui sont des sociétés de communication stratégique qui travaillent actuellement pour la réélection de Trump le 3 novembre 2020. De telles sociétés se multiplient depuis la fermeture de Cambridge Analytica, dont beaucoup d’entre elles rassemblent des anciens cadres de la société britanniques (7).


Filtrage intensif et enfermement cognitif : des facteurs propice à la propagation de fake news

Face au détournement des mécanismes de filtrage de l’information effectué sur les réseaux sociaux, les géants du numérique comme Facebook ne semblent pas aptes à travailler seuls sur les risques de manipulation sur leurs plateformes. La réalisation d’une modération effective implique la remise en cause des algorithmes de diffusion personnalisée de contenus sur les réseaux sociaux. Cette logique de plus en plus préoccupante a pour effet de créer ce qu’Eli Pariser appelle la « bulle de filtre » créant un isolement culturel et intellectuel du fait que les informations qu’un internaute a à sa disposition dépendent du processus de personnalisation mis en place par les algorithmes des réseaux sociaux.

Au-delà de la transformation de la relation entre l’individu et les médias de masse traditionnels, la conséquence directe de l’usage exponentiel de la part des individus des plateformes de réseaux sociaux comme source d’information semble être l’évolution de la nature des interactions des individus entre eux mais aussi avec la sphère politique. Soumise tout autant à un effet de décrédibilisation similaire aux médias traditionnels, la sphère politique n’hésite cependant pas à se servir des réseaux sociaux pour interagir avec la population quitte à relayer des fausses informations. Mais les plateformes de réseaux sociaux ne semblent pas prêtes à remettre en question la source principale de leurs revenus, notamment Facebook.

L’ingérence numérique est une réalité et les réseaux sociaux sont utilisés comme de véritables armes de guerre, capable de cibler avec précision les individus susceptibles d’être sensibles aux contenus de propagande des Etats étrangers ou sociétés de data mining comme Cambridge Analytica. Malgré la tentative de Facebook et d’autres réseaux sociaux de mettre en œuvre des mécanismes de modération – s’acclimatant ainsi au contexte de guerre de l’information en ligne – la seule autoréglementation par ces entreprises ne semble pas être réellement efficace et pourrait même constituer un danger pour la démocratie en fin de compte.

Faire face à la manipulation au sein d’un espace de forte lutte idéologique semble presque irréalisable du fait que les informations circulent à une vitesse beaucoup trop importante. L’intelligence artificielle (IA) représente un outil clé pour comprendre les enjeux liés à la circulation des contenus de désinformation (8). En effet, l’IA est potentiellement en mesure de lutter contre la diffusion de fausses informations. Les plateformes de réseaux sociaux cherchent à mettre en œuvre des solutions de détection automatisée de fake news grâce à une IA capable de différencier un contenu factuel avec un contenu d’opinion. C’est ce qu’essaye de mettre en place Facebook avec l’application FiB (9) par exemple. Mais ces mesures ne semblent pas suffisantes. Les algorithmes des réseaux sociaux provoquent parfois l’effet inverse et sont détournés afin de mettre en œuvre des mécanismes de ciblage électoral – comme ce fut le cas avec Cambridge Analytica – pour rendre effectif la manipulation offensive de ces plateformes. Les Etats démocratiques ne sont pas en mesure de contrôler la société de l’information et font face à des sociétés privées surpuissantes qui semblent, tout autant que l’Etat, dépassées par l’enjeu de la protection des internautes face aux risques de désinformation. La simple lutte contre la propagation de fake news n’est pas suffisante pour réellement contrer la manipulation des réseaux sociaux. Comme le souligne François-Bernard Huyghe dans Fake news: Manip, Infox et Infodémie en 2021 : « il n’y a pas que les faits que l’on puisse truquer, mais aussi les identités (se présenter comme X alors que l’on est Y), les mouvements d’opinion eux-mêmes (astroturfing), les sources (médias ou site qui sont présentés comme ce qu’ils ne sont pas), des fausses communautés en ligne de gens que vous croyez semblables à vous, des techniques pour attirer l’attention et engendrer l’impression qu’un contenu tient une place hyperimportante… L’art de la falsification déborde celui du faux document pour devenir art de l’opinion et de l’attention ».


Vers la disparition du principe concurrentiel des élections ?

Depuis la guerre froide, l’information est directement utilisée de manières diverses pour assurer une domination en temps de paix. Cependant, la révolution numérique a déconstruit notre façon d’appréhender l’actualité et la manipulation de l’information est devenue la menace principale du bon fonctionnement de la démocratie.

La désinformation est un moyen d’action de la guerre de l’information, et nous avons pu constater qu’elle a été utilisée pour influencer le résultat électoral de l’élection présidentielle étatsunienne et le Brexit en 2016. Bien plus qu'une simple « brèche » (10) – comme l'ont défini les dirigeants de Facebook –, le scandale Cambridge Analytica illustre la possibilité d’utiliser des données personnelles pour prédire et influencer de manière algorithmique le comportement humain d’une manière qui évite aux utilisateurs de prendre conscience d’une telle influence.

Désormais avérée depuis le scandale Cambridge Analytica, l’utilisation de la psychographie comme mode d’action pour influencer en période électorale soulève une question perturbante. Aujourd’hui, nous devons nous demander si nos décisions et nos opinions sont réellement les nôtres : cela passera par la prise de conscience du besoin d’une meilleure protection de nos données personnelles sur internet et aussi de la nocivité de l’effet d’enfermement créé par la personnalisation des contenus sur les réseaux sociaux.

Article rédigé par Antoine Jourdet

  • Facebook
  • Instagram
  • Twitter
  • LinkedIn - Black Circle
This site was designed with the
.com
website builder. Create your website today.
Start Now