Le centre de politique européenne est un think tank indépendant qui cherche à stimuler le débat et la réflexion sur les défis présents et futurs qui se posent à l’Union européenne, notamment la technologie, l’Intelligence artificielle (IA), la transition écologique. En 2023 il a publié une étude intitulée “Les réseaux sociaux deviennent une arme géopolitique” qui cherche à mettre à jour l’utilisation croissante de la désinformation, de fake news, et de propagande comme nouvelle arme de guerre. L’étude porte sur les “campagnes d’information” concernant les matières premières critiques, menées par certains États, notamment la Chine ou la Russie. L'intervention de Victor WARHEM revient sur les conclusions de cette étude, et présente la réflexion globale menée par le Centre sur l’utilisation par des puissances de ce moyen pour promouvoir leurs intérêts. Il expose enfin les solutions qui pourraient être mises en place pour les limiter.
Intervenant :
Victor WARHEM, représentant du Centre de politique Européenne
Modérateur : Laurent MAURIAC, président et co-fondateur de Brief.Éco
4 points à retenir
Les réseaux sociaux sont mobilisés par certains Etats pour mener des campagnes d’information et manipuler l’opinion à leur avantage
Les procédés sont difficiles à débusquer notamment en raison de l’opacité des algorithmes
Des outils existent pour limiter la viralité des fake news : l’Union Européenne a mis en place le Digital Service Act (DSA) qui encadre les activités des plateformes, en particulier celles des GAFAM. Ces outils restent cependant modestes face à la puissance et au lobbying des RS.
- L’IA représente un risque accru de manipulation en permettant de multiplier à la fois les messages et le nombre d’utilisateurs atteint
Compte-rendu
Réalisé par Sandra Beltrame, professeure de SES et Anaïs Mouliac-Bertucchi, professeure d’Économie-Gestion.
Procédé et objectifs
Les campagnes de désinformation via les réseaux sociaux comme Twitter consistent à s’appuyer sur un événement en particulier et à créer une viralité critique vis à vis de ce dernier. La Russie mène ainsi constamment ce type de campagnes. Notamment entre les deux tours des élections législatives françaises. Le procédé est le suivant : il s’agit de créer un très grand nombre de comptes inauthentiques sur twitter servant à alimenter de manière malsaine les débats politiques. On parle d’astroturfing mené au sein de fermes de trolls. Ces faux comptes sont créés par millions de façon à créer une viralité dans le but d’alimenter un débat, une critique à l’égard d’un parti, d’un gouvernement ou d’une politique. En général on ne s’en rend compte qu’à posteriori, et le plus souvent ce procédé est compliqué à mettre en évidence.
Nationalité des réseaux et manipulation de l’information par les États
Le fondateur de Telegram, Pavel Durov, d’origine russe, a été arrêté en France dans le cadre d’une information judiciaire ouverte pour 12 chefs d’accusations, dont « blanchiment de crimes ou délits en bande organisée ». La justice lui reproche notamment une absence de modération de sa messagerie qui concerne près d’un milliard d’utilisateurs dans le monde. En Chine, le parti communiste siège au conseil d’administration de la firme Tik Tok. Le contenu des messages relayés par ce RS peut donc être questionné : est-il manipulé par le pays? Aux Etats-Unis au moment de la pandémie du Covid-19, le gouvernement américain a poussé Mark Zuckerberg à censurer certaines informations relayées sur Facebook. Toutefois l’interdiction de RS comme Tik Tok n’est pas à l’ordre du jour aux USA à l’heure actuelle. D’une part car le moment est peu propice à l’approche des élections et d’autre part en raison du lobbying organisé par certains RS.
Des mesures pour freiner les opérations de désinformation menées par les réseaux
Face à l’utilisation massive des RS (45 millions d’utilisateurs par mois dans l’UE), l’Union Européenne a mis en place le Digital Service Act depuis 2023. Il oblige les grandes plateformes à avoir une modération efficace et à transmettre à la Commission Européenne les données sur les algorithmes qu’elles utilisent ainsi que d’expliquer certains contenus et la manière dont les modérations sont effectuées. On peut néanmoins se questionner sur l’efficacité de cette mesure comme en témoigne le refus d’Elon Musk, qui a racheté Twitter, de s’y conformer, malgré le risque d'écoper d'une amende pouvant aller jusqu’à 6% du CA mondial de la firme en cas de non respect du DSA. De plus, si le DSA oblige les plateformes à retirer les contenus illégaux, la désinformation ne revêt pas un caractère illégal dans beaucoup de pays, et il s’agit de surcroît d’une zone grise entre vérité et mensonge, donc par nature compliquée à censurer. D’autres outils existent comme le « pre bunking » (inverse du « debunking »). Il s’agit en amont d’un événement crucial de sensibiliser les électeurs sur le risque d’être soumis à de fausses informations, notamment en ciblant les utilisateurs les plus sujets à les croire, notamment les plus de 45 ans, moins armés car moins habitués aux réseaux que les plus jeunes.
Enfin, sachant que la viralité est créée en jouant sur les émotions négatives des utilisateurs, un DSA2 pourrait être envisagé en mettant en place des procédés pour ralentir la diffusion de ces sentiments (en limitant le nombre de likes par minute par exemple selon le type de message). C’est une variante du shadow banning (plateforme qui boycotte ses utilisateurs), qui nécessite une vraie volonté de coopération de la part des plateformes. La tâche est ardue sachant que l’intérêt des plateformes est que les utilisateurs restent le plus…or ce sont les contenus les plus sujets à discussion qui font que les utilisateurs vont rester. La régulation contrarie l’essence même des RS, ce sur quoi ils ont fondé leur Business Model.
Réseaux sociaux et Intelligence Artificielle
L’IA représente un outil supplémentaire très puissant pour les États en termes de désinformation : plus besoin de fermes de trolls et d’humains qui envoient des messages, puisque l’IA est capable de générer des agents autonomes qui créent des sites, envoient des messages et les relaient auprès d’un maximum d'utilisateurs. Elle aura ainsi un effet démultiplicateur, qu’il faudra prendre en compte dans la discussion sur de nouveaux textes européens éventuels.
Conclusion
La manipulation de l’information via les réseaux sociaux est un arme de plus en plus mobilisée à des fins géopolitiques, du fait notamment de son faible coût et de son efficacité redoutable pour manipuler l’opinion. En témoignent les images détournées publiées par Twitter dans le cadre du conflit au Moyen-Orient ou encore les 86 fermes de trolls russes (ayant généré 3 millions de comptes avec des messages à destination de 12 millions d’utilisateurs ukrainiens et cela afin de favoriser l’avancée de l’armée russe) débusquées par le gouvernement ukrainien depuis le début de la guerre.
Selon le Centre de Politique Européenne, l'espoir est néanmoins permis de parvenir à gérer ces campagnes par la mise en place d’un panel de dispositifs et une étude approfondie de l’ensemble des incidences que l’IA pourrait avoir sur les réseaux sociaux.
Pistes d’exploitation pédagogique
En spécialité SES, en classe de Première le sujet pourra être mobilisé dans le cadre du questionnement “Comment se forme et s’exprime l’opinion publique ?”, le professeur pourra mobiliser l’exemple des réseaux sociaux comme outil de “communication politique”. En classe de Terminale, dans le cadre du questionnement “quels sont les sources et les défis de la croissance économique”, il pourra citer les mesures mises en place en Europe comme des exemples d’institutions affectant les incitations à investir et innover.
En économie-gestion: en classe de 1ère SDGN le sujet pourra être mobilisé dans le cadre du thème 2 « Numérique et Intelligence collective », en permettant à l’élève de s’approprier la notion de valeur de l’information et en apprenant à distinguer la notion de donnée de la notion d’information. En classe de Terminale MSDGN le sujet pourra être utilisé en illustration de la question 3.1. du programme « Les organisations peuvent-elles s’affranchir des questions de société ? », l’action d’une organisation pouvant soulever des questions d’ordre éthique lorsque sa sincérité est questionnée, par exemple dans le cadre de lobbying.
Quelques ressources complémentaires
Le site https://www.stopfake.org/fr/accueil/ recense les tentatives de désinformation russes en Ukraine, le pays étant soumis à un torrent constant de désinformation.
L’étude complète du CEP : Les réseaux deviennent une arme géopolitique https://www.cep.eu/fr/sujets-europeens/details/etude-du-cep-les-reseaux-sociaux-deviennent-une-arme-geopolitique.html
Le réglement européen sur les services numériques (DSA) https://www.vie-publique.fr/eclairage/285115-dsa-le-reglement-sur-les-services-numeriques-ou-digital-services-act
Vidéo Lumni “Comment débusquer les fake news ?” https://enseignants.lumni.fr/fiche-media/00000004056/comment-detecter-les-fake-news.html
Article Courrier International Les fact-checkeurs israéliens et palestiniens mis à l’épreuve depuis le 7 octobre https://www.courrierinternational.com/article/desinformation-les-fact-checkeurs-israeliens-et-palestiniens-mis-a-l-epreuve-depuis-le-7-octobre
Le site gouvernemental français du service de vigilance et protection contre les ingérences numériques étrangères
Des livres :
Toxic Data- Comment les réseaux manipulent nos opinions ?
https://editions.flammarion.com/toxic-data/9782080274946
Les ingénieurs du chaos
https://www.babelio.com/livres/da-Empoli-Les-ingenieurs-du-chaos/1133418
Les travaux de recherche de Kevin Limonier
https://www.geopolitique.net/our_team/kevin-limonier/