Avec une certaine concordance des temps qui n’est certainement pas fortuite, deux médias européens, à la fois précurseurs en leur temps et dorénavant ancêtres parmi les médias européens, dont le modèle s’est longtemps cherché et toujours trouvé dans la difficulté, sont en train de se transformer. De quoi s’agit-il ?
CaféBabel : du journalisme participatif de la génération Erasmus à l’âge adulte européen
Après plus de 20 ans d’existence, une éternité dans le monde des médias européens, CaféBabel, le média participatif multilingue de la génération Erasmus tire sa révérence. CaféBabel, c’est la quintessence d’un moment de la construction européenne et de l’époque médiatique, celle d’une expression autant personnelle que générationnelle, d’un idéal, d’un mode de vie, d’un projet de société, où l’Europe est d’abord vécue, éprouvée, puis transmise par les émotions, les expériences et les collectifs.
CaféBabel, c’était en somme, les voix d’une génération de jeunes Européens qui poursuivaient les voies d’une intégration intime à l’Europe.
Pourquoi évoluer ? Parce que l’évolution des publics doit être prise en compte, au travers de nouvelles attentes vis-à-vis de la construction européenne, à la fois plus stratégique en matière d’autonomie et plus terre-à-terre en termes de politiques publiques européennes. Ces nouvelles relations à l’Europe induisent de nouvelles pratiques de journalisme européen.
Sphera Network structure et professionnalise la démarche de CaféBabel en visant à remodeler les collaborations journalistiques européennes et en se positionnant comme « le premier réseau européen de médias indépendants et alternatifs de petite et moyenne taille ».
Ereb, qui se présente comme « a community-based cross-border media », vise à repenser la manière de réaliser du journalisme transfrontalier avec des nouvelles formes de récits, de photo journalismes, de vidéo reportages, pour « raconter l’intimité de l’Europe depuis le terrain ».
Euractiv : de l’indépendance pionnière à l’entrisme inspirateur
Euractiv, là encore un média indépendant emblématique de la séquence d’intensification de la construction européenne entre élargissements et approfondissements, tente une forme de synthèse entre l’intention de couvrir l’actualité de l’UE à travers un modèle de journalisme sui generis complexe tout à la fois très expert mais pédagogique, assez neutre mais délibérément pro-européen, ouvert aux subventions publiques mais pas anti-business.
Euractiv, c’était en somme l’ambition de créer une forme de journalisme qui tente un fond de compromis à l’image de l’Europe.
Pourquoi évoluer ? Sans doute, pour reprendre le proverbe africain « Si tu veux aller vite, marche seul mais si tu veux aller loin, marchons ensemble. » Surtout, parce que l’évolution des moyens (les ressources, les datas, les IA) réinterrogent la possibilité d’une île, la capacité à rester à la fois indépendant et pertinent dans un paysage médiatique en constante transformation.
Selon le communiqué, l’annonce se verbalise de la manière suivante : « le groupe de médias européen Mediahuis a acquis EURACTIV, la marque d’information paneuropéenne, axée sur la politique de l’UE (…) le réseau de médias EURACTIV bénéficiera de l’envergure d’un groupe de médias international, ce qui lui permettra de devenir LE média de référence en matière de politique européenne ».
De nouvelles marques de fabrique de l’information européenne
Tant les transformations de CaféBabel que d’Euractiv – inévitables tôt ou tard – sont révélatrices de plusieurs dimensions :
Évidemment, le « succès » au sens de capacité à survivre et se développer de ces modèles doit beaucoup à l’investissement hors-du-commun des individus engagés, acteurs de premier plan, personnalités qui ont fait vivre ces projets.
Surtout, Euractiv et CaféBabel, avec le recul, apparaissent comme des marques de fabrique de l’information européenne, qui racontent de manière originale et inédite, avec une certaine maturité et un professionnalisme certain, l’Europe d’aujourd’hui et de demain.
De médias européens précurseurs, CaféBabel et Euractiv se projettent en champions des médias européens.
Dans « Les politiques européennes de lutte contre la propagande », Marie Robin pour la Fondation Robert Schuman décryptent les armes communicationnelles et narratives pour faire avancer leurs propagandes dans un conflit et sur la scène internationale, l’invasion de l’Ukraine par la Russie étant accompagnée d’opérations d’influence, de désinformation et de propagande, la plupart antieuropéennes. L’Union européenne directement concernée par les discours de propagande tente donc de développer des stratégies de lutte contre les contenus propagandistes et leurs effets…
Fausses nouvelles et propagande, un problème pour la démocratie en Europe
66% des citoyens en Europe déclarent lire ou entendre des fausses nouvelles au moins une fois par semaine, nous « subissons une pression grandissante et systématique pour faire face aux campagnes de désinformation et d’informations trompeuses et à la propagande contre la notion même d’information objective ou de journalisme éthique, en ne diffusant que des informations partiales ou servant d’instrument au pouvoir politique, et qui nuisent également aux valeurs et aux intérêts démocratiques ».
La principale menace identifiée quand il s’agit de propagande en Europe a trait à la propagande antieuropéenne du Kremlin, vue comme un potentiel risque de « rideau de fer informationnel » : narratifs et armes de propagande pour justifier sa guerre contre l’Ukraine tout en diffusant des récits anti-européens potentiellement déstabilisateurs.
La propagande chinoise est principalement dénoncée non pas pour ses propres intérêts directs, mais comme relais et soutien du Kremlin au sein de l’Union.
L’extrême droite, appartenant aux mouvances suprémacistes, néonazies et/ou conspirationnistes, souvent inspirées des mouvements QAnon aux États-Unis, diffuse des discours haineux, extrémiste et violent anti-immigration, antiféminisme, conspirationnisme, antisémitisme et anti-élite. Les groupes d’extrême droite diffusent des contenus anti-démocratiques, visant à déstabiliser la cohésion européenne et à promouvoir des visions strictes des frontières.
Lutter contre les contenus de propagande, terroristes ou non, destinés à déstabiliser l’Union européenne ou ses États membres
Garantir des principes fondateurs : liberté des médias, accès à l’information, liberté d’expression, pluralisme des médias.
Identifier et connaître avant de lutter contre les contenus de propagande : saisir, comprendre et analyser, l’Union européenne cherche à agir en tant que « forum de coordination » entre les États membres, favorisant le partage d’informations, l’échange de bonnes pratiques tout en développant, à l’échelle supranationale, des initiatives de recherche et de renseignement destinées à saisir ces contenus.
Empêcher la diffusion de contenus de propagande non-terroristes, c’est-à-dire suspendre la diffusion de certains médias, comme les chaînes russes TV RT ou Sputnik dans les États membres.
Idéalement, supprimer les contenus dans une temporalité rapide afin d’en éviter la viralité. interdire les médias qui diffusent des contenus de propagande et empêcher le recrutement par des acteurs propagandistes étrangers de relais d’influence au sein de l’Union.
Contrer ne peut se faire avec les armes des adversaires sous forme de contre-propagande, l’Union européenne privilégie plutôt de déconstruire (debunker) et de promouvoir des voix modérées
« Debunker la désinformation » passe dès 2015 par une Task force de communication stratégique dans le voisinage oriental (East StratCom Task Force) via le site EUvsDisinfo pour « expliquer et dénoncer les récits de désinformation et sensibiliser à l’impact négatif de la désinformation provenant de sources pro-Kremlin. »
Refuser de faire de la contre-propagande, c’est montrer le faux et exposer les mensonges proposés dans les discours de propagande, réfuter et diffuser des informations utour des valeurs démocratiques et des politiques publiques proposées par l’Union européenne
Former pour mieux lutter contre les informations partiales ou erronées véhiculées par les discours de propagande ou de désinformation, l’Union européenne promeut un journalisme de bonne qualité en soutien à la liberté des médias et en renfort des médias indépendants
Potentiels défis de la responsabilité commune à l’Union européenne et aux États membres
« Si tout le monde est responsable, alors peut-être qu’in fine, personne ne l’est », la dualité, louable en principe peut néanmoins se révéler un obstacle en certaines occasions et conduire à de potentielles injonctions contradictoires.
Le choix de l’Union européenne de promouvoir un discours positif n’est pas sans obstacle dans un contexte de montée du populisme dans plusieurs États membres mettant en cause le caractère fondamentalement démocratique de l’UE.
Contrer les accusations de technocratie ou de prise de décision made in Bruxelles, c’est la mission des institutions européennes, de rendre leur fonctionnement, et les mesures adoptées, accessibles et compréhensibles pour les citoyens.
Contrer les discours anti-européens dans et en dehors de l’Union européenne passe, avant tout, par le renforcement du projet européen, de la cohésion entre ses États membres et de son accessibilité auprès de tous les Européens.
Pour un cadre de gouvernance efficace des médias sociaux
Le monde numérique rend nos autorités de gouvernance actuelles inadéquates, confrontées aux nouveaux défis technologiques. Les décideurs politiques et les régulateurs manquent actuellement de ressources pour protéger efficacement un avenir numérique positif. Les droits numériques nécessitent des protections que nos structures actuelles n’offrent pas entièrement.
La régulation des nouvelles technologies doit reposer sur des recherches fiables, un écosystème d’innovation privée renforçant l’intérêt public ainsi qu’une gouvernance qui responsabilise de manière équitable et cohérente.
1) Établir de futurs programmes de recherche et de subventions pour les universitaires
La base consiste d’abord à clarifier quand et comment les plateformes peuvent partager des données avec des chercheurs du milieu universitaire tout en protégeant les droits à la vie privée des utilisateurs.
La recherche devrait se concentrer sur :
L’établissement de définitions et de bases de référence pour les dommages numériques et les préjudices (y compris psychologiques) ;
Des mécanismes de signalement efficaces pour les problèmes de sécurité des utilisateurs ;
Des ensembles de données ouvertes à la recherche ;
Des expérimentations de technologie qui soutiennent les principes de démocratie et de transparence.
2) Distribuer des subventions pour encourager l’innovation
En outre, des programmes de financement spécifique devraient être exploré pour inciter les entreprises ou les investisseurs en phase de démarrage promouvant des principes de gouvernance démocratique auprès notamment des fonds de capital-risque émergents
3) Établir des exigences de reporting et de responsabilisation
Des rapports obligatoires par les plateformes pourraient s’inspirer structurellement des modèles mis en œuvre par les investisseurs autour des principes environnementaux, sociaux et de gouvernance pour tous les médias sociaux, entreprises de médias et plateformes.
Des exigences spécifiques pourraient être intégrées :
Des normes sociales démocratiques ;
L’audit algorithmique, la transparence des algorithmes et la prise de décision automatisée ;
Le partage de données avec les chercheurs ;
Les pratiques commerciales monétisant les données des utilisateurs ;
Les moyens de mesurer la crédibilité/l’exactitude du contenu original
L’évaluation des risques sanitaires et systémiques actuels ;
Les normes de portabilité ou d’interopérabilité ;
L’incidence des publications parrainées ou amplifiées par des gouvernements étrangers ;
L’accessibilité et l’inclusion.
Pour des plateformes responsables des médias sociaux
Les technologies confèrent aux plateformes un rôle démesuré dans les interactions, sans être encore bien adaptées. La société attend plus des entreprises, ainsi que de leurs investisseurs, avec leur prise de pouvoir croissante. L’histoire a montré l’importance d’assurer un plus grand rôle aux consommateurs et à leur protection. Alors que des portions importantes de la place publique passent aux mains du privé, les plateformes doivent s’adapter à leurs nouvelles responsabilités publiques.
Les plateformes doivent gagner la confiance des consommateurs en appliquant judicieusement et équitablement leurs politiques, en alignant leurs incitations sur les intérêts des utilisateurs et en présentant des informations fiables, sans être les arbitres ultimes de la vérité ; au contraire, la transparence et la capacité des utilisateurs à déchiffrer la crédibilité sont deux facteurs clés pour gagner la confiance du public.
Les plateformes responsables établiront également des normes éthiques élevées en interne, à la fois pour leurs employés et pour leurs décisions commerciales plus larges. Alors que les plateformes bénéficient d’un pouvoir sociétal et d’un espace considérable pour innover sans réglementation, elles doivent également s’engager à respecter des normes éthiques pour limiter les abus de ce pouvoir et de cette discrétion. Une partie de cet engagement englobe la nécessité pour les plateformes d’éduquer le public sur le fonctionnement de leurs algorithmes afin que le public puisse vraiment surveiller ses intérêts dans le monde numérique. Enfin, les plateformes doivent respecter les droits numériques de tous leurs utilisateurs – un élément essentiel pour leur relation positive avec la société américaine.
La Charte des droits numériques et le Code de conduite des développeurs fournissent des modèles de normes et de standards qui pourraient être adoptés par les producteurs de la société numérique et utilisés pour éclairer leurs politiques afin de produire une stratégie mieux coordonnée pour l’ensemble de la société pour un univers numérique sain.
1) Une stratégie numérique pour toute la société adoptée pour renforcer la fiabilité des plateformes
Pour être crédible et donc efficace, une stratégie sociétale pour une société numérique saine devra être élaborée selon un processus qui évite de donner un avantage économique à une entreprise. Il doit créer un espace pour les nouveaux entrants et éviter un monopole du pouvoir pour une seule grande plateforme.
L’élaboration de ces normes et standards règlementés nécessitera l’ouverture de canaux formels pour la contribution du public, l’engagement dans le dialogue et la garantie que les points de vue des minorités seront entendus. Ces efforts pourraient compléter le code de bonnes pratiques de l’UE sur la désinformation, qui a réuni les plateformes en ligne et l’industrie de la publicité pour s’autoréguler. Un effort de toute la société nécessite un engagement d’une multitude de façons à différents niveaux de spécificité pour générer l’adhésion et opérationnaliser les nouvelles normes et standards sur le terrain.
L’industrie technologique devrait être encouragée à établir ses propres normes qui promeuvent l’essence des principes éthiques de gouvernance de l’information, car l’autorégulation est dans le meilleur intérêt des publics et sur une base commune à l’industrie pour codifier un comportement approprié.
2) Adopter la diversité
L’éthique va au-delà de l’appel ordinaire pour assurer l’inclusivité, l’accessibilité, la diversité de pensée et l’équité. Les plateformes en ligne doivent adopter la diversité en intégrant les points de vue de diverses communautés dans le processus de conception dès le premier jour, les services et les produits prendront plus efficacement en compte les différentes perspectives sur la manière dont ils sont utilisés afin d’en limiter les dommages.
3) Garantir le respect des droits numériques
Pour intégrer ces concepts sur le terrain et partager les meilleures pratiques, la formation des employés sur les plateformes est indispensable en matière de conception, d’exploitation, d’administration et de gouvernance éthiques. Cette formation doit inclure un engagement signé des employés à suivre un code de conduite des développeurs et des entreprises à adhérer aux principes de gouvernance de l’information, en plus de respecter les droits numériques des utilisateurs.
Pour un public autonomisé et formé aux médias sociaux
Une nouvelle ère numérique offre d’immenses possibilités aux individus, mais seulement si nous sommes correctement préparés à gérer cette complexité. Dans le modèle actuel, l’attention des individus est traitée comme un produit à vendre, avec l’éducation des plateformes sur le fonctionnement de leurs algorithmes, le public doit se préparer à évaluer les implications des nouvelles dynamiques de pouvoir dans le paysage numérique, afin de ne pas être laissé vulnérable à une exploitation future par des intérêts étroits.
Les individus doivent activement s’attaquer à la complexité et aux implications de leur existence en ligne. Cela n’est possible qu’avec une certaine éducation sur les technologies elles-mêmes, la manière dont elles influencent le choix individuel et les motivations des plateformes et des producteurs de contenu. Pour sauvegarder les droits et les intérêts des consommateurs, les individus doivent se mobiliser et plaider auprès des décideurs.
Bien qu’il existe des biens sociaux qui sortent de ces modèles, comme des produits gratuits, les utilisateurs ont besoin de la liberté de choisir leurs relations, plutôt que d’être forcés à accepter des réalités monopolistiques afin qu’ils soient habilités à penser de manière critique, à défendre leurs intérêts dans le monde numérique et à participer aux processus démocratiques.
La démocratie exige qu’un public engagé réfléchisse de manière critique aux règles et aux normes nécessaires à une société saine, et cela vaut autant pour la société numérique que pour le monde réel. Toutes les parties prenantes doivent avoir la possibilité de participer à la spécification de ces règles et normes, y compris le développement et l’utilisation d’outils pour les réaliser.
1) Développer des outils civiques d’éducation pour assurer une meilleure compréhension sociétale des risques et opportunités présentés par la participation en ligne
Les parties prenantes doivent développer, promouvoir et diffuser des outils qui soutiennent l’éducation civique qui favorise une société numérique saine. La finalité vise à offrir une compréhension politiquement neutre et à promouvoir la pensée critique tout en fournissant une compréhension de base de la technologie :
La littératie numérique ;
La conscience de la confidentialité et de la sécurité ;
L’éthique technologique ;
La préparation numérique ;
L’atténuation des risques numériques ;
La gestion de la santé mentale.
La pensée critique, à savoir la remise en question constante du contenu, des algorithmes et des autres structures systémiques de la société numérique, est donc un élément important de l’autonomisation du public aux côtés de la compréhension générale de la technologie et de ses conséquences. Cette réflexion critique sur le monde numérique devrait faire partie d’une éducation civique généralisée.
D’autres formes de discussion publique pourraient porter sur la manière d’identifier la més/désinformation en ligne, les dommages causés par les environnements de médias sociaux toxiques et incivils et les mesures de sécurité pour protéger les enfants.
2) Mobiliser des outils démocratiques pour protéger les utilisateurs et la société des dommages potentiels
Un public responsabilisé a besoin d’une voix démocratique dans la société numérique, ce qui peut être accompli par des moyens remarquablement similaires à ceux du monde physique. Les campagnes peuvent tirer parti du pouvoir de mobilisation pour faire pression sur les plateformes et le gouvernement sur des questions telles que l’augmentation des capacités de propriété des utilisateurs sur les plateformes, l’adoption d’une déclaration des droits numériques, l’amélioration de la transparence des données, l’accessibilité et l’inclusion, et d’autres questions clés.
3) Donner aux utilisateurs une agence sur leurs expériences en ligne
Le dernier élément de l’autonomisation des utilisateurs est qu’ils doivent avoir l’opportunité et la capacité de participer à la définition des contours de leurs expériences personnelles en ligne. Idéalement, ils doivent contrôler leurs propres données, faire des choix sans être gênés par la manipulation ou le subterfuge de la plate-forme, avoir la liberté de se déplacer de manière transparente entre les plateformes et accéder à des outils qui leur donnent plus de contrôle sur différents aspects de leurs expressions en ligne.
La capacité de « voter avec ses pieds » en quittant des plateformes qui ne répondent pas aux besoins ou aux attentes des utilisateurs est un élément essentiel, même si la portabilité des informations non transférables empêche les utilisateurs d’exercer cette faculté.
Une première étape intéressante dans cette direction serait une adoption des normes d’interopérabilité, dans laquelle plateformes s’engageraient sur les priorités des utilisateurs lors de l’élaboration de normes d’interopérabilité et de meilleures pratiques pour offrir aux utilisateurs plus de contrôle sur leurs profils, leurs données, la création de contenu et leurs informations personnelles.
Bien que les solutions réelles puissent varier selon la plateforme, la création de mécanismes permettant aux utilisateurs de participer à l’élaboration de leurs propres expériences dans la société numérique est fondamentale pour l’essor des principes démocratiques en ligne.
Dans l’ensemble, ce premier exercice témoigne des efforts des signataires qui donnent un tel aperçu de leurs actions pour lutter contre la désinformation.
La plupart des grandes plateformes en ligne (Google, Meta, TikTok ou Twitch) fournissent un niveau de détail sans précédent sur les résultats chiffrés au niveau des États membres. Twitter fournit cependant peu d’informations précises et aucune donnée ciblée par rapport à ses engagements.
Ces premiers reportings marquent une première étape dans la mise en place du nouveau code de bonnes pratiques, tandis que la méthodologie et la granularité des données est parfois lacunaires contrairement aux dispositions du code.
Quelles sont les données les plus significatives ?
Google indique qu’au troisième trimestre 2022, plus de 13 millions d’euros de revenus publicitaires ont été bloqués avant d’être versés aux acteurs de la désinformation dans l’UE. Par ailleurs, la campagne « Hit Pause » de YouTube est diffusée dans 20 États membres de l’UE afin d’inciter les internautes à la vigilance.
TikTok signale qu’au troisième trimestre 2022 plus de 800 000 faux comptes ont été supprimés, ces comptes rassemblaient plus de 18 millions d’abonnés. Ces faux comptes supprimés représentent 0,6 % des utilisateurs actifs mensuels dans l’UE.
Meta rapporte qu’en décembre 2022, environ 28 millions d’étiquettes de vérification des faits ont été appliquées sur Facebook et 1,7 million sur Instagram. En moyenne, 25% des utilisateurs de Facebook ne transmettent pas de contenu après avoir reçu un avertissement indiquant que le contenu a été indiqué comme faux par les fact-checkers. Ce pourcentage passe à 38% sur Instagram.
Du 1er octobre 2022 au 31 décembre 2022, Meta a supprimé plus de 2,9 millions de publicités de Facebook et Instagram dans les États membres de l’UE, dont plus de 8 800 publicités ont été supprimées pour avoir enfreint leur politique de désinformation.
Du 15 novembre au 31 décembre 2022, Meta a étiqueté plus de 170 000 publicités politiques sur Facebook et Instagram avec des clauses de non-responsabilité « payé par » dans l’UE.
Twitch rapporte entre octobre et décembre 2022, 270 921 comptes et botnets non authentiques créés ont été bloqués et a pris des mesures contre 32 tentatives de détournement et d’usurpation d’identité. De plus, Twitch a supprimé 6 comptes activement dédiés à la promotion de QAnon.
Twitter ne communique pas de données, mais valorise une nouvelle fonctionnalité « Community Note » qui permet d’ajouter une évaluation d’un tweet par un tiers :
Une personne qui voit une Note de la communauté est, en moyenne, 20 à 40 % moins susceptible d’être d’accord avec le contenu d’un tweet potentiellement trompeur qu’une personne qui ne voit que le tweet.
Une personne sur Twitter qui voit une note est, en moyenne, 15 à 35 % moins susceptible de choisir d’aimer ou de retweeter un tweet qu’une personne qui ne voit que le tweet.
Données sur la guerre d’agression en Ukraine
YouTube a bloqué plus de 800 chaînes et plus de 4 millions de vidéos liées au conflit russo-ukrainien depuis le 24 février 2022.
Microsoft Advertising a empêché entre février et décembre 2022 environ 25 000 soumissions d’annonceurs liées à la crise ukrainienne dans le monde et supprimé 2 328 domaines.
TikTok, d’octobre à décembre 2022, a vérifié 90 vidéos liées à la guerre et 29 vidéos ont été supprimées en conséquence de leur activité de vérification des faits.
Les prochains reportings sont attendus en juillet et devrait fournir des informations supplémentaires sur la mise en œuvre du Code avec des données plus exhaustives. Des indicateurs pour évaluer la mise en œuvre du Code et son impact sur la réduction de la propagation de la désinformation en ligne sont également prévus dans l’année.
Première édition du rapport sur les menaces de manipulation d’informations étrangères et d’interférences grâce aux travaux de la division Stratcom du Service européen pour l’action extérieure, un projet pilote appliquant un nouveau cadre, basé sur les meilleures pratiques autour d’un premier échantillon de 100 incidents détectés et analysés entre octobre et décembre 2022…
Principaux résultats
L’invasion à grande échelle de l’Ukraine par la Russie domine l’activité observée des manipulations et menaces. L’Ukraine est la cible directe de 33 incidents et dans 60 incidents, le soutien à l’invasion était la principale motivation de l’attaque.
Les voies diplomatiques font partie intégrante des incidents : les canaux diplomatiques russes servent régulièrement de facilitateurs aux opérations de manipulations et menaces, déployés sur un large éventail de sujets. La Chine utilise également les canaux diplomatiques, ciblant principalement les États-Unis.
La collusion des acteurs existe mais demeure limitée : des acteurs officiels russes ont été impliqués dans 88 incidents analysés tandis que des acteurs chinois le sont dans 17 cas ; dans au moins 5 cas, les deux acteurs russes et chinois se sont engagés conjointement.
Les incidents ne se produisent pas dans une seule langue : le contenu est traduit et amplifié en plusieurs langues. Les incidents concernent au moins 30 langues, dont 16 sont des langues de l’UE. La Russie utilise une plus grande variété de langues que les acteurs chinois, mais 44 % du contenu russe cible les populations russophones, tandis que 36 % ciblent les populations anglophones.
Tactiques et techniques de manipulations d’informations et de menaces d’interférences
Les objectifs présumés sont principalement destinés à distraire et à déformer : la Russie (42 %) et la Chine (56 %) ont principalement l’intention d’attirer l’attention sur un acteur ou un récit différent ou de rejeter le blâme (« distraire »). La Russie tente de modifier le cadrage et le récit (« déformer ») relativement plus souvent (35 %) que la Chine (18 %).
Parmi les 10 combinaisons de tactiques et de techniques, le développement de contenus à base d’images et à base de vidéos, faciles et peu coûteux, sont les deux techniques les plus récurrentes employées :
Des contenus fabriqués à partir d’images et de vidéos sont utilisés pour dégrader l’image ou la capacité d’action des adversaires et pour discréditer des sources crédibles ;
Les voies diplomatiques officielles sont utilisées pour discréditer des sources crédibles, pour fournir du contenu à base d’images et de texte, déformer les faits en recadrant le contexte des événements, et dégrader les adversaires ;
Dans le cas de la Russie, une raison possible de l’utilisation accrue des comptes diplomatiques pourrait être une conséquence des chaînes contrôlées par l’État russe avec une large portée autrefois sanctionnées dans l’UE ;
Les contenus fabriqués à base d’images et de vidéos ont été distribués sur plusieurs plates-formes afin de maximiser l’exposition du contenu.
Techniques d’usurpation d’identité et victimes
Les techniques d’usurpation d’identité deviennent plus sophistiquées. Les usurpations d’identité d’organisations et d’individus internationaux et de confiance sont utilisées par des acteurs russes, en particulier pour cibler l’Ukraine. La presse écrite et la télévision sont le plus souvent usurpées, les magazines voyant tout leur style copié.
Un bref examen des cas dans lesquels la Russie s’est fait passer pour des entités légitimes et de confiance montre que personne n’est à l’abri de voir son identité ou sa marque utilisée à mauvais escient. Les acteurs de la menace utilisent l’usurpation d’identité pour ajouter de la légitimité à leurs messages et pour atteindre et affecter des publics familiers avec les entités usurpées et qui leur font confiance. Six incidents ont utilisé des cas d’usurpation d’identité. Tous liés à l’invasion russe de l’Ukraine. Les médias étaient les entités les plus souvent usurpées. Lors de quatre incidents, de fausses pages de couverture imitant le style visuel des magazines satiriques européens, notamment Charlie Hebdo. De plus, deux vidéos ont imité des médias internationaux (Aljazeera et Euronews).
Narratifs
Le récit le plus courant parmi les incidents analysés était « l’Occident est l’agresseur envers la Russie » qui comprend des messages qui dépeignent l’Occident comme étant antagoniste envers la Russie, poussant l’Ukraine à la guerre, provoquant et profitant de la guerre, exécutant mobilisation militaire et implication dans des actions qui attisent les tensions entre l’Ukraine et la Russie. Ce récit a été observé dans 17 incidents.
Le récit « L’Ukraine est l’agresseur envers la Russie » a été observé dans 15 incidents. Ce récit dépeint faussement l’Ukraine comme celle qui a provoqué et voulu la guerre, commis des atrocités, des crimes de guerre et un génocide, et déployé ou planifié de déployer des attaques chimiques/nucléaires.
Le récit « Les sanctions contre la Russie se retournent contre leurs auteurs », qui met en évidence les conséquences négatives présumées des sanctions sur les pays occidentaux et autres, avec un accent particulier sur la crise alimentaire et énergétique ainsi que sur l’inflation, est également apparu dans 15 incidents. Il convient de noter que ce groupe narratif comprend également des messages alléguant que les crises actuelles sont causées par les pays occidentaux et leurs sanctions.
Le 4e récit le plus courant « L’Occident est hypocrite », qui comprend tous les messages qui dépeignent à tort les entités occidentales comme violant les droits fondamentaux, menant des campagnes de désinformation, corrompues, colonialistes, russophobes ou sinophobes et exploitant les autres, a été observé 14 fois.
Le 5e récit le plus fréquent, « L’Ukraine est un État nazi et terroriste », qui présente de fausses affirmations selon lesquelles l’Ukraine est un État nazi et/ou terroriste ou qu’il soutient de tels groupes, est apparu dans 11 incidents.
Composition de l’écosystème médiatique des acteurs de la menace
Canaux de communication officiels : canaux officiellement utilisés par un État et ses représentants pour diffuser du contenu, comme, les sites Web officiels d’un État ou les comptes de médias sociaux des services diplomatiques et des ambassades.
Chaînes contrôlées par l’État : chaînes médiatiques officiellement affiliées à un acteur étatique. Elles sont détenues majoritairement par un État ou un parti au pouvoir, gérées par des organes nommés par le gouvernement et suivent une ligne éditoriale imposée par les autorités de l’État.
Chaînes liées à l’État : chaînes sans liens transparents ni affiliation officielle à un acteur étatique, mais dont l’attribution a été confirmée par des organisations ayant accès à des sources de données dorsales privilégiées, telles que des plateformes numériques, des entités de renseignement et de cybersécurité, ou par gouvernements ou services militaires sur la base d’informations classifiées.
Effets
80% des incidents n’ont déclenché aucun type de réponse, cependant, 20 incidents ont reçu une réponse de communication. Dans certains cas, plusieurs contre-mesures ont été prises. Au total, 28 contre-mesures ont été prises en réponse aux incidents. La contre-mesure la plus courante était la déclaration de réfutation, lorsqu’une entité impliquée a publié une déclaration réfutant les allégations de l’incident, ce qui représente 50% de tous les plans d’action. La démystification ou la vérification des faits des allégations de l’incident s’est produite dans 3 cas. La contre-mesure la moins courante était la suppression du contenu, car cela ne s’est produit qu’en réponse à un incident.
Au total, ce rapport contribue à fournir à la communauté des défenseurs des manipulations d’informations étrangères et menaces d’interférences un cadre de compréhension commune en vue de formuler une réponse collective et systématique.