La communication du Parlement européen est confrontée à un paradoxe : d’une part, elle cherche à combler le déficit démocratique en favorisant une gouvernance participative, et d’autre part, elle doit préserver sa légitimité démocratique traditionnelle basée sur la démocratie représentative. Pour répondre à ce défi, le Parlement européen investit massivement le web social interactif, mais il doit également envisager d’autres formes de démocratie participative, telles que les panels citoyens et les conférences citoyennes, tout en explorant toutes les opportunités disponibles.
Le rôle du web social dans la communication interactive du Parlement européen
Le web social a offert au Parlement européen un moyen efficace d’atteindre un large public et d’encourager l’interaction directe avec les citoyens. Cette approche s’inscrit dans le cadre de la démocratie participative, qui vise à favoriser l’engagement et la participation des citoyens dans les processus de prise de décision. Cependant, le web social ne représente qu’une facette de la démocratie interactive, et il est nécessaire d’explorer d’autres mécanismes pour une participation citoyenne plus diversifiée.
Le renouvellement démocratique de la participation citoyenne
La démocratie participative ne se limite pas uniquement à l’engagement en ligne sur les réseaux sociaux. Elle peut également inclure des événements tels que les panels citoyens et les conférences citoyennes, qui permettent une participation plus directe et approfondie des citoyens. Ces initiatives offrent un espace de délibération où les citoyens peuvent discuter de questions politiques complexes et formuler des recommandations. En intégrant ces mécanismes dans sa communication, le Parlement européen peut renforcer sa légitimité démocratique en permettant une participation citoyenne plus inclusive et éclairée.
L’exploration de toutes les opportunités technologiques
Outre le web social, le Parlement européen doit envisager toutes les opportunités technologiques pour améliorer sa communication et sa participation citoyenne. Les nouvelles technologies, telles que le web3, les métavers, les NFT, les médias immersifs et les IA générationnelles, offrent des moyens innovants de faciliter l’interaction entre les citoyens et les institutions. Ces technologies peuvent favoriser une plus grande transparence, faciliter l’accès à l’information et encourager la participation citoyenne à tous les niveaux de la gouvernance européenne. Le Parlement européen doit donc être à l’avant-garde de l’exploration et de l’adoption de ces nouvelles opportunités technologiques.
L’équilibre de légitimité entre démocratie représentative et démocratie participative
Pour préserver sa légitimité démocratique, le Parlement européen doit trouver un équilibre entre la démocratie représentative et la démocratie participative. La démocratie représentative reste essentielle pour garantir la représentation de tous les citoyens et la prise de décision collective. Les élections européennes continuent d’être un moyen fondamental de participation citoyenne. Cependant, en complément de la démocratie représentative, la démocratie participative permet une participation plus directe et informée des citoyens. En combinant ces deux formes de démocratie de manière complémentaire, le Parlement européen peut renforcer sa légitimité démocratique et répondre aux attentes des citoyens européens.
Favoriser une participation plus inclusive et éclairée, et préserver sa légitimité démocratique traditionnelle répondant aux attentes des citoyens européens et contribuant à combler le déficit démocratique de l’UE. En explorant les nouvelles opportunités technologiques telles que le web3, les métavers, les NFT, les médias immersifs et les IA générationnelles, le Parlement européen peut enrichir sa communication et renforcer son engagement avec les citoyens, tout en naviguant habilement entre démocratie représentative et démocratie participative.
Au total, le Parlement européen est confronté à un défi complexe dans sa communication :comment préserver sa légitimité démocratique tout en favorisant la démocratie participative à travers le web social et d’autres formes de participation citoyenne au travers d’une communication qui renforce la relation de l’Union avec les citoyens ?
Pour un cadre de gouvernance efficace des médias sociaux
Le monde numérique rend nos autorités de gouvernance actuelles inadéquates, confrontées aux nouveaux défis technologiques. Les décideurs politiques et les régulateurs manquent actuellement de ressources pour protéger efficacement un avenir numérique positif. Les droits numériques nécessitent des protections que nos structures actuelles n’offrent pas entièrement.
La régulation des nouvelles technologies doit reposer sur des recherches fiables, un écosystème d’innovation privée renforçant l’intérêt public ainsi qu’une gouvernance qui responsabilise de manière équitable et cohérente.
1) Établir de futurs programmes de recherche et de subventions pour les universitaires
La base consiste d’abord à clarifier quand et comment les plateformes peuvent partager des données avec des chercheurs du milieu universitaire tout en protégeant les droits à la vie privée des utilisateurs.
La recherche devrait se concentrer sur :
L’établissement de définitions et de bases de référence pour les dommages numériques et les préjudices (y compris psychologiques) ;
Des mécanismes de signalement efficaces pour les problèmes de sécurité des utilisateurs ;
Des ensembles de données ouvertes à la recherche ;
Des expérimentations de technologie qui soutiennent les principes de démocratie et de transparence.
2) Distribuer des subventions pour encourager l’innovation
En outre, des programmes de financement spécifique devraient être exploré pour inciter les entreprises ou les investisseurs en phase de démarrage promouvant des principes de gouvernance démocratique auprès notamment des fonds de capital-risque émergents
3) Établir des exigences de reporting et de responsabilisation
Des rapports obligatoires par les plateformes pourraient s’inspirer structurellement des modèles mis en œuvre par les investisseurs autour des principes environnementaux, sociaux et de gouvernance pour tous les médias sociaux, entreprises de médias et plateformes.
Des exigences spécifiques pourraient être intégrées :
Des normes sociales démocratiques ;
L’audit algorithmique, la transparence des algorithmes et la prise de décision automatisée ;
Le partage de données avec les chercheurs ;
Les pratiques commerciales monétisant les données des utilisateurs ;
Les moyens de mesurer la crédibilité/l’exactitude du contenu original
L’évaluation des risques sanitaires et systémiques actuels ;
Les normes de portabilité ou d’interopérabilité ;
L’incidence des publications parrainées ou amplifiées par des gouvernements étrangers ;
L’accessibilité et l’inclusion.
Pour des plateformes responsables des médias sociaux
Les technologies confèrent aux plateformes un rôle démesuré dans les interactions, sans être encore bien adaptées. La société attend plus des entreprises, ainsi que de leurs investisseurs, avec leur prise de pouvoir croissante. L’histoire a montré l’importance d’assurer un plus grand rôle aux consommateurs et à leur protection. Alors que des portions importantes de la place publique passent aux mains du privé, les plateformes doivent s’adapter à leurs nouvelles responsabilités publiques.
Les plateformes doivent gagner la confiance des consommateurs en appliquant judicieusement et équitablement leurs politiques, en alignant leurs incitations sur les intérêts des utilisateurs et en présentant des informations fiables, sans être les arbitres ultimes de la vérité ; au contraire, la transparence et la capacité des utilisateurs à déchiffrer la crédibilité sont deux facteurs clés pour gagner la confiance du public.
Les plateformes responsables établiront également des normes éthiques élevées en interne, à la fois pour leurs employés et pour leurs décisions commerciales plus larges. Alors que les plateformes bénéficient d’un pouvoir sociétal et d’un espace considérable pour innover sans réglementation, elles doivent également s’engager à respecter des normes éthiques pour limiter les abus de ce pouvoir et de cette discrétion. Une partie de cet engagement englobe la nécessité pour les plateformes d’éduquer le public sur le fonctionnement de leurs algorithmes afin que le public puisse vraiment surveiller ses intérêts dans le monde numérique. Enfin, les plateformes doivent respecter les droits numériques de tous leurs utilisateurs – un élément essentiel pour leur relation positive avec la société américaine.
La Charte des droits numériques et le Code de conduite des développeurs fournissent des modèles de normes et de standards qui pourraient être adoptés par les producteurs de la société numérique et utilisés pour éclairer leurs politiques afin de produire une stratégie mieux coordonnée pour l’ensemble de la société pour un univers numérique sain.
1) Une stratégie numérique pour toute la société adoptée pour renforcer la fiabilité des plateformes
Pour être crédible et donc efficace, une stratégie sociétale pour une société numérique saine devra être élaborée selon un processus qui évite de donner un avantage économique à une entreprise. Il doit créer un espace pour les nouveaux entrants et éviter un monopole du pouvoir pour une seule grande plateforme.
L’élaboration de ces normes et standards règlementés nécessitera l’ouverture de canaux formels pour la contribution du public, l’engagement dans le dialogue et la garantie que les points de vue des minorités seront entendus. Ces efforts pourraient compléter le code de bonnes pratiques de l’UE sur la désinformation, qui a réuni les plateformes en ligne et l’industrie de la publicité pour s’autoréguler. Un effort de toute la société nécessite un engagement d’une multitude de façons à différents niveaux de spécificité pour générer l’adhésion et opérationnaliser les nouvelles normes et standards sur le terrain.
L’industrie technologique devrait être encouragée à établir ses propres normes qui promeuvent l’essence des principes éthiques de gouvernance de l’information, car l’autorégulation est dans le meilleur intérêt des publics et sur une base commune à l’industrie pour codifier un comportement approprié.
2) Adopter la diversité
L’éthique va au-delà de l’appel ordinaire pour assurer l’inclusivité, l’accessibilité, la diversité de pensée et l’équité. Les plateformes en ligne doivent adopter la diversité en intégrant les points de vue de diverses communautés dans le processus de conception dès le premier jour, les services et les produits prendront plus efficacement en compte les différentes perspectives sur la manière dont ils sont utilisés afin d’en limiter les dommages.
3) Garantir le respect des droits numériques
Pour intégrer ces concepts sur le terrain et partager les meilleures pratiques, la formation des employés sur les plateformes est indispensable en matière de conception, d’exploitation, d’administration et de gouvernance éthiques. Cette formation doit inclure un engagement signé des employés à suivre un code de conduite des développeurs et des entreprises à adhérer aux principes de gouvernance de l’information, en plus de respecter les droits numériques des utilisateurs.
Pour un public autonomisé et formé aux médias sociaux
Une nouvelle ère numérique offre d’immenses possibilités aux individus, mais seulement si nous sommes correctement préparés à gérer cette complexité. Dans le modèle actuel, l’attention des individus est traitée comme un produit à vendre, avec l’éducation des plateformes sur le fonctionnement de leurs algorithmes, le public doit se préparer à évaluer les implications des nouvelles dynamiques de pouvoir dans le paysage numérique, afin de ne pas être laissé vulnérable à une exploitation future par des intérêts étroits.
Les individus doivent activement s’attaquer à la complexité et aux implications de leur existence en ligne. Cela n’est possible qu’avec une certaine éducation sur les technologies elles-mêmes, la manière dont elles influencent le choix individuel et les motivations des plateformes et des producteurs de contenu. Pour sauvegarder les droits et les intérêts des consommateurs, les individus doivent se mobiliser et plaider auprès des décideurs.
Bien qu’il existe des biens sociaux qui sortent de ces modèles, comme des produits gratuits, les utilisateurs ont besoin de la liberté de choisir leurs relations, plutôt que d’être forcés à accepter des réalités monopolistiques afin qu’ils soient habilités à penser de manière critique, à défendre leurs intérêts dans le monde numérique et à participer aux processus démocratiques.
La démocratie exige qu’un public engagé réfléchisse de manière critique aux règles et aux normes nécessaires à une société saine, et cela vaut autant pour la société numérique que pour le monde réel. Toutes les parties prenantes doivent avoir la possibilité de participer à la spécification de ces règles et normes, y compris le développement et l’utilisation d’outils pour les réaliser.
1) Développer des outils civiques d’éducation pour assurer une meilleure compréhension sociétale des risques et opportunités présentés par la participation en ligne
Les parties prenantes doivent développer, promouvoir et diffuser des outils qui soutiennent l’éducation civique qui favorise une société numérique saine. La finalité vise à offrir une compréhension politiquement neutre et à promouvoir la pensée critique tout en fournissant une compréhension de base de la technologie :
La littératie numérique ;
La conscience de la confidentialité et de la sécurité ;
L’éthique technologique ;
La préparation numérique ;
L’atténuation des risques numériques ;
La gestion de la santé mentale.
La pensée critique, à savoir la remise en question constante du contenu, des algorithmes et des autres structures systémiques de la société numérique, est donc un élément important de l’autonomisation du public aux côtés de la compréhension générale de la technologie et de ses conséquences. Cette réflexion critique sur le monde numérique devrait faire partie d’une éducation civique généralisée.
D’autres formes de discussion publique pourraient porter sur la manière d’identifier la més/désinformation en ligne, les dommages causés par les environnements de médias sociaux toxiques et incivils et les mesures de sécurité pour protéger les enfants.
2) Mobiliser des outils démocratiques pour protéger les utilisateurs et la société des dommages potentiels
Un public responsabilisé a besoin d’une voix démocratique dans la société numérique, ce qui peut être accompli par des moyens remarquablement similaires à ceux du monde physique. Les campagnes peuvent tirer parti du pouvoir de mobilisation pour faire pression sur les plateformes et le gouvernement sur des questions telles que l’augmentation des capacités de propriété des utilisateurs sur les plateformes, l’adoption d’une déclaration des droits numériques, l’amélioration de la transparence des données, l’accessibilité et l’inclusion, et d’autres questions clés.
3) Donner aux utilisateurs une agence sur leurs expériences en ligne
Le dernier élément de l’autonomisation des utilisateurs est qu’ils doivent avoir l’opportunité et la capacité de participer à la définition des contours de leurs expériences personnelles en ligne. Idéalement, ils doivent contrôler leurs propres données, faire des choix sans être gênés par la manipulation ou le subterfuge de la plate-forme, avoir la liberté de se déplacer de manière transparente entre les plateformes et accéder à des outils qui leur donnent plus de contrôle sur différents aspects de leurs expressions en ligne.
La capacité de « voter avec ses pieds » en quittant des plateformes qui ne répondent pas aux besoins ou aux attentes des utilisateurs est un élément essentiel, même si la portabilité des informations non transférables empêche les utilisateurs d’exercer cette faculté.
Une première étape intéressante dans cette direction serait une adoption des normes d’interopérabilité, dans laquelle plateformes s’engageraient sur les priorités des utilisateurs lors de l’élaboration de normes d’interopérabilité et de meilleures pratiques pour offrir aux utilisateurs plus de contrôle sur leurs profils, leurs données, la création de contenu et leurs informations personnelles.
Bien que les solutions réelles puissent varier selon la plateforme, la création de mécanismes permettant aux utilisateurs de participer à l’élaboration de leurs propres expériences dans la société numérique est fondamentale pour l’essor des principes démocratiques en ligne.
Dans l’ensemble, ce premier exercice témoigne des efforts des signataires qui donnent un tel aperçu de leurs actions pour lutter contre la désinformation.
La plupart des grandes plateformes en ligne (Google, Meta, TikTok ou Twitch) fournissent un niveau de détail sans précédent sur les résultats chiffrés au niveau des États membres. Twitter fournit cependant peu d’informations précises et aucune donnée ciblée par rapport à ses engagements.
Ces premiers reportings marquent une première étape dans la mise en place du nouveau code de bonnes pratiques, tandis que la méthodologie et la granularité des données est parfois lacunaires contrairement aux dispositions du code.
Quelles sont les données les plus significatives ?
Google indique qu’au troisième trimestre 2022, plus de 13 millions d’euros de revenus publicitaires ont été bloqués avant d’être versés aux acteurs de la désinformation dans l’UE. Par ailleurs, la campagne « Hit Pause » de YouTube est diffusée dans 20 États membres de l’UE afin d’inciter les internautes à la vigilance.
TikTok signale qu’au troisième trimestre 2022 plus de 800 000 faux comptes ont été supprimés, ces comptes rassemblaient plus de 18 millions d’abonnés. Ces faux comptes supprimés représentent 0,6 % des utilisateurs actifs mensuels dans l’UE.
Meta rapporte qu’en décembre 2022, environ 28 millions d’étiquettes de vérification des faits ont été appliquées sur Facebook et 1,7 million sur Instagram. En moyenne, 25% des utilisateurs de Facebook ne transmettent pas de contenu après avoir reçu un avertissement indiquant que le contenu a été indiqué comme faux par les fact-checkers. Ce pourcentage passe à 38% sur Instagram.
Du 1er octobre 2022 au 31 décembre 2022, Meta a supprimé plus de 2,9 millions de publicités de Facebook et Instagram dans les États membres de l’UE, dont plus de 8 800 publicités ont été supprimées pour avoir enfreint leur politique de désinformation.
Du 15 novembre au 31 décembre 2022, Meta a étiqueté plus de 170 000 publicités politiques sur Facebook et Instagram avec des clauses de non-responsabilité « payé par » dans l’UE.
Twitch rapporte entre octobre et décembre 2022, 270 921 comptes et botnets non authentiques créés ont été bloqués et a pris des mesures contre 32 tentatives de détournement et d’usurpation d’identité. De plus, Twitch a supprimé 6 comptes activement dédiés à la promotion de QAnon.
Twitter ne communique pas de données, mais valorise une nouvelle fonctionnalité « Community Note » qui permet d’ajouter une évaluation d’un tweet par un tiers :
Une personne qui voit une Note de la communauté est, en moyenne, 20 à 40 % moins susceptible d’être d’accord avec le contenu d’un tweet potentiellement trompeur qu’une personne qui ne voit que le tweet.
Une personne sur Twitter qui voit une note est, en moyenne, 15 à 35 % moins susceptible de choisir d’aimer ou de retweeter un tweet qu’une personne qui ne voit que le tweet.
Données sur la guerre d’agression en Ukraine
YouTube a bloqué plus de 800 chaînes et plus de 4 millions de vidéos liées au conflit russo-ukrainien depuis le 24 février 2022.
Microsoft Advertising a empêché entre février et décembre 2022 environ 25 000 soumissions d’annonceurs liées à la crise ukrainienne dans le monde et supprimé 2 328 domaines.
TikTok, d’octobre à décembre 2022, a vérifié 90 vidéos liées à la guerre et 29 vidéos ont été supprimées en conséquence de leur activité de vérification des faits.
Les prochains reportings sont attendus en juillet et devrait fournir des informations supplémentaires sur la mise en œuvre du Code avec des données plus exhaustives. Des indicateurs pour évaluer la mise en œuvre du Code et son impact sur la réduction de la propagation de la désinformation en ligne sont également prévus dans l’année.
Première édition du rapport sur les menaces de manipulation d’informations étrangères et d’interférences grâce aux travaux de la division Stratcom du Service européen pour l’action extérieure, un projet pilote appliquant un nouveau cadre, basé sur les meilleures pratiques autour d’un premier échantillon de 100 incidents détectés et analysés entre octobre et décembre 2022…
Principaux résultats
L’invasion à grande échelle de l’Ukraine par la Russie domine l’activité observée des manipulations et menaces. L’Ukraine est la cible directe de 33 incidents et dans 60 incidents, le soutien à l’invasion était la principale motivation de l’attaque.
Les voies diplomatiques font partie intégrante des incidents : les canaux diplomatiques russes servent régulièrement de facilitateurs aux opérations de manipulations et menaces, déployés sur un large éventail de sujets. La Chine utilise également les canaux diplomatiques, ciblant principalement les États-Unis.
La collusion des acteurs existe mais demeure limitée : des acteurs officiels russes ont été impliqués dans 88 incidents analysés tandis que des acteurs chinois le sont dans 17 cas ; dans au moins 5 cas, les deux acteurs russes et chinois se sont engagés conjointement.
Les incidents ne se produisent pas dans une seule langue : le contenu est traduit et amplifié en plusieurs langues. Les incidents concernent au moins 30 langues, dont 16 sont des langues de l’UE. La Russie utilise une plus grande variété de langues que les acteurs chinois, mais 44 % du contenu russe cible les populations russophones, tandis que 36 % ciblent les populations anglophones.
Tactiques et techniques de manipulations d’informations et de menaces d’interférences
Les objectifs présumés sont principalement destinés à distraire et à déformer : la Russie (42 %) et la Chine (56 %) ont principalement l’intention d’attirer l’attention sur un acteur ou un récit différent ou de rejeter le blâme (« distraire »). La Russie tente de modifier le cadrage et le récit (« déformer ») relativement plus souvent (35 %) que la Chine (18 %).
Parmi les 10 combinaisons de tactiques et de techniques, le développement de contenus à base d’images et à base de vidéos, faciles et peu coûteux, sont les deux techniques les plus récurrentes employées :
Des contenus fabriqués à partir d’images et de vidéos sont utilisés pour dégrader l’image ou la capacité d’action des adversaires et pour discréditer des sources crédibles ;
Les voies diplomatiques officielles sont utilisées pour discréditer des sources crédibles, pour fournir du contenu à base d’images et de texte, déformer les faits en recadrant le contexte des événements, et dégrader les adversaires ;
Dans le cas de la Russie, une raison possible de l’utilisation accrue des comptes diplomatiques pourrait être une conséquence des chaînes contrôlées par l’État russe avec une large portée autrefois sanctionnées dans l’UE ;
Les contenus fabriqués à base d’images et de vidéos ont été distribués sur plusieurs plates-formes afin de maximiser l’exposition du contenu.
Techniques d’usurpation d’identité et victimes
Les techniques d’usurpation d’identité deviennent plus sophistiquées. Les usurpations d’identité d’organisations et d’individus internationaux et de confiance sont utilisées par des acteurs russes, en particulier pour cibler l’Ukraine. La presse écrite et la télévision sont le plus souvent usurpées, les magazines voyant tout leur style copié.
Un bref examen des cas dans lesquels la Russie s’est fait passer pour des entités légitimes et de confiance montre que personne n’est à l’abri de voir son identité ou sa marque utilisée à mauvais escient. Les acteurs de la menace utilisent l’usurpation d’identité pour ajouter de la légitimité à leurs messages et pour atteindre et affecter des publics familiers avec les entités usurpées et qui leur font confiance. Six incidents ont utilisé des cas d’usurpation d’identité. Tous liés à l’invasion russe de l’Ukraine. Les médias étaient les entités les plus souvent usurpées. Lors de quatre incidents, de fausses pages de couverture imitant le style visuel des magazines satiriques européens, notamment Charlie Hebdo. De plus, deux vidéos ont imité des médias internationaux (Aljazeera et Euronews).
Narratifs
Le récit le plus courant parmi les incidents analysés était « l’Occident est l’agresseur envers la Russie » qui comprend des messages qui dépeignent l’Occident comme étant antagoniste envers la Russie, poussant l’Ukraine à la guerre, provoquant et profitant de la guerre, exécutant mobilisation militaire et implication dans des actions qui attisent les tensions entre l’Ukraine et la Russie. Ce récit a été observé dans 17 incidents.
Le récit « L’Ukraine est l’agresseur envers la Russie » a été observé dans 15 incidents. Ce récit dépeint faussement l’Ukraine comme celle qui a provoqué et voulu la guerre, commis des atrocités, des crimes de guerre et un génocide, et déployé ou planifié de déployer des attaques chimiques/nucléaires.
Le récit « Les sanctions contre la Russie se retournent contre leurs auteurs », qui met en évidence les conséquences négatives présumées des sanctions sur les pays occidentaux et autres, avec un accent particulier sur la crise alimentaire et énergétique ainsi que sur l’inflation, est également apparu dans 15 incidents. Il convient de noter que ce groupe narratif comprend également des messages alléguant que les crises actuelles sont causées par les pays occidentaux et leurs sanctions.
Le 4e récit le plus courant « L’Occident est hypocrite », qui comprend tous les messages qui dépeignent à tort les entités occidentales comme violant les droits fondamentaux, menant des campagnes de désinformation, corrompues, colonialistes, russophobes ou sinophobes et exploitant les autres, a été observé 14 fois.
Le 5e récit le plus fréquent, « L’Ukraine est un État nazi et terroriste », qui présente de fausses affirmations selon lesquelles l’Ukraine est un État nazi et/ou terroriste ou qu’il soutient de tels groupes, est apparu dans 11 incidents.
Composition de l’écosystème médiatique des acteurs de la menace
Canaux de communication officiels : canaux officiellement utilisés par un État et ses représentants pour diffuser du contenu, comme, les sites Web officiels d’un État ou les comptes de médias sociaux des services diplomatiques et des ambassades.
Chaînes contrôlées par l’État : chaînes médiatiques officiellement affiliées à un acteur étatique. Elles sont détenues majoritairement par un État ou un parti au pouvoir, gérées par des organes nommés par le gouvernement et suivent une ligne éditoriale imposée par les autorités de l’État.
Chaînes liées à l’État : chaînes sans liens transparents ni affiliation officielle à un acteur étatique, mais dont l’attribution a été confirmée par des organisations ayant accès à des sources de données dorsales privilégiées, telles que des plateformes numériques, des entités de renseignement et de cybersécurité, ou par gouvernements ou services militaires sur la base d’informations classifiées.
Effets
80% des incidents n’ont déclenché aucun type de réponse, cependant, 20 incidents ont reçu une réponse de communication. Dans certains cas, plusieurs contre-mesures ont été prises. Au total, 28 contre-mesures ont été prises en réponse aux incidents. La contre-mesure la plus courante était la déclaration de réfutation, lorsqu’une entité impliquée a publié une déclaration réfutant les allégations de l’incident, ce qui représente 50% de tous les plans d’action. La démystification ou la vérification des faits des allégations de l’incident s’est produite dans 3 cas. La contre-mesure la moins courante était la suppression du contenu, car cela ne s’est produit qu’en réponse à un incident.
Au total, ce rapport contribue à fournir à la communauté des défenseurs des manipulations d’informations étrangères et menaces d’interférences un cadre de compréhension commune en vue de formuler une réponse collective et systématique.
Entre la toute-puissance actuelle des GAFAM et la logique future de décentralisation du web3 autour de l’empowerment des créateurs de contenus, l’Institut Sapiens a fait discuter deux essayistes Caroline Faillet, auteur de « Web3, la nouvelle guerre digitale » et Charleyne Biondi, auteur de « Dé-coder une contre-histoire du numérique »…
Charleyne Biondi : Le numérique c’est un enjeu stratégique
Avec son regard de techno-politiste, la contre-histoire du numérique est une invitation à comprendre les évolutions qui se sont imposées dans nos vies quotidiennes :
Les big data, c’est un moyen d’influencer et de gouverner les populations ;
Le numérique, en tant qu’il produit et collecte ces données, c’est devenu un enjeu stratégique ;
Le techno-pouvoir correspond aux capacités des nouveaux souverains big tech.
Au total, la souveraineté numérique, nouvel enjeu stratégique, doit se comprendre sous trois angles : la régulation, les infrastructures critiques et les sujets sécurité/défense.
Caroline Faillet : Les nouvelles guerres digitales
Avec son métier de consultante, le regard se porte sur les couches du champ de bataille :
Les câbles : le combat est d’ores et déjà quasiment perdu ;
Les logiciels : le combat est pour le moment largement perdu ;
La dimension cognitive : l’attention capturée par les interfaces.
Pour dire les choses très simplement, la bataille, pour l’avenir de nos sociétés, se joue contre la captologie, cette technique qui vise à capturer notre attention grâce au design et aux interactions avec les plateformes et les applications.
Au total, la cyber-guerre, c’est la guerre sourde de l’attention et les actions de manipulation des opinions par des puissances étrangères.
Charleyne Biondi : La révolution numérique
Dans son rôle d’historienne des nouvelles technologies, la science informatique peut être vue comme une grande découverte, aussi radicale que Newton ou Einstein. Pourquoi ? Parce que c’est une révolution industrielle, mais aussi un changement de paradigme ; c’est-à-dire une nouvelle manière d’être au monde.
Les nouvelles idées de l’informatique prennent corps dans les populations via des outils numériques comme les réseaux sociaux et les applications. Le numérique nous mène à un point de bascule où les systèmes politiques et les imaginaires collectifs sont bouleversés.
Caroline Faillet : L’empowerment des individus
En tant que pédagogue des futures technologies, le web 3.0, c’est la poursuite de la prise de pouvoir des individus, engagée avec le web 2.0, via la désintermédiation et la révolution des usages :
Digitalisation de la valeur : avec le token, des individus sont propriétaires de cryptoactifs dématérialisés ;
Décentralisation de l’organisation : avec la blockchain, c’est le partage de la valeur de pair à pair.
Un « optimisme de devoir » doit être adopté pour corriger les dérives et reprendre le pouvoir des GAFAM contre leur business-model fondé sur la monétisation des données personnelles grâce aux usagers-propriétaires de leurs actifs numériques dans le web 3.0.
Charleyne Biondi : Les risques politiques du numérique
Plusieurs étapes clés ont incarné les dérives politiques du numérique :
Le techno-utopisme libertaire de la Silicon Valley, c’est la première figure des cyberpunks
La crainte de la surveillance de masse, c’est le temps des whistleblowers comme Edward Snowden ;
Le discours démocratique de la régulation des GAFAM vs le splinternet qui divise les espaces numériques, avec en particulier la grande muraille virtuelle en Chine ;
La rhétorique de la décentralisation heureuse avec le web 3.0, c’est le moment présent ;
L’hyper-marchandisation du cyber espace, c’est le risque si l’on se retrouve uniquement avec des métavers gérés via des blockchain tokenisés, qui réduise toute vie numérique à des actifs monétisables.
Caroline Faillet : Les opportunités du web 3.0
La bataille se mène à la fois contre les plus dogmatiques qui se mobilisent toujours (scams/trolls/fake…), mais aussi contre la radicalisation renforcée par les algorithmes et encore contre le business-model « quand tout est gratuit, c’est vous qui êtes le produit ».
Se tourner vers des intentions d’usage « citoyennes », des échanges plus vertueux et durables, là où la tech recrée du lien, le token, ce n’est pas de l’argent mais une valorisation de tâches, d’activités et de partages de savoirs et de connaissances et du coup, la blockchain, c’est un lien direct et transparent.
Au final, dans ces transformations du numérique, la plus belle promesse serait que l’Europe passe d’un nain de l’ère du web 2.0 dominé par les GAFAM à un géant du web 3.0 décentralisé et souverain.