Archives par étiquette : web social

Médias sociaux : recommandations pour une déclaration des droits numériques, un code de conduite des développeurs et des principes de gouvernance de l’information numérique

Les acteurs technologiques, la société civile, le milieu universitaire et le public devraient élaborer une déclaration des droits numériques des utilisateurs, un code de conduite des développeurs et des principes de gouvernance de l’information numérique afin de promouvoir leur adoption et leur adhésion, selon l’étude. “Social Media: The Canary in the Coal Mine – A Digital Bill of Rights, Developers’ Code of Conduct, and Information Governance Principles for a Healthier Digital World”…

Pour un cadre de gouvernance efficace des médias sociaux

Le monde numérique rend nos autorités de gouvernance actuelles inadéquates, confrontées aux nouveaux défis technologiques. Les décideurs politiques et les régulateurs manquent actuellement de ressources pour protéger efficacement un avenir numérique positif. Les droits numériques nécessitent des protections que nos structures actuelles n’offrent pas entièrement.

La régulation des nouvelles technologies doit reposer sur des recherches fiables, un écosystème d’innovation privée renforçant l’intérêt public ainsi qu’une gouvernance qui responsabilise de manière équitable et cohérente.

1) Établir de futurs programmes de recherche et de subventions pour les universitaires

La base consiste d’abord à clarifier quand et comment les plateformes peuvent partager des données avec des chercheurs du milieu universitaire tout en protégeant les droits à la vie privée des utilisateurs.

La recherche devrait se concentrer sur :

  • L’établissement de définitions et de bases de référence pour les dommages numériques et les préjudices (y compris psychologiques) ;
  • Des mécanismes de signalement efficaces pour les problèmes de sécurité des utilisateurs ;
  • Des ensembles de données ouvertes à la recherche ;
  • Des expérimentations de technologie qui soutiennent les principes de démocratie et de transparence.

2) Distribuer des subventions pour encourager l’innovation

En outre, des programmes de financement spécifique devraient être exploré pour inciter les entreprises ou les investisseurs en phase de démarrage promouvant des principes de gouvernance démocratique auprès notamment des fonds de capital-risque émergents

3) Établir des exigences de reporting et de responsabilisation

Des rapports obligatoires par les plateformes pourraient s’inspirer structurellement des modèles mis en œuvre par les investisseurs autour des principes environnementaux, sociaux et de gouvernance pour tous les médias sociaux, entreprises de médias et plateformes.

Des exigences spécifiques pourraient être intégrées :

  • Des normes sociales démocratiques ;
  • L’audit algorithmique, la transparence des algorithmes et la prise de décision automatisée ;
  • Le partage de données avec les chercheurs ;
  • Les pratiques commerciales monétisant les données des utilisateurs ;
  • Les moyens de mesurer la crédibilité/l’exactitude du contenu original
  • L’évaluation des risques sanitaires et systémiques actuels ;
  • Les normes de portabilité ou d’interopérabilité ;
  • L’incidence des publications parrainées ou amplifiées par des gouvernements étrangers ;
  • L’accessibilité et l’inclusion.

Pour des plateformes responsables des médias sociaux

Les technologies confèrent aux plateformes un rôle démesuré dans les interactions, sans être encore bien adaptées. La société attend plus des entreprises, ainsi que de leurs investisseurs, avec leur prise de pouvoir croissante. L’histoire a montré l’importance d’assurer un plus grand rôle aux consommateurs et à leur protection. Alors que des portions importantes de la place publique passent aux mains du privé, les plateformes doivent s’adapter à leurs nouvelles responsabilités publiques.

Les plateformes doivent gagner la confiance des consommateurs en appliquant judicieusement et équitablement leurs politiques, en alignant leurs incitations sur les intérêts des utilisateurs et en présentant des informations fiables, sans être les arbitres ultimes de la vérité ; au contraire, la transparence et la capacité des utilisateurs à déchiffrer la crédibilité sont deux facteurs clés pour gagner la confiance du public.

Les plateformes responsables établiront également des normes éthiques élevées en interne, à la fois pour leurs employés et pour leurs décisions commerciales plus larges. Alors que les plateformes bénéficient d’un pouvoir sociétal et d’un espace considérable pour innover sans réglementation, elles doivent également s’engager à respecter des normes éthiques pour limiter les abus de ce pouvoir et de cette discrétion. Une partie de cet engagement englobe la nécessité pour les plateformes d’éduquer le public sur le fonctionnement de leurs algorithmes afin que le public puisse vraiment surveiller ses intérêts dans le monde numérique. Enfin, les plateformes doivent respecter les droits numériques de tous leurs utilisateurs – un élément essentiel pour leur relation positive avec la société américaine.

La Charte des droits numériques et le Code de conduite des développeurs fournissent des modèles de normes et de standards qui pourraient être adoptés par les producteurs de la société numérique et utilisés pour éclairer leurs politiques afin de produire une stratégie mieux coordonnée pour l’ensemble de la société pour un univers numérique sain.

1) Une stratégie numérique pour toute la société adoptée pour renforcer la fiabilité des plateformes

Pour être crédible et donc efficace, une stratégie sociétale pour une société numérique saine devra être élaborée selon un processus qui évite de donner un avantage économique à une entreprise. Il doit créer un espace pour les nouveaux entrants et éviter un monopole du pouvoir pour une seule grande plateforme.

L’élaboration de ces normes et standards règlementés nécessitera l’ouverture de canaux formels pour la contribution du public, l’engagement dans le dialogue et la garantie que les points de vue des minorités seront entendus. Ces efforts pourraient compléter le code de bonnes pratiques de l’UE sur la désinformation, qui a réuni les plateformes en ligne et l’industrie de la publicité pour s’autoréguler. Un effort de toute la société nécessite un engagement d’une multitude de façons à différents niveaux de spécificité pour générer l’adhésion et opérationnaliser les nouvelles normes et standards sur le terrain.

L’industrie technologique devrait être encouragée à établir ses propres normes qui promeuvent l’essence des principes éthiques de gouvernance de l’information, car l’autorégulation est dans le meilleur intérêt des publics et sur une base commune à l’industrie pour codifier un comportement approprié.

2) Adopter la diversité

L’éthique va au-delà de l’appel ordinaire pour assurer l’inclusivité, l’accessibilité, la diversité de pensée et l’équité. Les plateformes en ligne doivent adopter la diversité en intégrant les points de vue de diverses communautés dans le processus de conception dès le premier jour, les services et les produits prendront plus efficacement en compte les différentes perspectives sur la manière dont ils sont utilisés afin d’en limiter les dommages.

3) Garantir le respect des droits numériques

Pour intégrer ces concepts sur le terrain et partager les meilleures pratiques, la formation des employés sur les plateformes est indispensable en matière de conception, d’exploitation, d’administration et de gouvernance éthiques. Cette formation doit inclure un engagement signé des employés à suivre un code de conduite des développeurs et des entreprises à adhérer aux principes de gouvernance de l’information, en plus de respecter les droits numériques des utilisateurs.

Pour un public autonomisé et formé aux médias sociaux

Une nouvelle ère numérique offre d’immenses possibilités aux individus, mais seulement si nous sommes correctement préparés à gérer cette complexité. Dans le modèle actuel, l’attention des individus est traitée comme un produit à vendre, avec l’éducation des plateformes sur le fonctionnement de leurs algorithmes, le public doit se préparer à évaluer les implications des nouvelles dynamiques de pouvoir dans le paysage numérique, afin de ne pas être laissé vulnérable à une exploitation future par des intérêts étroits.

Les individus doivent activement s’attaquer à la complexité et aux implications de leur existence en ligne. Cela n’est possible qu’avec une certaine éducation sur les technologies elles-mêmes, la manière dont elles influencent le choix individuel et les motivations des plateformes et des producteurs de contenu. Pour sauvegarder les droits et les intérêts des consommateurs, les individus doivent se mobiliser et plaider auprès des décideurs.

Bien qu’il existe des biens sociaux qui sortent de ces modèles, comme des produits gratuits, les utilisateurs ont besoin de la liberté de choisir leurs relations, plutôt que d’être forcés à accepter des réalités monopolistiques afin qu’ils soient habilités à penser de manière critique, à défendre leurs intérêts dans le monde numérique et à participer aux processus démocratiques.

La démocratie exige qu’un public engagé réfléchisse de manière critique aux règles et aux normes nécessaires à une société saine, et cela vaut autant pour la société numérique que pour le monde réel. Toutes les parties prenantes doivent avoir la possibilité de participer à la spécification de ces règles et normes, y compris le développement et l’utilisation d’outils pour les réaliser.

1) Développer des outils civiques d’éducation pour assurer une meilleure compréhension sociétale des risques et opportunités présentés par la participation en ligne

Les parties prenantes doivent développer, promouvoir et diffuser des outils qui soutiennent l’éducation civique qui favorise une société numérique saine. La finalité vise à offrir une compréhension politiquement neutre et à promouvoir la pensée critique tout en fournissant une compréhension de base de la technologie :

  • La littératie numérique ;
  • La conscience de la confidentialité et de la sécurité ;
  • L’éthique technologique ;
  • La préparation numérique ;
  • L’atténuation des risques numériques ;
  • La gestion de la santé mentale.

La pensée critique, à savoir la remise en question constante du contenu, des algorithmes et des autres structures systémiques de la société numérique, est donc un élément important de l’autonomisation du public aux côtés de la compréhension générale de la technologie et de ses conséquences. Cette réflexion critique sur le monde numérique devrait faire partie d’une éducation civique généralisée.

D’autres formes de discussion publique pourraient porter sur la manière d’identifier la més/désinformation en ligne, les dommages causés par les environnements de médias sociaux toxiques et incivils et les mesures de sécurité pour protéger les enfants.

2) Mobiliser des outils démocratiques pour protéger les utilisateurs et la société des dommages potentiels

Un public responsabilisé a besoin d’une voix démocratique dans la société numérique, ce qui peut être accompli par des moyens remarquablement similaires à ceux du monde physique. Les campagnes peuvent tirer parti du pouvoir de mobilisation pour faire pression sur les plateformes et le gouvernement sur des questions telles que l’augmentation des capacités de propriété des utilisateurs sur les plateformes, l’adoption d’une déclaration des droits numériques, l’amélioration de la transparence des données, l’accessibilité et l’inclusion, et d’autres questions clés.

3) Donner aux utilisateurs une agence sur leurs expériences en ligne

Le dernier élément de l’autonomisation des utilisateurs est qu’ils doivent avoir l’opportunité et la capacité de participer à la définition des contours de leurs expériences personnelles en ligne. Idéalement, ils doivent contrôler leurs propres données, faire des choix sans être gênés par la manipulation ou le subterfuge de la plate-forme, avoir la liberté de se déplacer de manière transparente entre les plateformes et accéder à des outils qui leur donnent plus de contrôle sur différents aspects de leurs expressions en ligne.

La capacité de « voter avec ses pieds » en quittant des plateformes qui ne répondent pas aux besoins ou aux attentes des utilisateurs est un élément essentiel, même si la portabilité des informations non transférables empêche les utilisateurs d’exercer cette faculté.

Une première étape intéressante dans cette direction serait une adoption des normes d’interopérabilité, dans laquelle plateformes s’engageraient sur les priorités des utilisateurs lors de l’élaboration de normes d’interopérabilité et de meilleures pratiques pour offrir aux utilisateurs plus de contrôle sur leurs profils, leurs données, la création de contenu et leurs informations personnelles.

Bien que les solutions réelles puissent varier selon la plateforme, la création de mécanismes permettant aux utilisateurs de participer à l’élaboration de leurs propres expériences dans la société numérique est fondamentale pour l’essor des principes démocratiques en ligne.

Lutte des GAFAM contre la désinformation en Europe : premiers résultats chiffrés

Les signataires du Code de bonnes pratiques contre la désinformation, en particulier les principales plateformes, soumettent leurs premiers rapports sur la mise en œuvre de leurs engagements pris en vertu du Code de bonnes pratiques contre la désinformation

Que retenir de ces premiers reportings ?

Dans l’ensemble, ce premier exercice témoigne des efforts des signataires qui donnent un tel aperçu de leurs actions pour lutter contre la désinformation.

La plupart des grandes plateformes en ligne (Google, Meta, TikTok ou Twitch) fournissent un niveau de détail sans précédent sur les résultats chiffrés au niveau des États membres. Twitter fournit cependant peu d’informations précises et aucune donnée ciblée par rapport à ses engagements.

Ces premiers reportings marquent une première étape dans la mise en place du nouveau code de bonnes pratiques, tandis que la méthodologie et la granularité des données est parfois lacunaires contrairement aux dispositions du code.

Quelles sont les données les plus significatives ?

Google indique qu’au troisième trimestre 2022, plus de 13 millions d’euros de revenus publicitaires ont été bloqués avant d’être versés aux acteurs de la désinformation dans l’UE. Par ailleurs, la campagne « Hit Pause » de YouTube est diffusée dans 20 États membres de l’UE afin d’inciter les internautes à la vigilance.

TikTok signale qu’au troisième trimestre 2022 plus de 800 000 faux comptes ont été supprimés, ces comptes rassemblaient plus de 18 millions d’abonnés. Ces faux comptes supprimés représentent 0,6 % des utilisateurs actifs mensuels dans l’UE.

Meta rapporte qu’en décembre 2022, environ 28 millions d’étiquettes de vérification des faits ont été appliquées sur Facebook et 1,7 million sur Instagram. En moyenne, 25% des utilisateurs de Facebook ne transmettent pas de contenu après avoir reçu un avertissement indiquant que le contenu a été indiqué comme faux par les fact-checkers. Ce pourcentage passe à 38% sur Instagram.

Du 1er octobre 2022 au 31 décembre 2022, Meta a supprimé plus de 2,9 millions de publicités de Facebook et Instagram dans les États membres de l’UE, dont plus de 8 800 publicités ont été supprimées pour avoir enfreint leur politique de désinformation.

Du 15 novembre au 31 décembre 2022, Meta a étiqueté plus de 170 000 publicités politiques sur Facebook et Instagram avec des clauses de non-responsabilité « payé par » dans l’UE.

Twitch rapporte entre octobre et décembre 2022, 270 921 comptes et botnets non authentiques créés ont été bloqués et a pris des mesures contre 32 tentatives de détournement et d’usurpation d’identité. De plus, Twitch a supprimé 6 comptes activement dédiés à la promotion de QAnon.

Twitter ne communique pas de données, mais valorise une nouvelle fonctionnalité « Community Note » qui permet d’ajouter une évaluation d’un tweet par un tiers :

  • Une personne qui voit une Note de la communauté est, en moyenne, 20 à 40 % moins susceptible d’être d’accord avec le contenu d’un tweet potentiellement trompeur qu’une personne qui ne voit que le tweet.
  • Une personne sur Twitter qui voit une note est, en moyenne, 15 à 35 % moins susceptible de choisir d’aimer ou de retweeter un tweet qu’une personne qui ne voit que le tweet.

Données sur la guerre d’agression en Ukraine

YouTube a bloqué plus de 800 chaînes et plus de 4 millions de vidéos liées au conflit russo-ukrainien depuis le 24 février 2022.

Microsoft Advertising a empêché entre février et décembre 2022 environ 25 000 soumissions d’annonceurs liées à la crise ukrainienne dans le monde et supprimé 2 328 domaines.

TikTok, d’octobre à décembre 2022, a vérifié 90 vidéos liées à la guerre et 29 vidéos ont été supprimées en conséquence de leur activité de vérification des faits.

Les prochains reportings sont attendus en juillet et devrait fournir des informations supplémentaires sur la mise en œuvre du Code avec des données plus exhaustives. Des indicateurs pour évaluer la mise en œuvre du Code et son impact sur la réduction de la propagation de la désinformation en ligne sont également prévus dans l’année.

Affaire à suivre.

Guerres informationnelles : manipulations d’informations étrangères et menaces d’interférences

Première édition du rapport sur les menaces de manipulation d’informations étrangères et d’interférences grâce aux travaux de la division Stratcom du Service européen pour l’action extérieure, un projet pilote appliquant un nouveau cadre, basé sur les meilleures pratiques autour d’un premier échantillon de 100 incidents détectés et analysés entre octobre et décembre 2022…

Principaux résultats

L’invasion à grande échelle de l’Ukraine par la Russie domine l’activité observée des manipulations et menaces. L’Ukraine est la cible directe de 33 incidents et dans 60 incidents, le soutien à l’invasion était la principale motivation de l’attaque.

Les voies diplomatiques font partie intégrante des incidents : les canaux diplomatiques russes servent régulièrement de facilitateurs aux opérations de manipulations et menaces, déployés sur un large éventail de sujets. La Chine utilise également les canaux diplomatiques, ciblant principalement les États-Unis.

La collusion des acteurs existe mais demeure limitée : des acteurs officiels russes ont été impliqués dans 88 incidents analysés tandis que des acteurs chinois le sont dans 17 cas ; dans au moins 5 cas, les deux acteurs russes et chinois se sont engagés conjointement.

Les incidents ne se produisent pas dans une seule langue : le contenu est traduit et amplifié en plusieurs langues. Les incidents concernent au moins 30 langues, dont 16 sont des langues de l’UE. La Russie utilise une plus grande variété de langues que les acteurs chinois, mais 44 % du contenu russe cible les populations russophones, tandis que 36 % ciblent les populations anglophones.

Tactiques et techniques de manipulations d’informations et de menaces d’interférences

Les objectifs présumés sont principalement destinés à distraire et à déformer : la Russie (42 %) et la Chine (56 %) ont principalement l’intention d’attirer l’attention sur un acteur ou un récit différent ou de rejeter le blâme (« distraire »). La Russie tente de modifier le cadrage et le récit (« déformer ») relativement plus souvent (35 %) que la Chine (18 %).

Parmi les 10 combinaisons de tactiques et de techniques, le développement de contenus à base d’images et à base de vidéos, faciles et peu coûteux, sont les deux techniques les plus récurrentes employées :

  • Des contenus fabriqués à partir d’images et de vidéos sont utilisés pour dégrader l’image ou la capacité d’action des adversaires et pour discréditer des sources crédibles ;
  • Les voies diplomatiques officielles sont utilisées pour discréditer des sources crédibles, pour fournir du contenu à base d’images et de texte, déformer les faits en recadrant le contexte des événements, et dégrader les adversaires ;
  • Dans le cas de la Russie, une raison possible de l’utilisation accrue des comptes diplomatiques pourrait être une conséquence des chaînes contrôlées par l’État russe avec une large portée autrefois sanctionnées dans l’UE ;
  • Les contenus fabriqués à base d’images et de vidéos ont été distribués sur plusieurs plates-formes afin de maximiser l’exposition du contenu.

Techniques d’usurpation d’identité et victimes

Les techniques d’usurpation d’identité deviennent plus sophistiquées. Les usurpations d’identité d’organisations et d’individus internationaux et de confiance sont utilisées par des acteurs russes, en particulier pour cibler l’Ukraine. La presse écrite et la télévision sont le plus souvent usurpées, les magazines voyant tout leur style copié.

Un bref examen des cas dans lesquels la Russie s’est fait passer pour des entités légitimes et de confiance montre que personne n’est à l’abri de voir son identité ou sa marque utilisée à mauvais escient. Les acteurs de la menace utilisent l’usurpation d’identité pour ajouter de la légitimité à leurs messages et pour atteindre et affecter des publics familiers avec les entités usurpées et qui leur font confiance. Six incidents ont utilisé des cas d’usurpation d’identité. Tous liés à l’invasion russe de l’Ukraine. Les médias étaient les entités les plus souvent usurpées. Lors de quatre incidents, de fausses pages de couverture imitant le style visuel des magazines satiriques européens, notamment Charlie Hebdo. De plus, deux vidéos ont imité des médias internationaux (Aljazeera et Euronews).

Narratifs

Le récit le plus courant parmi les incidents analysés était « l’Occident est l’agresseur envers la Russie » qui comprend des messages qui dépeignent l’Occident comme étant antagoniste envers la Russie, poussant l’Ukraine à la guerre, provoquant et profitant de la guerre, exécutant mobilisation militaire et implication dans des actions qui attisent les tensions entre l’Ukraine et la Russie. Ce récit a été observé dans 17 incidents.

Le récit « L’Ukraine est l’agresseur envers la Russie » a été observé dans 15 incidents. Ce récit dépeint faussement l’Ukraine comme celle qui a provoqué et voulu la guerre, commis des atrocités, des crimes de guerre et un génocide, et déployé ou planifié de déployer des attaques chimiques/nucléaires.

Le récit « Les sanctions contre la Russie se retournent contre leurs auteurs », qui met en évidence les conséquences négatives présumées des sanctions sur les pays occidentaux et autres, avec un accent particulier sur la crise alimentaire et énergétique ainsi que sur l’inflation, est également apparu dans 15 incidents. Il convient de noter que ce groupe narratif comprend également des messages alléguant que les crises actuelles sont causées par les pays occidentaux et leurs sanctions.

Le 4e récit le plus courant « L’Occident est hypocrite », qui comprend tous les messages qui dépeignent à tort les entités occidentales comme violant les droits fondamentaux, menant des campagnes de désinformation, corrompues, colonialistes, russophobes ou sinophobes et exploitant les autres, a été observé 14 fois.

Le 5e récit le plus fréquent, « L’Ukraine est un État nazi et terroriste », qui présente de fausses affirmations selon lesquelles l’Ukraine est un État nazi et/ou terroriste ou qu’il soutient de tels groupes, est apparu dans 11 incidents.

Composition de l’écosystème médiatique des acteurs de la menace

Canaux de communication officiels : canaux officiellement utilisés par un État et ses représentants pour diffuser du contenu, comme, les sites Web officiels d’un État ou les comptes de médias sociaux des services diplomatiques et des ambassades.

Chaînes contrôlées par l’État : chaînes médiatiques officiellement affiliées à un acteur étatique. Elles sont détenues majoritairement par un État ou un parti au pouvoir, gérées par des organes nommés par le gouvernement et suivent une ligne éditoriale imposée par les autorités de l’État.

Chaînes liées à l’État : chaînes sans liens transparents ni affiliation officielle à un acteur étatique, mais dont l’attribution a été confirmée par des organisations ayant accès à des sources de données dorsales privilégiées, telles que des plateformes numériques, des entités de renseignement et de cybersécurité, ou par gouvernements ou services militaires sur la base d’informations classifiées.

Effets

80% des incidents n’ont déclenché aucun type de réponse, cependant, 20 incidents ont reçu une réponse de communication. Dans certains cas, plusieurs contre-mesures ont été prises. Au total, 28 contre-mesures ont été prises en réponse aux incidents. La contre-mesure la plus courante était la déclaration de réfutation, lorsqu’une entité impliquée a publié une déclaration réfutant les allégations de l’incident, ce qui représente 50% de tous les plans d’action. La démystification ou la vérification des faits des allégations de l’incident s’est produite dans 3 cas. La contre-mesure la moins courante était la suppression du contenu, car cela ne s’est produit qu’en réponse à un incident.

Au total, ce rapport contribue à fournir à la communauté des défenseurs des manipulations d’informations étrangères et menaces d’interférences un cadre de compréhension commune en vue de formuler une réponse collective et systématique.

Promesses du web 3.0 : quel avenir souhaitable pour l’Europe ?

Entre la toute-puissance actuelle des GAFAM et la logique future de décentralisation du web3 autour de l’empowerment des créateurs de contenus, l’Institut Sapiens a fait discuter deux essayistes Caroline Faillet, auteur de « Web3, la nouvelle guerre digitale » et Charleyne Biondi, auteur de « Dé-coder une contre-histoire du numérique »…

Charleyne Biondi : Le numérique c’est un enjeu stratégique

Avec son regard de techno-politiste, la contre-histoire du numérique est une invitation à comprendre les évolutions qui se sont imposées dans nos vies quotidiennes :

  • Les big data, c’est un moyen d’influencer et de gouverner les populations ;
  • Le numérique, en tant qu’il produit et collecte ces données, c’est devenu un enjeu stratégique ;
  • Le techno-pouvoir correspond aux capacités des nouveaux souverains big tech.

Au total, la souveraineté numérique, nouvel enjeu stratégique, doit se comprendre sous trois angles : la régulation, les infrastructures critiques et les sujets sécurité/défense.

Caroline Faillet : Les nouvelles guerres digitales

Avec son métier de consultante, le regard se porte sur les couches du champ de bataille :

  • Les câbles : le combat est d’ores et déjà quasiment perdu ;
  • Les logiciels : le combat est pour le moment largement perdu ;
  • La dimension cognitive : l’attention capturée par les interfaces.

Pour dire les choses très simplement, la bataille, pour l’avenir de nos sociétés, se joue contre la captologie, cette technique qui vise à capturer notre attention grâce au design et aux interactions avec les plateformes et les applications.

Au total, la cyber-guerre, c’est la guerre sourde de l’attention et les actions de manipulation des opinions par des puissances étrangères.

Charleyne Biondi : La révolution numérique

Dans son rôle d’historienne des nouvelles technologies, la science informatique peut être vue comme une grande découverte, aussi radicale que Newton ou Einstein. Pourquoi ? Parce que c’est une révolution industrielle, mais aussi un changement de paradigme ; c’est-à-dire une nouvelle manière d’être au monde.

Les nouvelles idées de l’informatique prennent corps dans les populations via des outils numériques comme les réseaux sociaux et les applications. Le numérique nous mène à un point de bascule où les systèmes politiques et les imaginaires collectifs sont bouleversés.

Caroline Faillet : L’empowerment des individus

En tant que pédagogue des futures technologies, le web 3.0, c’est la poursuite de la prise de pouvoir des individus, engagée avec le web 2.0, via la désintermédiation et la révolution des usages :

  1. Digitalisation de la valeur : avec le token, des individus sont propriétaires de cryptoactifs dématérialisés ;
  2. Décentralisation de l’organisation : avec la blockchain, c’est le partage de la valeur de pair à pair.

Un « optimisme de devoir » doit être adopté pour corriger les dérives et reprendre le pouvoir des GAFAM contre leur business-model fondé sur la monétisation des données personnelles grâce aux usagers-propriétaires de leurs actifs numériques dans le web 3.0.

Charleyne Biondi : Les risques politiques du numérique

Plusieurs étapes clés ont incarné les dérives politiques du numérique :

  1. Le techno-utopisme libertaire de la Silicon Valley, c’est la première figure des cyberpunks
  2. La crainte de la surveillance de masse, c’est le temps des whistleblowers comme Edward Snowden ;
  3. Le discours démocratique de la régulation des GAFAM vs le splinternet qui divise les espaces numériques, avec en particulier la grande muraille virtuelle en Chine ;
  4. La rhétorique de la décentralisation heureuse avec le web 3.0, c’est le moment présent ;
  5. L’hyper-marchandisation du cyber espace, c’est le risque si l’on se retrouve uniquement avec des métavers gérés via des blockchain tokenisés, qui réduise toute vie numérique à des actifs monétisables.

Caroline Faillet : Les opportunités du web 3.0

La bataille se mène à la fois contre les plus dogmatiques qui se mobilisent toujours (scams/trolls/fake…), mais aussi contre la radicalisation renforcée par les algorithmes et encore contre le business-model « quand tout est gratuit, c’est vous qui êtes le produit ».

Se tourner vers des intentions d’usage « citoyennes », des échanges plus vertueux et durables, là où la tech recrée du lien, le token, ce n’est pas de l’argent mais une valorisation de tâches, d’activités et de partages de savoirs et de connaissances et du coup, la blockchain, c’est un lien direct et transparent.

Au final, dans ces transformations du numérique, la plus belle promesse serait que l’Europe passe d’un nain de l’ère du web 2.0 dominé par les GAFAM à un géant du web 3.0 décentralisé et souverain.

Élections européennes 2024 : les partis politiques européens pourront-ils faire campagne en ligne ?

Le mieux serait-il l’ennemi du bien si l’on en croit le processus d’adoption d’un règlement européen sur la transparence et le ciblage de la publicité à caractère politique, dont les bonnes intentions risquent de saper la capacité à lutter contre l’abstention et faire campagne en ligne et sur les réseaux sociaux…

Quand l’Europe se veut légitimement comme souvent exemplaire

A la suite de la proposition de règlement par la Commission européenne, première étape de toute future législation européenne, les deux autres institutions doivent se positionner sur les points clés de règlementation.

La position du Conseil de l’UE du 13 décembre 2022 sur la publicité à caractère politique se montre ouverte « dans un contexte où les campagnes politiques se déroulent de plus en plus en ligne et par-delà les frontières nationales (…) à promouvoir des normes élevées de transparence dans la publicité à caractère politique dans l’UE, à limiter l’utilisation de la publicité ciblée à des fins politiques et à faciliter la prestation et la surveillance transfrontières de services de publicité à caractère politique ».

Du point de vue des ministres, cette régulation permettrait de lutter contre la désinformation, la manipulation de l’information et l’ingérence dans les élections ainsi qu’à préserver un débat démocratique ouvert dans les États membres de l’UE.

La position du rapporteur au Parlement européen, Sandro Gozi, député européen Renew argumente sur des arguments complémentaires comme « offrir à nos concitoyens plus de transparence et (…) lever les obstacles à la création d’un véritable marché unique dans ce domaine et à construire un environnement favorable aux campagnes transnationales ».

Du point de vue des députés européens, les élections sont proches et les règles doivent être claires et prêtes dans les temps pour le scrutin du printemps prochain.

Le micro-ciblage, le sujet de controverse contentieux

L’interdiction du ciblage et de la diffusion de publicités basées sur des catégories spécifiques de données à caractère personnel définies dans le cadre du règlement général sur la protection des données se révèle à la fois indispensable et problématique :

  • Indispensable, lorsqu’il s’agit d’interdire le ciblage publicitaire sur des critères comme l’origine ethnique, la religion ou les opinions politiques ou bien le ciblage de mineurs ;
  • Problématique, dans la mesure où le micro-ciblage largement interdit conduira les annonceurs à ne pouvoir utiliser seulement que les données personnelles explicitement fournies par les citoyens à cette fin.

Le compromis, adopté en commission parlementaire au sein du Parlement européen, selon certaines sources mentionnées par Euractiv « va trop loin », soulignant que le ciblage est une « partie importante du processus démocratique de formation de l’opinion ».

Pour l’Association des services Internet communautaires, le projet de règlement européen sur l’encadrement des publicités politiques « pourrait limiter la visibilité de tout contenu parlant d’un sujet de société qui serait concerné par un débat en cours devant un parlement », dans une tribune publiée par Libération.

« L’enfer législatif est pavé de bonnes intentions… et parfois les élus, en pensant bien faire, peuvent commettre de lourdes erreurs. C’est ce qui est peut-être en train de se passer à Bruxelles, où l’Union européenne pourrait sans le vouloir porter une atteinte grave à la liberté d’expression et au débat démocratique en ligne. »

La négociation va se poursuivre entre les institutions européennes pour parvenir à un compromis définitif, il est encore possible de trouver une voie médiane entre la position initiale de la Commission européenne, la vision raisonnable du Conseil de l’UE et la position plus maximaliste qui veut laver plus blanc que blanc du Parlement européen.

La publicité des partis politiques et de la société civile, en particulier lors des périodes électorales, participe, qu’on l’apprécie ou qu’on le déteste, à la délibération publique et à la construction d’un espace public européen permettant aux opinions politiques de s’exprimer et de circuler. Le nouveau régime risque de renforcer l’isolement des citoyens et l’éclatement des offres politiques en des groupes homogènes sans relation les uns avec les autres renforçant la polarisation politique et l’ascension aux extrêmes.