Les signataires du Code de bonnes pratiques contre la désinformation, en particulier les principales plateformes, soumettent leurs premiers rapports sur la mise en œuvre de leurs engagements pris en vertu du Code de bonnes pratiques contre la désinformation…
Que retenir de ces premiers reportings ?
Dans l’ensemble, ce premier exercice témoigne des efforts des signataires qui donnent un tel aperçu de leurs actions pour lutter contre la désinformation.
La plupart des grandes plateformes en ligne (Google, Meta, TikTok ou Twitch) fournissent un niveau de détail sans précédent sur les résultats chiffrés au niveau des États membres. Twitter fournit cependant peu d’informations précises et aucune donnée ciblée par rapport à ses engagements.
Ces premiers reportings marquent une première étape dans la mise en place du nouveau code de bonnes pratiques, tandis que la méthodologie et la granularité des données est parfois lacunaires contrairement aux dispositions du code.
Quelles sont les données les plus significatives ?
Google indique qu’au troisième trimestre 2022, plus de 13 millions d’euros de revenus publicitaires ont été bloqués avant d’être versés aux acteurs de la désinformation dans l’UE. Par ailleurs, la campagne « Hit Pause » de YouTube est diffusée dans 20 États membres de l’UE afin d’inciter les internautes à la vigilance.
TikTok signale qu’au troisième trimestre 2022 plus de 800 000 faux comptes ont été supprimés, ces comptes rassemblaient plus de 18 millions d’abonnés. Ces faux comptes supprimés représentent 0,6 % des utilisateurs actifs mensuels dans l’UE.
Meta rapporte qu’en décembre 2022, environ 28 millions d’étiquettes de vérification des faits ont été appliquées sur Facebook et 1,7 million sur Instagram. En moyenne, 25% des utilisateurs de Facebook ne transmettent pas de contenu après avoir reçu un avertissement indiquant que le contenu a été indiqué comme faux par les fact-checkers. Ce pourcentage passe à 38% sur Instagram.
Du 1er octobre 2022 au 31 décembre 2022, Meta a supprimé plus de 2,9 millions de publicités de Facebook et Instagram dans les États membres de l’UE, dont plus de 8 800 publicités ont été supprimées pour avoir enfreint leur politique de désinformation.
Du 15 novembre au 31 décembre 2022, Meta a étiqueté plus de 170 000 publicités politiques sur Facebook et Instagram avec des clauses de non-responsabilité « payé par » dans l’UE.
Twitch rapporte entre octobre et décembre 2022, 270 921 comptes et botnets non authentiques créés ont été bloqués et a pris des mesures contre 32 tentatives de détournement et d’usurpation d’identité. De plus, Twitch a supprimé 6 comptes activement dédiés à la promotion de QAnon.
Twitter ne communique pas de données, mais valorise une nouvelle fonctionnalité « Community Note » qui permet d’ajouter une évaluation d’un tweet par un tiers :
- Une personne qui voit une Note de la communauté est, en moyenne, 20 à 40 % moins susceptible d’être d’accord avec le contenu d’un tweet potentiellement trompeur qu’une personne qui ne voit que le tweet.
- Une personne sur Twitter qui voit une note est, en moyenne, 15 à 35 % moins susceptible de choisir d’aimer ou de retweeter un tweet qu’une personne qui ne voit que le tweet.
Données sur la guerre d’agression en Ukraine
YouTube a bloqué plus de 800 chaînes et plus de 4 millions de vidéos liées au conflit russo-ukrainien depuis le 24 février 2022.
Microsoft Advertising a empêché entre février et décembre 2022 environ 25 000 soumissions d’annonceurs liées à la crise ukrainienne dans le monde et supprimé 2 328 domaines.
TikTok, d’octobre à décembre 2022, a vérifié 90 vidéos liées à la guerre et 29 vidéos ont été supprimées en conséquence de leur activité de vérification des faits.
Les prochains reportings sont attendus en juillet et devrait fournir des informations supplémentaires sur la mise en œuvre du Code avec des données plus exhaustives. Des indicateurs pour évaluer la mise en œuvre du Code et son impact sur la réduction de la propagation de la désinformation en ligne sont également prévus dans l’année.
Affaire à suivre.