↩ Accueil

Vue normale

Reçu — 20 février 2026 1.1 🖥️ Technologie

Élections municipales : comment TikTok se prépare aux ingérences et désinformations

20 février 2026 à 15:02
La taca-taca-taca-tac-tactique de TikTok
Élections municipales : comment TikTok se prépare aux ingérences et désinformations

À l’aune des élections municipales, prévues les 15 et 22 mars, TikTok, qui dénombre près de 28 millions d’utilisateurs actifs quotidiens en France, explique reposer sur 588 modérateurs « en langue française », et 50 experts en intégrité électorale, modération, presse et juridique.

« Pour ces municipales, nous avons adopté le dispositif que nous réservons d’ordinaire aux scrutins nationaux », indique aux Échos Gaultier Brand-Gazeau, l’ex-chef du service économique de la Direction générale du Trésor à Dublin, devenu en septembre 2025 directeur des affaires publiques et gouvernementales de TikTok France (dont le siège européen est en Irlande) :

« Nous avons une équipe de 50 experts en intégrité électorale, modération, presse et juridique. Nous travaillons avec l’ONG A voté, nous faisons de la pédagogie avec les créateurs de contenus, et j’ai rencontré tous les partis politiques. »

TikTok échange aussi régulièrement avec le Réseau de coordination et de protection des élections (RCPE), créé en réponse à la menace des ingérences étrangères en période électorale et composé d’administrations et d’autorités indépendantes compétentes en matière électorale : l’Arcom, la CNCCFP, le secrétariat général du Gouvernement, le ministère de l’Intérieur, le service de vigilance et protection contre les ingérences numériques étrangères VIGINUM et son Comité éthique et scientifique, chargé de suivre son activité.

588 modérateurs « en langue française »

« Nous n’avons jamais eu la prétention de devenir la place du village politique », pointe Gaultier Brand-Gazeau, mais a dû s’adapter, relèvent Les Échos avec près de 28 millions d’utilisateurs actifs quotidiens en France, dont des personnalités politiques très en vues : Jordan Bardella y dénombre 2,3 millions d’abonnés et près de 79 millions de « J’aime », Jean-Luc Mélenchon 2,7 millions d’abonnés et près de 47 millions de « J’aime », Emmanuel Macron 6,6 millions d’abonnés et près de 67 millions de « J’aime ».

Et ce, d’autant que TikTok était au cœur des opérations d’influence ayant conduit à l’annulation des élections en Roumanie en 2024, et que la Commission européenne a récemment « conclu à titre préliminaire que TikTok enfreignait la législation sur les services numériques en raison de sa conception addictive. Cela inclut des fonctionnalités telles que le défilement infini, la lecture automatique, les notifications push et son système de recommandation hautement personnalisé ».

Ancien responsable des affaires internationales de La French Tech, puis haut fonctionnaire de la Direction générale du Trésor, Gaultier Brand-Gazeau souligne que TikTok entend « protéger l’intégrité de l’information » grâce à 4 600 modérateurs, dont 588 « en langue française », sans pour autant préciser combien couvrent la France en propre, et non les pays francophones. À titre de comparaison, TikTok revendiquait, à l’aune des élections européennes de 2024, qu’« en Europe, plus de 6 000 personnes sont dédiées à la modération de contenu ».

Afin de protéger l’intégrité des élections, lutter contre la désinformation et les opérations d’influence, TikTok travaille en partenariat avec plus de 20 organisations de vérification des faits accréditées par l’International Fact-Checking Network (IFCN), dont l’AFP en France, chargés d’évaluer l’exactitude du contenu sur TikTok dans plus de 60 langues et 130 marchés du monde entier.

Des informations électorales « validées par le ministère de l’Intérieur »

TikTok aurait également investi 2 milliards d’euros dans l’IA, développé des modèles internes de détection des contenus générés par IA, et adhéré à la norme C2PA pour authentifier les contenus créés par IA.

Sur TikTok, les contenus réalistes générés par l’intelligence artificielle doivent en effet être étiquetés par leur créateur, rappelait un communiqué de presse en novembre dernier, qui avançait que 1,3 milliards de vidéos GenAI avaient déjà été étiquetées.

Ces derniers mois, TikTok a aussi enrichi l’étiquetage des contenus générés par l’IA (AIGC) en ajoutant davantage de contexte pour indiquer si un contenu avait été étiqueté grâce à la détection automatisée, par le créateur lui-même ou au moyen d’outils IA proposés sur la plateforme.

Les Échos précisent que l’application aurait aussi créé une page rassemblant les informations électorales, « validées par le ministère de l’Intérieur » (sans plus de précisions), qui renvoie vers du texte et bientôt des vidéos conçues par l’AFP.

L’AFP y publiait récemment un tour du monde de la désinformation électorale, mêlant contenus générés par IA, détournements d’images, manques de contexte, mais nous ne l’intégrerons pas à cette page : non content de ne pas proposer de fonctionnalité de confidentialité avancée comme le propose YouTube, la vidéo se lance en outre automatiquement, en autoplay.

Reçu — 19 février 2026 1.1 🖥️ Technologie

L’Inde oblige les plateformes à tatouer les contenus audiovisuels générés par IA

19 février 2026 à 16:11
New délit
L’Inde oblige les plateformes à tatouer les contenus audiovisuels générés par IA

Les médias sociaux devront vérifier que les contenus synthétiques soient labellisés comme tels, empêcher le partage des deepnudes et deepfakes interdits, et retirer les contenus illicites sous trois voire deux heures.

L’adage « je crois ce que je vois » est périmé du fait de l’avènement des deepfakes, qui « constituent une menace importante pour la vie privée des individus et la société dans son ensemble », avance le Deepfake Prevention and Criminalisation Act.

Cette loi indienne vise à prévenir et à criminaliser la création, la diffusion et l’utilisation de contenus synthétiques générés par IA sans consentement ou sans filigrane numérique. D’après TechCrunch, les plateformes pourront se voir ordonner de les retirer dans un délai de trois heures, voire de deux heures seulement dans certains cas. Auparavant, ce délai pouvait monter à trois jours, précise Libération.

Les plateformes et médias sociaux permettant à leurs utilisateurs de partager du contenu audiovisuel devront aussi exiger qu’ils précisent s’ils ont été générés par IA, mais également déployer des outils pour vérifier ces déclarations, veiller à ce que les deepfakes soient clairement identifiés et accompagnés de données de provenance traçables, et empêcher le partage de contenus synthétiques interdits (notamment les usurpations d’identité, images intimes non consenties et contenus liés à des crimes graves).

Les plateformes seront tenues de déployer des « mesures techniques raisonnables et appropriées » pour empêcher leurs utilisateurs de créer ou de partager des contenus audio et vidéo illégaux générés de manière synthétique, précise The Verge.

Les contenus générés par IA qui ne seront pas bloqués devront quant à eux intégrer des « métadonnées permanentes ou d’autres mécanismes techniques appropriés permettant d’en déterminer la provenance », et les doter de marquages visibles et/ou audibles pour permettre aux utilisateurs d’identifier immédiatement qu’il s’agit de contenus synthétiques.

Le « retard considérable » des systèmes de détection et d’étiquetage de l’IA

L’Inde compte un milliard d’internautes, principalement des jeunes, ce qui en fait l’un des marchés les plus importants pour les plateformes sociales, souligne The Verge, pour qui « toute obligation imposée dans ce pays pourrait avoir un impact sur les efforts de modération des deepfakes à travers le monde, soit en améliorant la détection jusqu’à ce qu’elle soit réellement efficace, soit en obligeant les entreprises technologiques à reconnaître la nécessité de trouver de nouvelles solutions ».

Sauf que c’est plus facile à dire qu’à faire, eu égard au « retard considérable » des systèmes de détection et d’étiquetage de l’IA à l’heure actuelle. La Coalition for Content Provenance and Authenticity (C2PA), de la Content Authenticity Initiative (CAI), lancée en 2021 par Arm, la BBC, Intel, Microsoft et Adobe, insère ainsi des métadonnées détaillées dans les images, vidéos et fichiers audio au moment de leur création ou de leur modification, afin de décrire de manière invisible comment ils ont été créés ou modifiés.

Mais si Facebook, Instagram, YouTube et LinkedIn ajoutent des étiquettes aux contenus signalés par le système C2PA, « il est clair que cela ne fonctionne pas », assène The Verge, pour qui « ces étiquettes sont difficiles à repérer, et certains contenus synthétiques qui devraient comporter ces métadonnées passent entre les mailles du filet ».

De plus, les plateformes de médias sociaux ne peuvent pas étiqueter correctement les contenus produits par des tiers, tels que les modèles d’IA open source ou les applications dites « nudify » qui refusent d’adopter la norme volontaire C2PA.

Il sera impossible pour les plateformes de respecter cette nouvelle loi

The Verge souligne également que « l’interopérabilité est l’un des principaux enjeux de la norme C2PA », mais bien que les nouvelles règles indiennes puissent encourager son adoption, « elles sont si faciles à supprimer que certaines plateformes en ligne peuvent involontairement les effacer lors du téléchargement de fichiers ».

Étant donné que les amendements précisent les mécanismes de traçabilité qui doivent être mis en œuvre « dans la mesure où cela est techniquement possible », les responsables à l’origine de la décision indienne sont probablement conscients que les technologies actuelles de détection et d’étiquetage par IA ne sont pas encore au point, conclut The Verge : « Les organisations qui soutiennent la C2PA affirment depuis longtemps que le système fonctionnera si suffisamment de personnes l’utilisent. C’est donc l’occasion de le prouver ».

Interrogé par Libé, Pratik Sinha, cofondateur du média spécialisé dans le fact-checking Alt News, avance qu’il sera « impossible pour les plateformes de respecter cette nouvelle loi. Nous sommes le pays le plus peuplé au monde et chaque jour, des milliards de posts sont générés ». Il s’interroge aussi sur les risques de censure politique :

« Qui détermine si un post-généré par IA est illégal ou non ? Normalement, en Inde, cela devrait relever d’une décision de justice, mais dans les faits, c’est la police qui s’en occupe. Cette loi a été votée pour faciliter la suppression des contenus qui critiquent le gouvernement, alors que les militants proches du pouvoir peuvent poster des fausses informations sans être inquiétés. »

Reçu — 18 février 2026 1.1 🖥️ Technologie

☕️ La Russie veut autoriser le FSB à couper l’accès à Internet et la téléphonie mobile

18 février 2026 à 16:17

La Russie veut obliger les fournisseurs d’accès à Internet et de téléphonie mobile à se conformer aux ordres du service de sécurité intérieure russe FSB, successeur du KGB, visant à interrompre les services de télécommunications, rapporte The Moscow Times.

Le projet de loi, adopté mardi par la Douma d’État, chambre basse du Parlement russe, est censé contribuer à protéger les Russes et les institutions publiques contre les menaces pour la sécurité tout en préservant les entreprises de télécommunications de poursuites judiciaires. Et ce, alors que les régions du pays sont de plus en plus confrontées à des perturbations généralisées de l’internet et des réseaux mobiles en raison des attaques de drones ukrainiens, souligne le Moscow Times.

Le projet de loi, qui a été approuvé par 393 législateurs (sur 450, avec 13 voix contre), a depuis subi plusieurs modifications, notamment la suppression des références aux « menaces pour la sécurité » comme justification des fermetures et la modification des pouvoirs accordés au FSB, qui passent de la délivrance de « demandes » à celle d’« exigences » contraignantes.

Outre les services Internet et mobiles, le projet de loi permettrait également aux responsables de la sécurité de bloquer les appels téléphoniques, les SMS et même les services postaux, a déclaré Igor Lebedev, vice-ministre russe des Communications.

Pour entrer en vigueur, les modifications apportées à la loi russe sur les communications doivent encore être approuvées par le Conseil de la Fédération, la chambre haute du Parlement, et signées par Vladimir Poutine.

The Moscow Times, dont la rédaction s’est relocalisée à Amsterdam suite à l’invasion de l’Ukraine par la Russie, a depuis été classé « organisation indésirable » et l’accès à son site web est bloqué par le Roskomnadzor dans le pays.

❌