Rembobine.info, le média qui « lutte contre l’obsolescence de l’info et met en lumière l’impact du journalisme sur nos sociétés », s’est penché sur l’enquête de Next consacrée aux faux sites d’informations en tout ou partie générés par IA. Nous l’avions lancée en février 2025, et elle a récemment dépassé le cap symbolique des 10 000 sites GenAI. Nos confrères y consacrent un article et une interview :
En termes d’impact institutionnel, Rembobine relève que le nombre de sites générés par IA mis en avant par l’algorithme de recommandation de contenus Discover de Google a depuis diminué. Nous reviendrons, cela dit, dans un prochain article sur cette diminution, somme toute relative, avec des chiffres plus précis.
La Commission paritaire des publications et des agences de presse (CPPAP), chargée de reconnaître (ou non) la qualité de service de presse en ligne à un média web, m’a par ailleurs convoqué pour m’auditionner dans le cadre d’un groupe de travail sur les sites générés par IA, et notamment sur la question du plagiat auquel ces sites recourent.
En termes d’impact judiciaire, un seul site généré par IA a depuis été condamné par la justice pour plagiat, et notre enquête n’a fait l’objet d’aucune plainte.
En termes d’impact médiatique et public, l’enquête, initialement relayée par Libération, a fait l’objet de plusieurs reprises, notamment par France Culture, TV5MONDE ou France Télévisions, et l’extension web (gratuite) que nous avons développée afin d’alerter celles et ceux qui l’ont installée qu’ils ou elles consultent un site dont les articles ont été « en tout ou partie générés par IA » est utilisée par près de 10 000 personnes.
Elle permet également de nous signaler des sites GenAI, et nous avons d’ores et déjà reçu plus de 3 000 signalements, mais il nous en reste encore plus de 250 à vérifier… tâche que nous ne parvenons pas à effectuer seuls. Nous pourrions la crowd-sourcer et mutualiser avec d’autres fact-checkers, OSINTers, journalistes et ONG.
Médiamétrie a en outre découvert que les 250 sites générés par IA les plus recommandés par Google étaient, à eux seuls, visités par 15 millions de personnes en moyenne par mois, soit un quart des internautes français (dont 75 % de plus de 50 ans) !
« Il y a le risque de désinformation et de propagation des fake news, bien sûr, mais c’est aussi très dangereux pour les médias dits traditionnels », a précisé l’auteur de ces lignes dans l’interview associée :
« Face à ces faux sites, qui sont pourtant très consultés, ils ont perdu des centaines de millions de pages vues, et donc de revenus publicitaires. C’est un vrai problème pour l’économie des médias !Sans parler du fait qu’en dupliquant leurs articles, tous ces médias générés par IA diffusent des versions différentes d’une même histoire sans que ces dernières ne soient vérifiées. Ça participe à créer du doute sur ce qui est vrai et ce qui ne l’est pas or, plus les gens ont des doutes sur ce qu’est ou non un fait vérifié, plus les risques sont grands de voir arriver des gouvernements autoritaires. On s’en rend bien compte, notamment dans les États-Unis de Trump. »
Entamée début 2024, notre enquête sur les « sites d’information » générés par IA (mais qui ne le précisent pas) nous avait permis d’en identifier 250 en octobre 2024, 500 à Noël, 1 000 fin janvier 2025, près de 3 000 début mars, 6 000 en août, 9 000 en décembre… et plus de 10 000 depuis février 2026. Cette page résume la quarantaine d’articles que nous y avons consacrés depuis février 2025.
Next a découvert que des milliers de soi-disant sites d’information polluent le web et les moteurs de recherche, ainsi que MSN, Google Actualités et son algorithme de recommandation Discover, alors que leurs soi-disant « articles » :
sont (en tout ou partie) générés par IA (mais sans le préciser),
prétendent (à tort) émaner de « journalistes », de « médias » et/ou d’experts/professionnels/passionnés,
ne sont pas vérifiés ni relus avant publication (contrairement au b.a.-ba de n’importe quel métier),
relaient donc potentiellement des « hallucinations/confabulations »,
volent des revenus publicitaires qui auraient dû aller à des médias/journalistes/professionnels,
contribuent au confusionnisme informationnel voire à la désinformation,
relèvent donc d’une « pollution » numérique et médiatique.
Or, le règlement européen sur l’IA (AI Act) obligera les éditeurs à labelliser comme tels les contenus générés par IA (GenAI) à partir d’août 2026. Nous avons donc développé une extension web (gratuite) pour les navigateurs basés sur Chromium (Chrome, Brave, Edge, Vivaldi, Opera, etc.) et Firefox (y compris Android) afin d’afficher un message d’alerte lorsque ses utilisateurs visitent un site dont nous avons identifié que les articles « semblent avoir été (en tout ou partie) générés par IA (GenAI) » (qu’ils soient « full GenAI » ou bien « dopés à l’IA »), mais sans le préciser.
En attendant le « filtre anti-arnaques» promis par le gouvernement (en mars 2022), notre extension intègre aussi les listes noires de Red Flag Domains des 35 000 noms de domaine potentiellement suspects, ainsi que les 2 000 sites web de celle de l’Autorité des marchés financiers (AMF).
Comme indiqué dans le message d’alerte, l’extension flaggue les sites qui « des articles semblent avoir été (en tout ou partie) générés par IA (GenAI) », sous-entendu sans véritable supervision voire sans relecture, et à qui l’on ne saurait donc faire confiance : il s’agit moins de jauger la « qualité » des articles que le fait qu’ils comportent un fort risque d’« hallucinations » générées par IA.
Ces articles et sites GenAI qui polluent le web servent ainsi d’ « armes de désinformation massive », contribuant en outre à l’objectif politique de l’ex-conseiller de Donald Trump Steve Bannon, pour qui « La véritable opposition, ce sont les médias », ce pourquoi il proposa que « la façon de les traiter est d’inonder la zone avec de la merde ».
Nous avons d’ailleurs pu constater que plusieurs des professionnels du référencement – SEO – et du marketing numérique ayant lancé de tels sites générés par IA semblent être fans de Javier Milei, Elon Musk & Donald Trump, entre autres promoteurs politiques de la désinformation, du complotisme et du confusionnisme, et ennemis déclarés du « journalisme ».
De plus en plus de médias et rédactions recourent eux aussi à la GenAI
Au-delà de ces soi-disant sites d’informations n’émanant pas de journalistes, nous avons également découvert (et documenté) que de plus en plus de véritables sites d’information, émanant de passionnés, experts, professionnels et même de rédactions employant des rédacteurs SEO et/ou journalistes, ont eux aussi recours à la GenAI afin de « doper » leurs rédacteurs, et leur permettre de publier un grand nombre d’articles qu’ils ne sauraient pouvoir publier sans recourir à l’IA générative, mais là encore sans le mentionner.
À l’instar du dopage, cette hyperproductivité nuit à la crédibilité du journalisme, non seulement parce qu’elle fausse les statistiques, en surreprésentant les médias dopés par rapport à ceux qui ne le sont pas, mais également parce qu’ils privent les médias qui ne trichent pas des visiteurs uniques et pages vues leur permettant d’une part d’engranger des revenus publicitaires, d’autre part d’être proprement référencés dans les moteurs de recherche.
Nos constats montrent en outre que si les médias dopant leurs rédacteurs et journalistes grâce à la GenAI avancent que leurs contenus sont vérifiés et validés avant d’être publiés, tel n’est souvent pas le cas, au point, pour certains, de publier des articles relayant de fausses informations « hallucinées » (ou « confabulées ») par les IA, et donc de nuire, là encore, à la crédibilité du journalisme et des médias en général, et des journalistes qui ne trichent pas en particulier.
Au commencement était la GenAI (la liste de nos enquêtes)
Notre enquête avait débuté suite au lancement de ChatGPT, fin novembre 2022, et de ses avatars, après avoir publié deux modes d’emploi expliquant comment tenter d’identifier les textes et images émanant d’intelligences artificielles génératives. Ce qui nous avait permis de commencer à identifier ces sites d’infos et articles GenAI.
Mais vu l’ampleur du problème, à mesure que nous en avions identifié plusieurs dizaines au printemps 2024, puis plusieurs centaines fin 2024, nous avions donc proposé au service de fact-checking CheckNews de Libération, à Arrêt sur images ainsi qu’à des fact-checkeurs de Wikipédia, de nous aider à enquêter sur cette « pollution » numérique et médiatique.
Près de 150 des 500 sites GenAI que nous avions initialement identifiés étaient en effet mentionnés comme « sources » sur Wikipédia. Et ce, alors que leurs articles ne semblent avoir été ni relus, ni corrigés, ni validés avant leur publication automatisée (et, donc, sans supervision humaine).
La plupart des articles mentionnés dans l’encyclopédie avaient été publiés avant que leurs noms de domaine (expirés) ne soient rachetés, afin de capitaliser sur leur réputation (ranking) dans l’algorithme de Google, et autres moteurs de recherche.
Nous avons depuis également découvert que, parmi la centaine de professionnels du référencement (SEO) et du marketing numérique qui éditent et administrent ces sites, certains en gèrent plusieurs dizaines, centaines et même plusieurs milliers, sans être en capacité d’identifier combien polluent de la sorte Google, et particulièrement Google Actualités.
Nous avons bien évidemment détaillé notre méthodologie, challengée et vérifiée par les deux contributeurs expérimentés de l’encyclopédie Wikipédia, et les deux journalistes du service de fact-checking CheckNews de Libération.
Next a en outre développé une extension pour les navigateurs compatibles Chrome et Firefox (y compris sur Android), afin d’alerter ses utilisateurs lorsqu’ils consultent un site GenAI (cf sa présentation, et notre méthodologie). Elle les alerte aussi désormais lorsqu’ils visitent aussi des noms de domaines « potentiellement malveillants » identifiés par Red Flag Domains, et des « entités non autorisées à proposer des produits ou services financiers en France » par l’Autorité des marchés financiers.
40 médias français ont depuis demandé à la Justice d’ordonner aux FAI le blocage du site news.dayfr.com. Ce dernier, le plus bourrin du millier de sites d’informations générés par IA que nous avons identifiés, plagiait de 5 à 15 articles… par minute, et jusqu’à plus de 6 000 par jour. Ironie de l’histoire : il a aussi été jusqu’à…. plagier deux des articles mentionnant la plainte le concernant.
Une enquête de l’équipe « pour une IA responsable » de la BBC a par ailleurs découvert que plus de la moitié des réponses fournies par les assistants d’intelligence artificielle (IA) à qui il avait été demandé de chercher leurs réponses dans les articles de la BBC étaient « factuellement incorrectes, trompeuses et potentiellement dangereuses ». Mais également que 20 % d’entre elles ont en outre rajouté des « inexactitudes factuelles » qui ne figuraient pas dans les articles pourtant mentionnés.
Un rapport rédigé par 22 médias de service public européens révèle que près d’une réponse sur deux formulée par les services d’IA générative populaire déforme l’information qui lui est fournie comme source. Qualifiant le phénomène de « distorsion systémique », l’alliance à l’origine de ces travaux appelle le régulateur à garantir le respect de l’information.
Cherchant à satisfaire leurs utilisateurs, les chatbots d’IA générative ont cessé de leur rétorquer qu’ils n’avaient pas de réponse à leurs questions, quitte à raconter n’importe quoi. Dans le même temps, des réseaux de propagande ont ciblé les LLM pour pourrir leurs données d’entraînement, contribuant à aider les IA à raconter n’importe quoi.
Plus d’une centaine (au moins, et probablement plusieurs centaines, voire milliers) des sites GenIA que nous avions initialement identifiés plagient en outre des articles de véritables journalistes, sans mentionner leurs sources ni préciser qu’ils ont été générés avec des IA. Ils sont pourtant, pour la plupart, référencés sur Google Actualités, et parfois relayés par son IA de recommandation algorithmique Discover. Certains se contentent de traduire des articles en français quand d’autres les paraphrasent, rendant leurs plagiats plus difficiles à identifier.
Interrogé par Arrêt sur images, à qui nous avions transmis notre enquête à son sujet, le patron du groupe de presse Économie Matin, par ailleurs co-directeur pédagogique d’une école de journalisme d’extrême-droite, a reconnu que ses articles étaient bien générés par IA, contrairement à ce que son rédacteur en chef adjoint prétendait initialement. Ce dernier, par ailleurs « prompt engineer » du groupe, attribue de son côté les dizaines de plagiats que nous avons en outre identifiés à un « bug du script » envoyé à ChatGPT qui, « étant complètement idiot, parfois, ne fait pas ce qu’on lui dit » (sic).
Notre enquête nous a valu quelques remarques acerbes de la part de professionnels du SEO, au motif que le fait de rendre public le fait que certains de leurs sites sont GenAI pourrait nuire à leur business :
« Les gens veulent manger de la merde ? Donnez en leur à la pelle plutôt que d essayer de buzzer et cherchant à bousiller le business de milliers de sites. »
L’un d’entre eux nous a par exemple rétorqué que de nombreux médias français avaient récemment relayé une « rumeur »… qu’ils n’auraient cela dit probablement pas relayée si les journalistes avaient été informés que l’information initiale avait en fait été « hallucinée » dans des articles générés par IA.
Les sites d’information de la presse quotidienne régionale (PQR) sont, eux aussi, de plus en plus victimes de pure players qui les concurrencent, voire les plagient, tout en étant générés par des IA. Si certains se positionnent comme des « médias indépendants », d’autres ne cherchent qu’à faire du clic. Au point que des journalistes de la PQR se retrouvent à devoir fact-checker des infos erronées car « hallucinées » par les IA qui les publient.
Après avoir analysé un échantillon de 8 795 posts LinkedIn publics de plus de 100 mots publiés entre janvier 2018 et octobre 2024, une start-up de détection de contenus générés par IA a par ailleurs découvert que plus de 50 % d’entre eux étaient GenAI, et que le nombre de messages longs susceptibles d’avoir été générés par IA avait explosé de 189 % dans les mois suivants le lancement de ChatGPT.
Dans son (216e) podcast, Mediarama a en outre reçu Alexandre Laurent, directeur de la rédaction de Next.ink, pour discuter de notre enquête-fleuve sur les 2 000 (au moment de l’enregistrement, mi-février) 3 000 (depuis début mars) « sites d’information » en tout ou partie générés par IA (GenAI) que nous avons identifiés, où il résume (et revient sur) les articles que nous y avons consacrés.
Le Conseil des ministres espagnol a approuvé un avant-projet de loi pour une « utilisation éthique, inclusive et bénéfique de l’intelligence artificielle » qui sanctionnera les contenus ne précisant pas qu’ils sont générés par IA. Il s’agit des adaptations au droit espagnol du règlement européen dit « AI Act » adopté par le Parlement européen en mars 2024
Quatre agences chinoises ont annoncé une nouvelle série de règles qui obligeront les fournisseurs de services, à partir du 1ᵉʳ septembre 2025, à désigner comme tels les contenus générés par IA via des identifiants explicites et implicites (méta-données et/ou filigranes).
Le nombre exponentiel de contenus « GenAI » polluant le web est tel qu’il devient parfois difficile de distinguer les contenus émanant d’êtres humains de ceux générés par des IA. Nous avons, a contrario, identifié plusieurs « faux positifs » dans le cadre de notre enquête sur les sites d’info GenAI. Après avoir expliqué comment identifier de tels contenus, il nous semble important d’expliquer comment nous avons décelé ces « faux positifs », de sorte de ne pas, non plus, contribuer à la « panique morale » autour de la GenAI.
Deux responsables de Google viennent de rappeler aux éditeurs de sites web que la création en masse de grandes quantités de contenu, en particulier à l’aide de l’IA, relève du « spam » (sauf si elle fait montre d’originalité et offre une réelle valeur ajoutée). Or, l’algorithme de recommandation de contenus Discover de Google promeut (au moins) une quarantaine de sites générés par IA (GenAI), dont plusieurs relaient rumeurs et infox.
Le nombre de morceaux de musique identifiés par le détecteur de contenus synthétiques développé par la plateforme est passé de 10 000 à plus de 20 000 par jour entre janvier et avril. 7 à 8 % relèveraient de tentatives de fraude. Le patron de Deezer propose de « légiférer pour que les plateformes rémunèrent les artistes et pas ces bruits », mais ne précise pas comment.
L’an passé, Google a fait face à une crue de publicités reposant sur l’usurpation d’identité, générée par IA, de personnalités, afin de promouvoir des escroqueries. La régie publicitaire de Google a « rapidement constitué une équipe de plus de 100 experts », et suspendu « plus de 700 000 comptes d’annonceurs ». Une célérité qui contraste fortement avec le laxisme de Google et de son algorithme de recommandation de contenus Discover pour ce qui est des médias générés par IA.
Saisie par une quarantaine de médias, qui se plaignaient du fait que ce site plagiait jusqu’à 6 000 de leurs articles… par jour, la Justice ordonne aux quatre principaux FAI le blocage du plagieur en série, d’ici 15 jours, pendant 18 mois.
Google représente 61% des sources de trafic des sites de presse. Pour la deuxième année consécutive, le trafic en provenance de son algorithme de recommandation de contenus Discover explose de + 50%, représentant 68% du trafic émanant des services de Google. Un renversement de tendance qui attire de plus en plus de professionnels du marketing numérique cherchant à profiter de cette « pompe à fric » : 14 % du Top 50 des sites mis en avant sur Discover sont désormais générés par IA.
7 des 50 principaux sites d’information en français mis en avant par l’algorithme Discover de recommandation de contenus de Google sont générés par IA. Plus de 75 sites « générés par IA » (au moins) ont été « recommandés » par Discover ces derniers mois, et 15 y ont même figuré dans son Top50, dont 1 pendant 5 mois, 3 pendant 3 mois, 2 pendant 2 mois, & 4 dans son Top25 (dont un pendant 3 mois consécutifs, un autre 2 mois de suite). Plusieurs éditeurs de sites GenAI comparent Discover à TikTok et le qualifient de « réseau social de Google », voire à « une drogue » susceptible de « générer une dépendance », au vu des milliers d’euros de chiffre d’affaires engrangés, par jour. Deux d’entre eux seraient même devenus millionnaires grâce à Discover, en trois mois seulement.
Des dizaines de médias britanniques ont publié des articles reposant sur des témoignages d’ « experts » qui n’existent pas. Créés pour améliorer le référencement naturel des sites web dont ils se réclament par des pros du SEO et/ou du marketing numérique, leurs « expertises », promues par des agences de mises en relation avec des journalistes, ont été grandement facilitées par les intelligences artificielles génératives.
À lui seul, le plus prolifique des éditeurs de sites francophones générés par IA a réussi à faire promouvoir plusieurs milliers d’articles, dont de très nombreuses fake news, par l’algorithme de recommandation de contenus Discover de Google. Au point que d’autres pros du SEO (pourtant eux-mêmes éditeurs de sites GenAI), en arrivent à se plaindre publiquement de cette surenchère et pollution.
L’algorithme Discover de « recommandation de contenus » de Google, principale source de trafic des sites journalistiques français, est devenu une « pompe à fric » pour les sites monétisés par la publicité, majoritairement financés par… la régie publicitaire de Google. Au point que près de 20 % des 1 000 sites d’info les plus recommandés par Google Discover, et 33 % des 120 sites les plus recommandés par Google News, à la rubrique Technologie, sont générés par IA.
Cet été, un éditeur de sites d’infos générées par IA a accusé plusieurs chaînes d’hypermarchés de vendre des produits cancérigènes, pourris, lavés à l’eau de javel ou recongelés. Ses articles n’en ont pas moins été recommandés par l’algorithme Discover de Google.
Confrontée à une déferlante de fausses informations cet été, la retraite complémentaire a publié à la rentrée un message d’alerte sur son site web. Nous avons découvert que la quasi-totalité des articles mis en avant ces derniers mois par Google au sujet de l’Agirc-Arrco émanaient d’articles (hallucinés, voire mensongers) générés par IA. Et sur les 10 % d’articles émanant de rédactions humaines, plus de la moitié concernaient ces fake news.
Le tsunami de soi-disant sites d’informations générés par IA (GenAI) auquel nous assistons depuis des mois, émanant de professionnels du marketing numérique et du référencement (SEO), contamine aussi la presse. Nous avons en effet identifié (au moins) cinq sites hébergés par deux des plus importants groupes de presse français et reposant eux aussi, « en tout ou partie », sur la GenAI, et susceptibles de doper artificiellement leurs statistiques de fréquentation.
Une ancienne responsable de la division podcast d’Amazon pense avoir trouvé un filon « scalable » susceptible de lui permettre de la rendre richissime. Entièrement générés par IA, en une heure et pour un dollar seulement, ses podcasts sont en effet rentables à partir de 20 auditeurs.
En France, des crèches acceptent des poupées « reborn » (hyperréalistes) au détriment de bébés humains, avance un site du groupe Reworld. Il s’agit en fait d’infox et canulars ayant fait le buzz sur TikTok, relayés au premier degré. Contacté, le directeur des activités numériques du groupe aurait « bien voulu que ce soit une hallucination émanant d’une IA », mais nous « certifie qu’aucun article n’a été écrit par de l’IA ».
Universcience vient de lancer une « IA au service des enseignants ». Elle propose de créer des cours en utilisant la base de données de contenus stockés par la structure de médiation scientifique. Mais les premiers cours présentés dans Ada sont accompagnés d’images générées par IA illustrant de manière absurde, par exemple, l’évolution des espèces en incluant entre autres des voitures.
Premier éditeur de presse magazine en France, et 3ᵉ groupe média sur le web et les réseaux sociaux, Reworld Media estime que les sites d’infos générées par IA auraient fait perdre des dizaines de millions d’euros aux médias depuis que l’algorithme de Google a commencé à recommander leurs articles. Il vient de commencer à… faire pareil, ou presque. Étrangement, nombre de ses articles « augmentés » par l’IA publient comme images d’illustration des… bras cassés coupés.
Le syndicat des journalistes de Politico a remporté une « victoire majeure », qui devrait faire jurisprudence aux États-Unis, en matière de recours à l’IA dans les médias. Leurs rédacteurs en chef avaient plaidé, en vain, que les contenus générés par IA ne devraient pas être soumis aux normes éthiques et éditoriales, au motif qu’elles étaient développées par des ingénieurs, et non par des journalistes.
14 à 16 millions d’internautes français consultent chaque mois l’un des 251 sites d’infos GenAI les plus recommandés par Google et identifiés par Next, selon une étude de Médiamétrie pour le Groupement des éditeurs de services en ligne. Près des trois quarts (74 %) de ces internautes ont plus de 50 ans, au point que ces derniers visitent plus de sites d’infos GenAI que de vrais sites d’actualités. 77 % y sont envoyés par l’un des services de Google (Discover, Search ou Actualités), et 10 % via Meta.
Plus de 20 % des vidéos recommandées par l’algorithme de YouTube aux nouveaux utilisateurs sont des « AI slop » (ou bouillie d’IA en français), du nom donné à ces contenus bas de gamme générés par intelligence artificielle et conçus pour cumuler les vues afin de les monétiser par la publicité.
Les fulgurantes avancées en matière de contenus générés par IA, notamment (audio)visuels, rendront de plus en plus difficile le fait d’identifier ceux qui cherchent à imiter voire usurper des contenus humains. Le patron d’Instagram propose dès lors de renverser la charge de la preuve, en identifiant plus formellement les contenus créés par des humains.
Le tsunami de sites d’infos générées par IA que nous documentons depuis des mois a pris une telle ampleur que le ministère de la Culture vient lui-même de publier un communiqué de presse largement inspiré d’un billet de blog généré par IA, tout en y relayant une erreur « hallucinée » par l’IA.
Arrêt sur images et le Syndicat national des journalistes ont découvert que deux sites de presse quotidienne régionale (PQR) ont publié près de 900 articles en 50 jours « avec l’aide de l’IA » concernant ce qui se passe dans des départements limitrophes pour… induire les préfectures en erreur.
L’épidémie de sites d’informations générés par IA que Next documente depuis des mois vient de faire un premier accident industriel. Un site d’information féminin a en effet laissé entendre, par le truchement d’articles générés (et « hallucinés ») par IA, qu’une certaine Thérèse aurait ouvert une crèche dédiée aux bébés « reborn » (du nom donné aux poupées hyperréalistes). L’infox’ a depuis été reprise, citée et commentée par des milliers de personnes sur les réseaux sociaux, et quelques médias. Sans avoir cherché à le vérifier, ni préciser qu’il s’agit d’une ex-actrice porno, habituée des plateaux de talk-shows depuis 1999 et des réseaux sociaux depuis les années 2010 pour y mettre en scène sa vie fantasque et ses fantasmes.
« Il y a aujourd’hui plus de lobbyistes tech que d’eurodéputé·es à Bruxelles ! », s’étonne synthmedia.fr : un rapport des ONG Corporate Europe Observatory (CEO) et LobbyControl dénombrait en effet, en octobre dernier, 890 lobbyistes tech, contre 720 eurodéputés. En deux ans à peine, le budget des lobbys de la tech est quant à lui passé de 113 à 151 millions d’euros, soit une progression de 33 % :
« En tête de peloton, Meta ouvre la marche avec 10 millions d’euros consacrés à l’influence, talonnée par Microsoft, Apple et Amazon. Les dix plus grandes entreprises du numérique dépensent à elles seules trois fois plus que leurs homologues des secteurs pharmaceutique, financier et automobile réunis, et deux fois plus que celui de l’énergie. »
Cette montée en puissance viserait à détricoter les piliers législatifs du Vieux Continent par le biais de textes tels le Digital Omnibus présenté en novembre 2025 pour simplifier des lois numériques issues de dix ans de réflexion, relève Synth.
Après avoir comparé les argumentaires des lobbyistes adressés aux eurodéputés et la copie rendue par la Commission européenne, Felix Duffy, chargé de campagne chez LobbyControl pointe un « chevauchement assez important » des textes, et y voit un « cadeau fait à Donald Trump et à ses oligarques de la tech ».
« Une montée en puissance qui inquiète et alimente le débat sur la souveraineté numérique du Vieux Continent », écrit Synth, alors que la Commission européenne tente de consolider son arsenal numérique, que l’Union européenne peaufine sa prochaine grande loi numérique, le Digital Fairness Act, que l’administration états-unienne attaque de son côté le Digital Services Act (DSA) et prend la défense des ingérences numériques d’Elon Musk via son média social X.com.
« Les géants américains de la tech ont clairement fait allégeance au président des États-Unis. Derrière ce positionnement, il y a un imaginaire politique de puissance impériale transhumaniste et une volonté assumée de domination », analyse l’eurodéputé écologiste David Cormand : « l’offensive contre les régulations européennes n’est pas seulement politique, elle vise le modèle démocratique lui-même. Il ne peut donc pas y avoir de compromis durable entre nos valeurs et leur modèle ».
Ilia D., un ressortissant russe de 39 ans, a été condamné par le tribunal judiciaire de Paris, ce jeudi 19 février, à cinq années de prison (dont une avec sursis) et à 80 000 euros d’amende pour de multiples atteintes à des systèmes informatiques, extorsion, association de malfaiteurs et blanchiment aggravé.
Une peine assortie d’une interdiction de territoire français de dix ans, précise Le Monde, pour qui il s’agirait de « l’un des premiers dossiers majeurs en lien avec ce type de cybercriminalité », en France. Ilia D. a en effet été reconnu coupable de plusieurs dizaines de cyberattaques à l’aide du logiciel malveillant Phobos, utilisé pour paralyser les réseaux informatiques d’entreprises et de collectivités locales françaises.
Son épouse, Marina D., 34 ans, a été condamnée pour non-justification de ressources à un an de prison, une peine « largement couverte par ses deux années de détention provisoire », souligne Le Monde. Le parquet avait requis huit ans de prison et 100 000 euros d’amende pour Ilia D. et deux ans de prison pour son épouse. Aucun des deux prévenus ne fera appel du jugement, ont déclaré leurs conseils respectifs au Monde.
Ilia D. n’avait pourtant jamais cessé de nier les faits qui lui étaient reprochés, depuis le début de la procédure et lors de l’audience devant la 13ᵉ chambre correctionnelle du tribunal judiciaire de Paris, mercredi 11 février. Il accusait des pirates d’avoir utilisé son ordinateur pour mener des attaques, et l’impliquer comme bouc émissaire.
Des conteneurs chiffrés cachés derrière des fichiers sonores dans une de ses clefs USB contenaient cela dit « toute la méthodologie pour être un affilié de rançongiciel. J’achète des accès [à des réseaux informatiques], je prends attache avec un blanchisseur. Et puis il y a ce fameux journal de bord », a de son côté détaillé le substitut du procureur, Aurélien Brouillet, en référence à un fichier texte contenant un historique détaillé d’attaques menées contre des victimes de rançongiciel : « En fait c’est parfaitement logique, c’est son travail. »
L’article ne détaille pas quand ni comment ils avaient été identifiés puis arrêtés, souligne que le prévenu expliquait ne pas se souvenir du code de déverrouillage de son ordinateur, mais ne précise pas comment les fichiers chiffrés auraient été décryptés.
À l’aune des élections municipales, prévues les 15 et 22 mars, TikTok, qui dénombre près de 28 millions d’utilisateurs actifs quotidiens en France, explique reposer sur 588 modérateurs « en langue française », et 50 experts en intégrité électorale, modération, presse et juridique.
« Pour ces municipales, nous avons adopté le dispositif que nous réservons d’ordinaire aux scrutins nationaux », indique aux ÉchosGaultier Brand-Gazeau, l’ex-chef du service économique de la Direction générale du Trésor à Dublin, devenu en septembre 2025 directeur des affaires publiques et gouvernementales de TikTok France (dont le siège européen est en Irlande) :
« Nous avons une équipe de 50 experts en intégrité électorale, modération, presse et juridique. Nous travaillons avec l’ONG A voté, nous faisons de la pédagogie avec les créateurs de contenus, et j’ai rencontré tous les partis politiques. »
TikTok échange aussi régulièrement avec le Réseau de coordination et de protection des élections (RCPE), créé en réponse à la menace des ingérences étrangères en période électorale et composé d’administrations et d’autorités indépendantes compétentes en matière électorale : l’Arcom, la CNCCFP, le secrétariat général du Gouvernement, le ministère de l’Intérieur, le service de vigilance et protection contre les ingérences numériques étrangères VIGINUM et son Comité éthique et scientifique, chargé de suivre son activité.
« Nous n’avons jamais eu la prétention de devenir la place du village politique », pointe Gaultier Brand-Gazeau, mais a dû s’adapter, relèvent Les Échos avec près de 28 millions d’utilisateurs actifs quotidiens en France, dont des personnalités politiques très en vues : Jordan Bardella y dénombre 2,3 millions d’abonnés et près de 79 millions de « J’aime », Jean-Luc Mélenchon 2,7 millions d’abonnés et près de 47 millions de « J’aime », Emmanuel Macron 6,6 millions d’abonnés et près de 67 millions de « J’aime ».
Et ce, d’autant que TikTok était au cœur des opérations d’influence ayant conduit à l’annulation des élections en Roumanie en 2024, et que la Commission européenne a récemment « conclu à titre préliminaire que TikTok enfreignait la législation sur les services numériques en raison de sa conception addictive. Cela inclut des fonctionnalités telles que le défilement infini, la lecture automatique, les notifications push et son système de recommandation hautement personnalisé ».
Ancien responsable des affaires internationales de La French Tech, puis haut fonctionnaire de la Direction générale du Trésor, Gaultier Brand-Gazeau souligne que TikTok entend « protéger l’intégrité de l’information » grâce à 4 600 modérateurs, dont 588 « en langue française », sans pour autant préciser combien couvrent la France en propre, et non les pays francophones. À titre de comparaison, TikTok revendiquait, à l’aune des élections européennes de 2024, qu’« en Europe, plus de 6 000 personnes sont dédiées à la modération de contenu ».
Des informations électorales « validées par le ministère de l’Intérieur »
TikTok aurait également investi 2 milliards d’euros dans l’IA, développé des modèles internes de détection des contenus générés par IA, et adhéré à la norme C2PA pour authentifier les contenus créés par IA.
Sur TikTok, les contenus réalistes générés par l’intelligence artificielle doivent en effet être étiquetés par leur créateur, rappelait un communiqué de presse en novembre dernier, qui avançait que 1,3 milliards de vidéos GenAI avaient déjà été étiquetées.
Ces derniers mois, TikTok a aussi enrichi l’étiquetage des contenus générés par l’IA (AIGC) en ajoutant davantage de contexte pour indiquer si un contenu avait été étiqueté grâce à la détection automatisée, par le créateur lui-même ou au moyen d’outils IA proposés sur la plateforme.
Les Échos précisent que l’application aurait aussi créé une page rassemblant les informations électorales, « validées par le ministère de l’Intérieur » (sans plus de précisions), qui renvoie vers du texte et bientôt des vidéos conçues par l’AFP.
L’AFP y publiait récemment un tour du monde de la désinformation électorale, mêlant contenus générés par IA, détournements d’images, manques de contexte, mais nous ne l’intégrerons pas à cette page : non content de ne pas proposer de fonctionnalité de confidentialité avancée comme le propose YouTube, la vidéo se lance en outre automatiquement, en autoplay.
Les médias sociaux devront vérifier que les contenus synthétiques soient labellisés comme tels, empêcher le partage des deepnudes et deepfakes interdits, et retirer les contenus illicites sous trois voire deux heures.
L’adage « je crois ce que je vois » est périmé du fait de l’avènement des deepfakes, qui « constituent une menace importante pour la vie privée des individus et la société dans son ensemble », avance le Deepfake Prevention and Criminalisation Act.
Cette loi indienne vise à prévenir et à criminaliser la création, la diffusion et l’utilisation de contenus synthétiques générés par IA sans consentement ou sans filigrane numérique. D’après TechCrunch, les plateformes pourront se voir ordonner de les retirer dans un délai de trois heures, voire de deux heures seulement dans certains cas. Auparavant, ce délai pouvait monter à trois jours, précise Libération.
Les plateformes et médias sociaux permettant à leurs utilisateurs de partager du contenu audiovisuel devront aussi exiger qu’ils précisent s’ils ont été générés par IA, mais également déployer des outils pour vérifier ces déclarations, veiller à ce que les deepfakes soient clairement identifiés et accompagnés de données de provenance traçables, et empêcher le partage de contenus synthétiques interdits (notamment les usurpations d’identité, images intimes non consenties et contenus liés à des crimes graves).
Les plateformes seront tenues de déployer des « mesures techniques raisonnables et appropriées » pour empêcher leurs utilisateurs de créer ou de partager des contenus audio et vidéo illégaux générés de manière synthétique, précise The Verge.
Les contenus générés par IA qui ne seront pas bloqués devront quant à eux intégrer des « métadonnées permanentes ou d’autres mécanismes techniques appropriés permettant d’en déterminer la provenance », et les doter de marquages visibles et/ou audibles pour permettre aux utilisateurs d’identifier immédiatement qu’il s’agit de contenus synthétiques.
Le « retard considérable » des systèmes de détection et d’étiquetage de l’IA
L’Inde compte un milliard d’internautes, principalement des jeunes, ce qui en fait l’un des marchés les plus importants pour les plateformes sociales, souligne The Verge, pour qui « toute obligation imposée dans ce pays pourrait avoir un impact sur les efforts de modération des deepfakes à travers le monde, soit en améliorant la détection jusqu’à ce qu’elle soit réellement efficace, soit en obligeant les entreprises technologiques à reconnaître la nécessité de trouver de nouvelles solutions ».
Sauf que c’est plus facile à dire qu’à faire, eu égard au « retard considérable » des systèmes de détection et d’étiquetage de l’IA à l’heure actuelle. La Coalition for Content Provenance and Authenticity (C2PA), de la Content Authenticity Initiative (CAI), lancée en 2021 par Arm, la BBC, Intel, Microsoft et Adobe, insère ainsi des métadonnées détaillées dans les images, vidéos et fichiers audio au moment de leur création ou de leur modification, afin de décrire de manière invisible comment ils ont été créés ou modifiés.
Mais si Facebook, Instagram, YouTube et LinkedIn ajoutent des étiquettes aux contenus signalés par le système C2PA, « il est clair que cela ne fonctionne pas », assène The Verge, pour qui « ces étiquettes sont difficiles à repérer, et certains contenus synthétiques qui devraient comporter ces métadonnées passent entre les mailles du filet ».
De plus, les plateformes de médias sociaux ne peuvent pas étiqueter correctement les contenus produits par des tiers, tels que les modèles d’IA open source ou les applications dites « nudify » qui refusent d’adopter la norme volontaire C2PA.
Il sera impossible pour les plateformes de respecter cette nouvelle loi
The Verge souligne également que « l’interopérabilité est l’un des principaux enjeux de la norme C2PA », mais bien que les nouvelles règles indiennes puissent encourager son adoption, « elles sont si faciles à supprimer que certaines plateformes en ligne peuvent involontairement les effacer lors du téléchargement de fichiers ».
Étant donné que les amendements précisent les mécanismes de traçabilité qui doivent être mis en œuvre « dans la mesure où cela est techniquement possible », les responsables à l’origine de la décision indienne sont probablement conscients que les technologies actuelles de détection et d’étiquetage par IA ne sont pas encore au point, conclut The Verge : « Les organisations qui soutiennent la C2PA affirment depuis longtemps que le système fonctionnera si suffisamment de personnes l’utilisent. C’est donc l’occasion de le prouver ».
Interrogé par Libé, Pratik Sinha, cofondateur du média spécialisé dans le fact-checking Alt News, avance qu’il sera « impossible pour les plateformes de respecter cette nouvelle loi. Nous sommes le pays le plus peuplé au monde et chaque jour, des milliards de posts sont générés ». Il s’interroge aussi sur les risques de censure politique :
« Qui détermine si un post-généré par IA est illégal ou non ? Normalement, en Inde, cela devrait relever d’une décision de justice, mais dans les faits, c’est la police qui s’en occupe. Cette loi a été votée pour faciliter la suppression des contenus qui critiquent le gouvernement, alors que les militants proches du pouvoir peuvent poster des fausses informations sans être inquiétés. »
La Russie veut obliger les fournisseurs d’accès à Internet et de téléphonie mobile à se conformer aux ordres du service de sécurité intérieure russe FSB, successeur du KGB, visant à interrompre les services de télécommunications, rapporte The Moscow Times.
Le projet de loi, adopté mardi par la Douma d’État, chambre basse du Parlement russe, est censé contribuer à protéger les Russes et les institutions publiques contre les menaces pour la sécurité tout en préservant les entreprises de télécommunications de poursuites judiciaires. Et ce, alors que les régions du pays sont de plus en plus confrontées à des perturbations généralisées de l’internet et des réseaux mobiles en raison des attaques de drones ukrainiens, souligne le Moscow Times.
Le projet de loi, qui a été approuvé par 393 législateurs (sur 450, avec 13 voix contre), a depuis subi plusieurs modifications, notamment la suppression des références aux « menaces pour la sécurité » comme justification des fermetures et la modification des pouvoirs accordés au FSB, qui passent de la délivrance de « demandes » à celle d’« exigences » contraignantes.
Outre les services Internet et mobiles, le projet de loi permettrait également aux responsables de la sécurité de bloquer les appels téléphoniques, les SMS et même les services postaux, a déclaré Igor Lebedev, vice-ministre russe des Communications.
Pour entrer en vigueur, les modifications apportées à la loi russe sur les communications doivent encore être approuvées par le Conseil de la Fédération, la chambre haute du Parlement, et signées par Vladimir Poutine.
The Moscow Times, dont la rédaction s’est relocalisée à Amsterdam suite à l’invasion de l’Ukraine par la Russie, a depuis été classé « organisation indésirable » et l’accès à son site web est bloqué par le Roskomnadzor dans le pays.