Jean-Baptiste Kempf, l’un des principaux contributeurs du projet VideoLAN et de son célèbre lecteur VLC, s’est fendu lundi 22 février d’une charge virulente adressée au garde des Sceaux Gérald Darmanin. « J’envisage de quitter la France, et c’est intégralement la faute de M.Darmanin », titre l’ingénieur, dont la publication LinkedIn devient très vite virale.
Il y raconte les démêlés de sa femme, Audrey Prévost Kempf, avec l’administration en charge des admissions au concours de l’École nationale de la magistrature (ENM), qu’elle passe avec brio à sa seconde tentative, avant d’être informée, par courrier, qu’elle n’a finalement pas le droit de concourir.
D’après le résumé qu’en fait Jean-Baptiste Kempf, le ministère de la Justice décide de retoquer sa participation, a posteriori et alors qu’elle se classe 9ᵉ à l’issue du grand oral, « au motif d’une prétendue insuffisance d’activité juridique qualifiante ».
Intro du billet publié par J-B Kempf le 22 février sur LinkedIn
Audrey Prévost Kempf avait elle-même relaté cette déconvenue quelques jours plus tôt. Son éviction du concours de l’ENM (qui concerne également au moins un autre candidat) intervient dans le cadre des nouvelles modalités d’admission introduites suite à la réforme de 2023.
Aux premier et deuxième concours (destinés respectivement aux jeunes diplômés et aux salariés de la fonction publique), elle ajoute un troisième concours réservé aux candidats venus du privé, sous réserve que ces derniers puissent justifier d’au moins quatre ans d’une expérience « particulièrement qualifiante dans le domaine juridique, administratif, économique ou social ».
Et c’est là que le bât semble avoir blessé dans le cas d’Audrey Prevost Kempf : ses dix ans d’implication aux côtés de Jean-Baptiste Kempf dans VideoLAN n’auraient pas été reconnus comme une expérience « particulièrement qualifiante ».
« Le légal dans VideoLAN est plus compliqué et complexe que dans la plupart des sociétés que je connais, et avec un champ d’application bien plus large. Et devinez qui m’a aidé dans tout ce travail pendant dix ans ? Audrey, évidemment. Moi, je n’ai aucune base scolaire en droit. »
S’en suivent cinq mois d’échanges avec le ministère avec un recours au fond, jusqu’à cette interpellation publique.
« Le travail autour de VideoLAN est titanesque, même bénévole, et il n’appartient pas au Garde des Sceaux ni à son administration de déjuger notre travail. Le mieux, c’est lorsque M. Darmanin écrit que « le numérique […] et le droit du numérique ne sont pas utiles au magistrat de l’ordre judiciaire » », écrit Jean-Baptiste Kempf, fait chevalier de l’ordre national du Mérite en 2018, qui jure qu’on ne l’y prendra plus.
« Jamais plus je n’aiderai l’État français gratuitement par mon travail, et tant pis pour les agents de la justice (utilisant beaucoup VLC) qui auraient besoin de lire de nouveaux formats de vidéo. Cracher sur le professionnalisme du travail de VideoLAN est totalement inadmissible. »
Quelques heures plus tard, Gérald Darmanin lui répond en commentaire de sa publication LinkedIn, indiquant d’abord ne pas avoir été saisi personnellement du litige et regrettant le ton agressif de la missive, avant de finalement écrire : « il me semble que ma réponse avant le recours formulé devant le Conseil d’État était de demander à mon administration de revoir sa décision. Mais je veux vous le lui confirmer de façon certaine ».
« J’ai le plus grand respect pour elle d’avoir réussi ce difficile concours et, en effet, la magistrature manque de personnes connaissant le numérique », écrit encore le ministre.
Les 375 nouveaux auditeurs de justice qui constituent la promotion 2026 de l’ENM, dont 49 issus du troisième concours, ont fait leur rentrée le 16 février dernier.
Angers, Dijon, Limoges, Grenoble et Reims : cinq BHV vont accueillir à partir de demain un corner Shein, de 400 à 1 000 m². Après l’expérimentation à Paris, l’ambiance est toujours électrique, mais le patron du BHV (Frédéric Merlin) se veut rassurant.
En octobre, Shein et le BHV du Marais à Paris défrayaient la chronique avec l’ouverture d’un « corner » du spécialiste de la mode ultra éphémère (ultra-fast fashion). Au cœur de cet accord, la Société des grands magasins (SGM) qui possède le BHV, sept magasins Galeries Lafayette et onze centres commerciaux.
Pour rappel, « en mai 2022, SGM acquiert sept magasins Galeries Lafayette en province. En novembre 2023, le groupe devient propriétaire de la marque BHV, intégrant les magasins BHV Marais et Parly 2 à son portefeuille », relate le groupe SGM.
BHV et Shein : nouvelle tempête après le calme après la tempête ?
Quelques jours avant l’ouverture du corner Shein au BHV à Paris, la marketplace chinoise était sous le feu des projecteurs pour avoir vendu des « poupées sexuelles à caractère pédopornographique ». Les jours et semaines suivantes ont été agités : la plateforme a fermé sa marketplace en France, des contrôles massifs ont été effectués aux douanes, le gouvernement a engagé une procédure de suspension (rejetée par le tribunal judiciaire de Paris), etc.
Alors que le calme était plus ou moins revenu, la SGM vient d’envoyer un communiqué de presse pour annoncer que, « à compter du 25 février, les BHV de Limoges, Angers, Dijon, Grenoble et Reims ouvrent au public leurs corners Shein ». L’ouverture à Paris du corner Shein avait été l’occasion de nombreuses levées de boucliers chez les marques, les commerçants, les clients et les élus. À voir ce qu’il en sera en province.
« Ces espaces s’inscrivent dans le cadre du partenariat expérimental en cours entre le groupe SGM et Shein visant à intégrer une marque digital-first dans l’écosystème d’un magasin physique, afin de répondre aux nouveaux usages des consommateurs », explique la Société des grands magasins fondée par Frédéric et Maryline Merlin.
« L’ouverture se fera de manière progressive », avec des surfaces comprises entre 400 et 1 000 m² selon les magasins. Pour commencer, il sera principalement question d’une « sélection hivernale » d’articles. Ensuite, à partir d’avril, « l’offre évoluera pour intégrer une sélection plus large de références saisonnières » et de produits « en phase avec les préférences observées localement ». Pour la SGM, cela permet « d’ajuster la sélection et le parcours client en fonction des retours clients ».
Frédéric Merlin (SGM) : « Il ne faut pas avoir raison trop tôt »
Il y a quelques jours à peine, Frédéric Merlin répondait à une interview du Figaro. Il reconnaissait des erreurs, notamment l’immense affiche avec le patron de Shein placardé sur son magasin, mais ajoutait qu’il s’était : « rendu compte qu’il ne faut pas avoir raison trop tôt ». Une manière de s’affirmer comme précurseur.
« Si cela ne marche pas dans un an, on arrêtera », ajoutait néanmoins l’entrepreneur à nos confrères. Il revenait aussi sur la qualité des produits et affirmait que, dans les jours qui ont suivi l’ouverture, « nous avons tout eu, le contrôle des douanes, celui de la DGCCRF. Ils n’ont rien trouvé ».
Il précise avoir revu sa stratégie (articles moins chers, plus de choix de taille…) avec succès : six clients sur dix achèteraient désormais des produits Shein. Autre revirement de situation : « Nous allons changer de modèle d’exploitation pour les espaces Shein du BHV. Ce sont toujours nos vendeurs qui continueront à opérer. Mais, à partir d’avril, Shein sera responsable du choix des assortiments et nous percevrons une commission à la vente ».
Divorce largement consommé entre Galeries Lafayette et BHV
Il n’en reste pas moins des séquelles visibles de l’arrivée de Shein au BHV : « Le groupe Galeries Lafayette a rompu son contrat avec la SGM concernant sept magasins de province, rebaptisés BHV. Une centaine de marques (Guerlain, Dior, Sandro, etc.) ont quitté le grand magasin parisien, protestant contre Shein ou des retards de paiements », explique Sud Ouest.
Lors d’une audition au Sénat en janvier, Frédéric Merlin reconnaissait « une vraie baisse de chiffre d’affaires sur cette fin d’année avec le départ de marques ». Il affirmait déjà qu’un nouveau système de paiement était mis en place, promesse de nouveau faite dans l’interview au Figaro. Libération relate une partie de l’audition durant laquelle Frédéric Merlin a été « jusqu’à se présenter comme « un chef d’entreprise éthique ». Rires dans l’assemblée ».
Le BHV était également empêtré dans la vente de l’immeuble qu’il occupe à Paris. C’est finalement en janvier que les Galeries Lafayette ont officialisé la vente au canadien Brookfield, pour 300 millions d’euros. La SGM devait initialement racheter les murs, mais avec l’affaire Shein la Banque des Territoires s’était retirée.
Le Microsoft Engineering Center d’Issy-les-Moulineaux va faire l’objet d’un plan de cessation d’activités d’ici l’été. Officiellement motivée par la volonté de réunir les ingénieurs autour de grands hubs internationaux comme Redmond ou Dublin, la décision suscite l’incompréhension parmi la centaine de collaborateurs concernés, qui travaillent au quotidien sur certaines des briques sous-tendant les principaux produits d’IA de l’entreprise.
Inauguré en 2011 aux portes de Paris, et recentré à partir de 2019 sur les sujets liés à l’intelligence artificielle, le Microsoft Engineering Center français va fermer ses portes d’ici l’été. L’annonce en a été faite le 19 février dernier à la centaine de collaborateurs concernés, à qui il a été confirmé qu’il s’agissait bien d’un plan de cessation d’activité et non d’une simple réduction d’effectifs.
Une annonce surprise pour la centaine d’ingénieurs concernés
Révélé la semaine dernière par l’Usine digitale, ce projet de fermeture nous a été confirmé par Microsoft France dans une déclaration :
« Nous avons présenté aux représentants du personnel un projet visant à cesser les activités du Microsoft Engineering Center Paris. Les discussions sont en cours et aucune décision définitive n’a été prise. Nous nous engageons à mener cette consultation de manière responsable et à soutenir tous les collaborateurs tout au long du processus. »
La nouvelle, annoncée par des membres des ressources humaines avec le concours d’un cadre français venu des États-Unis, a d’abord suscité stupeur et incompréhension au sein des équipes concernées. Opérant au sein d’une filiale dédiée, ses ingénieurs avaient été épargnés par la rupture conventionnelle collective mise en place par Microsoft France en novembre dernier (200 postes concernés, soit environ 10 % de l’effectif national).
« On ne comprend pas le signal. D’un côté, on a le discours selon lequel Microsoft investit en France parce que c’est le pays de l’IA et des ingénieurs. De l’autre, on vire une équipe de 100 personnes, dont la capacité à faire des choses n’a jamais été remise en cause. Quand on voit les sujets sur lesquels on travaille, il y a de quoi se poser des questions », nous confie un employé du Microsoft Engineering Center sous couvert d’anonymat.
Un centre d’ingénierie principalement consacré à l’IA
Immatriculé en 2011, le Microsoft Engineering Center français est installé depuis ses débuts au siège social de Microsoft France, à Issy-les-Moulineaux, aux portes de Paris. Au cours des années 2010, le centre se consacre notamment au développement de fonctionnalités et de services chargés d’accompagner la stratégie de l’éditeur en matière de distribution de contenus, qu’il s’agisse de flux vidéo, de musique, de jeux ou d’expériences interactives.
À partir de 2019, Microsoft donne une inflexion particulière à son centre, avec l’ouverture d’un centre de développement spécifiquement dédié à l’intelligence artificielle. « Ce Centre a pour mission d’accompagner les entreprises du monde entier dans leur transformation digitale et dans leur quête d’efficacité et de productivité accrues grâce à l’IA. Elles pourront bénéficier de solutions IA répondant à leurs besoins métiers à travers notamment l’usage des plateformes Dynamics 365 ou Azure. », expliquait alors Microsoft.
Cet axe constitue désormais l’activité principale du centre parisien. « Nous sommes une équipe reconnue, capable de livrer et maintenir des produits à succès, affirme notre contact. Nous étions parmi les premiers à travailler sur l’automatisation avec Copilot dès 2022. Les appels d’IA générative de la Power Platform [la collection d’outils de développement low code de Microsoft, ndlr] passent, par exemple, par un service conçu et développé à Paris ».
Une volonté affichée de rationalisation
Du côté de Microsoft France, un porte-parole indique que ce plan de cessation d’activités découle d’une stratégie, déjà engagée par ailleurs, de concentration des efforts autour de grands hubs internationaux comme Microsoft en compte déjà à Redmond ou à Dublin. Autrement dit, la décision de fermer le centre parisien ne découlerait pas d’une lecture qualitative de ses contributions, mais plutôt d’un changement d’organisation décidé et opéré à plus grande échelle.
« Ces changements proposés n’auront aucune incidence sur les autres activités de Microsoft en France. Nous restons pleinement engagés auprès de nos clients ainsi qu’à poursuivre nos investissements dans le pays », veut par ailleurs rassurer l’éditeur, selon qui des propositions de relocalisation dans l’un de ses centres sont envisageables pour les ingénieurs intéressés.
Le 4 novembre dernier, Microsoft renouvelait ses marques d’intérêt envers la France et l’IA au travers d’un rapport réaffirmant sa double promesse de « former un million de Français à l’IA d’ici 2027 » et « d’accompagner 2 500 startups françaises dans leur développement grâce à l’IA d’ici 2027 ». Au printemps 2024, Microsoft avait par la voix de son président Brad Smith promis 4 milliards d’euros d’investissements « au service de l’intelligence artificielle » dans le pays à l’occasion du salon Choose France.
Ce week-end, Jared Isaacman, administrateur de la NASA, laissait peu d’espoir quant au lancement de la mission Artemis II en mars. Les ingénieurs ont en effet détecté une « interruption du flux d’hélium dans l’étage de propulsion cryogénique intérimaire du SLS » ou Space Launch System, le lanceur lourd de la NASA.
Il ajoutait que « les équipes procèdent au dépannage et se préparent à un probable retour d’Artemis II au VAB » ou Vehicle Assembly Building, le hangar à fusée de l’Agence spatiale américaine. Rapidement, la mauvaise nouvelle a été confirmée : « Quelle que soit la panne potentielle, l’accès et la résolution de ces problèmes ne peuvent être effectués que dans le VAB ».
À cause des conditions météo, le retour au hangar n’est pas prévu avant le 25 février. La fusée mettra environ 12 heures pour faire les 6,4 km qui séparent le dock de lancement du VAB.
Il y a un mois, la fusée s’était installée à la verticale sur son pas de tir. Artemis II embarquera quatre astronautes à bord qui iront faire le tour de la Lune (une première depuis 50 ans), mais sans se poser. Fouler le sol de notre satellite naturel sera l’objectif d’Artemis III.
Selon la NASA, 16 fenêtres de tir étaient possibles entre les 6 février et 30 avril. On peut déjà exclure février et mars, avril semble très court comme délai puisqu’il faut inspecter la fusée, trouver le souci, le régler, effectuer des tests, la replacer sur son pas de tir, etc.
Il y a un an, SpaceX a perdu le contrôle du deuxième étage de sa fusée au cours d’un de ses lancements de satellites de Starlink. Des débris avaient été retrouvés en Pologne, mais des chercheurs allemands montrent un an après que la fusée a créé un nuage de lithium dans la haute atmosphère au dessus de l’ouest de l’Irlande s’étendant jusqu’au nord de l’Allemagne à 96 km d’altitude.
Les échecs des lancements de fusées peuvent polluer la haute atmosphère terrestre avec des conséquences inconnues pour la couche d’ozone. Le 18 février 2025, SpaceX lançait une 438e fois un Falcon 9 en dehors de l’atmosphère pour envoyer une vingtaine de satellites Starlink en orbite basse.
L’entreprise s’est félicitée du retour du premier étage de la fusée pour son premier lancement des Bahamas. Mais le 19 février, des Polonais témoignaient de la retombée de débris du deuxième étage de la fusée de SpaceX et l’agence spatiale polonaise POLSA confirmait « que dans la nuit du 19 février 2025, entre 04h46 et 04h48, une rentrée incontrôlée dans l’atmosphère au-dessus du territoire polonais d’un étage de la fusée porteuse FALCON 9 R/B a eu lieu ».
Une détection au-dessus du nord de l’Allemagne
Mais la retombée incontrôlée du deuxième étage du Falcon 9 a eu des conséquences qu’on n’imaginait pas. Des chercheurs et chercheuses de l’institut Leibniz de physique de l’atmosphère ont publié, tout juste un an après, un article scientifique indiquant qu’ils ont pu détecter et mesurer un nuage de lithium dans la haute atmosphère au-dessus de l’ouest de l’Irlande et s’étendant jusqu’au nord de l’Allemagne à 96 km d’altitude.
De fait, leur équipe explique avoir d’abord détecté une multiplication par 10 des atomes de lithium au-dessus de la petite ville de Kühlungsborn, en Allemagne, « environ 20 heures après la rentrée incontrôlée d’un étage supérieur Falcon 9 » avec un lidar, un appareil de détection par laser qui permet aussi d’estimer la distance à laquelle sont détectées les particules.
« La densité maximale de la couche de lithium était inférieure à 3 atomes cm⁻³ pendant la majeure partie de la mesure. Une augmentation soudaine du signal d’un facteur 10 a été détectée juste après minuit UTC le 20 février », expliquent-ils.
Ils ont ensuite mis en place des simulations pour vérifier d’où pouvait provenir ces atomes. « L’ensemble des trajectoires calculées (en bleu) est représenté sur la figure 3 [ci-dessous] avec une carte thermique de densité de probabilité indiquant la région au-dessus du Royaume-Uni et de l’Irlande où le panache de lithium a probablement pris naissance » :
Sur la carte, le tracé noir représente la trajectoire de rentrée du Falcon 9 et la courbe constituée de petits cercles représente un exemple de trajectoire possible qu’ils ont simulé et qui correspondrait à l’heure de rentrée de la fusée dans la haute atmosphère.
Le lithium, la signature des débris spatiaux
Ils expliquent que le lithium a été choisi comme métal cible « pour détecter les signatures des débris spatiaux en raison de sa présence en quantités infimes dans les météoroïdes chondritiques et de ses applications bien documentées dans les engins spatiaux, notamment les batteries lithium-ion et le revêtement des coques en alliage lithium-aluminium (Li-Al) ».
Leur travail montre que les lidars, et notamment ceux à fluorescence par résonance, peuvent être utilisés pour la détection du lithium dans la haute atmosphère « lorsqu’il est associé à d’autres mesures atmosphériques et étayé par une analyse modélisée ». L’idée est de pouvoir comprendre ce qu’il se passe avant l’entrée dans la couche d’ozone. Des recherches ont déjà montré que la combustion des satellites pourrait gravement endommager la couche d’ozone. Mais la détection et la quantification de polluants dans la couche d’ozone stratosphérique est complexe et chère, selon eux.
Les autrices et auteurs soulignent aussi que leur travail « vient étayer les inquiétudes croissantes selon lesquelles le trafic spatial pourrait polluer la haute atmosphère d’une manière qui n’est pas encore entièrement comprise. La croissance continue des lancements et des rentrées de satellites pourrait entraîner des effets cumulatifs, avec des implications pour la composition atmosphérique à long terme et les interactions climatiques ». Reste une inconnue : les conséquences de cette pollution que ce soit sur cette haute atmosphère ou sur la couche d’ozone.
Rappelons qu’outre la haute atmosphère, les lancements de SpaceX sont responsables d’autres pollutions. Ainsi, un mois avant, en janvier 2025, des débris de Starship sont tombés sur des plages et routes des îles Turques-et-Caïques. Enfin, depuis plusieurs années, les astrophysiciens alertent sur les menaces que font peser les constellations de satellites sur les observations astronomiques, menaces qui se sont accélérées avec la taille de ces constellations.
Rembobine.info, le média qui « lutte contre l’obsolescence de l’info et met en lumière l’impact du journalisme sur nos sociétés », s’est penché sur l’enquête de Next consacrée aux faux sites d’informations en tout ou partie générés par IA. Nous l’avions lancée en février 2025, et elle a récemment dépassé le cap symbolique des 10 000 sites GenAI. Nos confrères y consacrent un article et une interview :
En termes d’impact institutionnel, Rembobine relève que le nombre de sites générés par IA mis en avant par l’algorithme de recommandation de contenus Discover de Google a depuis diminué. Nous reviendrons, cela dit, dans un prochain article sur cette diminution, somme toute relative, avec des chiffres plus précis.
La Commission paritaire des publications et des agences de presse (CPPAP), chargée de reconnaître (ou non) la qualité de service de presse en ligne à un média web, m’a par ailleurs convoqué pour m’auditionner dans le cadre d’un groupe de travail sur les sites générés par IA, et notamment sur la question du plagiat auquel ces sites recourent.
En termes d’impact judiciaire, un seul site généré par IA a depuis été condamné par la justice pour plagiat, et notre enquête n’a fait l’objet d’aucune plainte.
En termes d’impact médiatique et public, l’enquête, initialement relayée par Libération, a fait l’objet de plusieurs reprises, notamment par France Culture, TV5MONDE ou France Télévisions, et l’extension web (gratuite) que nous avons développée afin d’alerter celles et ceux qui l’ont installée qu’ils ou elles consultent un site dont les articles ont été « en tout ou partie générés par IA » est utilisée par près de 10 000 personnes.
Elle permet également de nous signaler des sites GenAI, et nous avons d’ores et déjà reçu plus de 3 000 signalements, mais il nous en reste encore plus de 250 à vérifier… tâche que nous ne parvenons pas à effectuer seuls. Nous pourrions la crowd-sourcer et mutualiser avec d’autres fact-checkers, OSINTers, journalistes et ONG.
Médiamétrie a en outre découvert que les 250 sites générés par IA les plus recommandés par Google étaient, à eux seuls, visités par 15 millions de personnes en moyenne par mois, soit un quart des internautes français (dont 75 % de plus de 50 ans) !
« Il y a le risque de désinformation et de propagation des fake news, bien sûr, mais c’est aussi très dangereux pour les médias dits traditionnels », a précisé l’auteur de ces lignes dans l’interview associée :
« Face à ces faux sites, qui sont pourtant très consultés, ils ont perdu des centaines de millions de pages vues, et donc de revenus publicitaires. C’est un vrai problème pour l’économie des médias !Sans parler du fait qu’en dupliquant leurs articles, tous ces médias générés par IA diffusent des versions différentes d’une même histoire sans que ces dernières ne soient vérifiées. Ça participe à créer du doute sur ce qui est vrai et ce qui ne l’est pas or, plus les gens ont des doutes sur ce qu’est ou non un fait vérifié, plus les risques sont grands de voir arriver des gouvernements autoritaires. On s’en rend bien compte, notamment dans les États-Unis de Trump. »
Entamée début 2024, notre enquête sur les « sites d’information » générés par IA (mais qui ne le précisent pas) nous avait permis d’en identifier 250 en octobre 2024, 500 à Noël, 1 000 fin janvier 2025, près de 3 000 début mars, 6 000 en août, 9 000 en décembre… et plus de 10 000 depuis février 2026. Cette page résume la quarantaine d’articles que nous y avons consacrés depuis février 2025.
Next a découvert que des milliers de soi-disant sites d’information polluent le web et les moteurs de recherche, ainsi que MSN, Google Actualités et son algorithme de recommandation Discover, alors que leurs soi-disant « articles » :
sont (en tout ou partie) générés par IA (mais sans le préciser),
prétendent (à tort) émaner de « journalistes », de « médias » et/ou d’experts/professionnels/passionnés,
ne sont pas vérifiés ni relus avant publication (contrairement au b.a.-ba de n’importe quel métier),
relaient donc potentiellement des « hallucinations/confabulations »,
volent des revenus publicitaires qui auraient dû aller à des médias/journalistes/professionnels,
contribuent au confusionnisme informationnel voire à la désinformation,
relèvent donc d’une « pollution » numérique et médiatique.
Or, le règlement européen sur l’IA (AI Act) obligera les éditeurs à labelliser comme tels les contenus générés par IA (GenAI) à partir d’août 2026. Nous avons donc développé une extension web (gratuite) pour les navigateurs basés sur Chromium (Chrome, Brave, Edge, Vivaldi, Opera, etc.) et Firefox (y compris Android) afin d’afficher un message d’alerte lorsque ses utilisateurs visitent un site dont nous avons identifié que les articles « semblent avoir été (en tout ou partie) générés par IA (GenAI) » (qu’ils soient « full GenAI » ou bien « dopés à l’IA »), mais sans le préciser.
En attendant le « filtre anti-arnaques» promis par le gouvernement (en mars 2022), notre extension intègre aussi les listes noires de Red Flag Domains des 35 000 noms de domaine potentiellement suspects, ainsi que les 2 000 sites web de celle de l’Autorité des marchés financiers (AMF).
Comme indiqué dans le message d’alerte, l’extension flaggue les sites qui « des articles semblent avoir été (en tout ou partie) générés par IA (GenAI) », sous-entendu sans véritable supervision voire sans relecture, et à qui l’on ne saurait donc faire confiance : il s’agit moins de jauger la « qualité » des articles que le fait qu’ils comportent un fort risque d’« hallucinations » générées par IA.
Ces articles et sites GenAI qui polluent le web servent ainsi d’ « armes de désinformation massive », contribuant en outre à l’objectif politique de l’ex-conseiller de Donald Trump Steve Bannon, pour qui « La véritable opposition, ce sont les médias », ce pourquoi il proposa que « la façon de les traiter est d’inonder la zone avec de la merde ».
Nous avons d’ailleurs pu constater que plusieurs des professionnels du référencement – SEO – et du marketing numérique ayant lancé de tels sites générés par IA semblent être fans de Javier Milei, Elon Musk & Donald Trump, entre autres promoteurs politiques de la désinformation, du complotisme et du confusionnisme, et ennemis déclarés du « journalisme ».
De plus en plus de médias et rédactions recourent eux aussi à la GenAI
Au-delà de ces soi-disant sites d’informations n’émanant pas de journalistes, nous avons également découvert (et documenté) que de plus en plus de véritables sites d’information, émanant de passionnés, experts, professionnels et même de rédactions employant des rédacteurs SEO et/ou journalistes, ont eux aussi recours à la GenAI afin de « doper » leurs rédacteurs, et leur permettre de publier un grand nombre d’articles qu’ils ne sauraient pouvoir publier sans recourir à l’IA générative, mais là encore sans le mentionner.
À l’instar du dopage, cette hyperproductivité nuit à la crédibilité du journalisme, non seulement parce qu’elle fausse les statistiques, en surreprésentant les médias dopés par rapport à ceux qui ne le sont pas, mais également parce qu’ils privent les médias qui ne trichent pas des visiteurs uniques et pages vues leur permettant d’une part d’engranger des revenus publicitaires, d’autre part d’être proprement référencés dans les moteurs de recherche.
Nos constats montrent en outre que si les médias dopant leurs rédacteurs et journalistes grâce à la GenAI avancent que leurs contenus sont vérifiés et validés avant d’être publiés, tel n’est souvent pas le cas, au point, pour certains, de publier des articles relayant de fausses informations « hallucinées » (ou « confabulées ») par les IA, et donc de nuire, là encore, à la crédibilité du journalisme et des médias en général, et des journalistes qui ne trichent pas en particulier.
Au commencement était la GenAI (la liste de nos enquêtes)
Notre enquête avait débuté suite au lancement de ChatGPT, fin novembre 2022, et de ses avatars, après avoir publié deux modes d’emploi expliquant comment tenter d’identifier les textes et images émanant d’intelligences artificielles génératives. Ce qui nous avait permis de commencer à identifier ces sites d’infos et articles GenAI.
Mais vu l’ampleur du problème, à mesure que nous en avions identifié plusieurs dizaines au printemps 2024, puis plusieurs centaines fin 2024, nous avions donc proposé au service de fact-checking CheckNews de Libération, à Arrêt sur images ainsi qu’à des fact-checkeurs de Wikipédia, de nous aider à enquêter sur cette « pollution » numérique et médiatique.
Près de 150 des 500 sites GenAI que nous avions initialement identifiés étaient en effet mentionnés comme « sources » sur Wikipédia. Et ce, alors que leurs articles ne semblent avoir été ni relus, ni corrigés, ni validés avant leur publication automatisée (et, donc, sans supervision humaine).
La plupart des articles mentionnés dans l’encyclopédie avaient été publiés avant que leurs noms de domaine (expirés) ne soient rachetés, afin de capitaliser sur leur réputation (ranking) dans l’algorithme de Google, et autres moteurs de recherche.
Nous avons depuis également découvert que, parmi la centaine de professionnels du référencement (SEO) et du marketing numérique qui éditent et administrent ces sites, certains en gèrent plusieurs dizaines, centaines et même plusieurs milliers, sans être en capacité d’identifier combien polluent de la sorte Google, et particulièrement Google Actualités.
Nous avons bien évidemment détaillé notre méthodologie, challengée et vérifiée par les deux contributeurs expérimentés de l’encyclopédie Wikipédia, et les deux journalistes du service de fact-checking CheckNews de Libération.
Next a en outre développé une extension pour les navigateurs compatibles Chrome et Firefox (y compris sur Android), afin d’alerter ses utilisateurs lorsqu’ils consultent un site GenAI (cf sa présentation, et notre méthodologie). Elle les alerte aussi désormais lorsqu’ils visitent aussi des noms de domaines « potentiellement malveillants » identifiés par Red Flag Domains, et des « entités non autorisées à proposer des produits ou services financiers en France » par l’Autorité des marchés financiers.
40 médias français ont depuis demandé à la Justice d’ordonner aux FAI le blocage du site news.dayfr.com. Ce dernier, le plus bourrin du millier de sites d’informations générés par IA que nous avons identifiés, plagiait de 5 à 15 articles… par minute, et jusqu’à plus de 6 000 par jour. Ironie de l’histoire : il a aussi été jusqu’à…. plagier deux des articles mentionnant la plainte le concernant.
Une enquête de l’équipe « pour une IA responsable » de la BBC a par ailleurs découvert que plus de la moitié des réponses fournies par les assistants d’intelligence artificielle (IA) à qui il avait été demandé de chercher leurs réponses dans les articles de la BBC étaient « factuellement incorrectes, trompeuses et potentiellement dangereuses ». Mais également que 20 % d’entre elles ont en outre rajouté des « inexactitudes factuelles » qui ne figuraient pas dans les articles pourtant mentionnés.
Un rapport rédigé par 22 médias de service public européens révèle que près d’une réponse sur deux formulée par les services d’IA générative populaire déforme l’information qui lui est fournie comme source. Qualifiant le phénomène de « distorsion systémique », l’alliance à l’origine de ces travaux appelle le régulateur à garantir le respect de l’information.
Cherchant à satisfaire leurs utilisateurs, les chatbots d’IA générative ont cessé de leur rétorquer qu’ils n’avaient pas de réponse à leurs questions, quitte à raconter n’importe quoi. Dans le même temps, des réseaux de propagande ont ciblé les LLM pour pourrir leurs données d’entraînement, contribuant à aider les IA à raconter n’importe quoi.
Plus d’une centaine (au moins, et probablement plusieurs centaines, voire milliers) des sites GenIA que nous avions initialement identifiés plagient en outre des articles de véritables journalistes, sans mentionner leurs sources ni préciser qu’ils ont été générés avec des IA. Ils sont pourtant, pour la plupart, référencés sur Google Actualités, et parfois relayés par son IA de recommandation algorithmique Discover. Certains se contentent de traduire des articles en français quand d’autres les paraphrasent, rendant leurs plagiats plus difficiles à identifier.
Interrogé par Arrêt sur images, à qui nous avions transmis notre enquête à son sujet, le patron du groupe de presse Économie Matin, par ailleurs co-directeur pédagogique d’une école de journalisme d’extrême-droite, a reconnu que ses articles étaient bien générés par IA, contrairement à ce que son rédacteur en chef adjoint prétendait initialement. Ce dernier, par ailleurs « prompt engineer » du groupe, attribue de son côté les dizaines de plagiats que nous avons en outre identifiés à un « bug du script » envoyé à ChatGPT qui, « étant complètement idiot, parfois, ne fait pas ce qu’on lui dit » (sic).
Notre enquête nous a valu quelques remarques acerbes de la part de professionnels du SEO, au motif que le fait de rendre public le fait que certains de leurs sites sont GenAI pourrait nuire à leur business :
« Les gens veulent manger de la merde ? Donnez en leur à la pelle plutôt que d essayer de buzzer et cherchant à bousiller le business de milliers de sites. »
L’un d’entre eux nous a par exemple rétorqué que de nombreux médias français avaient récemment relayé une « rumeur »… qu’ils n’auraient cela dit probablement pas relayée si les journalistes avaient été informés que l’information initiale avait en fait été « hallucinée » dans des articles générés par IA.
Les sites d’information de la presse quotidienne régionale (PQR) sont, eux aussi, de plus en plus victimes de pure players qui les concurrencent, voire les plagient, tout en étant générés par des IA. Si certains se positionnent comme des « médias indépendants », d’autres ne cherchent qu’à faire du clic. Au point que des journalistes de la PQR se retrouvent à devoir fact-checker des infos erronées car « hallucinées » par les IA qui les publient.
Après avoir analysé un échantillon de 8 795 posts LinkedIn publics de plus de 100 mots publiés entre janvier 2018 et octobre 2024, une start-up de détection de contenus générés par IA a par ailleurs découvert que plus de 50 % d’entre eux étaient GenAI, et que le nombre de messages longs susceptibles d’avoir été générés par IA avait explosé de 189 % dans les mois suivants le lancement de ChatGPT.
Dans son (216e) podcast, Mediarama a en outre reçu Alexandre Laurent, directeur de la rédaction de Next.ink, pour discuter de notre enquête-fleuve sur les 2 000 (au moment de l’enregistrement, mi-février) 3 000 (depuis début mars) « sites d’information » en tout ou partie générés par IA (GenAI) que nous avons identifiés, où il résume (et revient sur) les articles que nous y avons consacrés.
Le Conseil des ministres espagnol a approuvé un avant-projet de loi pour une « utilisation éthique, inclusive et bénéfique de l’intelligence artificielle » qui sanctionnera les contenus ne précisant pas qu’ils sont générés par IA. Il s’agit des adaptations au droit espagnol du règlement européen dit « AI Act » adopté par le Parlement européen en mars 2024
Quatre agences chinoises ont annoncé une nouvelle série de règles qui obligeront les fournisseurs de services, à partir du 1ᵉʳ septembre 2025, à désigner comme tels les contenus générés par IA via des identifiants explicites et implicites (méta-données et/ou filigranes).
Le nombre exponentiel de contenus « GenAI » polluant le web est tel qu’il devient parfois difficile de distinguer les contenus émanant d’êtres humains de ceux générés par des IA. Nous avons, a contrario, identifié plusieurs « faux positifs » dans le cadre de notre enquête sur les sites d’info GenAI. Après avoir expliqué comment identifier de tels contenus, il nous semble important d’expliquer comment nous avons décelé ces « faux positifs », de sorte de ne pas, non plus, contribuer à la « panique morale » autour de la GenAI.
Deux responsables de Google viennent de rappeler aux éditeurs de sites web que la création en masse de grandes quantités de contenu, en particulier à l’aide de l’IA, relève du « spam » (sauf si elle fait montre d’originalité et offre une réelle valeur ajoutée). Or, l’algorithme de recommandation de contenus Discover de Google promeut (au moins) une quarantaine de sites générés par IA (GenAI), dont plusieurs relaient rumeurs et infox.
Le nombre de morceaux de musique identifiés par le détecteur de contenus synthétiques développé par la plateforme est passé de 10 000 à plus de 20 000 par jour entre janvier et avril. 7 à 8 % relèveraient de tentatives de fraude. Le patron de Deezer propose de « légiférer pour que les plateformes rémunèrent les artistes et pas ces bruits », mais ne précise pas comment.
L’an passé, Google a fait face à une crue de publicités reposant sur l’usurpation d’identité, générée par IA, de personnalités, afin de promouvoir des escroqueries. La régie publicitaire de Google a « rapidement constitué une équipe de plus de 100 experts », et suspendu « plus de 700 000 comptes d’annonceurs ». Une célérité qui contraste fortement avec le laxisme de Google et de son algorithme de recommandation de contenus Discover pour ce qui est des médias générés par IA.
Saisie par une quarantaine de médias, qui se plaignaient du fait que ce site plagiait jusqu’à 6 000 de leurs articles… par jour, la Justice ordonne aux quatre principaux FAI le blocage du plagieur en série, d’ici 15 jours, pendant 18 mois.
Google représente 61% des sources de trafic des sites de presse. Pour la deuxième année consécutive, le trafic en provenance de son algorithme de recommandation de contenus Discover explose de + 50%, représentant 68% du trafic émanant des services de Google. Un renversement de tendance qui attire de plus en plus de professionnels du marketing numérique cherchant à profiter de cette « pompe à fric » : 14 % du Top 50 des sites mis en avant sur Discover sont désormais générés par IA.
7 des 50 principaux sites d’information en français mis en avant par l’algorithme Discover de recommandation de contenus de Google sont générés par IA. Plus de 75 sites « générés par IA » (au moins) ont été « recommandés » par Discover ces derniers mois, et 15 y ont même figuré dans son Top50, dont 1 pendant 5 mois, 3 pendant 3 mois, 2 pendant 2 mois, & 4 dans son Top25 (dont un pendant 3 mois consécutifs, un autre 2 mois de suite). Plusieurs éditeurs de sites GenAI comparent Discover à TikTok et le qualifient de « réseau social de Google », voire à « une drogue » susceptible de « générer une dépendance », au vu des milliers d’euros de chiffre d’affaires engrangés, par jour. Deux d’entre eux seraient même devenus millionnaires grâce à Discover, en trois mois seulement.
Des dizaines de médias britanniques ont publié des articles reposant sur des témoignages d’ « experts » qui n’existent pas. Créés pour améliorer le référencement naturel des sites web dont ils se réclament par des pros du SEO et/ou du marketing numérique, leurs « expertises », promues par des agences de mises en relation avec des journalistes, ont été grandement facilitées par les intelligences artificielles génératives.
À lui seul, le plus prolifique des éditeurs de sites francophones générés par IA a réussi à faire promouvoir plusieurs milliers d’articles, dont de très nombreuses fake news, par l’algorithme de recommandation de contenus Discover de Google. Au point que d’autres pros du SEO (pourtant eux-mêmes éditeurs de sites GenAI), en arrivent à se plaindre publiquement de cette surenchère et pollution.
L’algorithme Discover de « recommandation de contenus » de Google, principale source de trafic des sites journalistiques français, est devenu une « pompe à fric » pour les sites monétisés par la publicité, majoritairement financés par… la régie publicitaire de Google. Au point que près de 20 % des 1 000 sites d’info les plus recommandés par Google Discover, et 33 % des 120 sites les plus recommandés par Google News, à la rubrique Technologie, sont générés par IA.
Cet été, un éditeur de sites d’infos générées par IA a accusé plusieurs chaînes d’hypermarchés de vendre des produits cancérigènes, pourris, lavés à l’eau de javel ou recongelés. Ses articles n’en ont pas moins été recommandés par l’algorithme Discover de Google.
Confrontée à une déferlante de fausses informations cet été, la retraite complémentaire a publié à la rentrée un message d’alerte sur son site web. Nous avons découvert que la quasi-totalité des articles mis en avant ces derniers mois par Google au sujet de l’Agirc-Arrco émanaient d’articles (hallucinés, voire mensongers) générés par IA. Et sur les 10 % d’articles émanant de rédactions humaines, plus de la moitié concernaient ces fake news.
Le tsunami de soi-disant sites d’informations générés par IA (GenAI) auquel nous assistons depuis des mois, émanant de professionnels du marketing numérique et du référencement (SEO), contamine aussi la presse. Nous avons en effet identifié (au moins) cinq sites hébergés par deux des plus importants groupes de presse français et reposant eux aussi, « en tout ou partie », sur la GenAI, et susceptibles de doper artificiellement leurs statistiques de fréquentation.
Une ancienne responsable de la division podcast d’Amazon pense avoir trouvé un filon « scalable » susceptible de lui permettre de la rendre richissime. Entièrement générés par IA, en une heure et pour un dollar seulement, ses podcasts sont en effet rentables à partir de 20 auditeurs.
En France, des crèches acceptent des poupées « reborn » (hyperréalistes) au détriment de bébés humains, avance un site du groupe Reworld. Il s’agit en fait d’infox et canulars ayant fait le buzz sur TikTok, relayés au premier degré. Contacté, le directeur des activités numériques du groupe aurait « bien voulu que ce soit une hallucination émanant d’une IA », mais nous « certifie qu’aucun article n’a été écrit par de l’IA ».
Universcience vient de lancer une « IA au service des enseignants ». Elle propose de créer des cours en utilisant la base de données de contenus stockés par la structure de médiation scientifique. Mais les premiers cours présentés dans Ada sont accompagnés d’images générées par IA illustrant de manière absurde, par exemple, l’évolution des espèces en incluant entre autres des voitures.
Premier éditeur de presse magazine en France, et 3ᵉ groupe média sur le web et les réseaux sociaux, Reworld Media estime que les sites d’infos générées par IA auraient fait perdre des dizaines de millions d’euros aux médias depuis que l’algorithme de Google a commencé à recommander leurs articles. Il vient de commencer à… faire pareil, ou presque. Étrangement, nombre de ses articles « augmentés » par l’IA publient comme images d’illustration des… bras cassés coupés.
Le syndicat des journalistes de Politico a remporté une « victoire majeure », qui devrait faire jurisprudence aux États-Unis, en matière de recours à l’IA dans les médias. Leurs rédacteurs en chef avaient plaidé, en vain, que les contenus générés par IA ne devraient pas être soumis aux normes éthiques et éditoriales, au motif qu’elles étaient développées par des ingénieurs, et non par des journalistes.
14 à 16 millions d’internautes français consultent chaque mois l’un des 251 sites d’infos GenAI les plus recommandés par Google et identifiés par Next, selon une étude de Médiamétrie pour le Groupement des éditeurs de services en ligne. Près des trois quarts (74 %) de ces internautes ont plus de 50 ans, au point que ces derniers visitent plus de sites d’infos GenAI que de vrais sites d’actualités. 77 % y sont envoyés par l’un des services de Google (Discover, Search ou Actualités), et 10 % via Meta.
Plus de 20 % des vidéos recommandées par l’algorithme de YouTube aux nouveaux utilisateurs sont des « AI slop » (ou bouillie d’IA en français), du nom donné à ces contenus bas de gamme générés par intelligence artificielle et conçus pour cumuler les vues afin de les monétiser par la publicité.
Les fulgurantes avancées en matière de contenus générés par IA, notamment (audio)visuels, rendront de plus en plus difficile le fait d’identifier ceux qui cherchent à imiter voire usurper des contenus humains. Le patron d’Instagram propose dès lors de renverser la charge de la preuve, en identifiant plus formellement les contenus créés par des humains.
Le tsunami de sites d’infos générées par IA que nous documentons depuis des mois a pris une telle ampleur que le ministère de la Culture vient lui-même de publier un communiqué de presse largement inspiré d’un billet de blog généré par IA, tout en y relayant une erreur « hallucinée » par l’IA.
Arrêt sur images et le Syndicat national des journalistes ont découvert que deux sites de presse quotidienne régionale (PQR) ont publié près de 900 articles en 50 jours « avec l’aide de l’IA » concernant ce qui se passe dans des départements limitrophes pour… induire les préfectures en erreur.
L’épidémie de sites d’informations générés par IA que Next documente depuis des mois vient de faire un premier accident industriel. Un site d’information féminin a en effet laissé entendre, par le truchement d’articles générés (et « hallucinés ») par IA, qu’une certaine Thérèse aurait ouvert une crèche dédiée aux bébés « reborn » (du nom donné aux poupées hyperréalistes). L’infox’ a depuis été reprise, citée et commentée par des milliers de personnes sur les réseaux sociaux, et quelques médias. Sans avoir cherché à le vérifier, ni préciser qu’il s’agit d’une ex-actrice porno, habituée des plateaux de talk-shows depuis 1999 et des réseaux sociaux depuis les années 2010 pour y mettre en scène sa vie fantasque et ses fantasmes.