Scaleway, la filiale cloud d’iliad (maison mère de Free) a annoncé la semaine dernière une collaboration avec la société autrichienne Alpine Quantum Technologies (AQT, basée à Innsbruck) afin d’intégrer un ordinateur quantique IBEX Q1 à ions piégés. Pour rappel, nous avons publié un article de présentation de l’informatique quantique.
La machine « sera disponible via la plateforme Quantum as a Service (QaaS) de Scaleway » qui permet à tout un chacun ou presque « d’accéder à des unités de traitement quantique (QPU) via son infrastructure cloud souveraine ». Le côté souverain et européen est mis en avant à plusieurs reprises, avec un acteur français du cloud et autrichien du quantique.
« L’ordinateur quantique d’AQT est accessible et programmable sans réservation […] les mardis et mercredis de 10 h à 17 h CET ». Scaleway prend en charge les SDK open-source standard comme Qiskit d’IBM, Cirq de Google et Pennylane. Selon la fiche produit du IBEX Q1, la machine dispose de 12 qubits.
Scaleway propose une facturation « par shot, à l’heure (émulation), ou via une réservation dédiée ». Sur cette page, l’entreprise présente l’IBEX Q1 d’AQT comme ayant bien 12 ions piégés, avec une fiabilité de 99,97 % sur une porte et de 98,7 % sur deux. Comme nous l’expliquons dans cette actualité, les portes quantiques sont tout aussi importantes que les qubits.
« L’appareil est montable en rack standard, fonctionne à température ambiante et consomme moins de 2 kilowatts, idéal pour les simulations nécessitant une précision critique (par exemple, la dynamique des fluides) », ajoute l’entreprise.
Il y a quasiment deux ans, OVHcloud inaugurait « le premier ordinateur quantique installé au cœur d’un fournisseur de services cloud européen ». Il est installé dans locaux de la société à Croix, dans les Haut de France. Il s’agit d’un MosaiQ de la start-up française Quandela, une machine avec deux qubits photoniques.
Dans un communiqué, le CERN ne cache pas sa joie et annonce avoir « franchi une étape importante dans la progression du projet Grand collisionneur de hadrons à haute luminosité (HiLumi LHC), avec le début du refroidissement cryogénique à 1,9 K (‑271,3 °C) d’un banc d’essai de 95 m de longueur », une opération qui devrait prendre plusieurs semaines. Il s’agit d’une réplique grandeur nature de l’installation qui se trouve sur le Grand collisionneur de hadrons.
Si tout se passe bien, la mise en place est prévue pour l’été prochain avec « le lancement de quatre années de travaux de grande envergure au cours du troisième long arrêt (LS3) ». Le LS3 était prévu pour 2025 à 2027, avant d’être repoussé et rallongé à partir de mi-2026.
Le retour des opérations est donc prévu pour 2030. L’accélérateur sera de nouveau mis à l’arrêt et amélioré en 2034 et 2035, avant de passer au Run 5.
Dans le cas présent, la luminosité correspond au nombre de collisions de particules. Avec la haute luminosité, elle « sera multiplié par dix, ce qui augmentera très fortement le volume de données de physique disponibles pour la recherche ». « Ce bond en avant permettra d’étudier avec une précision inédite le comportement du boson de Higgs et d’autres particules élémentaires, voire éventuellement de découvrir de nouveaux phénomènes rares », explique le CERN.
Mark Thomson, directeur général du CERN, tient à mettre les points sur les i : « On ne soulignera jamais assez l’importance et l’intérêt du LHC à haute luminosité. C’est le plus grand projet entrepris par le CERN depuis 20 ans […] Il permettra d’étudier pour la première fois comment le boson de Higgs interagit avec lui-même : cette mesure clé pourrait nous aider à faire la lumière sur les premiers instants de l’Univers et son évolution ».
Il ajoute que « le LHC à haute luminosité servira également à explorer de nouveaux horizons, et pourrait conduire à des découvertes inattendues. C’est tout l’intérêt de sonder l’inconnu : on ne sait pas ce qui s’y trouve ». Il faudra être patient. Les mesures ne débuteront pas avant 2030, et il faudra ensuite les analyser.
Jean-Baptiste Kempf, l’un des principaux contributeurs du projet VideoLAN et de son célèbre lecteur VLC, s’est fendu lundi 22 février d’une charge virulente adressée au garde des Sceaux Gérald Darmanin. « J’envisage de quitter la France, et c’est intégralement la faute de M.Darmanin », titre l’ingénieur, dont la publication LinkedIn devient très vite virale.
Il y raconte les démêlés de sa femme, Audrey Prévost Kempf, avec l’administration en charge des admissions au concours de l’École nationale de la magistrature (ENM), qu’elle passe avec brio à sa seconde tentative, avant d’être informée, par courrier, qu’elle n’a finalement pas le droit de concourir.
D’après le résumé qu’en fait Jean-Baptiste Kempf, le ministère de la Justice décide de retoquer sa participation, a posteriori et alors qu’elle se classe 9ᵉ à l’issue du grand oral, « au motif d’une prétendue insuffisance d’activité juridique qualifiante ».
Intro du billet publié par J-B Kempf le 22 février sur LinkedIn
Audrey Prévost Kempf avait elle-même relaté cette déconvenue quelques jours plus tôt. Son éviction du concours de l’ENM (qui concerne également au moins un autre candidat) intervient dans le cadre des nouvelles modalités d’admission introduites suite à la réforme de 2023.
Aux premier et deuxième concours (destinés respectivement aux jeunes diplômés et aux salariés de la fonction publique), elle ajoute un troisième concours réservé aux candidats venus du privé, sous réserve que ces derniers puissent justifier d’au moins quatre ans d’une expérience « particulièrement qualifiante dans le domaine juridique, administratif, économique ou social ».
Et c’est là que le bât semble avoir blessé dans le cas d’Audrey Prevost Kempf : ses dix ans d’implication aux côtés de Jean-Baptiste Kempf dans VideoLAN n’auraient pas été reconnus comme une expérience « particulièrement qualifiante ».
« Le légal dans VideoLAN est plus compliqué et complexe que dans la plupart des sociétés que je connais, et avec un champ d’application bien plus large. Et devinez qui m’a aidé dans tout ce travail pendant dix ans ? Audrey, évidemment. Moi, je n’ai aucune base scolaire en droit. »
S’en suivent cinq mois d’échanges avec le ministère avec un recours au fond, jusqu’à cette interpellation publique.
« Le travail autour de VideoLAN est titanesque, même bénévole, et il n’appartient pas au Garde des Sceaux ni à son administration de déjuger notre travail. Le mieux, c’est lorsque M. Darmanin écrit que « le numérique […] et le droit du numérique ne sont pas utiles au magistrat de l’ordre judiciaire » », écrit Jean-Baptiste Kempf, fait chevalier de l’ordre national du Mérite en 2018, qui jure qu’on ne l’y prendra plus.
« Jamais plus je n’aiderai l’État français gratuitement par mon travail, et tant pis pour les agents de la justice (utilisant beaucoup VLC) qui auraient besoin de lire de nouveaux formats de vidéo. Cracher sur le professionnalisme du travail de VideoLAN est totalement inadmissible. »
Quelques heures plus tard, Gérald Darmanin lui répond en commentaire de sa publication LinkedIn, indiquant d’abord ne pas avoir été saisi personnellement du litige et regrettant le ton agressif de la missive, avant de finalement écrire : « il me semble que ma réponse avant le recours formulé devant le Conseil d’État était de demander à mon administration de revoir sa décision. Mais je veux vous le lui confirmer de façon certaine ».
« J’ai le plus grand respect pour elle d’avoir réussi ce difficile concours et, en effet, la magistrature manque de personnes connaissant le numérique », écrit encore le ministre.
Les 375 nouveaux auditeurs de justice qui constituent la promotion 2026 de l’ENM, dont 49 issus du troisième concours, ont fait leur rentrée le 16 février dernier.
Angers, Dijon, Limoges, Grenoble et Reims : cinq BHV vont accueillir à partir de demain un corner Shein, de 400 à 1 000 m². Après l’expérimentation à Paris, l’ambiance est toujours électrique, mais le patron du BHV (Frédéric Merlin) se veut rassurant.
En octobre, Shein et le BHV du Marais à Paris défrayaient la chronique avec l’ouverture d’un « corner » du spécialiste de la mode ultra éphémère (ultra-fast fashion). Au cœur de cet accord, la Société des grands magasins (SGM) qui possède le BHV, sept magasins Galeries Lafayette et onze centres commerciaux.
Pour rappel, « en mai 2022, SGM acquiert sept magasins Galeries Lafayette en province. En novembre 2023, le groupe devient propriétaire de la marque BHV, intégrant les magasins BHV Marais et Parly 2 à son portefeuille », relate le groupe SGM.
BHV et Shein : nouvelle tempête après le calme après la tempête ?
Quelques jours avant l’ouverture du corner Shein au BHV à Paris, la marketplace chinoise était sous le feu des projecteurs pour avoir vendu des « poupées sexuelles à caractère pédopornographique ». Les jours et semaines suivantes ont été agités : la plateforme a fermé sa marketplace en France, des contrôles massifs ont été effectués aux douanes, le gouvernement a engagé une procédure de suspension (rejetée par le tribunal judiciaire de Paris), etc.
Alors que le calme était plus ou moins revenu, la SGM vient d’envoyer un communiqué de presse pour annoncer que, « à compter du 25 février, les BHV de Limoges, Angers, Dijon, Grenoble et Reims ouvrent au public leurs corners Shein ». L’ouverture à Paris du corner Shein avait été l’occasion de nombreuses levées de boucliers chez les marques, les commerçants, les clients et les élus. À voir ce qu’il en sera en province.
« Ces espaces s’inscrivent dans le cadre du partenariat expérimental en cours entre le groupe SGM et Shein visant à intégrer une marque digital-first dans l’écosystème d’un magasin physique, afin de répondre aux nouveaux usages des consommateurs », explique la Société des grands magasins fondée par Frédéric et Maryline Merlin.
« L’ouverture se fera de manière progressive », avec des surfaces comprises entre 400 et 1 000 m² selon les magasins. Pour commencer, il sera principalement question d’une « sélection hivernale » d’articles. Ensuite, à partir d’avril, « l’offre évoluera pour intégrer une sélection plus large de références saisonnières » et de produits « en phase avec les préférences observées localement ». Pour la SGM, cela permet « d’ajuster la sélection et le parcours client en fonction des retours clients ».
Frédéric Merlin (SGM) : « Il ne faut pas avoir raison trop tôt »
Il y a quelques jours à peine, Frédéric Merlin répondait à une interview du Figaro. Il reconnaissait des erreurs, notamment l’immense affiche avec le patron de Shein placardé sur son magasin, mais ajoutait qu’il s’était : « rendu compte qu’il ne faut pas avoir raison trop tôt ». Une manière de s’affirmer comme précurseur.
« Si cela ne marche pas dans un an, on arrêtera », ajoutait néanmoins l’entrepreneur à nos confrères. Il revenait aussi sur la qualité des produits et affirmait que, dans les jours qui ont suivi l’ouverture, « nous avons tout eu, le contrôle des douanes, celui de la DGCCRF. Ils n’ont rien trouvé ».
Il précise avoir revu sa stratégie (articles moins chers, plus de choix de taille…) avec succès : six clients sur dix achèteraient désormais des produits Shein. Autre revirement de situation : « Nous allons changer de modèle d’exploitation pour les espaces Shein du BHV. Ce sont toujours nos vendeurs qui continueront à opérer. Mais, à partir d’avril, Shein sera responsable du choix des assortiments et nous percevrons une commission à la vente ».
Divorce largement consommé entre Galeries Lafayette et BHV
Il n’en reste pas moins des séquelles visibles de l’arrivée de Shein au BHV : « Le groupe Galeries Lafayette a rompu son contrat avec la SGM concernant sept magasins de province, rebaptisés BHV. Une centaine de marques (Guerlain, Dior, Sandro, etc.) ont quitté le grand magasin parisien, protestant contre Shein ou des retards de paiements », explique Sud Ouest.
Lors d’une audition au Sénat en janvier, Frédéric Merlin reconnaissait « une vraie baisse de chiffre d’affaires sur cette fin d’année avec le départ de marques ». Il affirmait déjà qu’un nouveau système de paiement était mis en place, promesse de nouveau faite dans l’interview au Figaro. Libération relate une partie de l’audition durant laquelle Frédéric Merlin a été « jusqu’à se présenter comme « un chef d’entreprise éthique ». Rires dans l’assemblée ».
Le BHV était également empêtré dans la vente de l’immeuble qu’il occupe à Paris. C’est finalement en janvier que les Galeries Lafayette ont officialisé la vente au canadien Brookfield, pour 300 millions d’euros. La SGM devait initialement racheter les murs, mais avec l’affaire Shein la Banque des Territoires s’était retirée.
Le Microsoft Engineering Center d’Issy-les-Moulineaux va faire l’objet d’un plan de cessation d’activités d’ici l’été. Officiellement motivée par la volonté de réunir les ingénieurs autour de grands hubs internationaux comme Redmond ou Dublin, la décision suscite l’incompréhension parmi la centaine de collaborateurs concernés, qui travaillent au quotidien sur certaines des briques sous-tendant les principaux produits d’IA de l’entreprise.
Inauguré en 2011 aux portes de Paris, et recentré à partir de 2019 sur les sujets liés à l’intelligence artificielle, le Microsoft Engineering Center français va fermer ses portes d’ici l’été. L’annonce en a été faite le 19 février dernier à la centaine de collaborateurs concernés, à qui il a été confirmé qu’il s’agissait bien d’un plan de cessation d’activité et non d’une simple réduction d’effectifs.
Une annonce surprise pour la centaine d’ingénieurs concernés
Révélé la semaine dernière par l’Usine digitale, ce projet de fermeture nous a été confirmé par Microsoft France dans une déclaration :
« Nous avons présenté aux représentants du personnel un projet visant à cesser les activités du Microsoft Engineering Center Paris. Les discussions sont en cours et aucune décision définitive n’a été prise. Nous nous engageons à mener cette consultation de manière responsable et à soutenir tous les collaborateurs tout au long du processus. »
La nouvelle, annoncée par des membres des ressources humaines avec le concours d’un cadre français venu des États-Unis, a d’abord suscité stupeur et incompréhension au sein des équipes concernées. Opérant au sein d’une filiale dédiée, ses ingénieurs avaient été épargnés par la rupture conventionnelle collective mise en place par Microsoft France en novembre dernier (200 postes concernés, soit environ 10 % de l’effectif national).
« On ne comprend pas le signal. D’un côté, on a le discours selon lequel Microsoft investit en France parce que c’est le pays de l’IA et des ingénieurs. De l’autre, on vire une équipe de 100 personnes, dont la capacité à faire des choses n’a jamais été remise en cause. Quand on voit les sujets sur lesquels on travaille, il y a de quoi se poser des questions », nous confie un employé du Microsoft Engineering Center sous couvert d’anonymat.
Un centre d’ingénierie principalement consacré à l’IA
Immatriculé en 2011, le Microsoft Engineering Center français est installé depuis ses débuts au siège social de Microsoft France, à Issy-les-Moulineaux, aux portes de Paris. Au cours des années 2010, le centre se consacre notamment au développement de fonctionnalités et de services chargés d’accompagner la stratégie de l’éditeur en matière de distribution de contenus, qu’il s’agisse de flux vidéo, de musique, de jeux ou d’expériences interactives.
À partir de 2019, Microsoft donne une inflexion particulière à son centre, avec l’ouverture d’un centre de développement spécifiquement dédié à l’intelligence artificielle. « Ce Centre a pour mission d’accompagner les entreprises du monde entier dans leur transformation digitale et dans leur quête d’efficacité et de productivité accrues grâce à l’IA. Elles pourront bénéficier de solutions IA répondant à leurs besoins métiers à travers notamment l’usage des plateformes Dynamics 365 ou Azure. », expliquait alors Microsoft.
Cet axe constitue désormais l’activité principale du centre parisien. « Nous sommes une équipe reconnue, capable de livrer et maintenir des produits à succès, affirme notre contact. Nous étions parmi les premiers à travailler sur l’automatisation avec Copilot dès 2022. Les appels d’IA générative de la Power Platform [la collection d’outils de développement low code de Microsoft, ndlr] passent, par exemple, par un service conçu et développé à Paris ».
Une volonté affichée de rationalisation
Du côté de Microsoft France, un porte-parole indique que ce plan de cessation d’activités découle d’une stratégie, déjà engagée par ailleurs, de concentration des efforts autour de grands hubs internationaux comme Microsoft en compte déjà à Redmond ou à Dublin. Autrement dit, la décision de fermer le centre parisien ne découlerait pas d’une lecture qualitative de ses contributions, mais plutôt d’un changement d’organisation décidé et opéré à plus grande échelle.
« Ces changements proposés n’auront aucune incidence sur les autres activités de Microsoft en France. Nous restons pleinement engagés auprès de nos clients ainsi qu’à poursuivre nos investissements dans le pays », veut par ailleurs rassurer l’éditeur, selon qui des propositions de relocalisation dans l’un de ses centres sont envisageables pour les ingénieurs intéressés.
Le 4 novembre dernier, Microsoft renouvelait ses marques d’intérêt envers la France et l’IA au travers d’un rapport réaffirmant sa double promesse de « former un million de Français à l’IA d’ici 2027 » et « d’accompagner 2 500 startups françaises dans leur développement grâce à l’IA d’ici 2027 ». Au printemps 2024, Microsoft avait par la voix de son président Brad Smith promis 4 milliards d’euros d’investissements « au service de l’intelligence artificielle » dans le pays à l’occasion du salon Choose France.
Ce week-end, Jared Isaacman, administrateur de la NASA, laissait peu d’espoir quant au lancement de la mission Artemis II en mars. Les ingénieurs ont en effet détecté une « interruption du flux d’hélium dans l’étage de propulsion cryogénique intérimaire du SLS » ou Space Launch System, le lanceur lourd de la NASA.
Il ajoutait que « les équipes procèdent au dépannage et se préparent à un probable retour d’Artemis II au VAB » ou Vehicle Assembly Building, le hangar à fusée de l’Agence spatiale américaine. Rapidement, la mauvaise nouvelle a été confirmée : « Quelle que soit la panne potentielle, l’accès et la résolution de ces problèmes ne peuvent être effectués que dans le VAB ».
À cause des conditions météo, le retour au hangar n’est pas prévu avant le 25 février. La fusée mettra environ 12 heures pour faire les 6,4 km qui séparent le dock de lancement du VAB.
Il y a un mois, la fusée s’était installée à la verticale sur son pas de tir. Artemis II embarquera quatre astronautes à bord qui iront faire le tour de la Lune (une première depuis 50 ans), mais sans se poser. Fouler le sol de notre satellite naturel sera l’objectif d’Artemis III.
Selon la NASA, 16 fenêtres de tir étaient possibles entre les 6 février et 30 avril. On peut déjà exclure février et mars, avril semble très court comme délai puisqu’il faut inspecter la fusée, trouver le souci, le régler, effectuer des tests, la replacer sur son pas de tir, etc.
Il y a un an, SpaceX a perdu le contrôle du deuxième étage de sa fusée au cours d’un de ses lancements de satellites de Starlink. Des débris avaient été retrouvés en Pologne, mais des chercheurs allemands montrent un an après que la fusée a créé un nuage de lithium dans la haute atmosphère au dessus de l’ouest de l’Irlande s’étendant jusqu’au nord de l’Allemagne à 96 km d’altitude.
Les échecs des lancements de fusées peuvent polluer la haute atmosphère terrestre avec des conséquences inconnues pour la couche d’ozone. Le 18 février 2025, SpaceX lançait une 438e fois un Falcon 9 en dehors de l’atmosphère pour envoyer une vingtaine de satellites Starlink en orbite basse.
L’entreprise s’est félicitée du retour du premier étage de la fusée pour son premier lancement des Bahamas. Mais le 19 février, des Polonais témoignaient de la retombée de débris du deuxième étage de la fusée de SpaceX et l’agence spatiale polonaise POLSA confirmait « que dans la nuit du 19 février 2025, entre 04h46 et 04h48, une rentrée incontrôlée dans l’atmosphère au-dessus du territoire polonais d’un étage de la fusée porteuse FALCON 9 R/B a eu lieu ».
Une détection au-dessus du nord de l’Allemagne
Mais la retombée incontrôlée du deuxième étage du Falcon 9 a eu des conséquences qu’on n’imaginait pas. Des chercheurs et chercheuses de l’institut Leibniz de physique de l’atmosphère ont publié, tout juste un an après, un article scientifique indiquant qu’ils ont pu détecter et mesurer un nuage de lithium dans la haute atmosphère au-dessus de l’ouest de l’Irlande et s’étendant jusqu’au nord de l’Allemagne à 96 km d’altitude.
De fait, leur équipe explique avoir d’abord détecté une multiplication par 10 des atomes de lithium au-dessus de la petite ville de Kühlungsborn, en Allemagne, « environ 20 heures après la rentrée incontrôlée d’un étage supérieur Falcon 9 » avec un lidar, un appareil de détection par laser qui permet aussi d’estimer la distance à laquelle sont détectées les particules.
« La densité maximale de la couche de lithium était inférieure à 3 atomes cm⁻³ pendant la majeure partie de la mesure. Une augmentation soudaine du signal d’un facteur 10 a été détectée juste après minuit UTC le 20 février », expliquent-ils.
Ils ont ensuite mis en place des simulations pour vérifier d’où pouvait provenir ces atomes. « L’ensemble des trajectoires calculées (en bleu) est représenté sur la figure 3 [ci-dessous] avec une carte thermique de densité de probabilité indiquant la région au-dessus du Royaume-Uni et de l’Irlande où le panache de lithium a probablement pris naissance » :
Sur la carte, le tracé noir représente la trajectoire de rentrée du Falcon 9 et la courbe constituée de petits cercles représente un exemple de trajectoire possible qu’ils ont simulé et qui correspondrait à l’heure de rentrée de la fusée dans la haute atmosphère.
Le lithium, la signature des débris spatiaux
Ils expliquent que le lithium a été choisi comme métal cible « pour détecter les signatures des débris spatiaux en raison de sa présence en quantités infimes dans les météoroïdes chondritiques et de ses applications bien documentées dans les engins spatiaux, notamment les batteries lithium-ion et le revêtement des coques en alliage lithium-aluminium (Li-Al) ».
Leur travail montre que les lidars, et notamment ceux à fluorescence par résonance, peuvent être utilisés pour la détection du lithium dans la haute atmosphère « lorsqu’il est associé à d’autres mesures atmosphériques et étayé par une analyse modélisée ». L’idée est de pouvoir comprendre ce qu’il se passe avant l’entrée dans la couche d’ozone. Des recherches ont déjà montré que la combustion des satellites pourrait gravement endommager la couche d’ozone. Mais la détection et la quantification de polluants dans la couche d’ozone stratosphérique est complexe et chère, selon eux.
Les autrices et auteurs soulignent aussi que leur travail « vient étayer les inquiétudes croissantes selon lesquelles le trafic spatial pourrait polluer la haute atmosphère d’une manière qui n’est pas encore entièrement comprise. La croissance continue des lancements et des rentrées de satellites pourrait entraîner des effets cumulatifs, avec des implications pour la composition atmosphérique à long terme et les interactions climatiques ». Reste une inconnue : les conséquences de cette pollution que ce soit sur cette haute atmosphère ou sur la couche d’ozone.
Rappelons qu’outre la haute atmosphère, les lancements de SpaceX sont responsables d’autres pollutions. Ainsi, un mois avant, en janvier 2025, des débris de Starship sont tombés sur des plages et routes des îles Turques-et-Caïques. Enfin, depuis plusieurs années, les astrophysiciens alertent sur les menaces que font peser les constellations de satellites sur les observations astronomiques, menaces qui se sont accélérées avec la taille de ces constellations.
Rembobine.info, le média qui « lutte contre l’obsolescence de l’info et met en lumière l’impact du journalisme sur nos sociétés », s’est penché sur l’enquête de Next consacrée aux faux sites d’informations en tout ou partie générés par IA. Nous l’avions lancée en février 2025, et elle a récemment dépassé le cap symbolique des 10 000 sites GenAI. Nos confrères y consacrent un article et une interview :
En termes d’impact institutionnel, Rembobine relève que le nombre de sites générés par IA mis en avant par l’algorithme de recommandation de contenus Discover de Google a depuis diminué. Nous reviendrons, cela dit, dans un prochain article sur cette diminution, somme toute relative, avec des chiffres plus précis.
La Commission paritaire des publications et des agences de presse (CPPAP), chargée de reconnaître (ou non) la qualité de service de presse en ligne à un média web, m’a par ailleurs convoqué pour m’auditionner dans le cadre d’un groupe de travail sur les sites générés par IA, et notamment sur la question du plagiat auquel ces sites recourent.
En termes d’impact judiciaire, un seul site généré par IA a depuis été condamné par la justice pour plagiat, et notre enquête n’a fait l’objet d’aucune plainte.
En termes d’impact médiatique et public, l’enquête, initialement relayée par Libération, a fait l’objet de plusieurs reprises, notamment par France Culture, TV5MONDE ou France Télévisions, et l’extension web (gratuite) que nous avons développée afin d’alerter celles et ceux qui l’ont installée qu’ils ou elles consultent un site dont les articles ont été « en tout ou partie générés par IA » est utilisée par près de 10 000 personnes.
Elle permet également de nous signaler des sites GenAI, et nous avons d’ores et déjà reçu plus de 3 000 signalements, mais il nous en reste encore plus de 250 à vérifier… tâche que nous ne parvenons pas à effectuer seuls. Nous pourrions la crowd-sourcer et mutualiser avec d’autres fact-checkers, OSINTers, journalistes et ONG.
Médiamétrie a en outre découvert que les 250 sites générés par IA les plus recommandés par Google étaient, à eux seuls, visités par 15 millions de personnes en moyenne par mois, soit un quart des internautes français (dont 75 % de plus de 50 ans) !
« Il y a le risque de désinformation et de propagation des fake news, bien sûr, mais c’est aussi très dangereux pour les médias dits traditionnels », a précisé l’auteur de ces lignes dans l’interview associée :
« Face à ces faux sites, qui sont pourtant très consultés, ils ont perdu des centaines de millions de pages vues, et donc de revenus publicitaires. C’est un vrai problème pour l’économie des médias !Sans parler du fait qu’en dupliquant leurs articles, tous ces médias générés par IA diffusent des versions différentes d’une même histoire sans que ces dernières ne soient vérifiées. Ça participe à créer du doute sur ce qui est vrai et ce qui ne l’est pas or, plus les gens ont des doutes sur ce qu’est ou non un fait vérifié, plus les risques sont grands de voir arriver des gouvernements autoritaires. On s’en rend bien compte, notamment dans les États-Unis de Trump. »
Entamée début 2024, notre enquête sur les « sites d’information » générés par IA (mais qui ne le précisent pas) nous avait permis d’en identifier 250 en octobre 2024, 500 à Noël, 1 000 fin janvier 2025, près de 3 000 début mars, 6 000 en août, 9 000 en décembre… et plus de 10 000 depuis février 2026. Cette page résume la quarantaine d’articles que nous y avons consacrés depuis février 2025.
Next a découvert que des milliers de soi-disant sites d’information polluent le web et les moteurs de recherche, ainsi que MSN, Google Actualités et son algorithme de recommandation Discover, alors que leurs soi-disant « articles » :
sont (en tout ou partie) générés par IA (mais sans le préciser),
prétendent (à tort) émaner de « journalistes », de « médias » et/ou d’experts/professionnels/passionnés,
ne sont pas vérifiés ni relus avant publication (contrairement au b.a.-ba de n’importe quel métier),
relaient donc potentiellement des « hallucinations/confabulations »,
volent des revenus publicitaires qui auraient dû aller à des médias/journalistes/professionnels,
contribuent au confusionnisme informationnel voire à la désinformation,
relèvent donc d’une « pollution » numérique et médiatique.
Or, le règlement européen sur l’IA (AI Act) obligera les éditeurs à labelliser comme tels les contenus générés par IA (GenAI) à partir d’août 2026. Nous avons donc développé une extension web (gratuite) pour les navigateurs basés sur Chromium (Chrome, Brave, Edge, Vivaldi, Opera, etc.) et Firefox (y compris Android) afin d’afficher un message d’alerte lorsque ses utilisateurs visitent un site dont nous avons identifié que les articles « semblent avoir été (en tout ou partie) générés par IA (GenAI) » (qu’ils soient « full GenAI » ou bien « dopés à l’IA »), mais sans le préciser.
En attendant le « filtre anti-arnaques» promis par le gouvernement (en mars 2022), notre extension intègre aussi les listes noires de Red Flag Domains des 35 000 noms de domaine potentiellement suspects, ainsi que les 2 000 sites web de celle de l’Autorité des marchés financiers (AMF).
Comme indiqué dans le message d’alerte, l’extension flaggue les sites qui « des articles semblent avoir été (en tout ou partie) générés par IA (GenAI) », sous-entendu sans véritable supervision voire sans relecture, et à qui l’on ne saurait donc faire confiance : il s’agit moins de jauger la « qualité » des articles que le fait qu’ils comportent un fort risque d’« hallucinations » générées par IA.
Ces articles et sites GenAI qui polluent le web servent ainsi d’ « armes de désinformation massive », contribuant en outre à l’objectif politique de l’ex-conseiller de Donald Trump Steve Bannon, pour qui « La véritable opposition, ce sont les médias », ce pourquoi il proposa que « la façon de les traiter est d’inonder la zone avec de la merde ».
Nous avons d’ailleurs pu constater que plusieurs des professionnels du référencement – SEO – et du marketing numérique ayant lancé de tels sites générés par IA semblent être fans de Javier Milei, Elon Musk & Donald Trump, entre autres promoteurs politiques de la désinformation, du complotisme et du confusionnisme, et ennemis déclarés du « journalisme ».
De plus en plus de médias et rédactions recourent eux aussi à la GenAI
Au-delà de ces soi-disant sites d’informations n’émanant pas de journalistes, nous avons également découvert (et documenté) que de plus en plus de véritables sites d’information, émanant de passionnés, experts, professionnels et même de rédactions employant des rédacteurs SEO et/ou journalistes, ont eux aussi recours à la GenAI afin de « doper » leurs rédacteurs, et leur permettre de publier un grand nombre d’articles qu’ils ne sauraient pouvoir publier sans recourir à l’IA générative, mais là encore sans le mentionner.
À l’instar du dopage, cette hyperproductivité nuit à la crédibilité du journalisme, non seulement parce qu’elle fausse les statistiques, en surreprésentant les médias dopés par rapport à ceux qui ne le sont pas, mais également parce qu’ils privent les médias qui ne trichent pas des visiteurs uniques et pages vues leur permettant d’une part d’engranger des revenus publicitaires, d’autre part d’être proprement référencés dans les moteurs de recherche.
Nos constats montrent en outre que si les médias dopant leurs rédacteurs et journalistes grâce à la GenAI avancent que leurs contenus sont vérifiés et validés avant d’être publiés, tel n’est souvent pas le cas, au point, pour certains, de publier des articles relayant de fausses informations « hallucinées » (ou « confabulées ») par les IA, et donc de nuire, là encore, à la crédibilité du journalisme et des médias en général, et des journalistes qui ne trichent pas en particulier.
Au commencement était la GenAI (la liste de nos enquêtes)
Notre enquête avait débuté suite au lancement de ChatGPT, fin novembre 2022, et de ses avatars, après avoir publié deux modes d’emploi expliquant comment tenter d’identifier les textes et images émanant d’intelligences artificielles génératives. Ce qui nous avait permis de commencer à identifier ces sites d’infos et articles GenAI.
Mais vu l’ampleur du problème, à mesure que nous en avions identifié plusieurs dizaines au printemps 2024, puis plusieurs centaines fin 2024, nous avions donc proposé au service de fact-checking CheckNews de Libération, à Arrêt sur images ainsi qu’à des fact-checkeurs de Wikipédia, de nous aider à enquêter sur cette « pollution » numérique et médiatique.
Près de 150 des 500 sites GenAI que nous avions initialement identifiés étaient en effet mentionnés comme « sources » sur Wikipédia. Et ce, alors que leurs articles ne semblent avoir été ni relus, ni corrigés, ni validés avant leur publication automatisée (et, donc, sans supervision humaine).
La plupart des articles mentionnés dans l’encyclopédie avaient été publiés avant que leurs noms de domaine (expirés) ne soient rachetés, afin de capitaliser sur leur réputation (ranking) dans l’algorithme de Google, et autres moteurs de recherche.
Nous avons depuis également découvert que, parmi la centaine de professionnels du référencement (SEO) et du marketing numérique qui éditent et administrent ces sites, certains en gèrent plusieurs dizaines, centaines et même plusieurs milliers, sans être en capacité d’identifier combien polluent de la sorte Google, et particulièrement Google Actualités.
Nous avons bien évidemment détaillé notre méthodologie, challengée et vérifiée par les deux contributeurs expérimentés de l’encyclopédie Wikipédia, et les deux journalistes du service de fact-checking CheckNews de Libération.
Next a en outre développé une extension pour les navigateurs compatibles Chrome et Firefox (y compris sur Android), afin d’alerter ses utilisateurs lorsqu’ils consultent un site GenAI (cf sa présentation, et notre méthodologie). Elle les alerte aussi désormais lorsqu’ils visitent aussi des noms de domaines « potentiellement malveillants » identifiés par Red Flag Domains, et des « entités non autorisées à proposer des produits ou services financiers en France » par l’Autorité des marchés financiers.
40 médias français ont depuis demandé à la Justice d’ordonner aux FAI le blocage du site news.dayfr.com. Ce dernier, le plus bourrin du millier de sites d’informations générés par IA que nous avons identifiés, plagiait de 5 à 15 articles… par minute, et jusqu’à plus de 6 000 par jour. Ironie de l’histoire : il a aussi été jusqu’à…. plagier deux des articles mentionnant la plainte le concernant.
Une enquête de l’équipe « pour une IA responsable » de la BBC a par ailleurs découvert que plus de la moitié des réponses fournies par les assistants d’intelligence artificielle (IA) à qui il avait été demandé de chercher leurs réponses dans les articles de la BBC étaient « factuellement incorrectes, trompeuses et potentiellement dangereuses ». Mais également que 20 % d’entre elles ont en outre rajouté des « inexactitudes factuelles » qui ne figuraient pas dans les articles pourtant mentionnés.
Un rapport rédigé par 22 médias de service public européens révèle que près d’une réponse sur deux formulée par les services d’IA générative populaire déforme l’information qui lui est fournie comme source. Qualifiant le phénomène de « distorsion systémique », l’alliance à l’origine de ces travaux appelle le régulateur à garantir le respect de l’information.
Cherchant à satisfaire leurs utilisateurs, les chatbots d’IA générative ont cessé de leur rétorquer qu’ils n’avaient pas de réponse à leurs questions, quitte à raconter n’importe quoi. Dans le même temps, des réseaux de propagande ont ciblé les LLM pour pourrir leurs données d’entraînement, contribuant à aider les IA à raconter n’importe quoi.
Plus d’une centaine (au moins, et probablement plusieurs centaines, voire milliers) des sites GenIA que nous avions initialement identifiés plagient en outre des articles de véritables journalistes, sans mentionner leurs sources ni préciser qu’ils ont été générés avec des IA. Ils sont pourtant, pour la plupart, référencés sur Google Actualités, et parfois relayés par son IA de recommandation algorithmique Discover. Certains se contentent de traduire des articles en français quand d’autres les paraphrasent, rendant leurs plagiats plus difficiles à identifier.
Interrogé par Arrêt sur images, à qui nous avions transmis notre enquête à son sujet, le patron du groupe de presse Économie Matin, par ailleurs co-directeur pédagogique d’une école de journalisme d’extrême-droite, a reconnu que ses articles étaient bien générés par IA, contrairement à ce que son rédacteur en chef adjoint prétendait initialement. Ce dernier, par ailleurs « prompt engineer » du groupe, attribue de son côté les dizaines de plagiats que nous avons en outre identifiés à un « bug du script » envoyé à ChatGPT qui, « étant complètement idiot, parfois, ne fait pas ce qu’on lui dit » (sic).
Notre enquête nous a valu quelques remarques acerbes de la part de professionnels du SEO, au motif que le fait de rendre public le fait que certains de leurs sites sont GenAI pourrait nuire à leur business :
« Les gens veulent manger de la merde ? Donnez en leur à la pelle plutôt que d essayer de buzzer et cherchant à bousiller le business de milliers de sites. »
L’un d’entre eux nous a par exemple rétorqué que de nombreux médias français avaient récemment relayé une « rumeur »… qu’ils n’auraient cela dit probablement pas relayée si les journalistes avaient été informés que l’information initiale avait en fait été « hallucinée » dans des articles générés par IA.
Les sites d’information de la presse quotidienne régionale (PQR) sont, eux aussi, de plus en plus victimes de pure players qui les concurrencent, voire les plagient, tout en étant générés par des IA. Si certains se positionnent comme des « médias indépendants », d’autres ne cherchent qu’à faire du clic. Au point que des journalistes de la PQR se retrouvent à devoir fact-checker des infos erronées car « hallucinées » par les IA qui les publient.
Après avoir analysé un échantillon de 8 795 posts LinkedIn publics de plus de 100 mots publiés entre janvier 2018 et octobre 2024, une start-up de détection de contenus générés par IA a par ailleurs découvert que plus de 50 % d’entre eux étaient GenAI, et que le nombre de messages longs susceptibles d’avoir été générés par IA avait explosé de 189 % dans les mois suivants le lancement de ChatGPT.
Dans son (216e) podcast, Mediarama a en outre reçu Alexandre Laurent, directeur de la rédaction de Next.ink, pour discuter de notre enquête-fleuve sur les 2 000 (au moment de l’enregistrement, mi-février) 3 000 (depuis début mars) « sites d’information » en tout ou partie générés par IA (GenAI) que nous avons identifiés, où il résume (et revient sur) les articles que nous y avons consacrés.
Le Conseil des ministres espagnol a approuvé un avant-projet de loi pour une « utilisation éthique, inclusive et bénéfique de l’intelligence artificielle » qui sanctionnera les contenus ne précisant pas qu’ils sont générés par IA. Il s’agit des adaptations au droit espagnol du règlement européen dit « AI Act » adopté par le Parlement européen en mars 2024
Quatre agences chinoises ont annoncé une nouvelle série de règles qui obligeront les fournisseurs de services, à partir du 1ᵉʳ septembre 2025, à désigner comme tels les contenus générés par IA via des identifiants explicites et implicites (méta-données et/ou filigranes).
Le nombre exponentiel de contenus « GenAI » polluant le web est tel qu’il devient parfois difficile de distinguer les contenus émanant d’êtres humains de ceux générés par des IA. Nous avons, a contrario, identifié plusieurs « faux positifs » dans le cadre de notre enquête sur les sites d’info GenAI. Après avoir expliqué comment identifier de tels contenus, il nous semble important d’expliquer comment nous avons décelé ces « faux positifs », de sorte de ne pas, non plus, contribuer à la « panique morale » autour de la GenAI.
Deux responsables de Google viennent de rappeler aux éditeurs de sites web que la création en masse de grandes quantités de contenu, en particulier à l’aide de l’IA, relève du « spam » (sauf si elle fait montre d’originalité et offre une réelle valeur ajoutée). Or, l’algorithme de recommandation de contenus Discover de Google promeut (au moins) une quarantaine de sites générés par IA (GenAI), dont plusieurs relaient rumeurs et infox.
Le nombre de morceaux de musique identifiés par le détecteur de contenus synthétiques développé par la plateforme est passé de 10 000 à plus de 20 000 par jour entre janvier et avril. 7 à 8 % relèveraient de tentatives de fraude. Le patron de Deezer propose de « légiférer pour que les plateformes rémunèrent les artistes et pas ces bruits », mais ne précise pas comment.
L’an passé, Google a fait face à une crue de publicités reposant sur l’usurpation d’identité, générée par IA, de personnalités, afin de promouvoir des escroqueries. La régie publicitaire de Google a « rapidement constitué une équipe de plus de 100 experts », et suspendu « plus de 700 000 comptes d’annonceurs ». Une célérité qui contraste fortement avec le laxisme de Google et de son algorithme de recommandation de contenus Discover pour ce qui est des médias générés par IA.
Saisie par une quarantaine de médias, qui se plaignaient du fait que ce site plagiait jusqu’à 6 000 de leurs articles… par jour, la Justice ordonne aux quatre principaux FAI le blocage du plagieur en série, d’ici 15 jours, pendant 18 mois.
Google représente 61% des sources de trafic des sites de presse. Pour la deuxième année consécutive, le trafic en provenance de son algorithme de recommandation de contenus Discover explose de + 50%, représentant 68% du trafic émanant des services de Google. Un renversement de tendance qui attire de plus en plus de professionnels du marketing numérique cherchant à profiter de cette « pompe à fric » : 14 % du Top 50 des sites mis en avant sur Discover sont désormais générés par IA.
7 des 50 principaux sites d’information en français mis en avant par l’algorithme Discover de recommandation de contenus de Google sont générés par IA. Plus de 75 sites « générés par IA » (au moins) ont été « recommandés » par Discover ces derniers mois, et 15 y ont même figuré dans son Top50, dont 1 pendant 5 mois, 3 pendant 3 mois, 2 pendant 2 mois, & 4 dans son Top25 (dont un pendant 3 mois consécutifs, un autre 2 mois de suite). Plusieurs éditeurs de sites GenAI comparent Discover à TikTok et le qualifient de « réseau social de Google », voire à « une drogue » susceptible de « générer une dépendance », au vu des milliers d’euros de chiffre d’affaires engrangés, par jour. Deux d’entre eux seraient même devenus millionnaires grâce à Discover, en trois mois seulement.
Des dizaines de médias britanniques ont publié des articles reposant sur des témoignages d’ « experts » qui n’existent pas. Créés pour améliorer le référencement naturel des sites web dont ils se réclament par des pros du SEO et/ou du marketing numérique, leurs « expertises », promues par des agences de mises en relation avec des journalistes, ont été grandement facilitées par les intelligences artificielles génératives.
À lui seul, le plus prolifique des éditeurs de sites francophones générés par IA a réussi à faire promouvoir plusieurs milliers d’articles, dont de très nombreuses fake news, par l’algorithme de recommandation de contenus Discover de Google. Au point que d’autres pros du SEO (pourtant eux-mêmes éditeurs de sites GenAI), en arrivent à se plaindre publiquement de cette surenchère et pollution.
L’algorithme Discover de « recommandation de contenus » de Google, principale source de trafic des sites journalistiques français, est devenu une « pompe à fric » pour les sites monétisés par la publicité, majoritairement financés par… la régie publicitaire de Google. Au point que près de 20 % des 1 000 sites d’info les plus recommandés par Google Discover, et 33 % des 120 sites les plus recommandés par Google News, à la rubrique Technologie, sont générés par IA.
Cet été, un éditeur de sites d’infos générées par IA a accusé plusieurs chaînes d’hypermarchés de vendre des produits cancérigènes, pourris, lavés à l’eau de javel ou recongelés. Ses articles n’en ont pas moins été recommandés par l’algorithme Discover de Google.
Confrontée à une déferlante de fausses informations cet été, la retraite complémentaire a publié à la rentrée un message d’alerte sur son site web. Nous avons découvert que la quasi-totalité des articles mis en avant ces derniers mois par Google au sujet de l’Agirc-Arrco émanaient d’articles (hallucinés, voire mensongers) générés par IA. Et sur les 10 % d’articles émanant de rédactions humaines, plus de la moitié concernaient ces fake news.
Le tsunami de soi-disant sites d’informations générés par IA (GenAI) auquel nous assistons depuis des mois, émanant de professionnels du marketing numérique et du référencement (SEO), contamine aussi la presse. Nous avons en effet identifié (au moins) cinq sites hébergés par deux des plus importants groupes de presse français et reposant eux aussi, « en tout ou partie », sur la GenAI, et susceptibles de doper artificiellement leurs statistiques de fréquentation.
Une ancienne responsable de la division podcast d’Amazon pense avoir trouvé un filon « scalable » susceptible de lui permettre de la rendre richissime. Entièrement générés par IA, en une heure et pour un dollar seulement, ses podcasts sont en effet rentables à partir de 20 auditeurs.
En France, des crèches acceptent des poupées « reborn » (hyperréalistes) au détriment de bébés humains, avance un site du groupe Reworld. Il s’agit en fait d’infox et canulars ayant fait le buzz sur TikTok, relayés au premier degré. Contacté, le directeur des activités numériques du groupe aurait « bien voulu que ce soit une hallucination émanant d’une IA », mais nous « certifie qu’aucun article n’a été écrit par de l’IA ».
Universcience vient de lancer une « IA au service des enseignants ». Elle propose de créer des cours en utilisant la base de données de contenus stockés par la structure de médiation scientifique. Mais les premiers cours présentés dans Ada sont accompagnés d’images générées par IA illustrant de manière absurde, par exemple, l’évolution des espèces en incluant entre autres des voitures.
Premier éditeur de presse magazine en France, et 3ᵉ groupe média sur le web et les réseaux sociaux, Reworld Media estime que les sites d’infos générées par IA auraient fait perdre des dizaines de millions d’euros aux médias depuis que l’algorithme de Google a commencé à recommander leurs articles. Il vient de commencer à… faire pareil, ou presque. Étrangement, nombre de ses articles « augmentés » par l’IA publient comme images d’illustration des… bras cassés coupés.
Le syndicat des journalistes de Politico a remporté une « victoire majeure », qui devrait faire jurisprudence aux États-Unis, en matière de recours à l’IA dans les médias. Leurs rédacteurs en chef avaient plaidé, en vain, que les contenus générés par IA ne devraient pas être soumis aux normes éthiques et éditoriales, au motif qu’elles étaient développées par des ingénieurs, et non par des journalistes.
14 à 16 millions d’internautes français consultent chaque mois l’un des 251 sites d’infos GenAI les plus recommandés par Google et identifiés par Next, selon une étude de Médiamétrie pour le Groupement des éditeurs de services en ligne. Près des trois quarts (74 %) de ces internautes ont plus de 50 ans, au point que ces derniers visitent plus de sites d’infos GenAI que de vrais sites d’actualités. 77 % y sont envoyés par l’un des services de Google (Discover, Search ou Actualités), et 10 % via Meta.
Plus de 20 % des vidéos recommandées par l’algorithme de YouTube aux nouveaux utilisateurs sont des « AI slop » (ou bouillie d’IA en français), du nom donné à ces contenus bas de gamme générés par intelligence artificielle et conçus pour cumuler les vues afin de les monétiser par la publicité.
Les fulgurantes avancées en matière de contenus générés par IA, notamment (audio)visuels, rendront de plus en plus difficile le fait d’identifier ceux qui cherchent à imiter voire usurper des contenus humains. Le patron d’Instagram propose dès lors de renverser la charge de la preuve, en identifiant plus formellement les contenus créés par des humains.
Le tsunami de sites d’infos générées par IA que nous documentons depuis des mois a pris une telle ampleur que le ministère de la Culture vient lui-même de publier un communiqué de presse largement inspiré d’un billet de blog généré par IA, tout en y relayant une erreur « hallucinée » par l’IA.
Arrêt sur images et le Syndicat national des journalistes ont découvert que deux sites de presse quotidienne régionale (PQR) ont publié près de 900 articles en 50 jours « avec l’aide de l’IA » concernant ce qui se passe dans des départements limitrophes pour… induire les préfectures en erreur.
L’épidémie de sites d’informations générés par IA que Next documente depuis des mois vient de faire un premier accident industriel. Un site d’information féminin a en effet laissé entendre, par le truchement d’articles générés (et « hallucinés ») par IA, qu’une certaine Thérèse aurait ouvert une crèche dédiée aux bébés « reborn » (du nom donné aux poupées hyperréalistes). L’infox’ a depuis été reprise, citée et commentée par des milliers de personnes sur les réseaux sociaux, et quelques médias. Sans avoir cherché à le vérifier, ni préciser qu’il s’agit d’une ex-actrice porno, habituée des plateaux de talk-shows depuis 1999 et des réseaux sociaux depuis les années 2010 pour y mettre en scène sa vie fantasque et ses fantasmes.
« Il y a aujourd’hui plus de lobbyistes tech que d’eurodéputé·es à Bruxelles ! », s’étonne synthmedia.fr : un rapport des ONG Corporate Europe Observatory (CEO) et LobbyControl dénombrait en effet, en octobre dernier, 890 lobbyistes tech, contre 720 eurodéputés. En deux ans à peine, le budget des lobbys de la tech est quant à lui passé de 113 à 151 millions d’euros, soit une progression de 33 % :
« En tête de peloton, Meta ouvre la marche avec 10 millions d’euros consacrés à l’influence, talonnée par Microsoft, Apple et Amazon. Les dix plus grandes entreprises du numérique dépensent à elles seules trois fois plus que leurs homologues des secteurs pharmaceutique, financier et automobile réunis, et deux fois plus que celui de l’énergie. »
Cette montée en puissance viserait à détricoter les piliers législatifs du Vieux Continent par le biais de textes tels le Digital Omnibus présenté en novembre 2025 pour simplifier des lois numériques issues de dix ans de réflexion, relève Synth.
Après avoir comparé les argumentaires des lobbyistes adressés aux eurodéputés et la copie rendue par la Commission européenne, Felix Duffy, chargé de campagne chez LobbyControl pointe un « chevauchement assez important » des textes, et y voit un « cadeau fait à Donald Trump et à ses oligarques de la tech ».
« Une montée en puissance qui inquiète et alimente le débat sur la souveraineté numérique du Vieux Continent », écrit Synth, alors que la Commission européenne tente de consolider son arsenal numérique, que l’Union européenne peaufine sa prochaine grande loi numérique, le Digital Fairness Act, que l’administration états-unienne attaque de son côté le Digital Services Act (DSA) et prend la défense des ingérences numériques d’Elon Musk via son média social X.com.
« Les géants américains de la tech ont clairement fait allégeance au président des États-Unis. Derrière ce positionnement, il y a un imaginaire politique de puissance impériale transhumaniste et une volonté assumée de domination », analyse l’eurodéputé écologiste David Cormand : « l’offensive contre les régulations européennes n’est pas seulement politique, elle vise le modèle démocratique lui-même. Il ne peut donc pas y avoir de compromis durable entre nos valeurs et leur modèle ».
« Le plus grand vol de propriété intellectuelle de l’histoire. » Telle était la manière dont le directeur général de la Confédération internationale des éditeurs de musique (ICMP) décrivait en septembre 2025 la manière dont les plus gros éditeurs d’intelligence artificielle (IA) avait réussi à entraîner leurs modèles génératifs.
Et ces débats sur les travaux soumis aux droits d’auteur intégrés dans les bases d’entraînement de large language models (LLM, grands modèles de langage) reviennent en France : selon les travaux menés par Mediapart avec l’appui de Paul Bouchaud, chercheur·euse en post-doctorat au CNRS, le modèle Mistral Large 3 - 2512 de la société française contient notamment les incipits de Harry Potter à l’école de sorciers de J.K. Rowling, du Trône de fer de George R.R. Martin ou encore de 1984, de George Orwell.
Outre les incipits, Mediapart a interrogé l’outil de Mistral pour voir dans quelle proportion il recrachait des textes littéraires, potentiellement issus de LibGen. Base de données pirate, cette dernière a été utilisée par Meta pour entraîner son modèle Llama, notamment à l’instigation du cofondateur de Mistral Guillaume Lample.
Entre autres résultats, Mistral Large 3 a produit près des deux tiers du texte du Petit Prince, d’Antoine de Saint-Exupéry, et plus du tiers du premier tome de Harry Potter. Des chiffres qui tendent à démontrer le recours à ces textes dans l’entraînement du modèle.
De même, dans le domaine musical, Mistral Large 3 produit directement des éléments de chansons d’Elton John, Amel Bent ou Jacques Dutronc, tous engagés contre le recours à leurs textes pour entraîner des systèmes d’IA.
Auprès de Mediapart, Mistral évoque un « principe de réalité » selon lequel certains des contenus précités, « particulièrement populaires, sont répliqués à de nombreuses reprises sur Internet ».
Dans plusieurs cas, le média constate néanmoins que Mistral ne respecte pas les logiques d’opt-out, c’est-à-dire de refus d’alimenter les robots qui permettent aux constructeurs d’IA de récupérer des données en ligne. En effet, sur le site de Radio France comme sur celui de Mediapart, diverses versions de ce droit de retrait ont été appliquées – que ce soit via un fichier robots.txt ou via une mention explicite de refus de scraping dans les conditions générales d’utilisation.
D’après leurs gestionnaires, néanmoins, les robots crawlers de Mistral envoient tout de même des requêtes vers les sites des deux médias.
Un des sites d’archivage en ligne les plus connus, Archive.is (connu aussi sous le nom de domaine archive.today) a mis en place un script envoyant en permanence des requêtes contre un blog qui a publié des informations à son sujet. La communauté anglophone de Wikipédia a décidé de bannir les liens qui renvoient vers cette archive.
La communauté de la version anglophone de Wikipédia a décidé de bannir tout lien vers l’un des sites d’archivage en ligne les plus connus, Archive.today, aussi connu par son autre nom de domaine archive.is.
« Il existe un consensus pour immédiatement désapprouver archive.today et, dès que possible, l’ajouter à la liste noire des spams (ou créer un filtre d’édition qui bloque l’ajout de nouveaux liens), et pour supprimer immédiatement tous les liens vers ce site . Il existe un fort consensus sur le fait que Wikipédia ne devrait pas diriger ses lecteurs vers un site web qui détourne les ordinateurs des utilisateurs pour lancer une attaque DDoS », explique une page de discussion de l’encyclopédie repérée par ArsTechnica. Cela fait plus de 695 000 liens à supprimer à travers 400 000 pages.
Des requêtes via un javascript dans la page de Captcha d’Archive.today
En cause, la mise en place d’une mesure de rétorsion par l’équipe d’Archive.today contre un blogueur. La page de Captcha du site d’archivage sur laquelle toute personne tombe avant d’accéder au site contient un script lançant en permanence des requêtes vers le blog d’un ingénieur de Google, Jani Patokallio, depuis plus d’un mois.
En 2023, il a publié un billet à propos du site après avoir glané quelques informations sur l’organisation du site qui est, elle, très discrète. « Internet Archive est une organisation à but non lucratif légitime régie par l’article 501(c)(3) du code fiscal américain, avec un budget de 37 millions de dollars et 169 employés à temps plein en 2019. archive.today, en revanche, est une énigme opaque », constatait-il.
Comme Jani Patokallio l’explique, jusque là, ce texte « n’avait pas vraiment enflammé la blogosphère ». Mais début novembre, on apprenait que le FBI cherchait à obtenir l’identité du responsable d’Archive.today. À cette occasion, des sites d’actualités numériques comme Heise, ArsTechnica mais aussi Next avaient cité son billet.
Une demande de dépublication temporaire d’un billet vieux de 2023
L’auteur du billet affirme avoir reçu un email du webmaster d’archive.today le 9 janvier dernier lui demandant « poliment » de dépublier le billet de 2023 « pendant quelques mois ». Jani Patokallio affirme que, dans leur conversation (qu’il a publiée), la personne explique qu’elle n’en a pas particulièrement contre son billet mais plutôt contre la reprise dans les médias d’informations glanées sans contexte.
Les contributeurs et contributrices de la Wikipédia anglophone ont donc considéré que l’encyclopédie ne devait pas renvoyer ses lecteurs vers un site web qui les utilisent pour créer une attaque DDoS, malgré le fait qu’ « Archive.today contient une quantité considérable d’archives qui ne sont disponibles nulle part ailleurs. Ni sur Wayback Machine, ni ailleurs. » De plus, lors de la discussion, « des preuves ont été présentées montrant que les opérateurs d’archive.today ont modifié le contenu des pages archivées, le rendant ainsi peu fiable ».
Les utilisateurs du bloqueur de publicité ublock origin qui visiteraient archive.today ne participent pas à cette attack DDoS, le blog de Jani Patokallio ayant été ajouté à une liste utilisée par l’extension. « Cela n’empêche pas les utilisateurs de naviguer directement vers mon blog », explique-t-il.
Le pape Leon XIV appelle les prêtres catholiques à résister « à la tentation de préparer leurs homélies avec l’intelligence artificielle ». « C’est la même chose pour tous les muscles du corps : si nous ne les utilisons, si nous ne les bougeons pas, ils meurent. Le cerveau doit être utilisé, notre intelligence doit être exercée pour que nous ne perdions pas en capacité », a-t-il déclaré dans un entretien rapporté par Vatican News.
Quoiqu’orienté dans le domaine religieux, le positionnement fait écho aux enjeux évoqués auprès de Next par la philosophe Anne Alombert, qui soulignait les risques que le recours régulier à l’IA peut faire peser sur la capacité à développer une réflexion.
Dans ce contexte, Leon XIV a déclaré au clergé de Rome que partager une « vraie homélie » revient à « partager la foi ». Et d’insister sur le fait que l’IA « ne pourra jamais partager la foi ».
Dans la même logique, le souverain pontife a prévenu contre le danger de la course aux likes et aux followers sur des plateformes comme TikTok, qu’il a qualifiée d’ « illusion » de nature à détourner de la foi.
Durement sanctionné en bourse après la publication de ses derniers résultats financiers, l’éditeur Dassault Systèmes a annoncé samedi le départ de son PDG, Bernard Charlès, « pour raisons personnelles ».
Ce dernier ne fait pas valoir ses droits à la retraite, comme le veut la formule consacrée, mais dit vouloir désormais « mettre ses 43 années d’expérience dans l’industrie, ainsi que sa vision de la transformation par l’IA des processus industriels de création et de production, au service de l’économie générative », selon un communiqué.
Le conseil d’administration passe le relais à Pascal Daloz qui endosse donc la casquette de président du conseil, en complément des fonctions opérationnelles qu’il assurait déjà. Entré chez Dassault Systèmes en 2001, Pascal Daloz en était déjà directeur général depuis 2024.
« Pascal et moi travaillons en tandem depuis 25 ans : il a toute ma confiance pour diriger l’entreprise et organiser le travail du Conseil, commente Bernard Charlès. Cette décision reflète la continuité et la solidité de notre gouvernance, un pilier essentiel de la confiance que nous accordent nos grands clients partout dans le monde. Je suis fermement convaincu que cette nouvelle configuration crée les meilleures conditions pour permettre à Dassault Systèmes de continuer à se développer avec succès. »
Bernard Charlès (68 ans) tire sa révérence chez DSY – crédit Dassault Systèmes
Avec 5,6 milliards d’euros de chiffre d’affaires en 2024, Dassault Systèmes occupe pour mémoire la première place du classement 2025 des éditeurs de logiciels français réalisé par Numeum (PDF), devant Ubisoft, Criteo, Cegid et Sopra Steria.
Dassault Systèmes, dont environ 50 % du capital sont flottants (disponibles pour des échanges sur le marché) a subi une sévère déconvenue en bourse mi-février, avec une action en recul de près de 30 % sur un mois. Raison de cette chute, qui intervient dans un contexte de défiance des marchés vis-à-vis des grands noms du logiciel en raison des craintes liées à l’impact de l’IA ?
L’éditeur de Solidworks et de CATIA, par ailleurs très investi dans le cloud, a publié le 11 février dernier des résultats financiers considérés comme décevants, et assorti ces derniers de prévisions prudentes pour son exercice 2026.
« Chez Dassault Systèmes, notre ambition est claire : mener la transformation de l’IA industrielle grâce aux 3D UNIV+RSES [l’appellation marketing qui regroupe les technologies et services dédiés à la création de jumeaux numériques, ndlr]. Il ne s’agit pas d’un objectif à court terme mais d’un engagement de long terme visant à redéfinir la manière dont les industries innovent, opèrent et restent compétitives. Notre vision capitalise sur des décennies d’expertise industrielle et scientifique et nous déployons désormais les capacités nécessaires pour la concrétiser. Une véritable transformation demande du temps, pour nos clients comme pour nous-mêmes », déclarait à cette occasion Pascal Daloz.
Attends, je débranche celui-là, ça laissera une place
Alors que, l’année dernière elle reconnaissait que la qualité des réseaux en fibre s’est améliorée, l’Arcep demande maintenant à la filière de maintenir ses efforts. L’autorité constate, en publiant son observatoire sur la qualité des réseaux en fibre optique, que « la qualité de l’exploitation se stabilise sur la majorité des réseaux »
L’Arcep a publié ce jeudi 19 février sa 7ème édition de l’observatoire sur la qualité des réseaux en fibre optique, utilisant les chiffres jusqu’en septembre 2025. Depuis juillet 2023, le régulateur met en avant ses constats sur ce réseau qui, à l’époque, souffrait de nombreuses critiques des clients.
En septembre dernier, l’Arcep constatait que la situation continuait à s’améliorer et sa présidente, Laure de la Raudière, expliquait « que c’était très long pour avoir ces résultats ».
Mais le régulateur semble indiquer que la vitesse d’amélioration est encore plus faible. « La qualité de l’exploitation se stabilise sur la majorité des réseaux », affirme l’Arcep dans son communiqué.
Amélioration du taux de pannes signalées aux opérateurs d’infrastructure
Il constate une amélioration du taux de pannes signalées aux opérateurs d’infrastructure par les opérateurs commerciaux. « Depuis la publication de la première édition de l’observatoire sur la qualité des réseaux en fibre optique, le nombre de réseaux présentant un taux de pannes supérieur ou égal à 1 % est en diminution, passant de 9 réseaux (représentant environ 420 000 abonnés) à 3 réseaux (représentant 83 500 abonnés) en septembre 2025 », explique l’autorité dans son rapport.
Avec, en parallèle, un nombre plus important de réseaux passant sous les 0,3 % : « de 187 réseaux (représentant 20,5 millions d’abonnés) à 196 réseaux (représentant 23,4 millions d’abonnés) en septembre 2025 ». Finalement, l’Arcep constate un taux de pannes national « de 0,11% en moyenne sur la période concernée ».
Les données de l’Arcep montrent aussi l’évolution dans le temps du taux de pannes mensuel agrégé par maison mère d’opérateurs. Et on peut voir qu’après s’être beaucoup améliorés en 2024, les opérateurs d’Iliad sont revenus à un taux de pannes moyen de plus de 0,5 % alors que les autres sont tous bien en dessous :
Dans une note sous ce graphique, l’Arcep explique que, « depuis 2023, le groupe Iliad, par l’intermédiaire de sa filiale Réseau Optique de France, met en œuvre un plan de modification structurelle de son réseau. Celui-ci vise notamment à substituer les « Points de Mutualisation Grande Capacité » par des points de mutualisation intérieurs et extérieurs. Cette démarche s’est intensifiée à la fin de l’année 2025 et a pu entraîner des interruptions de service pour les utilisateurs. Le déploiement de ce plan devra être achevé au plus tard le 31 décembre 2026 ».
Une stabilité des taux d’échecs
Concernant le taux d’échecs au raccordement, l’autorité constate « une stabilité globale des taux d’échecs au raccordement sur les derniers mois d’observation ».
« La moyenne nationale des taux d’échecs au raccordement s’établit à 5,88 % en septembre 2025 », explique l’Arcep. Mais elle ajoute que « 31 réseaux présentent un taux d’échecs au raccordement supérieur ou égal à 11 %, soit 2 réseaux de plus que dans la précédente version de l’observatoire » et « 82 réseaux présentent un taux d’échec au raccordement inférieur ou égal à 5 %, soit 13 réseaux de moins que dans la précédente version de l’observatoire ».
L’observatoire mesure aussi la qualité des raccordements effectués par les opérateurs commerciaux. Comme la dernière fois, quelques précautions sont néanmoins à prendre puisque le régulateur ne s’appuie que sur les données de l’opérateur d’infrastructure Altitude, mais l’Arcep indique qu’elle poursuit les travaux pour obtenir des données d’autres acteurs.
On peut néanmoins observer dans les chiffres d’Altitude une augmentation nette des malfaçons chez SFR au dernier trimestre 2025 et une baisse importante chez Free (plus la couleur est foncée dans les graphiques, plus le problème est important) :
Amélioration sur la reprise des malfaçons
L’observatoire recueille aussi les données sur la reprise des malfaçons par les opérateurs commerciaux qui doit en théorie être effectuée dans les 30 jours.
Orange et Bouygues sont les bons élèves depuis longtemps avec « des niveaux élevés et relativement stables, avec une performance supérieure pour Orange sur l’ensemble de la période », selon l’Arcep. Elle observe que « SFR et Free montrent une amélioration progressive en 2025 réduisant l’écart avec les autres opérateurs, mais qui reste insuffisante » :
Au global, « le taux national moyen de malfaçons reprises sous 30 jours s’améliore, passant de 73 % en février 2025 à 82 % en août 2025, et les écarts entre les opérateurs commerciaux tendent à se réduire ».
Sur les abonnés affectés par au moins une panne au cours du mois, l’Arcep « observe des disparités entre les réseaux » :
Poursuivre les efforts
Elle ajoute observer, pour cet indicateur, « une relative stabilité […] malgré une hausse à 2,0 % en septembre 2025. La moyenne annuelle (sur douze mois glissants) s’établit à 1,74 % ».
Dans son communiqué, l’Arcep insiste sur le fait que si elle observe une stabilisation au niveau national, « les efforts engagés par la filière doivent se poursuivre, notamment sur les réseaux les plus dégradés ».
Notamment, elle explique que « les taux de pannes et d’échecs au raccordement observés sur certaines zones concernées par un plan de reprise demeurent souvent supérieurs aux standards du marché ».
Passage de flambeau historique à la tête de la division Xbox chez Microsoft. Phil Spencer, qui incarne littéralement la console depuis son lancement, il y a 25 ans, a annoncé vendredi son départ à la retraite, 38 ans après son entrée chez l’éditeur. Dans un message interne reproduit sur le blog de Microsoft, il explique avoir fait part de sa décision à Satya Nadella, CEO du groupe, à l’automne dernier, et indique rester en support de la nouvelle équipe dirigeante jusqu’à l’été.
Si ces modalités laissent augurer un départ négocié dans le calme, le départ de « P3 » (son gamertag Xbox) s’accompagne d’une autre défection. Sarah Bond, présidente de Xbox, a en effet elle aussi annoncé quitter l’entreprise, alors qu’elle faisait figure de favorite évidente pour prendre la suite de Phil Spencer.
Sur LinkedIn, cette dernière a annoncé sa décision en expliquant qu’elle avait été missionnée pour boucler l’intégration d’Activision-Blizzard-King. « Nous avons relevé certains des plus grands défis que cette organisation ait jamais connus, et nous l’avons fait en équipe », y déclare-t-elle, avant de se dire encline à passer à la prochaine étape de sa carrière.
Satya Nadella a de son côté annoncé que la division Microsoft Gaming serait désormais pilotée par Asha Sharma, placée sous sa supervision directe en tant que CEO de Microsoft Gaming. Entrée dans les équipes il y a deux ans, elle occupait jusqu’ici la tête de la branche produit de Microsoft CoreAI, la division chargée de piloter les projets d’ingénierie IA de l’éditeur.
Asha Sharma est la nouvelle patronne de Xbox. À ses côtés, Matt Booty, prend la tête de tous les contenus. Il était jusqu’ici en charge de Xbox Game Studios – crédit Microsoft
Elle a précédemment occupé le poste de directrice exécutive chez Instacart (un spécialiste de la livraison de produits alimentaires), et passé plusieurs années chez Meta en tant que vice présidente chargée du produit autour de la messagerie et d’une partie des services entreprises.
Dans son propre message d’introduction, relayé à la suite des propos de Nadella et Spencer, Asha Sharma affirme se fixer trois engagements : la priorité aux bons jeux, le retour de Xbox (une façon implicite de répondre aux rumeurs persistantes selon lesquelles Microsoft envisage de sortir du matériel pour ne devenir qu’un éditeur ?) et « l’avenir du jeu », avec une promesse qui résonne tout particulièrement dans l’actualité du secteur :
« À mesure que la monétisation et l’IA évoluent et influencent notre avenir, nous ne privilégierons pas l’efficacité à court terme ni n’inonderons notre écosystème de bouillie IA [AI slop, ndlr] sans âme. Les jeux sont et resteront toujours un art, façonné par des humains et créé grâce aux technologies les plus innovantes que nous mettons à leur disposition. »
Moins j’augmente plus vite, plus j’augmente moins vite
À partir du 1ᵉʳ avril, OVHcloud va fortement augmenter le prix de ses VPS 2026. En cause, l’explosion du prix de la mémoire et du stockage… mais pourquoi cela concerne-t-il du matériel qui a déjà de nombreuses années ? OVHcloud veut « équilibrer » ses tarifs en limitant les hausses des nouveaux produits à venir et en augmentant ceux des anciennes gammes pour « compenser ».
En août dernier, OVHcloud lançait de nouveaux VPS avec un tarif agressif (lire notre test), à partir de 4,58 euros par mois pour 4 vCore, 8 Go de mémoire et 75 Go de stockage, mais seulement 400 Mb/s de bande passante.
Plus de 40 % sur les VPS 2026 d’entrée de gamme,+ 20 % sur les IPv4
Dans un message publié sur X vendredi, Octave Klaba (qui a repris les rênes de l’entreprise fin 2025) annonçait des hausses à venir : « On prévoit d’impacter légèrement les prix du Cloud déployé entre 2021 et 2025, en moyenne de + 2 % à+ 6 %, en fonction de l’ancienneté du hardware, et de faire évoluer légèrement les prix des IPv4 ». Des chiffres optimistes puisque la réalité est bien différente.
Des emails ont en effet été envoyés aux clients concernés, expliquant que la « gamme VPS 2026, de VPS 1 à VPS 6 et les VPS en Local Zones », ainsi que « les adresses Additional IPv4 » sont concernées par les hausses de prix. OVHcloud n‘y va pas avec le dos de la cuillère. La société est en effet bien loin des « + 2 % à+ 6 % » mis en avant par son PDG, puisque le VPS 1 passe de 5,39 à 7,79 euros (hors remise liée à un engagement de 6 ou 12 mois), soit environ 45 % de hausse !
Selon les retours sur X, c’est plus ou moins la même chose sur les autres offres de la gamme. Le VPS 2 passe ainsi de 8,39 à 11,99 euros par mois (hors remise), soit 43 % de hausse, explique #Kero. Si vous êtes touchés par les hausses, n’hésitez pas à nous laisser un commentaire avec les anciens et nouveaux tarifs des services concernés. OVHcloud n’a pour le moment pas communiqué officiellement sur l’ensemble des nouveaux tarifs à venir.
Une hausse (VPS) peut en cacher une autre (IP) : l’adresse IPv4 supplémentaire est actuellement facturée 2,39 euros par mois, mais elle passera prochainement à 2,87 euros, soit 20 % de hausse. Là encore, nous sommes loin de la « moyenne de + 2 % à+ 6 % » annoncée par Octave Klaba, sans parler de « faire évoluer légèrement le prix des IP v4 ».
Ces changements interviendront « à compter du mercredi 1 avril 2026 », selon l’email envoyé aux clients. Octave Klaba prévoyait de son côté « l’application des nouveaux tarifs au 1ᵉʳ avril 2026 ou au 1ᵉʳ mai 2026 ». D’ici là, il est possible de souscrire aux tarifs actuels ou de prolonger un abonnement existant, y compris sur des formules avec un engagement de six ou douze mois (il n’y a pas d’engagement de 24 mois sur les VPS 2026). Lors du renouvellement après le 1ᵉʳ avril par contre, les nouveaux tarifs seront appliqués.
« Cette évolution tarifaire ne s’applique pas aux gammes de serveurs Kimsufi et So you Start. Les performances des services concernés, leur disponibilité ainsi que les niveaux de support restent inchangés », explique l’hébergeur dans son email.
Réduire les augmentations en augmentant les tarifs
Comme nous l’avons expliqué dans notre test du VPS d’OVHcloud, l’hébergeur utilise des CPU d’anciennes générations pour au moins une partie de ses VPS. Dans notre cas (un VPS 1 avec 4 vCores), c’est la génération Haswell lancée il y a plus de 10 ans par Intel. Comme nous l’avons vu avec le test du VPS d’Ionos, un CPU récent change complètement la donne sur les performances.
L’amortissement du matériel est donc théoriquement déjà fait depuis longtemps. Pourquoi donc cette hausse, justifiée notamment par le fait que « le coût de composants matériels [mémoire et stockage, ndlr] a augmenté » ?
Octave Klaba y va de son explication sur les réseaux sociaux :
« Chez OVHcloud, nous voulons réduire l’impact de ces augmentations de composants pour éviter que notre Cloud (Public Cloud, Private Cloud, Bare Metal) ne devienne trop coûteux. C’est pourquoi, pour le Cloud que nous allons déployer en 2026 - 2028, nous avons décidé d’augmenter les prix de manière moins importante que les coûts réels de la RAM et des disques. Le prix de notre Cloud en 2026 - 2028 va ainsi évoluer, en moyenne, de + 9 % à+ 11 % seulement. Pour compenser, on prévoit d’impacter légèrement les prix du Cloud déployé entre 2021 et 2025 ».
OVHcloud veut « rendre acceptable le prix des gammes 2021 - 2028 »
L’hébergeur augmente donc le prix de ses anciennes offres pour limiter la hausse sur le prix des nouvelles. On attend maintenant de voir ce que les «+ 9 % à+ 11 % » donneront vraiment dans la pratique. L’idée est donc de « rendre acceptable le prix des gammes 2021 - 2028, avec une prévision de retour à la normale en 2029 ».
Pour le PDG d’OVHcloud, l’augmentation du prix de la RAM et des disques « va encore se poursuivre pour trouver un nouveau point d’équilibre entre l’offre et la demande probablement vers fin 2026 », mais « les prix resteront importants jusqu’à au moins 2028, le temps que de nouvelles capacités de production de mémoire voient le jour ».
Le prix n’est pour OVHcloud pas le seul problème, il y a également la question de la disponibilité : « même avec une telle augmentation de prix, la RAM et les disques ne sont pas disponibles si facilement sur le marché. Pour avoir la certitude d’être livré, il est nécessaire de passer les commandes 12 mois à l’avance, sans connaître le prix d’achat ! Les prix sont en effet communiqués 1 à 2 mois après livraison, en fonction de l’offre et de la demande dans le trimestre ».
Cette hausse de prix et cette pénurie de composants font au moins quelques heureux. Lors du salon IT Partners qui se tenait début février à La Défense Arena, nous avons discuté avec plusieurs entreprises spécialisées dans le reconditionnement et la revente de matériel informatique. Ils étaient unanimes : leur activité est en forte croissance durant cette période compliquée pour la disponibilité et le prix des composants.
Ilia D., un ressortissant russe de 39 ans, a été condamné par le tribunal judiciaire de Paris, ce jeudi 19 février, à cinq années de prison (dont une avec sursis) et à 80 000 euros d’amende pour de multiples atteintes à des systèmes informatiques, extorsion, association de malfaiteurs et blanchiment aggravé.
Une peine assortie d’une interdiction de territoire français de dix ans, précise Le Monde, pour qui il s’agirait de « l’un des premiers dossiers majeurs en lien avec ce type de cybercriminalité », en France. Ilia D. a en effet été reconnu coupable de plusieurs dizaines de cyberattaques à l’aide du logiciel malveillant Phobos, utilisé pour paralyser les réseaux informatiques d’entreprises et de collectivités locales françaises.
Son épouse, Marina D., 34 ans, a été condamnée pour non-justification de ressources à un an de prison, une peine « largement couverte par ses deux années de détention provisoire », souligne Le Monde. Le parquet avait requis huit ans de prison et 100 000 euros d’amende pour Ilia D. et deux ans de prison pour son épouse. Aucun des deux prévenus ne fera appel du jugement, ont déclaré leurs conseils respectifs au Monde.
Ilia D. n’avait pourtant jamais cessé de nier les faits qui lui étaient reprochés, depuis le début de la procédure et lors de l’audience devant la 13ᵉ chambre correctionnelle du tribunal judiciaire de Paris, mercredi 11 février. Il accusait des pirates d’avoir utilisé son ordinateur pour mener des attaques, et l’impliquer comme bouc émissaire.
Des conteneurs chiffrés cachés derrière des fichiers sonores dans une de ses clefs USB contenaient cela dit « toute la méthodologie pour être un affilié de rançongiciel. J’achète des accès [à des réseaux informatiques], je prends attache avec un blanchisseur. Et puis il y a ce fameux journal de bord », a de son côté détaillé le substitut du procureur, Aurélien Brouillet, en référence à un fichier texte contenant un historique détaillé d’attaques menées contre des victimes de rançongiciel : « En fait c’est parfaitement logique, c’est son travail. »
L’article ne détaille pas quand ni comment ils avaient été identifiés puis arrêtés, souligne que le prévenu expliquait ne pas se souvenir du code de déverrouillage de son ordinateur, mais ne précise pas comment les fichiers chiffrés auraient été décryptés.
Bercy a annoncé vendredi après-midi son accord pour la vente d’Exaion par EDF à l’américain Mara, assorti de plusieurs conditions censées garantir la protection des intérêts français. Le montage prévoit l’entrée d’un nouvel investisseur au capital : Xavier Niel, via sa holding NJJ.
L’affaire était devenue très politique, avec un retentissement qui dépassait sans doute la portée réelle des activités d’Exaion en matière de souveraineté énergétique ou industrielle. Qu’importe, l’État semble avoir réussi à négocier avec Mara des conditions à même d’éteindre la polémique : Bercy a en effet annoncé vendredi avoir autorisé la vente d’Exaion à l’américain, mais en l’assortissant de plusieurs conditions contraignantes.
Ancrage et gouvernance propice aux intérêts français garantis
Bercy impose en premier lieu l’internalisation chez EDF de la plupart des activités que son ancienne filiale réalisait pour le groupe, de façon à assurer « l’absence d’hébergement de toute donnée sensible d’EDF sur les serveurs d’Exaion ». Pour les sujets moins sensibles, l’accord prévoit le maintien en France des activités réalisées par Exaion au profit de son ancienne maison mère.
L’État indique par ailleurs avoir fait lever la clause de non-concurrence exigée au départ par Mara de l’ancien propriétaire, qui aurait pu empêcher l’énergéticien de développer certains projets en rapport avec le calcul ou les infrastructures informatiques.
Xavier Niel dans les bagages
Enfin, il a obtenu que l’offre d’acquisition soit révisée pour faire entrer un nouvel acteur autour de la table, le fonds NJJ détenu par Xavier Niel. Du fait de ce nouvel actionnaire, présent aux côtés d’EDF Pulse Holding et donc du nouveau majoritaire qu’est Mara, « les intérêts français représentent désormais près de la moitié du capital d’Exaion », affirme Bercy.
L’investissement de NJJ s’incarne par une prise de participation de 10 % au capital de Mara France, la société de tête qui va intégrer les activités d’Exaion.
« Le conseil d’administration d’Exaion comptera trois représentants désignés par Mara Inc, trois représentants désignés par EDF Pulse Ventures, un représentant désigné par NJJ et le directeur général et co-fondateur d’Exaion. Xavier Niel ainsi que Fred Thiel, CEO Mara Inc, siégeront au sein du conseil d’administration d’Exaion. », précise EDF, qui reste donc à la fois client et actionnaire d’Exaion.
« Dans cette opération, l’État avance sur deux jambes : nous confirmons l’attractivité de la France pour les investissements internationaux, tout en assurant une protection intransigeante de nos intérêts stratégiques et de notre souveraineté technologique. », se félicite Roland Lescure, ministre de l’Économie, dans un communiqué.
À l’aune des élections municipales, prévues les 15 et 22 mars, TikTok, qui dénombre près de 28 millions d’utilisateurs actifs quotidiens en France, explique reposer sur 588 modérateurs « en langue française », et 50 experts en intégrité électorale, modération, presse et juridique.
« Pour ces municipales, nous avons adopté le dispositif que nous réservons d’ordinaire aux scrutins nationaux », indique aux ÉchosGaultier Brand-Gazeau, l’ex-chef du service économique de la Direction générale du Trésor à Dublin, devenu en septembre 2025 directeur des affaires publiques et gouvernementales de TikTok France (dont le siège européen est en Irlande) :
« Nous avons une équipe de 50 experts en intégrité électorale, modération, presse et juridique. Nous travaillons avec l’ONG A voté, nous faisons de la pédagogie avec les créateurs de contenus, et j’ai rencontré tous les partis politiques. »
TikTok échange aussi régulièrement avec le Réseau de coordination et de protection des élections (RCPE), créé en réponse à la menace des ingérences étrangères en période électorale et composé d’administrations et d’autorités indépendantes compétentes en matière électorale : l’Arcom, la CNCCFP, le secrétariat général du Gouvernement, le ministère de l’Intérieur, le service de vigilance et protection contre les ingérences numériques étrangères VIGINUM et son Comité éthique et scientifique, chargé de suivre son activité.
« Nous n’avons jamais eu la prétention de devenir la place du village politique », pointe Gaultier Brand-Gazeau, mais a dû s’adapter, relèvent Les Échos avec près de 28 millions d’utilisateurs actifs quotidiens en France, dont des personnalités politiques très en vues : Jordan Bardella y dénombre 2,3 millions d’abonnés et près de 79 millions de « J’aime », Jean-Luc Mélenchon 2,7 millions d’abonnés et près de 47 millions de « J’aime », Emmanuel Macron 6,6 millions d’abonnés et près de 67 millions de « J’aime ».
Et ce, d’autant que TikTok était au cœur des opérations d’influence ayant conduit à l’annulation des élections en Roumanie en 2024, et que la Commission européenne a récemment « conclu à titre préliminaire que TikTok enfreignait la législation sur les services numériques en raison de sa conception addictive. Cela inclut des fonctionnalités telles que le défilement infini, la lecture automatique, les notifications push et son système de recommandation hautement personnalisé ».
Ancien responsable des affaires internationales de La French Tech, puis haut fonctionnaire de la Direction générale du Trésor, Gaultier Brand-Gazeau souligne que TikTok entend « protéger l’intégrité de l’information » grâce à 4 600 modérateurs, dont 588 « en langue française », sans pour autant préciser combien couvrent la France en propre, et non les pays francophones. À titre de comparaison, TikTok revendiquait, à l’aune des élections européennes de 2024, qu’« en Europe, plus de 6 000 personnes sont dédiées à la modération de contenu ».
Des informations électorales « validées par le ministère de l’Intérieur »
TikTok aurait également investi 2 milliards d’euros dans l’IA, développé des modèles internes de détection des contenus générés par IA, et adhéré à la norme C2PA pour authentifier les contenus créés par IA.
Sur TikTok, les contenus réalistes générés par l’intelligence artificielle doivent en effet être étiquetés par leur créateur, rappelait un communiqué de presse en novembre dernier, qui avançait que 1,3 milliards de vidéos GenAI avaient déjà été étiquetées.
Ces derniers mois, TikTok a aussi enrichi l’étiquetage des contenus générés par l’IA (AIGC) en ajoutant davantage de contexte pour indiquer si un contenu avait été étiqueté grâce à la détection automatisée, par le créateur lui-même ou au moyen d’outils IA proposés sur la plateforme.
Les Échos précisent que l’application aurait aussi créé une page rassemblant les informations électorales, « validées par le ministère de l’Intérieur » (sans plus de précisions), qui renvoie vers du texte et bientôt des vidéos conçues par l’AFP.
L’AFP y publiait récemment un tour du monde de la désinformation électorale, mêlant contenus générés par IA, détournements d’images, manques de contexte, mais nous ne l’intégrerons pas à cette page : non content de ne pas proposer de fonctionnalité de confidentialité avancée comme le propose YouTube, la vidéo se lance en outre automatiquement, en autoplay.
La Confédération française démocratique du travail (CFDT) a signalé mercredi 18 février par voie de communiqué (PDF) avoir été victime« d’une attaque informatique impliquant un téléchargement illégal de fichiers contenant des données personnelles d’adhérents ».
« Dès qu’elle a eu connaissance de cet incident, la CFDT a isolé et stoppé le serveur hébergeant ses applications. Des investigations sont en cours pour estimer l’impact de cette violation de données informatiques », écrit encore la confédération, qui indique avoir déposé plainte et averti à la fois la Cnil et l’ANSSI, conformément à ses obligations.
L’information aux adhérents a débuté dans la foulée avec une communication par email, dans laquelle la CFDT liste plus précisément la nature des données potentiellement compromises. Outre les coordonnées complètes et le couple prénom / nom, l’exposition concerne également la date d’adhésion à la confédération, et le syndicat d’affiliation. « À ce stade, aucune donnée bancaire ne serait concernée par cette faille de confidentialité », indique avec précaution ce courrier. Rappelons que la Cnil considère l’appartenance syndicale comme relevant des données sensibles.
Communiqué de presse de la CFDT daté du 18 février 2026
« Au 31 décembre 2024, la CFDT comptait 640 631 adhérentes et adhérents », indique l’organisation, qui ne précise pas le volume de comptes concernés par cette fuite de données. Le chiffre total pourrait cependant se révéler supérieur au total du nombre actuel d’adhérents. La confédération a en effet également entrepris d’avertir certains ex-adhérents que leurs données ont pu être exfiltrées dans le contexte de cette attaque.
« En tant qu’ex-adhérent.e, vos données ont pu être impactées : en effet, et conformément aux dispositions légales et réglementaires, nous conservons les données de nos ex-adhérent.es pour une durée de 4 ans à partir de la clôture de l’exercice après leur départ de la CFDT, et pendant 10 ans en ce qui concerne les documents comptables (par exemple les pièces justificatives de remboursement de frais) », justifie l’organisation dans un email consulté par Next.
Une annonce revendiquant un piratage de la CFDT est apparue le 18 février sur un forum dédié aux échanges de données volées. L’auteur y affirmait disposer des coordonnées de 1,4 million de personnes, ainsi que les informations professionnelles d’une partie des employés de la confédération. Le lien entre cette annonce et l’attaque reconnue par la CFDT n’a pas été établi.
La faute à celui qui est entre la chaise et le clavier, encore ?
Plusieurs pannes chez AWS sont liées à l’utilisation en interne de ses propres agents IA par ses ingénieurs. L’entreprise qui a lancé son agent Kiro en assurant qu’il allait « au-delà du vibe coding » rejette la faute sur ses employés qui auraient laissé faire son IA.
Au moins deux pannes internes à Amazon Web Services récentes sont liées à l’utilisation de ses outils d’IA générative comme Kiro, utilisés par ses employés pour gérer ses infrastructures.
L’entreprise avait présenté son agent IA Kiro en juillet 2025 en le proposant d’abord via inscription sur liste d’attente avant de le lancer pleinement fin décembre lors de sa conférence annuelle re:Invent.
AWS présentait Kiro comme un « environnement de développement IA qui vous aide à passer du concept à la production grâce à une expérience de développement simplifiée pour travailler avec des agents IA. Kiro excelle dans le « vibe coding », mais va bien au-delà : la force de Kiro réside dans sa capacité à intégrer ces prototypes dans des systèmes de production grâce à des fonctionnalités telles que les spécifications et les hooks ».
Suppression et recréation de l’environnement sur un système en production
Mais, comme l’explique le Financial Times, l’utilisation de ces outils provoque, même en interne, des doutes sur la qualité qui en résulte. Ainsi, des employés d’AWS ont expliqué au journal économique britannique que deux pannes ont eu lieu sur les systèmes de l’entreprise alors que des ingénieurs les ont utilisés pour les gérer.
« Nous avons déjà constaté au moins deux interruptions de production [au cours des derniers mois] », explique une des sources de nos confrères. « Les ingénieurs ont laissé l’ [agent] IArésoudre un problème sans intervenir. Les interruptions étaient mineures, mais tout à fait prévisibles. »
L’une d’entre elles concerne un service utilisé par les clients ayant subi une interruption de 13 h à la mi-décembre. AWS a fait circuler en interne un postmortem de l’incident. L’outil d’Amazon Kiro aurait été utilisé par un ingénieur de l’entreprise. Et il aurait déterminé que la meilleure solution consistait à « supprimer et recréer l’environnement » du système.
Concernant l’autre panne, c’était l’outil Amazon Q Developer qui était impliqué, selon les sources du Financial Times, sans plus de détails.
Une erreur de l’utilisateur, et non une erreur de l’IA, selon AWS
Amazon a affirmé qu’il s’agissait « d’une coïncidence que des outils d’IA aient été impliqués [et que] le même problème pourrait se produire avec n’importe quel outil de développement ou action manuelle ».
L’entreprise a ajouté que « dans les deux cas, il s’agissait d’une erreur de l’utilisateur, et non d’une erreur de l’IA ». Elle assure que l’incident de décembre était un « événement extrêmement limité » qui n’a touché qu’un service dans certaines régions de Chine, et que l’autre n’a eu aucune conséquence sur les services AWS orientés client.
Amazon continue en parallèle de promouvoir l’utilisation de ses outils d’IA générative en interne qui sont en retard par rapport à certains outils de ses concurrents. L’entreprise interdit même l’utilisation de Claude Code à ses employés au profit de Kiro, ce qui a attiré des critiques en interne.
Dans un fil de discussion sur l’outil de chat de l’entreprise, environ 1 500 employés d’Amazon ont poussé à l’adoption officielle de Claude Code en interne, expliquait la semaine dernière Business Insider. Cette situation est d’autant plus étrange qu’Amazon propose à ses clients un accès à Claude Code via sa plateforme Bedrock.
La course aux LLM se poursuit chez les grands noms de l’IA avec, cette semaine, deux annonces successives, qui concernent respectivement Claude Sonnet 4.6, dernière version en date du modèle généraliste d’Anthropic et Gemini 3.1 Pro qui, chez Google, promet des capacités améliorées en matière de raisonnement.
Le calendrier s’accélère encore sur le front des grands modèles de langage, avec deux sorties quasi concomitantes cette semaine : Claude Sonnet 4.6 chez Anthropic et Gemini 3.1 Pro chez Google. Deux semaines plus tôt, ce sont Claude Opus 4.6 et GPT-5.3 Codex qui s’affrontaient dans l’actualité, illustrant le caractère presque frénétique du rythme de publication adoptés par les acteurs de l’IA générative.
Sonnet 4.6 se rapproche d’Opus
Chez Anthropic, Opus (le modèle haut de gamme dédié aux tâches complexes) n’aura pas conservé longtemps l’exclusivité des nouveautés de Claude 4.6. Sonnet (le modèle courant proposé par défaut, moins gourmand en tokens) intègre en effet les principales, à commencer par sa fenêtre contextuelle désormais étendue à un million de jetons. Ce paramètre est important pour les usages avancés, puisqu’il définit la quantité d’information que le modèle peut traiter et conserver en mémoire dans le cadre d’une conversation avec l’usager.
Anthropic ne détaille pas les emprunts précis de Sonnet à Opus, mais affirme dans le tableau qui résume les performances de ses modèles et les compare à la concurrence que Sonnet 4.6 talonne, voire dépasse, son aîné sur la plupart des scénarios fonctionnels (code, analyse financière, traitements agentiques). Opus 4.6 garderait tout de même une longueur d’avance sur les raisonnements complexes.
Face à la concurrence, les deux modèles 4.6 seraient supérieurs à GPT-5.2 et Gemini 3 Pro sur la plupart des scénarios d’usage. Rappelons que les chiffres présentés dans ce tableau émanent d’outils de mesure (benchmarks) choisis et opérés par Anthropic. L’entreprise double ces mesures de quelques sondages réalisés auprès de ses utilisateurs, qui mettent quant à eux en lumière un réel progrès en passant de 4.5 à 4.6, notamment sur le code.
Anthropic revendique des performances en nette hausse pour Claude Sonnet 4.6
Sonnet 4.6 est désormais utilisé par défaut sur tous les abonnements à Claude, y compris dans sa version gratuite. « Nous avons également mis à niveau notre offre gratuite vers Sonnet 4.6 par défaut ; elle inclut désormais la création de fichiers, les connecteurs, les compétences et la compression. », indique à ce sujet l’entreprise.
Gemini 3.1 Pro mise sur le raisonnement
Chez Google, c’est donc le déploiement de Gemini 3.1 Pro qui commence au travers des différents produits et modèles de la gamme.
3.1 Pro offrirait, selon Google, des performances doublées en matière de raisonnement sur ARC-AGI-2, l’outil de mesure de la fondation ARC Prize, qui fait aussi office de mètre étalon chez Anthropic. Gemini 3.1 Pro obtiendrait à ce niveau un score de 77,1 %, soit près de dix points de plus que ce qu’obtient Claude Opus 4.6.
Au-delà des performances synthétiques, Google promet une amélioration sensible des performances dans les usages appliqués, prenant comme exemple la génération d’une animation SVG à partir d’une requête texte.
« À compter d’aujourd’hui, Gemini 3.1 Pro est déployé dans l’application Gemini avec des limites plus élevées pour les utilisateurs disposant des abonnements Google AI Pro et Ultra. La version 3.1 Pro est également disponible sur NotebookLM, exclusivement pour les utilisateurs Pro et Ultra. Les développeurs et les entreprises peuvent dès maintenant accéder à la version préliminaire de Gemini 3.1 Pro via l’API Gemini, grâce à AI Studio, Antigravity, Vertex AI, Gemini Enterprise, Gemini CLI et Android Studio. », précise Google.
Gemini 3.1 Pro est censé écraser la concurrence sur les raisonnements abstraits
Alors que l’opposition monte, au sein du camp républicain, envers le soutien affiché de Donald Trump et ses équipes à l’industrie technologique, l’administration crée une task force face à laquelle l’essentiel des patrons du secteur devrait venir s’exprimer.
Après le ministère de l’efficacité gouvernementale (DOGE), la « Tech Force d’élite ». Le gouvernement américain recrute plusieurs dirigeants de l’industrie numérique pour entraîner un groupe d’agents de l’administration dont la mission consistera à moderniser les équipements numériques fédéraux.
Fin 2025, l’administration annonçait le recrutement d’un millier d’ingénieurs logiciel au sein d’un groupe de travail dédié. « Le président Trump a rendu évident que s’assurer du leadership américain en matière d’IA était le défi national essentiel de cette génération », indiquait-elle dans son communiqué.
Pour le relever, le programme des experts recrutés consistera à passer les deux prochaines années à déployer des outils d’IA et des applications technologiques variées au sein de l’administration, à commencer par le Trésor ou la NASA. Et ce, sous la gouvernance des principaux acteurs de l’industrie locale : Apple, Meta, Nvidia, OpenAI, xAI, Coinbase, ou encore Palantir.
Chaque entreprise a « promis d’envoyer soit son PDG, soit son directeur technique » pour s’exprimer devant la task force, déclare Scott Kupor au Financial Times. Ancien capital-risqueur auprès du fonds Andreessen Horowitz, ce dernier dirige désormais le bureau national du management et la Tech Force.
Relever les « défis les plus ambitieux de notre époque »
Le site officiel de cette « Tech force », disponible à l’adresse techforce.gov, annonce sur fond orange et noir que le projet consistera à « s’attaquer aux défis civils et militaires les plus complexes et les plus ambitieux de notre époque ».
Capture d’écran du site techforce.gov
Outre des présentations notamment réalisées par Alex Karp (Palantir) ou Sam Altman (OpenAI), Scott Kupor annonce que ces sociétés devraient rendre leurs dispositifs de formations et de certifications internes accessibles gratuitement aux membres de la task force.
Quant aux 1 000 premières recrues, elles devraient être encadrées par 100 employés des sociétés tech états-uniennes débauchés directement par le gouvernement. Plusieurs anciens du DOGE seront par ailleurs mobilisés.
Interrogé sur les risques de conflits d’intérêt, le directeur de la Task Force les balaie au motif qu’ils seraient dépassés par les gains envisageables pour le fonctionnement de l’administration états-unienne.
Opposition croissante du camp Trump à sa politique technologique
Cette réaffirmation de la proximité entre l’administration de Donald Trump et son industrie technologique se produit pourtant à un moment où son développement, en particulier celui de l’intelligence artificielle, est de plus en plus débattu au sein du camp républicain.
Alors que les élections de mi-mandat se profilent pour novembre 2026, une partie des effectifs républicains s’oppose de plus en plus ouvertement au soutien du président et de ses équipes au domaine. Selon un sondage mené pour le Financial Times, 60 % des électeurs de Trump s’inquiètent du développement rapide de l’intelligence artificielle, et 80 % pensent que le domaine devrait être plus régulé.
À l’approche des élections de mi-mandat, cela dit, l’industrie de l’IA et celle de la tech derrière elle ont déjà dépensé des millions de dollars pour soutenir des approches promouvant des régulations limitées. Comme en amont de l’élection présidentielle de 2024, ils financent notamment des super PAC (political action committe, comités d’action politique), comme Leading the Future ou Public First Action. À la tête des 50 États, cela dit, au moins 370 mesures relatives au développement de l’IA ont été déposées, dont plus d’un tiers l’ont été depuis des chambres à majorité républicaine.