En juin dernier, Microsoft annonçait la disponibilité en Europe d’un nouveau programme qui faisait la promesse de données restant au sein des frontières de l’Union et donnait des assurances quant au contrôle assuré par un personnel européen.
Huit mois plus tard, l’éditeur étatsunien ajoute quelques nouveautés à son offre.
Ainsi, Microsoft met en avant la disponibilité de la déconnexion d’opérations dans Azure Local : « Les organisations peuvent désormais faire tourner leurs infrastructures critiques avec les outils de gestion et de conformité d’Azure, sans avoir besoin d’une connexion au cloud ».
L’entreprise souligne que la version déconnectée de Microsoft 365 Local est aussi disponible : « les charges de travail de productivité essentielles, Exchange Server, SharePoint Server et Skype for Business Server peuvent fonctionner entièrement dans les limites opérationnelles souveraines du client sur Azure Local ».
Enfin Microsoft met en avant l’ajout à son offre souveraine de Foundry Local, qui est une « solution d’inférence IA sur appareil que vous utilisez pour exécuter des modèles IA localement via une interface CLI, un SDK ou une API REST ».
« Les entreprises peuvent désormais intégrer des grands modèles d’IA dans des environnements souverains entièrement déconnectés grâce à Foundry Local », affirme l’entreprise. Les modes « déconnectés » Azure Local et Microsoft 365 Local sont « disponibles dans le monde entier » tandis que le déploiement de LLM sur Foundry Local est pour l’instant réservé aux « clients éligibles ».
Réseaux sociaux, IA, jeux vidéo… alors que le gouvernement français s’affiche à la pointe de la régulation des usages du numérique par les enfants, le commissaire aux droits de l’homme du Conseil de l’Europe demande aux législateurs européens de diriger les réglementations sur les obligations des plateformes plutôt que sur les mineurs.
« Alors que plusieurs pays européens envisagent d’introduire un âge minimum pour accéder aux plateformes de médias sociaux, j’appelle à la prudence dans l’imposition d’interdictions générales », affirme dans un communiqué Michael O’Flaherty, le commissaire aux droits de l’homme du Conseil de l’Europe.
La France fait partie des premiers pays de l’Union européenne à vouloir réglementer dans cette direction, soutenue par la Commission européenne malgré quelques critiques. L’Assemblée nationale a adopté fin janvier la proposition de loi visant à interdire l’accès aux réseaux sociaux aux mineurs de moins de 15 ans, problématique à plusieurs points de vue.
Qui doit être responsable : l‘utilisateur ou la plateforme ?
Pour Michael O’Flaherty, « l’accent mis sur la restriction de l’accès ne doit pas faire oublier la nécessité de veiller à ce que les plateformes respectent les droits humains, au moyen d’obligations juridiques claires, d’une surveillance indépendante et d’une responsabilisation effective ».
Il ajoute qu’« interdire l’accès des enfants aux médias sociaux revient à déplacer la responsabilité en matière de sécurité : cette responsabilité n’incomberait plus aux plateformes qui créent l’environnement, mais aux enfants qui naviguent dans cet environnement ».
Le Commissaire aux droits de l’homme estime que « les États devraient plutôt exiger des plateformes qu’elles préviennent et atténuent les risques pour les droits de l’enfant, dès la conception et par défaut, et les tenir pour responsables si ces obligations n’ont pas été remplies ».
L’usage par les mineurs de l’IA dans le viseur du gouvernement français
Cet appel tombe alors que le gouvernement français affiche la volonté de prendre en main deux autres sujets numériques sous l’angle de la régulation de leur utilisation par les mineurs.
La semaine dernière, Anne Le Hénanff, la ministre déléguée chargée de l’Intelligence artificielle et du Numérique, a fait un appel international à contributions scientifiques sur les effets des usages de l’IA générative sur les mineurs.
Ces travaux et données recueillis « viendront nourrir la réflexion scientifique de la commission d’experts et contribuer à l’élaboration de recommandations concrètes dont les conclusions seront présentées dans le cadre de la présidence française du G7 », affirme la ministre dans son communiqué. À cette occasion, elle a lancé que « la France réaffirme ainsi un engagement fort : faire de la protection de l’enfance en ligne une priorité absolue, en s’appuyant sur la science et la coopération internationale au service de l’intérêt général ».
Dans la foulée, le gouvernement a aussi annoncé une « commission d’experts sur les risques et les vulnérabilités engendrées par les usages grand public de l’intelligence artificielle générative ». Le but est de « renforcer notre compréhension des vulnérabilités induites par ces technologies sur l’ensemble de la population, afin de mieux prévenir leurs conséquences ».
Et aussi les jeux vidéo
Autre sujet : le jeu vidéo. Emmanuel Macron indiquait récemment souhaiter disposer d’un éclairage scientifique sur les effets des jeux vidéo sur la violence dans la société tout en affirmant qu’« il est clair qu’on a des jeux vidéo violents qui conditionnent à la violence, qui créent une excitation, une dépendance où on a des jeunes et des ados qui vont passer des heures et des heures ». Le gouvernement l’a suivi en annonçant charger le Conseil de l’intelligence artificielle et du numérique d’une mission sur « les risques potentiels des jeux vidéo concernant les mineurs ».
« Cette mission devra établir une analyse scientifique des effets (tant positifs que négatifs) et risques potentiels des jeux vidéo, particulièrement sur la santé mentale, cognitive et physique des jeunes utilisateurs, et en matière de sécurité des mineurs », affirme la lettre envoyée par Anne Le Hénanff mais aussi par la ministre de la Culture Rachida Dati.
Elles demandent au Conseil d’« d’objectiver les risques, sur la base des connaissances scientifiques disponibles, en tenant compte du caractère multifactoriel des comportements à risque, des distinctions qui pourraient exister en fonction des publics, des types de jeux et des usages, et en évitant toute approche réductrice ».
Les travaux devront aussi évaluer si « les mécanismes actuels de sécurité dès la conception, de modération et de régulation sont suffisants, au regard de l’évolution des contenus, des pratiques et des modèles économiques, et proposer, le cas échéant, des mesures pour les clarifier, les adapter ou les renforcer ». Les deux ministères demandent au conseil de se pencher aussi sur les « nouvelles formes de socialisation induites par certains jeux en ligne ».
Reste la question de la vérification d’âge. Comme nous avons pu le voir avec l’obligation de contrôle à l’entrée des sites pornos, c’est encore trop souvent une vaste blague. Une carte d’identité de Dora l’Exploratrice ou modifier un cookie permet de passer les contrôles.
En septembre et octobre 2025, OpenAI multipliait les partenariats avec NVIDIA et AMD. Dans les deux cas, les accords parlaient de « GW de puissance de calculs », sans aucun détail sur le type de puces utilisées. Comme déjà longuement expliqué dans un édito, c’est une pratique regrettable qui ne veut pas dire grand chose…
Quoi qu’il en soit,OpenAI s’engageait à déployer « au moins 10 GW de systèmes NVIDIA » (NVIDIA investit dans OpenAI), tandis qu’AMD s’engageait à fournir l’équivalent de 6 GW de GPU au père de ChatGPT.
Un nouvel accord vient d’être signé entre AMD et Meta cette fois-ci avec « un partenariat stratégique élargi pour déployer 6 GW de GPU AMD ». Pour les détails on repassera puisqu’il s’agit d’équiper les infrastructures de Meta avec « plusieurs générations de GPU AMD Instinct ». Tout juste savons nous que la première tranche, « à l’échelle du GW », devrait débuter durant la seconde moitié de 2026, avec des GPU « personnalisés AMD Instinct MI450 » et des processeurs EPYC de 6ᵉ génération. La suite n’est pas encore précisée.
Dans son communiqué, AMD rappelle que Meta est un partenaire qui a déjà déployé « des millions de processeurs AMD EPYC et d’importantes quantités de GPU Instinct MI300 et MI350 dans son infrastructure mondiale ».
Dans le cadre de ce partenariat, AMD propose aussi à Meta le droit d’acheter jusqu’à 160 millions de ses actions à un prix fixé à l’avance (warrants), en fonction de la réalisation d’objectifs sur les livraisons de GPU. Meta pourrait ainsi récupérer jusqu’à 10 % des actions AMD. L’annonce fait pour le moment bondir l’action d’AMD de 7 % lors de l’ouverture de la bourse.
La semaine dernière, Meta avait déjà annoncé un accord avec NVIDIA. Il porte sur une large gamme de produits, avec le « déploiement à grande échelle de CPU NVIDIA, de millions de GPU Blackwell et Rubin, ainsi que l’intégration des switchs Ethernet Spectrum-X pour la plateforme Facebook Open Switching System de Meta ».
Le point intéressant ici est la mise en avant d’une utilisation massive de CPU NVIDIA (avec des cœurs ARM). Ils seront utilisés pour des « applications dans les data centers de Meta et permettront d’obtenir des améliorations significatives en termes de performances par watt ».
NVIDIA ne cache pas cette joie, en forme de pied de nez à AMD et Intel : « Cette collaboration représente le premier déploiement à grande échelle exclusivement basé sur Grace », le CPU de NVIDIA. La suite se prépare avec le CPU Vera annoncé au CES de Las Vegas au début d’année.
Alors que l’entraînement de leurs modèles s’appuie notamment sur l’utilisation massive de données dont elles n’ont pas les droits, les startups de l’IA générative américaines se plaignent que leurs rivaux chinois utilisent, via la technique de « distillation », les données générées par leurs modèles.
Anthropic a accusé trois entreprises chinoises, DeepSeek, Moonshot AI et MiniMax d’utiliser les résultats générés par ses modèles pour entrainer les leurs. Quelques jours avant, OpenAI avait aussi accusé Deepseek, devant les élus étatsuniens, d’utiliser la technique de « distillation » (ou extraction) pour mettre au point son prochain modèle. Ces accusations arrivent alors que la startup chinoise doit sortir d’ici quelques jours un nouveau modèle.
Un tir de barrage avant l’arrivée d’un nouveau modèle DeepSeek
Depuis début janvier, les rumeurs d’une sortie d’un nouveau modèle v4 par DeepSeek grandissent. « La société chinoise spécialisée dans l’IA n’a pas encore annoncé de date de sortie, mais celle-ci devrait être imminente après la fin des célébrations du Nouvel An lunaire la semaine dernière », affirmait lundi 23 février CNBC. Et l’industrie américaine de l’IA tremble de revivre l’épisode que lui avait fait subir l’entreprise chinoise il y a un peu plus d’un an quand Wall Street avait remis en cause leurs capacités à lutter.
Dans ce cadre, OpenAI a envoyé le 12 février un mémo [PDF] aux élus de la Chambre des représentants des États-Unis qui participent à la commission sur la « Concurrence stratégique entre les États-Unis et le Parti communiste chinois ». Ce texte accuse DeepSeek de « tenter continuellement de profiter gratuitement des capacités développées par OpenAI et d’autres laboratoires américains de pointe ». L’entreprise de Sam Altman y présentait des indices observés sur sa plateforme qui témoignent, selon elle, « des tentatives continues de DeepSeek pour distiller les modèles de pointe d’OpenAI et d’autres laboratoires américains, notamment par le biais de nouvelles méthodes de brouillage ».
Ce lundi 23 février, Anthropic en remettait donc une couche avec un billet de blog accusant DeepSeek, Moonshot, et MiniMax de lancer des « campagnes à l’échelle industrielle […] pour extraire illicitement les capacités de Claude afin d’améliorer leurs propres modèles ».
« Ces laboratoires ont utilisé une technique appelée « distillation », qui consiste à entraîner un modèle moins performant à partir des résultats d’un modèle plus puissant », explique Anthropic. Pourtant, la startup américaine reconnait que « la distillation est une méthode d’entraînement largement utilisée et légitime. Par exemple, les laboratoires d’IA de pointe distillent régulièrement leurs propres modèles afin de créer des versions plus petites et moins coûteuses pour leurs clients ».
Une utilisation « illicite » de la distillation ?
Mais elle affirme que son utilisation est illicite si des concurrents l’utilisent « pour acquérir les capacités puissantes d’autres laboratoires en une fraction du temps et à un coût bien inférieur à ceux nécessaires pour les développer de manière indépendante », sans pour autant s’appuyer sur un quelconque texte légal. Dans son billet, l’entreprise américaine accuse les trois entreprises chinoises d’avoir utilisé des milliers de comptes qu’elles se seraient créés sur sa plateforme pour récupérer des millions de conversations avec Claude.
Les accusations des deux entreprises semblent plutôt vouloir pointer du doigt que DeepSeek s’appuierait sur leurs travaux et ainsi éviter que Wall Street s’affole de l’arrivée d’un nouveau modèle chinois dépassant les capacités de ses rivaux états-uniens.
Rappelons qu’Anthropic comme OpenAI ont été accusées l’une et l’autre d’avoir entrainé leurs modèles sur des contenus dont elle n’avaient pas les droits. L’entreprise de Dario Amodei a signé un accord de 1,5 milliard de dollars avec des auteurs en septembre 2025, celui-ci est toujours en cours de relecture chez le juge qui doit le valider.
Enfin, Reuters affirme que DeepSeek entrainerait son modèle sur des puces Blackwell de NVIDIA, normalement soumises à un embargo américain. Depuis peu, seule la génération précédente Hopper est autorisée à l’exportation en Chine.
30 % d’augmentation sur les VPS et les Load Balancers, 15 % de plus sur les dédiés… Hetzner ajuste ses prix aussi bien pour les nouveaux que pour les anciens clients. En cause, encore une fois : les coûts d’exploitation et d’achat des composants qui ont « tous deux augmenté de façon spectaculaire ».
OVHcloud n’est pas le seul à augmenter les tarifs de ses VPS, Hetzner aussi va appliquer une nouvelle grille à partir du 1ᵉʳ avril. Là encore l’hébergeur n’y va pas avec le dos de la cuillère avec 30 à 39 % (32 % en moyenne) de hausse sur les serveurs en Allemagne ou en Finlande.
La gamme de VPS d’entrée de gamme (Cost-Optimized) de Hetzner se compose de deux séries : les CX avec des processeurs Intel ou AMD en x86, ainsi que les CAX avec un processeur Ampere exploitant l’architecture Arm. Sur les autres gammes CPX (Regular Performance) et CCX (General Purpose) c’est de l’AMD aux commandes à chaque fois.
Sur les modèles d’entrée de gamme comme le CX23, le tarif mensuel passera de 3,59 à 4,79 euros, soit 33,4 % de hausse (même augmentation sur les prix à l’heure). Sur le CAX11 (CPU Ampere, vous suivez ?) le prix augmentera de 36 % pour arriver à 5,39 euros au lieu des 3,95 euros actuels. On ne parle ici que des tarifs en IPv4 seulement, il faut ajouter 0,60 euro par mois pour en avoir une adresse IPv6. Les VPS aux États-Unis et à Singapour sont également concernés par ces hausses.
15 % de plus en moyenne sur les dédiés
Les serveurs dédiés ne sont pas épargnés, avec entre 3 et 20 % environ de hausse, pour une moyenne aux alentours de 15 % environ. Les tarifs des dédiés augmentent donc en moyenne deux fois moins que ceux des VPS.
Tous les nouveaux tarifs sont détaillés sur cette page, avec les anciens et les nouveaux tarifs sur une même ligne (pratique pour comparer).
Toujours sur les dédiés, « tous les serveurs mis aux enchères subissent une augmentation de prix générale de 3 % ». La société propose en effet des enchères sur « des serveurs standardisés comme ceux de son portefeuille de produits, mais aussi sur des machines personnalisées adaptées aux besoins des clients par le passé ».
Il y a plusieurs centaines d’enchères en cours avec des tarifs allant de quelques dizaines à plusieurs centaines d’euros par mois. Attention, sur ces machines « les installateurs automatiques d’images, les images logicielles spéciales, le vKVM ou d’autres systèmes logiciels ne sont pas possibles », seul le rescue system est proposé.
C’est encore la faute de la RAM et des SSD
Dans un communiqué, Hetzner explique que « des hausses drastiques des prix ont récemment été observées dans divers secteurs du secteur informatique. C’est pourquoi, malheureusement, nous devons aussi augmenter les prix de nos produits ». Un argument déjà utilisé par OVHcloud. Les raisons sont connues : une pénurie causée par la forte demande de GPU pour l’intelligence artificielle, qui a toujours besoin de plus de mémoire pour ses grands modèles de langage.
Hetzner ajoute que « les coûts d’exploitation de [son] infrastructure et d’achat de nouveaux équipements ont tous deux augmenté de façon spectaculaire. Par conséquent, nos variations de prix affecteront à la fois les produits existants et les nouvelles commandes et entreront en vigueur à partir du 1ᵉʳ avril 2026 ».
L’hébergeur affirme avoir retardé au maximum ces hausses, mais il ne peut aujourd’hui « plus compenser la pression que cela exerce sur [ses] opérations ».
Déjà des hausses début février
Déjà début février, lors de l’annonce d’une hausse des frais d’installation, l’hébergeur expliquait que « les prix d’achat actuellement exceptionnellement élevés des composants matériels perturbent considérablement » son modèle économique. Il ajoutait que « cette augmentation ne couvrait pas les coûts supplémentaires réels supportés, et de loin ».
Hetzner ne cachait pas son agacement sur la gestion de la crise par les fabricants de mémoire et de périphériques de stockage :
« Le marché de la RAM est actuellement dominé par très peu de fabricants. À notre avis, leur politique tarifaire est difficilement compréhensible et a fait grimper les coûts de façon massive en peu de temps. La situation est similaire pour les SSD NVMe.
De plus, il est évident que même les quotas et engagements de prix promis par les fournisseurs ne sont actuellement fiables que dans une certaine mesure ».
Début février, Hetzner parlait d’une « première étape nécessaire » et ajoutait que ce n’était « probablement pas la seule » car il n’y avait alors « aucun signe que les conditions du marché vont s’apaiser ». Selon le PDG d’OVHcloud, l’augmentation des prix « va encore se poursuivre pour trouver un nouveau point d’équilibre entre l’offre et la demande probablement vers fin 2026 ».
Il faudra certainement encore attendre plusieurs mois avant un retour à la normale : « les prix resteront importants jusqu’à au moins 2028, le temps que de nouvelles capacités de production de mémoire voient le jour ». Selon Hetzner, « la pression sur les prix devrait se poursuivre au cours de l’année en cours ».
Scaleway, la filiale cloud d’iliad (maison mère de Free) a annoncé la semaine dernière une collaboration avec la société autrichienne Alpine Quantum Technologies (AQT, basée à Innsbruck) afin d’intégrer un ordinateur quantique IBEX Q1 à ions piégés. Pour rappel, nous avons publié un article de présentation de l’informatique quantique.
La machine « sera disponible via la plateforme Quantum as a Service (QaaS) de Scaleway » qui permet à tout un chacun ou presque « d’accéder à des unités de traitement quantique (QPU) via son infrastructure cloud souveraine ». Le côté souverain et européen est mis en avant à plusieurs reprises, avec un acteur français du cloud et autrichien du quantique.
« L’ordinateur quantique d’AQT est accessible et programmable sans réservation […] les mardis et mercredis de 10 h à 17 h CET ». Scaleway prend en charge les SDK open-source standard comme Qiskit d’IBM, Cirq de Google et Pennylane. Selon la fiche produit du IBEX Q1, la machine dispose de 12 qubits.
Scaleway propose une facturation « par shot, à l’heure (émulation), ou via une réservation dédiée ». Sur cette page, l’entreprise présente l’IBEX Q1 d’AQT comme ayant bien 12 ions piégés, avec une fiabilité de 99,97 % sur une porte et de 98,7 % sur deux. Comme nous l’expliquons dans cette actualité, les portes quantiques sont tout aussi importantes que les qubits.
« L’appareil est montable en rack standard, fonctionne à température ambiante et consomme moins de 2 kilowatts, idéal pour les simulations nécessitant une précision critique (par exemple, la dynamique des fluides) », ajoute l’entreprise.
Il y a quasiment deux ans, OVHcloud inaugurait « le premier ordinateur quantique installé au cœur d’un fournisseur de services cloud européen ». Il est installé dans locaux de la société à Croix, dans les Haut de France. Il s’agit d’un MosaiQ de la start-up française Quandela, une machine avec deux qubits photoniques.
Dans un communiqué, le CERN ne cache pas sa joie et annonce avoir « franchi une étape importante dans la progression du projet Grand collisionneur de hadrons à haute luminosité (HiLumi LHC), avec le début du refroidissement cryogénique à 1,9 K (‑271,3 °C) d’un banc d’essai de 95 m de longueur », une opération qui devrait prendre plusieurs semaines. Il s’agit d’une réplique grandeur nature de l’installation qui se trouve sur le Grand collisionneur de hadrons.
Si tout se passe bien, la mise en place est prévue pour l’été prochain avec « le lancement de quatre années de travaux de grande envergure au cours du troisième long arrêt (LS3) ». Le LS3 était prévu pour 2025 à 2027, avant d’être repoussé et rallongé à partir de mi-2026.
Le retour des opérations est donc prévu pour 2030. L’accélérateur sera de nouveau mis à l’arrêt et amélioré en 2034 et 2035, avant de passer au Run 5.
Dans le cas présent, la luminosité correspond au nombre de collisions de particules. Avec la haute luminosité, elle « sera multiplié par dix, ce qui augmentera très fortement le volume de données de physique disponibles pour la recherche ». « Ce bond en avant permettra d’étudier avec une précision inédite le comportement du boson de Higgs et d’autres particules élémentaires, voire éventuellement de découvrir de nouveaux phénomènes rares », explique le CERN.
Mark Thomson, directeur général du CERN, tient à mettre les points sur les i : « On ne soulignera jamais assez l’importance et l’intérêt du LHC à haute luminosité. C’est le plus grand projet entrepris par le CERN depuis 20 ans […] Il permettra d’étudier pour la première fois comment le boson de Higgs interagit avec lui-même : cette mesure clé pourrait nous aider à faire la lumière sur les premiers instants de l’Univers et son évolution ».
Il ajoute que « le LHC à haute luminosité servira également à explorer de nouveaux horizons, et pourrait conduire à des découvertes inattendues. C’est tout l’intérêt de sonder l’inconnu : on ne sait pas ce qui s’y trouve ». Il faudra être patient. Les mesures ne débuteront pas avant 2030, et il faudra ensuite les analyser.
Jean-Baptiste Kempf, l’un des principaux contributeurs du projet VideoLAN et de son célèbre lecteur VLC, s’est fendu lundi 23 février d’une charge virulente adressée au garde des Sceaux Gérald Darmanin. « J’envisage de quitter la France, et c’est intégralement la faute de M.Darmanin », titre l’ingénieur, dont la publication LinkedIn devient très vite virale.
Il y raconte les démêlés de sa femme, Audrey Prévost Kempf, avec l’administration en charge des admissions au concours de l’École nationale de la magistrature (ENM), qu’elle passe avec brio à sa seconde tentative, avant d’être informée, par courrier, qu’elle n’a finalement pas le droit de concourir.
D’après le résumé qu’en fait Jean-Baptiste Kempf, le ministère de la Justice décide de retoquer sa participation, a posteriori et alors qu’elle se classe 9ᵉ à l’issue du grand oral, « au motif d’une prétendue insuffisance d’activité juridique qualifiante ».
Intro du billet publié par J-B Kempf le 22 février sur LinkedIn
Audrey Prévost Kempf avait elle-même relaté cette déconvenue quelques jours plus tôt. Son éviction du concours de l’ENM (qui concerne également au moins un autre candidat) intervient dans le cadre des nouvelles modalités d’admission introduites suite à la réforme de 2023.
Aux premier et deuxième concours (destinés respectivement aux jeunes diplômés et aux salariés de la fonction publique), elle ajoute un troisième concours réservé aux candidats venus du privé, sous réserve que ces derniers puissent justifier d’au moins quatre ans d’une expérience « particulièrement qualifiante dans le domaine juridique, administratif, économique ou social ».
Et c’est là que le bât semble avoir blessé dans le cas d’Audrey Prevost Kempf : ses dix ans d’implication aux côtés de Jean-Baptiste Kempf dans VideoLAN n’auraient pas été reconnus comme une expérience « particulièrement qualifiante ».
« Le légal dans VideoLAN est plus compliqué et complexe que dans la plupart des sociétés que je connais, et avec un champ d’application bien plus large. Et devinez qui m’a aidé dans tout ce travail pendant dix ans ? Audrey, évidemment. Moi, je n’ai aucune base scolaire en droit. »
S’ensuivent cinq mois d’échanges avec le ministère avec un recours au fond, jusqu’à cette interpellation publique.
« Le travail autour de VideoLAN est titanesque, même bénévole, et il n’appartient pas au Garde des Sceaux ni à son administration de déjuger notre travail. Le mieux, c’est lorsque M. Darmanin écrit que « le numérique […] et le droit du numérique ne sont pas utiles au magistrat de l’ordre judiciaire » », écrit Jean-Baptiste Kempf, fait chevalier de l’ordre national du Mérite en 2018, qui jure qu’on ne l’y prendra plus.
« Jamais plus je n’aiderai l’État français gratuitement par mon travail, et tant pis pour les agents de la justice (utilisant beaucoup VLC) qui auraient besoin de lire de nouveaux formats de vidéo. Cracher sur le professionnalisme du travail de VideoLAN est totalement inadmissible. »
Quelques heures plus tard, Gérald Darmanin lui répond en commentaire de sa publication LinkedIn, indiquant d’abord ne pas avoir été saisi personnellement du litige et regrettant le ton agressif de la missive, avant de finalement écrire : « il me semble que ma réponse avant le recours formulé devant le Conseil d’État était de demander à mon administration de revoir sa décision. Mais je veux vous le lui confirmer de façon certaine ».
« J’ai le plus grand respect pour elle d’avoir réussi ce difficile concours et, en effet, la magistrature manque de personnes connaissant le numérique », écrit encore le ministre.
Les 375 nouveaux auditeurs de justice qui constituent la promotion 2026 de l’ENM, dont 49 issus du troisième concours, ont fait leur rentrée le 16 février dernier.
Angers, Dijon, Limoges, Grenoble et Reims : cinq BHV vont accueillir à partir de demain un corner Shein, de 400 à 1 000 m². Après l’expérimentation à Paris, l’ambiance est toujours électrique, mais le patron du BHV (Frédéric Merlin) se veut rassurant.
En octobre, Shein et le BHV du Marais à Paris défrayaient la chronique avec l’ouverture d’un « corner » du spécialiste de la mode ultra éphémère (ultra-fast fashion). Au cœur de cet accord, la Société des grands magasins (SGM) qui possède le BHV, sept magasins Galeries Lafayette et onze centres commerciaux.
Pour rappel, « en mai 2022, SGM acquiert sept magasins Galeries Lafayette en province. En novembre 2023, le groupe devient propriétaire de la marque BHV, intégrant les magasins BHV Marais et Parly 2 à son portefeuille », relate le groupe SGM.
BHV et Shein : nouvelle tempête après le calme après la tempête ?
Quelques jours avant l’ouverture du corner Shein au BHV à Paris, la marketplace chinoise était sous le feu des projecteurs pour avoir vendu des « poupées sexuelles à caractère pédopornographique ». Les jours et semaines suivantes ont été agités : la plateforme a fermé sa marketplace en France, des contrôles massifs ont été effectués aux douanes, le gouvernement a engagé une procédure de suspension (rejetée par le tribunal judiciaire de Paris), etc.
Alors que le calme était plus ou moins revenu, la SGM vient d’envoyer un communiqué de presse pour annoncer que, « à compter du 25 février, les BHV de Limoges, Angers, Dijon, Grenoble et Reims ouvrent au public leurs corners Shein ». L’ouverture à Paris du corner Shein avait été l’occasion de nombreuses levées de boucliers chez les marques, les commerçants, les clients et les élus. À voir ce qu’il en sera en province.
« Ces espaces s’inscrivent dans le cadre du partenariat expérimental en cours entre le groupe SGM et Shein visant à intégrer une marque digital-first dans l’écosystème d’un magasin physique, afin de répondre aux nouveaux usages des consommateurs », explique la Société des grands magasins fondée par Frédéric et Maryline Merlin.
« L’ouverture se fera de manière progressive », avec des surfaces comprises entre 400 et 1 000 m² selon les magasins. Pour commencer, il sera principalement question d’une « sélection hivernale » d’articles. Ensuite, à partir d’avril, « l’offre évoluera pour intégrer une sélection plus large de références saisonnières » et de produits « en phase avec les préférences observées localement ». Pour la SGM, cela permet « d’ajuster la sélection et le parcours client en fonction des retours clients ».
Frédéric Merlin (SGM) : « Il ne faut pas avoir raison trop tôt »
Il y a quelques jours à peine, Frédéric Merlin répondait à une interview du Figaro. Il reconnaissait des erreurs, notamment l’immense affiche avec le patron de Shein placardé sur son magasin, mais ajoutait qu’il s’était : « rendu compte qu’il ne faut pas avoir raison trop tôt ». Une manière de s’affirmer comme précurseur.
« Si cela ne marche pas dans un an, on arrêtera », ajoutait néanmoins l’entrepreneur à nos confrères. Il revenait aussi sur la qualité des produits et affirmait que, dans les jours qui ont suivi l’ouverture, « nous avons tout eu, le contrôle des douanes, celui de la DGCCRF. Ils n’ont rien trouvé ».
Il précise avoir revu sa stratégie (articles moins chers, plus de choix de taille…) avec succès : six clients sur dix achèteraient désormais des produits Shein. Autre revirement de situation : « Nous allons changer de modèle d’exploitation pour les espaces Shein du BHV. Ce sont toujours nos vendeurs qui continueront à opérer. Mais, à partir d’avril, Shein sera responsable du choix des assortiments et nous percevrons une commission à la vente ».
Divorce largement consommé entre Galeries Lafayette et BHV
Il n’en reste pas moins des séquelles visibles de l’arrivée de Shein au BHV : « Le groupe Galeries Lafayette a rompu son contrat avec la SGM concernant sept magasins de province, rebaptisés BHV. Une centaine de marques (Guerlain, Dior, Sandro, etc.) ont quitté le grand magasin parisien, protestant contre Shein ou des retards de paiements », explique Sud Ouest.
Lors d’une audition au Sénat en janvier, Frédéric Merlin reconnaissait « une vraie baisse de chiffre d’affaires sur cette fin d’année avec le départ de marques ». Il affirmait déjà qu’un nouveau système de paiement était mis en place, promesse de nouveau faite dans l’interview au Figaro. Libération relate une partie de l’audition durant laquelle Frédéric Merlin a été « jusqu’à se présenter comme « un chef d’entreprise éthique ». Rires dans l’assemblée ».
Le BHV était également empêtré dans la vente de l’immeuble qu’il occupe à Paris. C’est finalement en janvier que les Galeries Lafayette ont officialisé la vente au canadien Brookfield, pour 300 millions d’euros. La SGM devait initialement racheter les murs, mais avec l’affaire Shein la Banque des Territoires s’était retirée.
Le Microsoft Engineering Center d’Issy-les-Moulineaux va faire l’objet d’un plan de cessation d’activités d’ici l’été. Officiellement motivée par la volonté de réunir les ingénieurs autour de grands hubs internationaux comme Redmond ou Dublin, la décision suscite l’incompréhension parmi la centaine de collaborateurs concernés, qui travaillent au quotidien sur certaines des briques sous-tendant les principaux produits d’IA de l’entreprise.
Inauguré en 2011 aux portes de Paris, et recentré à partir de 2019 sur les sujets liés à l’intelligence artificielle, le Microsoft Engineering Center français va fermer ses portes d’ici l’été. L’annonce en a été faite le 19 février dernier à la centaine de collaborateurs concernés, à qui il a été confirmé qu’il s’agissait bien d’un plan de cessation d’activité et non d’une simple réduction d’effectifs.
Une annonce surprise pour la centaine d’ingénieurs concernés
Révélé la semaine dernière par l’Usine digitale, ce projet de fermeture nous a été confirmé par Microsoft France dans une déclaration :
« Nous avons présenté aux représentants du personnel un projet visant à cesser les activités du Microsoft Engineering Center Paris. Les discussions sont en cours et aucune décision définitive n’a été prise. Nous nous engageons à mener cette consultation de manière responsable et à soutenir tous les collaborateurs tout au long du processus. »
La nouvelle, annoncée par des membres des ressources humaines avec le concours d’un cadre français venu des États-Unis, a d’abord suscité stupeur et incompréhension au sein des équipes concernées. Opérant au sein d’une filiale dédiée, ses ingénieurs avaient été épargnés par la rupture conventionnelle collective mise en place par Microsoft France en novembre dernier (200 postes concernés, soit environ 10 % de l’effectif national).
« On ne comprend pas le signal. D’un côté, on a le discours selon lequel Microsoft investit en France parce que c’est le pays de l’IA et des ingénieurs. De l’autre, on vire une équipe de 100 personnes, dont la capacité à faire des choses n’a jamais été remise en cause. Quand on voit les sujets sur lesquels on travaille, il y a de quoi se poser des questions », nous confie un employé du Microsoft Engineering Center sous couvert d’anonymat.
Un centre d’ingénierie principalement consacré à l’IA
Immatriculé en 2011, le Microsoft Engineering Center français est installé depuis ses débuts au siège social de Microsoft France, à Issy-les-Moulineaux, aux portes de Paris. Au cours des années 2010, le centre se consacre notamment au développement de fonctionnalités et de services chargés d’accompagner la stratégie de l’éditeur en matière de distribution de contenus, qu’il s’agisse de flux vidéo, de musique, de jeux ou d’expériences interactives.
À partir de 2019, Microsoft donne une inflexion particulière à son centre, avec l’ouverture d’un centre de développement spécifiquement dédié à l’intelligence artificielle. « Ce Centre a pour mission d’accompagner les entreprises du monde entier dans leur transformation digitale et dans leur quête d’efficacité et de productivité accrues grâce à l’IA. Elles pourront bénéficier de solutions IA répondant à leurs besoins métiers à travers notamment l’usage des plateformes Dynamics 365 ou Azure. », expliquait alors Microsoft.
Cet axe constitue désormais l’activité principale du centre parisien. « Nous sommes une équipe reconnue, capable de livrer et maintenir des produits à succès, affirme notre contact. Nous étions parmi les premiers à travailler sur l’automatisation avec Copilot dès 2022. Les appels d’IA générative de la Power Platform [la collection d’outils de développement low code de Microsoft, ndlr] passent, par exemple, par un service conçu et développé à Paris ».
Une volonté affichée de rationalisation
Du côté de Microsoft France, un porte-parole indique que ce plan de cessation d’activités découle d’une stratégie, déjà engagée par ailleurs, de concentration des efforts autour de grands hubs internationaux comme Microsoft en compte déjà à Redmond ou à Dublin. Autrement dit, la décision de fermer le centre parisien ne découlerait pas d’une lecture qualitative de ses contributions, mais plutôt d’un changement d’organisation décidé et opéré à plus grande échelle.
« Ces changements proposés n’auront aucune incidence sur les autres activités de Microsoft en France. Nous restons pleinement engagés auprès de nos clients ainsi qu’à poursuivre nos investissements dans le pays », veut par ailleurs rassurer l’éditeur, selon qui des propositions de relocalisation dans l’un de ses centres sont envisageables pour les ingénieurs intéressés.
Le 4 novembre dernier, Microsoft renouvelait ses marques d’intérêt envers la France et l’IA au travers d’un rapport réaffirmant sa double promesse de « former un million de Français à l’IA d’ici 2027 » et « d’accompagner 2 500 startups françaises dans leur développement grâce à l’IA d’ici 2027 ». Au printemps 2024, Microsoft avait par la voix de son président Brad Smith promis 4 milliards d’euros d’investissements « au service de l’intelligence artificielle » dans le pays à l’occasion du salon Choose France.
Ce week-end, Jared Isaacman, administrateur de la NASA, laissait peu d’espoir quant au lancement de la mission Artemis II en mars. Les ingénieurs ont en effet détecté une « interruption du flux d’hélium dans l’étage de propulsion cryogénique intérimaire du SLS » ou Space Launch System, le lanceur lourd de la NASA.
Il ajoutait que « les équipes procèdent au dépannage et se préparent à un probable retour d’Artemis II au VAB » ou Vehicle Assembly Building, le hangar à fusée de l’Agence spatiale américaine. Rapidement, la mauvaise nouvelle a été confirmée : « Quelle que soit la panne potentielle, l’accès et la résolution de ces problèmes ne peuvent être effectués que dans le VAB ».
À cause des conditions météo, le retour au hangar n’est pas prévu avant le 25 février. La fusée mettra environ 12 heures pour faire les 6,4 km qui séparent le dock de lancement du VAB.
Il y a un mois, la fusée s’était installée à la verticale sur son pas de tir. Artemis II embarquera quatre astronautes à bord qui iront faire le tour de la Lune (une première depuis 50 ans), mais sans se poser. Fouler le sol de notre satellite naturel sera l’objectif d’Artemis III.
Selon la NASA, 16 fenêtres de tir étaient possibles entre les 6 février et 30 avril. On peut déjà exclure février et mars, avril semble très court comme délai puisqu’il faut inspecter la fusée, trouver le souci, le régler, effectuer des tests, la replacer sur son pas de tir, etc.
Il y a un an, SpaceX a perdu le contrôle du deuxième étage de sa fusée au cours d’un de ses lancements de satellites de Starlink. Des débris avaient été retrouvés en Pologne, mais des chercheurs allemands montrent un an après que la fusée a créé un nuage de lithium dans la haute atmosphère au dessus de l’ouest de l’Irlande s’étendant jusqu’au nord de l’Allemagne à 96 km d’altitude.
Les échecs des lancements de fusées peuvent polluer la haute atmosphère terrestre avec des conséquences inconnues pour la couche d’ozone. Le 18 février 2025, SpaceX lançait une 438e fois un Falcon 9 en dehors de l’atmosphère pour envoyer une vingtaine de satellites Starlink en orbite basse.
L’entreprise s’est félicitée du retour du premier étage de la fusée pour son premier lancement des Bahamas. Mais le 19 février, des Polonais témoignaient de la retombée de débris du deuxième étage de la fusée de SpaceX et l’agence spatiale polonaise POLSA confirmait « que dans la nuit du 19 février 2025, entre 04h46 et 04h48, une rentrée incontrôlée dans l’atmosphère au-dessus du territoire polonais d’un étage de la fusée porteuse FALCON 9 R/B a eu lieu ».
Une détection au-dessus du nord de l’Allemagne
Mais la retombée incontrôlée du deuxième étage du Falcon 9 a eu des conséquences qu’on n’imaginait pas. Des chercheurs et chercheuses de l’institut Leibniz de physique de l’atmosphère ont publié, tout juste un an après, un article scientifique indiquant qu’ils ont pu détecter et mesurer un nuage de lithium dans la haute atmosphère au-dessus de l’ouest de l’Irlande et s’étendant jusqu’au nord de l’Allemagne à 96 km d’altitude.
De fait, leur équipe explique avoir d’abord détecté une multiplication par 10 des atomes de lithium au-dessus de la petite ville de Kühlungsborn, en Allemagne, « environ 20 heures après la rentrée incontrôlée d’un étage supérieur Falcon 9 » avec un lidar, un appareil de détection par laser qui permet aussi d’estimer la distance à laquelle sont détectées les particules.
« La densité maximale de la couche de lithium était inférieure à 3 atomes cm⁻³ pendant la majeure partie de la mesure. Une augmentation soudaine du signal d’un facteur 10 a été détectée juste après minuit UTC le 20 février », expliquent-ils.
Ils ont ensuite mis en place des simulations pour vérifier d’où pouvaient provenir ces atomes. « L’ensemble des trajectoires calculées (en bleu) est représenté sur la figure 3 [ci-dessous] avec une carte thermique de densité de probabilité indiquant la région au-dessus du Royaume-Uni et de l’Irlande où le panache de lithium a probablement pris naissance » :
Sur la carte, le tracé noir représente la trajectoire de rentrée du Falcon 9 et la courbe constituée de petits cercles représente un exemple de trajectoire possible qu’ils ont simulé et qui correspondrait à l’heure de rentrée de la fusée dans la haute atmosphère.
Le lithium, la signature des débris spatiaux
Ils expliquent que le lithium a été choisi comme métal cible « pour détecter les signatures des débris spatiaux en raison de sa présence en quantités infimes dans les météoroïdes chondritiques et de ses applications bien documentées dans les engins spatiaux, notamment les batteries lithium-ion et le revêtement des coques en alliage lithium-aluminium (Li-Al) ».
Leur travail montre que les lidars, et notamment ceux à fluorescence par résonance, peuvent être utilisés pour la détection du lithium dans la haute atmosphère « lorsqu’il est associé à d’autres mesures atmosphériques et étayé par une analyse modélisée ». L’idée est de pouvoir comprendre ce qu’il se passe avant l’entrée dans la couche d’ozone. Des recherches ont déjà montré que la combustion des satellites pourrait gravement endommager la couche d’ozone. Mais la détection et la quantification de polluants dans la couche d’ozone stratosphérique est complexe et chère, selon eux.
Les autrices et auteurs soulignent aussi que leur travail « vient étayer les inquiétudes croissantes selon lesquelles le trafic spatial pourrait polluer la haute atmosphère d’une manière qui n’est pas encore entièrement comprise. La croissance continue des lancements et des rentrées de satellites pourrait entraîner des effets cumulatifs, avec des implications pour la composition atmosphérique à long terme et les interactions climatiques ». Reste une inconnue : les conséquences de cette pollution que ce soit sur cette haute atmosphère ou sur la couche d’ozone.
Rappelons qu’outre la haute atmosphère, les lancements de SpaceX sont responsables d’autres pollutions. Ainsi, un mois avant, en janvier 2025, des débris de Starship sont tombés sur des plages et routes des îles Turques-et-Caïques. Enfin, depuis plusieurs années, les astrophysiciens alertent sur les menaces que font peser les constellations de satellites sur les observations astronomiques, menaces qui se sont accélérées avec la taille de ces constellations.
Rembobine.info, le média qui « lutte contre l’obsolescence de l’info et met en lumière l’impact du journalisme sur nos sociétés », s’est penché sur l’enquête de Next consacrée aux faux sites d’informations en tout ou partie générés par IA. Nous l’avions lancée en février 2025, et elle a récemment dépassé le cap symbolique des 10 000 sites GenAI. Nos confrères y consacrent un article et une interview :
En termes d’impact institutionnel, Rembobine relève que le nombre de sites générés par IA mis en avant par l’algorithme de recommandation de contenus Discover de Google a depuis diminué. Nous reviendrons, cela dit, dans un prochain article sur cette diminution, somme toute relative, avec des chiffres plus précis.
La Commission paritaire des publications et des agences de presse (CPPAP), chargée de reconnaître (ou non) la qualité de service de presse en ligne à un média web, m’a par ailleurs convoqué pour m’auditionner dans le cadre d’un groupe de travail sur les sites générés par IA, et notamment sur la question du plagiat auquel ces sites recourent.
En termes d’impact judiciaire, un seul site généré par IA a depuis été condamné par la justice pour plagiat, et notre enquête n’a fait l’objet d’aucune plainte.
En termes d’impact médiatique et public, l’enquête, initialement relayée par Libération, a fait l’objet de plusieurs reprises, notamment par France Culture, TV5MONDE ou France Télévisions, et l’extension web (gratuite) que nous avons développée afin d’alerter celles et ceux qui l’ont installée qu’ils ou elles consultent un site dont les articles ont été « en tout ou partie générés par IA » est utilisée par près de 10 000 personnes.
Elle permet également de nous signaler des sites GenAI, et nous avons d’ores et déjà reçu plus de 3 000 signalements, mais il nous en reste encore plus de 250 à vérifier… tâche que nous ne parvenons pas à effectuer seuls. Nous pourrions la crowd-sourcer et mutualiser avec d’autres fact-checkers, OSINTers, journalistes et ONG.
Médiamétrie a en outre découvert que les 250 sites générés par IA les plus recommandés par Google étaient, à eux seuls, visités par 15 millions de personnes en moyenne par mois, soit un quart des internautes français (dont 75 % de plus de 50 ans) !
« Il y a le risque de désinformation et de propagation des fake news, bien sûr, mais c’est aussi très dangereux pour les médias dits traditionnels », a précisé l’auteur de ces lignes dans l’interview associée :
« Face à ces faux sites, qui sont pourtant très consultés, ils ont perdu des centaines de millions de pages vues, et donc de revenus publicitaires. C’est un vrai problème pour l’économie des médias !Sans parler du fait qu’en dupliquant leurs articles, tous ces médias générés par IA diffusent des versions différentes d’une même histoire sans que ces dernières ne soient vérifiées. Ça participe à créer du doute sur ce qui est vrai et ce qui ne l’est pas or, plus les gens ont des doutes sur ce qu’est ou non un fait vérifié, plus les risques sont grands de voir arriver des gouvernements autoritaires. On s’en rend bien compte, notamment dans les États-Unis de Trump. »
Entamée début 2024, notre enquête sur les « sites d’information » générés par IA (mais qui ne le précisent pas) nous avait permis d’en identifier 250 en octobre 2024, 500 à Noël, 1 000 fin janvier 2025, près de 3 000 début mars, 6 000 en août, 9 000 en décembre… et plus de 10 000 depuis février 2026. Cette page résume la quarantaine d’articles que nous y avons consacrés depuis février 2025.
Next a découvert que des milliers de soi-disant sites d’information polluent le web et les moteurs de recherche, ainsi que MSN, Google Actualités et son algorithme de recommandation Discover, alors que leurs soi-disant « articles » :
sont (en tout ou partie) générés par IA (mais sans le préciser),
prétendent (à tort) émaner de « journalistes », de « médias » et/ou d’experts/professionnels/passionnés,
ne sont pas vérifiés ni relus avant publication (contrairement au b.a.-ba de n’importe quel métier),
relaient donc potentiellement des « hallucinations/confabulations »,
volent des revenus publicitaires qui auraient dû aller à des médias/journalistes/professionnels,
contribuent au confusionnisme informationnel voire à la désinformation,
relèvent donc d’une « pollution » numérique et médiatique.
Or, le règlement européen sur l’IA (AI Act) obligera les éditeurs à labelliser comme tels les contenus générés par IA (GenAI) à partir d’août 2026. Nous avons donc développé une extension web (gratuite) pour les navigateurs basés sur Chromium (Chrome, Brave, Edge, Vivaldi, Opera, etc.) et Firefox (y compris Android) afin d’afficher un message d’alerte lorsque ses utilisateurs visitent un site dont nous avons identifié que les articles « semblent avoir été (en tout ou partie) générés par IA (GenAI) » (qu’ils soient « full GenAI » ou bien « dopés à l’IA »), mais sans le préciser.
En attendant le « filtre anti-arnaques» promis par le gouvernement (en mars 2022), notre extension intègre aussi les listes noires de Red Flag Domains des 35 000 noms de domaine potentiellement suspects, ainsi que les 2 000 sites web de celle de l’Autorité des marchés financiers (AMF).
Comme indiqué dans le message d’alerte, l’extension flaggue les sites qui « des articles semblent avoir été (en tout ou partie) générés par IA (GenAI) », sous-entendu sans véritable supervision voire sans relecture, et à qui l’on ne saurait donc faire confiance : il s’agit moins de jauger la « qualité » des articles que le fait qu’ils comportent un fort risque d’« hallucinations » générées par IA.
Ces articles et sites GenAI qui polluent le web servent ainsi d’ « armes de désinformation massive », contribuant en outre à l’objectif politique de l’ex-conseiller de Donald Trump Steve Bannon, pour qui « La véritable opposition, ce sont les médias », ce pourquoi il proposa que « la façon de les traiter est d’inonder la zone avec de la merde ».
Nous avons d’ailleurs pu constater que plusieurs des professionnels du référencement – SEO – et du marketing numérique ayant lancé de tels sites générés par IA semblent être fans de Javier Milei, Elon Musk & Donald Trump, entre autres promoteurs politiques de la désinformation, du complotisme et du confusionnisme, et ennemis déclarés du « journalisme ».
De plus en plus de médias et rédactions recourent eux aussi à la GenAI
Au-delà de ces soi-disant sites d’informations n’émanant pas de journalistes, nous avons également découvert (et documenté) que de plus en plus de véritables sites d’information, émanant de passionnés, experts, professionnels et même de rédactions employant des rédacteurs SEO et/ou journalistes, ont eux aussi recours à la GenAI afin de « doper » leurs rédacteurs, et leur permettre de publier un grand nombre d’articles qu’ils ne sauraient pouvoir publier sans recourir à l’IA générative, mais là encore sans le mentionner.
À l’instar du dopage, cette hyperproductivité nuit à la crédibilité du journalisme, non seulement parce qu’elle fausse les statistiques, en surreprésentant les médias dopés par rapport à ceux qui ne le sont pas, mais également parce qu’ils privent les médias qui ne trichent pas des visiteurs uniques et pages vues leur permettant d’une part d’engranger des revenus publicitaires, d’autre part d’être proprement référencés dans les moteurs de recherche.
Nos constats montrent en outre que si les médias dopant leurs rédacteurs et journalistes grâce à la GenAI avancent que leurs contenus sont vérifiés et validés avant d’être publiés, tel n’est souvent pas le cas, au point, pour certains, de publier des articles relayant de fausses informations « hallucinées » (ou « confabulées ») par les IA, et donc de nuire, là encore, à la crédibilité du journalisme et des médias en général, et des journalistes qui ne trichent pas en particulier.
Au commencement était la GenAI (la liste de nos enquêtes)
Notre enquête avait débuté suite au lancement de ChatGPT, fin novembre 2022, et de ses avatars, après avoir publié deux modes d’emploi expliquant comment tenter d’identifier les textes et images émanant d’intelligences artificielles génératives. Ce qui nous avait permis de commencer à identifier ces sites d’infos et articles GenAI.
Mais vu l’ampleur du problème, à mesure que nous en avions identifié plusieurs dizaines au printemps 2024, puis plusieurs centaines fin 2024, nous avions donc proposé au service de fact-checking CheckNews de Libération, à Arrêt sur images ainsi qu’à des fact-checkeurs de Wikipédia, de nous aider à enquêter sur cette « pollution » numérique et médiatique.
Près de 150 des 500 sites GenAI que nous avions initialement identifiés étaient en effet mentionnés comme « sources » sur Wikipédia. Et ce, alors que leurs articles ne semblent avoir été ni relus, ni corrigés, ni validés avant leur publication automatisée (et, donc, sans supervision humaine).
La plupart des articles mentionnés dans l’encyclopédie avaient été publiés avant que leurs noms de domaine (expirés) ne soient rachetés, afin de capitaliser sur leur réputation (ranking) dans l’algorithme de Google, et autres moteurs de recherche.
Nous avons depuis également découvert que, parmi la centaine de professionnels du référencement (SEO) et du marketing numérique qui éditent et administrent ces sites, certains en gèrent plusieurs dizaines, centaines et même plusieurs milliers, sans être en capacité d’identifier combien polluent de la sorte Google, et particulièrement Google Actualités.
Nous avons bien évidemment détaillé notre méthodologie, challengée et vérifiée par les deux contributeurs expérimentés de l’encyclopédie Wikipédia, et les deux journalistes du service de fact-checking CheckNews de Libération.
Next a en outre développé une extension pour les navigateurs compatibles Chrome et Firefox (y compris sur Android), afin d’alerter ses utilisateurs lorsqu’ils consultent un site GenAI (cf sa présentation, et notre méthodologie). Elle les alerte aussi désormais lorsqu’ils visitent aussi des noms de domaines « potentiellement malveillants » identifiés par Red Flag Domains, et des « entités non autorisées à proposer des produits ou services financiers en France » par l’Autorité des marchés financiers.
40 médias français ont depuis demandé à la Justice d’ordonner aux FAI le blocage du site news.dayfr.com. Ce dernier, le plus bourrin du millier de sites d’informations générés par IA que nous avons identifiés, plagiait de 5 à 15 articles… par minute, et jusqu’à plus de 6 000 par jour. Ironie de l’histoire : il a aussi été jusqu’à…. plagier deux des articles mentionnant la plainte le concernant.
Une enquête de l’équipe « pour une IA responsable » de la BBC a par ailleurs découvert que plus de la moitié des réponses fournies par les assistants d’intelligence artificielle (IA) à qui il avait été demandé de chercher leurs réponses dans les articles de la BBC étaient « factuellement incorrectes, trompeuses et potentiellement dangereuses ». Mais également que 20 % d’entre elles ont en outre rajouté des « inexactitudes factuelles » qui ne figuraient pas dans les articles pourtant mentionnés.
Un rapport rédigé par 22 médias de service public européens révèle que près d’une réponse sur deux formulée par les services d’IA générative populaire déforme l’information qui lui est fournie comme source. Qualifiant le phénomène de « distorsion systémique », l’alliance à l’origine de ces travaux appelle le régulateur à garantir le respect de l’information.
Cherchant à satisfaire leurs utilisateurs, les chatbots d’IA générative ont cessé de leur rétorquer qu’ils n’avaient pas de réponse à leurs questions, quitte à raconter n’importe quoi. Dans le même temps, des réseaux de propagande ont ciblé les LLM pour pourrir leurs données d’entraînement, contribuant à aider les IA à raconter n’importe quoi.
Plus d’une centaine (au moins, et probablement plusieurs centaines, voire milliers) des sites GenIA que nous avions initialement identifiés plagient en outre des articles de véritables journalistes, sans mentionner leurs sources ni préciser qu’ils ont été générés avec des IA. Ils sont pourtant, pour la plupart, référencés sur Google Actualités, et parfois relayés par son IA de recommandation algorithmique Discover. Certains se contentent de traduire des articles en français quand d’autres les paraphrasent, rendant leurs plagiats plus difficiles à identifier.
Interrogé par Arrêt sur images, à qui nous avions transmis notre enquête à son sujet, le patron du groupe de presse Économie Matin, par ailleurs co-directeur pédagogique d’une école de journalisme d’extrême-droite, a reconnu que ses articles étaient bien générés par IA, contrairement à ce que son rédacteur en chef adjoint prétendait initialement. Ce dernier, par ailleurs « prompt engineer » du groupe, attribue de son côté les dizaines de plagiats que nous avons en outre identifiés à un « bug du script » envoyé à ChatGPT qui, « étant complètement idiot, parfois, ne fait pas ce qu’on lui dit » (sic).
Notre enquête nous a valu quelques remarques acerbes de la part de professionnels du SEO, au motif que le fait de rendre public le fait que certains de leurs sites sont GenAI pourrait nuire à leur business :
« Les gens veulent manger de la merde ? Donnez en leur à la pelle plutôt que d essayer de buzzer et cherchant à bousiller le business de milliers de sites. »
L’un d’entre eux nous a par exemple rétorqué que de nombreux médias français avaient récemment relayé une « rumeur »… qu’ils n’auraient cela dit probablement pas relayée si les journalistes avaient été informés que l’information initiale avait en fait été « hallucinée » dans des articles générés par IA.
Les sites d’information de la presse quotidienne régionale (PQR) sont, eux aussi, de plus en plus victimes de pure players qui les concurrencent, voire les plagient, tout en étant générés par des IA. Si certains se positionnent comme des « médias indépendants », d’autres ne cherchent qu’à faire du clic. Au point que des journalistes de la PQR se retrouvent à devoir fact-checker des infos erronées car « hallucinées » par les IA qui les publient.
Après avoir analysé un échantillon de 8 795 posts LinkedIn publics de plus de 100 mots publiés entre janvier 2018 et octobre 2024, une start-up de détection de contenus générés par IA a par ailleurs découvert que plus de 50 % d’entre eux étaient GenAI, et que le nombre de messages longs susceptibles d’avoir été générés par IA avait explosé de 189 % dans les mois suivants le lancement de ChatGPT.
Dans son (216e) podcast, Mediarama a en outre reçu Alexandre Laurent, directeur de la rédaction de Next.ink, pour discuter de notre enquête-fleuve sur les 2 000 (au moment de l’enregistrement, mi-février) 3 000 (depuis début mars) « sites d’information » en tout ou partie générés par IA (GenAI) que nous avons identifiés, où il résume (et revient sur) les articles que nous y avons consacrés.
Le Conseil des ministres espagnol a approuvé un avant-projet de loi pour une « utilisation éthique, inclusive et bénéfique de l’intelligence artificielle » qui sanctionnera les contenus ne précisant pas qu’ils sont générés par IA. Il s’agit des adaptations au droit espagnol du règlement européen dit « AI Act » adopté par le Parlement européen en mars 2024
Quatre agences chinoises ont annoncé une nouvelle série de règles qui obligeront les fournisseurs de services, à partir du 1ᵉʳ septembre 2025, à désigner comme tels les contenus générés par IA via des identifiants explicites et implicites (méta-données et/ou filigranes).
Le nombre exponentiel de contenus « GenAI » polluant le web est tel qu’il devient parfois difficile de distinguer les contenus émanant d’êtres humains de ceux générés par des IA. Nous avons, a contrario, identifié plusieurs « faux positifs » dans le cadre de notre enquête sur les sites d’info GenAI. Après avoir expliqué comment identifier de tels contenus, il nous semble important d’expliquer comment nous avons décelé ces « faux positifs », de sorte de ne pas, non plus, contribuer à la « panique morale » autour de la GenAI.
Deux responsables de Google viennent de rappeler aux éditeurs de sites web que la création en masse de grandes quantités de contenu, en particulier à l’aide de l’IA, relève du « spam » (sauf si elle fait montre d’originalité et offre une réelle valeur ajoutée). Or, l’algorithme de recommandation de contenus Discover de Google promeut (au moins) une quarantaine de sites générés par IA (GenAI), dont plusieurs relaient rumeurs et infox.
Le nombre de morceaux de musique identifiés par le détecteur de contenus synthétiques développé par la plateforme est passé de 10 000 à plus de 20 000 par jour entre janvier et avril. 7 à 8 % relèveraient de tentatives de fraude. Le patron de Deezer propose de « légiférer pour que les plateformes rémunèrent les artistes et pas ces bruits », mais ne précise pas comment.
L’an passé, Google a fait face à une crue de publicités reposant sur l’usurpation d’identité, générée par IA, de personnalités, afin de promouvoir des escroqueries. La régie publicitaire de Google a « rapidement constitué une équipe de plus de 100 experts », et suspendu « plus de 700 000 comptes d’annonceurs ». Une célérité qui contraste fortement avec le laxisme de Google et de son algorithme de recommandation de contenus Discover pour ce qui est des médias générés par IA.
Saisie par une quarantaine de médias, qui se plaignaient du fait que ce site plagiait jusqu’à 6 000 de leurs articles… par jour, la Justice ordonne aux quatre principaux FAI le blocage du plagieur en série, d’ici 15 jours, pendant 18 mois.
Google représente 61% des sources de trafic des sites de presse. Pour la deuxième année consécutive, le trafic en provenance de son algorithme de recommandation de contenus Discover explose de + 50%, représentant 68% du trafic émanant des services de Google. Un renversement de tendance qui attire de plus en plus de professionnels du marketing numérique cherchant à profiter de cette « pompe à fric » : 14 % du Top 50 des sites mis en avant sur Discover sont désormais générés par IA.
7 des 50 principaux sites d’information en français mis en avant par l’algorithme Discover de recommandation de contenus de Google sont générés par IA. Plus de 75 sites « générés par IA » (au moins) ont été « recommandés » par Discover ces derniers mois, et 15 y ont même figuré dans son Top50, dont 1 pendant 5 mois, 3 pendant 3 mois, 2 pendant 2 mois, & 4 dans son Top25 (dont un pendant 3 mois consécutifs, un autre 2 mois de suite). Plusieurs éditeurs de sites GenAI comparent Discover à TikTok et le qualifient de « réseau social de Google », voire à « une drogue » susceptible de « générer une dépendance », au vu des milliers d’euros de chiffre d’affaires engrangés, par jour. Deux d’entre eux seraient même devenus millionnaires grâce à Discover, en trois mois seulement.
Des dizaines de médias britanniques ont publié des articles reposant sur des témoignages d’ « experts » qui n’existent pas. Créés pour améliorer le référencement naturel des sites web dont ils se réclament par des pros du SEO et/ou du marketing numérique, leurs « expertises », promues par des agences de mises en relation avec des journalistes, ont été grandement facilitées par les intelligences artificielles génératives.
À lui seul, le plus prolifique des éditeurs de sites francophones générés par IA a réussi à faire promouvoir plusieurs milliers d’articles, dont de très nombreuses fake news, par l’algorithme de recommandation de contenus Discover de Google. Au point que d’autres pros du SEO (pourtant eux-mêmes éditeurs de sites GenAI), en arrivent à se plaindre publiquement de cette surenchère et pollution.
L’algorithme Discover de « recommandation de contenus » de Google, principale source de trafic des sites journalistiques français, est devenu une « pompe à fric » pour les sites monétisés par la publicité, majoritairement financés par… la régie publicitaire de Google. Au point que près de 20 % des 1 000 sites d’info les plus recommandés par Google Discover, et 33 % des 120 sites les plus recommandés par Google News, à la rubrique Technologie, sont générés par IA.
Cet été, un éditeur de sites d’infos générées par IA a accusé plusieurs chaînes d’hypermarchés de vendre des produits cancérigènes, pourris, lavés à l’eau de javel ou recongelés. Ses articles n’en ont pas moins été recommandés par l’algorithme Discover de Google.
Confrontée à une déferlante de fausses informations cet été, la retraite complémentaire a publié à la rentrée un message d’alerte sur son site web. Nous avons découvert que la quasi-totalité des articles mis en avant ces derniers mois par Google au sujet de l’Agirc-Arrco émanaient d’articles (hallucinés, voire mensongers) générés par IA. Et sur les 10 % d’articles émanant de rédactions humaines, plus de la moitié concernaient ces fake news.
Le tsunami de soi-disant sites d’informations générés par IA (GenAI) auquel nous assistons depuis des mois, émanant de professionnels du marketing numérique et du référencement (SEO), contamine aussi la presse. Nous avons en effet identifié (au moins) cinq sites hébergés par deux des plus importants groupes de presse français et reposant eux aussi, « en tout ou partie », sur la GenAI, et susceptibles de doper artificiellement leurs statistiques de fréquentation.
Une ancienne responsable de la division podcast d’Amazon pense avoir trouvé un filon « scalable » susceptible de lui permettre de la rendre richissime. Entièrement générés par IA, en une heure et pour un dollar seulement, ses podcasts sont en effet rentables à partir de 20 auditeurs.
En France, des crèches acceptent des poupées « reborn » (hyperréalistes) au détriment de bébés humains, avance un site du groupe Reworld. Il s’agit en fait d’infox et canulars ayant fait le buzz sur TikTok, relayés au premier degré. Contacté, le directeur des activités numériques du groupe aurait « bien voulu que ce soit une hallucination émanant d’une IA », mais nous « certifie qu’aucun article n’a été écrit par de l’IA ».
Universcience vient de lancer une « IA au service des enseignants ». Elle propose de créer des cours en utilisant la base de données de contenus stockés par la structure de médiation scientifique. Mais les premiers cours présentés dans Ada sont accompagnés d’images générées par IA illustrant de manière absurde, par exemple, l’évolution des espèces en incluant entre autres des voitures.
Premier éditeur de presse magazine en France, et 3ᵉ groupe média sur le web et les réseaux sociaux, Reworld Media estime que les sites d’infos générées par IA auraient fait perdre des dizaines de millions d’euros aux médias depuis que l’algorithme de Google a commencé à recommander leurs articles. Il vient de commencer à… faire pareil, ou presque. Étrangement, nombre de ses articles « augmentés » par l’IA publient comme images d’illustration des… bras cassés coupés.
Le syndicat des journalistes de Politico a remporté une « victoire majeure », qui devrait faire jurisprudence aux États-Unis, en matière de recours à l’IA dans les médias. Leurs rédacteurs en chef avaient plaidé, en vain, que les contenus générés par IA ne devraient pas être soumis aux normes éthiques et éditoriales, au motif qu’elles étaient développées par des ingénieurs, et non par des journalistes.
14 à 16 millions d’internautes français consultent chaque mois l’un des 251 sites d’infos GenAI les plus recommandés par Google et identifiés par Next, selon une étude de Médiamétrie pour le Groupement des éditeurs de services en ligne. Près des trois quarts (74 %) de ces internautes ont plus de 50 ans, au point que ces derniers visitent plus de sites d’infos GenAI que de vrais sites d’actualités. 77 % y sont envoyés par l’un des services de Google (Discover, Search ou Actualités), et 10 % via Meta.
Plus de 20 % des vidéos recommandées par l’algorithme de YouTube aux nouveaux utilisateurs sont des « AI slop » (ou bouillie d’IA en français), du nom donné à ces contenus bas de gamme générés par intelligence artificielle et conçus pour cumuler les vues afin de les monétiser par la publicité.
Les fulgurantes avancées en matière de contenus générés par IA, notamment (audio)visuels, rendront de plus en plus difficile le fait d’identifier ceux qui cherchent à imiter voire usurper des contenus humains. Le patron d’Instagram propose dès lors de renverser la charge de la preuve, en identifiant plus formellement les contenus créés par des humains.
Le tsunami de sites d’infos générées par IA que nous documentons depuis des mois a pris une telle ampleur que le ministère de la Culture vient lui-même de publier un communiqué de presse largement inspiré d’un billet de blog généré par IA, tout en y relayant une erreur « hallucinée » par l’IA.
Arrêt sur images et le Syndicat national des journalistes ont découvert que deux sites de presse quotidienne régionale (PQR) ont publié près de 900 articles en 50 jours « avec l’aide de l’IA » concernant ce qui se passe dans des départements limitrophes pour… induire les préfectures en erreur.
L’épidémie de sites d’informations générés par IA que Next documente depuis des mois vient de faire un premier accident industriel. Un site d’information féminin a en effet laissé entendre, par le truchement d’articles générés (et « hallucinés ») par IA, qu’une certaine Thérèse aurait ouvert une crèche dédiée aux bébés « reborn » (du nom donné aux poupées hyperréalistes). L’infox’ a depuis été reprise, citée et commentée par des milliers de personnes sur les réseaux sociaux, et quelques médias. Sans avoir cherché à le vérifier, ni préciser qu’il s’agit d’une ex-actrice porno, habituée des plateaux de talk-shows depuis 1999 et des réseaux sociaux depuis les années 2010 pour y mettre en scène sa vie fantasque et ses fantasmes.
« Il y a aujourd’hui plus de lobbyistes tech que d’eurodéputé·es à Bruxelles ! », s’étonne synthmedia.fr : un rapport des ONG Corporate Europe Observatory (CEO) et LobbyControl dénombrait en effet, en octobre dernier, 890 lobbyistes tech, contre 720 eurodéputés. En deux ans à peine, le budget des lobbys de la tech est quant à lui passé de 113 à 151 millions d’euros, soit une progression de 33 % :
« En tête de peloton, Meta ouvre la marche avec 10 millions d’euros consacrés à l’influence, talonnée par Microsoft, Apple et Amazon. Les dix plus grandes entreprises du numérique dépensent à elles seules trois fois plus que leurs homologues des secteurs pharmaceutique, financier et automobile réunis, et deux fois plus que celui de l’énergie. »
Cette montée en puissance viserait à détricoter les piliers législatifs du Vieux Continent par le biais de textes tels le Digital Omnibus présenté en novembre 2025 pour simplifier des lois numériques issues de dix ans de réflexion, relève Synth.
Après avoir comparé les argumentaires des lobbyistes adressés aux eurodéputés et la copie rendue par la Commission européenne, Felix Duffy, chargé de campagne chez LobbyControl pointe un « chevauchement assez important » des textes, et y voit un « cadeau fait à Donald Trump et à ses oligarques de la tech ».
« Une montée en puissance qui inquiète et alimente le débat sur la souveraineté numérique du Vieux Continent », écrit Synth, alors que la Commission européenne tente de consolider son arsenal numérique, que l’Union européenne peaufine sa prochaine grande loi numérique, le Digital Fairness Act, que l’administration états-unienne attaque de son côté le Digital Services Act (DSA) et prend la défense des ingérences numériques d’Elon Musk via son média social X.com.
« Les géants américains de la tech ont clairement fait allégeance au président des États-Unis. Derrière ce positionnement, il y a un imaginaire politique de puissance impériale transhumaniste et une volonté assumée de domination », analyse l’eurodéputé écologiste David Cormand : « l’offensive contre les régulations européennes n’est pas seulement politique, elle vise le modèle démocratique lui-même. Il ne peut donc pas y avoir de compromis durable entre nos valeurs et leur modèle ».
« Le plus grand vol de propriété intellectuelle de l’histoire. » Telle était la manière dont le directeur général de la Confédération internationale des éditeurs de musique (ICMP) décrivait en septembre 2025 la manière dont les plus gros éditeurs d’intelligence artificielle (IA) avait réussi à entraîner leurs modèles génératifs.
Et ces débats sur les travaux soumis aux droits d’auteur intégrés dans les bases d’entraînement de large language models (LLM, grands modèles de langage) reviennent en France : selon les travaux menés par Mediapart avec l’appui de Paul Bouchaud, chercheur·euse en post-doctorat au CNRS, le modèle Mistral Large 3 - 2512 de la société française contient notamment les incipits de Harry Potter à l’école de sorciers de J.K. Rowling, du Trône de fer de George R.R. Martin ou encore de 1984, de George Orwell.
Outre les incipits, Mediapart a interrogé l’outil de Mistral pour voir dans quelle proportion il recrachait des textes littéraires, potentiellement issus de LibGen. Base de données pirate, cette dernière a été utilisée par Meta pour entraîner son modèle Llama, notamment à l’instigation du cofondateur de Mistral Guillaume Lample.
Entre autres résultats, Mistral Large 3 a produit près des deux tiers du texte du Petit Prince, d’Antoine de Saint-Exupéry, et plus du tiers du premier tome de Harry Potter. Des chiffres qui tendent à démontrer le recours à ces textes dans l’entraînement du modèle.
De même, dans le domaine musical, Mistral Large 3 produit directement des éléments de chansons d’Elton John, Amel Bent ou Jacques Dutronc, tous engagés contre le recours à leurs textes pour entraîner des systèmes d’IA.
Auprès de Mediapart, Mistral évoque un « principe de réalité » selon lequel certains des contenus précités, « particulièrement populaires, sont répliqués à de nombreuses reprises sur Internet ».
Dans plusieurs cas, le média constate néanmoins que Mistral ne respecte pas les logiques d’opt-out, c’est-à-dire de refus d’alimenter les robots qui permettent aux constructeurs d’IA de récupérer des données en ligne. En effet, sur le site de Radio France comme sur celui de Mediapart, diverses versions de ce droit de retrait ont été appliquées – que ce soit via un fichier robots.txt ou via une mention explicite de refus de scraping dans les conditions générales d’utilisation.
D’après leurs gestionnaires, néanmoins, les robots crawlers de Mistral envoient tout de même des requêtes vers les sites des deux médias.
Un des sites d’archivage en ligne les plus connus, Archive.is (connu aussi sous le nom de domaine archive.today) a mis en place un script envoyant en permanence des requêtes contre un blog qui a publié des informations à son sujet. La communauté anglophone de Wikipédia a décidé de bannir les liens qui renvoient vers cette archive.
La communauté de la version anglophone de Wikipédia a décidé de bannir tout lien vers l’un des sites d’archivage en ligne les plus connus, Archive.today, aussi connu par son autre nom de domaine archive.is.
« Il existe un consensus pour immédiatement désapprouver archive.today et, dès que possible, l’ajouter à la liste noire des spams (ou créer un filtre d’édition qui bloque l’ajout de nouveaux liens), et pour supprimer immédiatement tous les liens vers ce site . Il existe un fort consensus sur le fait que Wikipédia ne devrait pas diriger ses lecteurs vers un site web qui détourne les ordinateurs des utilisateurs pour lancer une attaque DDoS », explique une page de discussion de l’encyclopédie repérée par ArsTechnica. Cela fait plus de 695 000 liens à supprimer à travers 400 000 pages.
Des requêtes via un javascript dans la page de Captcha d’Archive.today
En cause, la mise en place d’une mesure de rétorsion par l’équipe d’Archive.today contre un blogueur. La page de Captcha du site d’archivage sur laquelle toute personne tombe avant d’accéder au site contient un script lançant en permanence des requêtes vers le blog d’un ingénieur de Google, Jani Patokallio, depuis plus d’un mois.
En 2023, il a publié un billet à propos du site après avoir glané quelques informations sur l’organisation du site qui est, elle, très discrète. « Internet Archive est une organisation à but non lucratif légitime régie par l’article 501(c)(3) du code fiscal américain, avec un budget de 37 millions de dollars et 169 employés à temps plein en 2019. archive.today, en revanche, est une énigme opaque », constatait-il.
Comme Jani Patokallio l’explique, jusque là, ce texte « n’avait pas vraiment enflammé la blogosphère ». Mais début novembre, on apprenait que le FBI cherchait à obtenir l’identité du responsable d’Archive.today. À cette occasion, des sites d’actualités numériques comme Heise, ArsTechnica mais aussi Next avaient cité son billet.
Une demande de dépublication temporaire d’un billet vieux de 2023
L’auteur du billet affirme avoir reçu un email du webmaster d’archive.today le 9 janvier dernier lui demandant « poliment » de dépublier le billet de 2023 « pendant quelques mois ». Jani Patokallio affirme que, dans leur conversation (qu’il a publiée), la personne explique qu’elle n’en a pas particulièrement contre son billet mais plutôt contre la reprise dans les médias d’informations glanées sans contexte.
Les contributeurs et contributrices de la Wikipédia anglophone ont donc considéré que l’encyclopédie ne devait pas renvoyer ses lecteurs vers un site web qui les utilisent pour créer une attaque DDoS, malgré le fait qu’ « Archive.today contient une quantité considérable d’archives qui ne sont disponibles nulle part ailleurs. Ni sur Wayback Machine, ni ailleurs. » De plus, lors de la discussion, « des preuves ont été présentées montrant que les opérateurs d’archive.today ont modifié le contenu des pages archivées, le rendant ainsi peu fiable ».
Les utilisateurs du bloqueur de publicité ublock origin qui visiteraient archive.today ne participent pas à cette attack DDoS, le blog de Jani Patokallio ayant été ajouté à une liste utilisée par l’extension. « Cela n’empêche pas les utilisateurs de naviguer directement vers mon blog », explique-t-il.
Le pape Leon XIV appelle les prêtres catholiques à résister « à la tentation de préparer leurs homélies avec l’intelligence artificielle ». « C’est la même chose pour tous les muscles du corps : si nous ne les utilisons, si nous ne les bougeons pas, ils meurent. Le cerveau doit être utilisé, notre intelligence doit être exercée pour que nous ne perdions pas en capacité », a-t-il déclaré dans un entretien rapporté par Vatican News.
Quoiqu’orienté dans le domaine religieux, le positionnement fait écho aux enjeux évoqués auprès de Next par la philosophe Anne Alombert, qui soulignait les risques que le recours régulier à l’IA peut faire peser sur la capacité à développer une réflexion.
Dans ce contexte, Leon XIV a déclaré au clergé de Rome que partager une « vraie homélie » revient à « partager la foi ». Et d’insister sur le fait que l’IA « ne pourra jamais partager la foi ».
Dans la même logique, le souverain pontife a prévenu contre le danger de la course aux likes et aux followers sur des plateformes comme TikTok, qu’il a qualifiée d’ « illusion » de nature à détourner de la foi.
Durement sanctionné en bourse après la publication de ses derniers résultats financiers, l’éditeur Dassault Systèmes a annoncé samedi le départ de son PDG, Bernard Charlès, « pour raisons personnelles ».
Ce dernier ne fait pas valoir ses droits à la retraite, comme le veut la formule consacrée, mais dit vouloir désormais « mettre ses 43 années d’expérience dans l’industrie, ainsi que sa vision de la transformation par l’IA des processus industriels de création et de production, au service de l’économie générative », selon un communiqué.
Le conseil d’administration passe le relais à Pascal Daloz qui endosse donc la casquette de président du conseil, en complément des fonctions opérationnelles qu’il assurait déjà. Entré chez Dassault Systèmes en 2001, Pascal Daloz en était déjà directeur général depuis 2024.
« Pascal et moi travaillons en tandem depuis 25 ans : il a toute ma confiance pour diriger l’entreprise et organiser le travail du Conseil, commente Bernard Charlès. Cette décision reflète la continuité et la solidité de notre gouvernance, un pilier essentiel de la confiance que nous accordent nos grands clients partout dans le monde. Je suis fermement convaincu que cette nouvelle configuration crée les meilleures conditions pour permettre à Dassault Systèmes de continuer à se développer avec succès. »
Bernard Charlès (68 ans) tire sa révérence chez DSY – crédit Dassault Systèmes
Avec 5,6 milliards d’euros de chiffre d’affaires en 2024, Dassault Systèmes occupe pour mémoire la première place du classement 2025 des éditeurs de logiciels français réalisé par Numeum (PDF), devant Ubisoft, Criteo, Cegid et Sopra Steria.
Dassault Systèmes, dont environ 50 % du capital sont flottants (disponibles pour des échanges sur le marché) a subi une sévère déconvenue en bourse mi-février, avec une action en recul de près de 30 % sur un mois. Raison de cette chute, qui intervient dans un contexte de défiance des marchés vis-à-vis des grands noms du logiciel en raison des craintes liées à l’impact de l’IA ?
L’éditeur de Solidworks et de CATIA, par ailleurs très investi dans le cloud, a publié le 11 février dernier des résultats financiers considérés comme décevants, et assorti ces derniers de prévisions prudentes pour son exercice 2026.
« Chez Dassault Systèmes, notre ambition est claire : mener la transformation de l’IA industrielle grâce aux 3D UNIV+RSES [l’appellation marketing qui regroupe les technologies et services dédiés à la création de jumeaux numériques, ndlr]. Il ne s’agit pas d’un objectif à court terme mais d’un engagement de long terme visant à redéfinir la manière dont les industries innovent, opèrent et restent compétitives. Notre vision capitalise sur des décennies d’expertise industrielle et scientifique et nous déployons désormais les capacités nécessaires pour la concrétiser. Une véritable transformation demande du temps, pour nos clients comme pour nous-mêmes », déclarait à cette occasion Pascal Daloz.
Attends, je débranche celui-là, ça laissera une place
Alors que, l’année dernière elle reconnaissait que la qualité des réseaux en fibre s’est améliorée, l’Arcep demande maintenant à la filière de maintenir ses efforts. L’autorité constate, en publiant son observatoire sur la qualité des réseaux en fibre optique, que « la qualité de l’exploitation se stabilise sur la majorité des réseaux »
L’Arcep a publié ce jeudi 19 février sa 7ème édition de l’observatoire sur la qualité des réseaux en fibre optique, utilisant les chiffres jusqu’en septembre 2025. Depuis juillet 2023, le régulateur met en avant ses constats sur ce réseau qui, à l’époque, souffrait de nombreuses critiques des clients.
En septembre dernier, l’Arcep constatait que la situation continuait à s’améliorer et sa présidente, Laure de la Raudière, expliquait « que c’était très long pour avoir ces résultats ».
Mais le régulateur semble indiquer que la vitesse d’amélioration est encore plus faible. « La qualité de l’exploitation se stabilise sur la majorité des réseaux », affirme l’Arcep dans son communiqué.
Amélioration du taux de pannes signalées aux opérateurs d’infrastructure
Il constate une amélioration du taux de pannes signalées aux opérateurs d’infrastructure par les opérateurs commerciaux. « Depuis la publication de la première édition de l’observatoire sur la qualité des réseaux en fibre optique, le nombre de réseaux présentant un taux de pannes supérieur ou égal à 1 % est en diminution, passant de 9 réseaux (représentant environ 420 000 abonnés) à 3 réseaux (représentant 83 500 abonnés) en septembre 2025 », explique l’autorité dans son rapport.
Avec, en parallèle, un nombre plus important de réseaux passant sous les 0,3 % : « de 187 réseaux (représentant 20,5 millions d’abonnés) à 196 réseaux (représentant 23,4 millions d’abonnés) en septembre 2025 ». Finalement, l’Arcep constate un taux de pannes national « de 0,11% en moyenne sur la période concernée ».
Les données de l’Arcep montrent aussi l’évolution dans le temps du taux de pannes mensuel agrégé par maison mère d’opérateurs. Et on peut voir qu’après s’être beaucoup améliorés en 2024, les opérateurs d’Iliad sont revenus à un taux de pannes moyen de plus de 0,5 % alors que les autres sont tous bien en dessous :
Dans une note sous ce graphique, l’Arcep explique que, « depuis 2023, le groupe Iliad, par l’intermédiaire de sa filiale Réseau Optique de France, met en œuvre un plan de modification structurelle de son réseau. Celui-ci vise notamment à substituer les « Points de Mutualisation Grande Capacité » par des points de mutualisation intérieurs et extérieurs. Cette démarche s’est intensifiée à la fin de l’année 2025 et a pu entraîner des interruptions de service pour les utilisateurs. Le déploiement de ce plan devra être achevé au plus tard le 31 décembre 2026 ».
Une stabilité des taux d’échecs
Concernant le taux d’échecs au raccordement, l’autorité constate « une stabilité globale des taux d’échecs au raccordement sur les derniers mois d’observation ».
« La moyenne nationale des taux d’échecs au raccordement s’établit à 5,88 % en septembre 2025 », explique l’Arcep. Mais elle ajoute que « 31 réseaux présentent un taux d’échecs au raccordement supérieur ou égal à 11 %, soit 2 réseaux de plus que dans la précédente version de l’observatoire » et « 82 réseaux présentent un taux d’échec au raccordement inférieur ou égal à 5 %, soit 13 réseaux de moins que dans la précédente version de l’observatoire ».
L’observatoire mesure aussi la qualité des raccordements effectués par les opérateurs commerciaux. Comme la dernière fois, quelques précautions sont néanmoins à prendre puisque le régulateur ne s’appuie que sur les données de l’opérateur d’infrastructure Altitude, mais l’Arcep indique qu’elle poursuit les travaux pour obtenir des données d’autres acteurs.
On peut néanmoins observer dans les chiffres d’Altitude une augmentation nette des malfaçons chez SFR au dernier trimestre 2025 et une baisse importante chez Free (plus la couleur est foncée dans les graphiques, plus le problème est important) :
Amélioration sur la reprise des malfaçons
L’observatoire recueille aussi les données sur la reprise des malfaçons par les opérateurs commerciaux qui doit en théorie être effectuée dans les 30 jours.
Orange et Bouygues sont les bons élèves depuis longtemps avec « des niveaux élevés et relativement stables, avec une performance supérieure pour Orange sur l’ensemble de la période », selon l’Arcep. Elle observe que « SFR et Free montrent une amélioration progressive en 2025 réduisant l’écart avec les autres opérateurs, mais qui reste insuffisante » :
Au global, « le taux national moyen de malfaçons reprises sous 30 jours s’améliore, passant de 73 % en février 2025 à 82 % en août 2025, et les écarts entre les opérateurs commerciaux tendent à se réduire ».
Sur les abonnés affectés par au moins une panne au cours du mois, l’Arcep « observe des disparités entre les réseaux » :
Poursuivre les efforts
Elle ajoute observer, pour cet indicateur, « une relative stabilité […] malgré une hausse à 2,0 % en septembre 2025. La moyenne annuelle (sur douze mois glissants) s’établit à 1,74 % ».
Dans son communiqué, l’Arcep insiste sur le fait que si elle observe une stabilisation au niveau national, « les efforts engagés par la filière doivent se poursuivre, notamment sur les réseaux les plus dégradés ».
Notamment, elle explique que « les taux de pannes et d’échecs au raccordement observés sur certaines zones concernées par un plan de reprise demeurent souvent supérieurs aux standards du marché ».
Passage de flambeau historique à la tête de la division Xbox chez Microsoft. Phil Spencer, qui incarne littéralement la console depuis son lancement, il y a 25 ans, a annoncé vendredi son départ à la retraite, 38 ans après son entrée chez l’éditeur. Dans un message interne reproduit sur le blog de Microsoft, il explique avoir fait part de sa décision à Satya Nadella, CEO du groupe, à l’automne dernier, et indique rester en support de la nouvelle équipe dirigeante jusqu’à l’été.
Si ces modalités laissent augurer un départ négocié dans le calme, le départ de « P3 » (son gamertag Xbox) s’accompagne d’une autre défection. Sarah Bond, présidente de Xbox, a en effet elle aussi annoncé quitter l’entreprise, alors qu’elle faisait figure de favorite évidente pour prendre la suite de Phil Spencer.
Sur LinkedIn, cette dernière a annoncé sa décision en expliquant qu’elle avait été missionnée pour boucler l’intégration d’Activision-Blizzard-King. « Nous avons relevé certains des plus grands défis que cette organisation ait jamais connus, et nous l’avons fait en équipe », y déclare-t-elle, avant de se dire encline à passer à la prochaine étape de sa carrière.
Satya Nadella a de son côté annoncé que la division Microsoft Gaming serait désormais pilotée par Asha Sharma, placée sous sa supervision directe en tant que CEO de Microsoft Gaming. Entrée dans les équipes il y a deux ans, elle occupait jusqu’ici la tête de la branche produit de Microsoft CoreAI, la division chargée de piloter les projets d’ingénierie IA de l’éditeur.
Asha Sharma est la nouvelle patronne de Xbox. À ses côtés, Matt Booty, prend la tête de tous les contenus. Il était jusqu’ici en charge de Xbox Game Studios – crédit Microsoft
Elle a précédemment occupé le poste de directrice exécutive chez Instacart (un spécialiste de la livraison de produits alimentaires), et passé plusieurs années chez Meta en tant que vice présidente chargée du produit autour de la messagerie et d’une partie des services entreprises.
Dans son propre message d’introduction, relayé à la suite des propos de Nadella et Spencer, Asha Sharma affirme se fixer trois engagements : la priorité aux bons jeux, le retour de Xbox (une façon implicite de répondre aux rumeurs persistantes selon lesquelles Microsoft envisage de sortir du matériel pour ne devenir qu’un éditeur ?) et « l’avenir du jeu », avec une promesse qui résonne tout particulièrement dans l’actualité du secteur :
« À mesure que la monétisation et l’IA évoluent et influencent notre avenir, nous ne privilégierons pas l’efficacité à court terme ni n’inonderons notre écosystème de bouillie IA [AI slop, ndlr] sans âme. Les jeux sont et resteront toujours un art, façonné par des humains et créé grâce aux technologies les plus innovantes que nous mettons à leur disposition. »
Moins j’augmente plus vite, plus j’augmente moins vite
À partir du 1ᵉʳ avril, OVHcloud va fortement augmenter le prix de ses VPS 2026. En cause, l’explosion du prix de la mémoire et du stockage… mais pourquoi cela concerne-t-il du matériel qui a déjà de nombreuses années ? OVHcloud veut « équilibrer » ses tarifs en limitant les hausses des nouveaux produits à venir et en augmentant ceux des anciennes gammes pour « compenser ».
En août dernier, OVHcloud lançait de nouveaux VPS avec un tarif agressif (lire notre test), à partir de 4,58 euros par mois pour 4 vCore, 8 Go de mémoire et 75 Go de stockage, mais seulement 400 Mb/s de bande passante.
Plus de 40 % sur les VPS 2026 d’entrée de gamme,+ 20 % sur les IPv4
Dans un message publié sur X vendredi, Octave Klaba (qui a repris les rênes de l’entreprise fin 2025) annonçait des hausses à venir : « On prévoit d’impacter légèrement les prix du Cloud déployé entre 2021 et 2025, en moyenne de + 2 % à+ 6 %, en fonction de l’ancienneté du hardware, et de faire évoluer légèrement les prix des IPv4 ». Des chiffres optimistes puisque la réalité est bien différente.
Des emails ont en effet été envoyés aux clients concernés, expliquant que la « gamme VPS 2026, de VPS 1 à VPS 6 et les VPS en Local Zones », ainsi que « les adresses Additional IPv4 » sont concernées par les hausses de prix. OVHcloud n‘y va pas avec le dos de la cuillère. La société est en effet bien loin des « + 2 % à+ 6 % » mis en avant par son PDG, puisque le VPS 1 passe de 5,39 à 7,79 euros (hors remise liée à un engagement de 6 ou 12 mois), soit environ 45 % de hausse !
Selon les retours sur X, c’est plus ou moins la même chose sur les autres offres de la gamme. Le VPS 2 passe ainsi de 8,39 à 11,99 euros par mois (hors remise), soit 43 % de hausse, explique #Kero. Si vous êtes touchés par les hausses, n’hésitez pas à nous laisser un commentaire avec les anciens et nouveaux tarifs des services concernés. OVHcloud n’a pour le moment pas communiqué officiellement sur l’ensemble des nouveaux tarifs à venir.
Une hausse (VPS) peut en cacher une autre (IP) : l’adresse IPv4 supplémentaire est actuellement facturée 2,39 euros par mois, mais elle passera prochainement à 2,87 euros, soit 20 % de hausse. Là encore, nous sommes loin de la « moyenne de + 2 % à+ 6 % » annoncée par Octave Klaba, sans parler de « faire évoluer légèrement le prix des IP v4 ».
Ces changements interviendront « à compter du mercredi 1 avril 2026 », selon l’email envoyé aux clients. Octave Klaba prévoyait de son côté « l’application des nouveaux tarifs au 1ᵉʳ avril 2026 ou au 1ᵉʳ mai 2026 ». D’ici là, il est possible de souscrire aux tarifs actuels ou de prolonger un abonnement existant, y compris sur des formules avec un engagement de six ou douze mois (il n’y a pas d’engagement de 24 mois sur les VPS 2026). Lors du renouvellement après le 1ᵉʳ avril par contre, les nouveaux tarifs seront appliqués.
« Cette évolution tarifaire ne s’applique pas aux gammes de serveurs Kimsufi et So you Start. Les performances des services concernés, leur disponibilité ainsi que les niveaux de support restent inchangés », explique l’hébergeur dans son email.
Réduire les augmentations en augmentant les tarifs
Comme nous l’avons expliqué dans notre test du VPS d’OVHcloud, l’hébergeur utilise des CPU d’anciennes générations pour au moins une partie de ses VPS. Dans notre cas (un VPS 1 avec 4 vCores), c’est la génération Haswell lancée il y a plus de 10 ans par Intel. Comme nous l’avons vu avec le test du VPS d’Ionos, un CPU récent change complètement la donne sur les performances.
L’amortissement du matériel est donc théoriquement déjà fait depuis longtemps. Pourquoi donc cette hausse, justifiée notamment par le fait que « le coût de composants matériels [mémoire et stockage, ndlr] a augmenté » ?
Octave Klaba y va de son explication sur les réseaux sociaux :
« Chez OVHcloud, nous voulons réduire l’impact de ces augmentations de composants pour éviter que notre Cloud (Public Cloud, Private Cloud, Bare Metal) ne devienne trop coûteux. C’est pourquoi, pour le Cloud que nous allons déployer en 2026 - 2028, nous avons décidé d’augmenter les prix de manière moins importante que les coûts réels de la RAM et des disques. Le prix de notre Cloud en 2026 - 2028 va ainsi évoluer, en moyenne, de + 9 % à+ 11 % seulement. Pour compenser, on prévoit d’impacter légèrement les prix du Cloud déployé entre 2021 et 2025 ».
OVHcloud veut « rendre acceptable le prix des gammes 2021 - 2028 »
L’hébergeur augmente donc le prix de ses anciennes offres pour limiter la hausse sur le prix des nouvelles. On attend maintenant de voir ce que les «+ 9 % à+ 11 % » donneront vraiment dans la pratique. L’idée est donc de « rendre acceptable le prix des gammes 2021 - 2028, avec une prévision de retour à la normale en 2029 ».
Pour le PDG d’OVHcloud, l’augmentation du prix de la RAM et des disques « va encore se poursuivre pour trouver un nouveau point d’équilibre entre l’offre et la demande probablement vers fin 2026 », mais « les prix resteront importants jusqu’à au moins 2028, le temps que de nouvelles capacités de production de mémoire voient le jour ».
Le prix n’est pour OVHcloud pas le seul problème, il y a également la question de la disponibilité : « même avec une telle augmentation de prix, la RAM et les disques ne sont pas disponibles si facilement sur le marché. Pour avoir la certitude d’être livré, il est nécessaire de passer les commandes 12 mois à l’avance, sans connaître le prix d’achat ! Les prix sont en effet communiqués 1 à 2 mois après livraison, en fonction de l’offre et de la demande dans le trimestre ».
Cette hausse de prix et cette pénurie de composants font au moins quelques heureux. Lors du salon IT Partners qui se tenait début février à La Défense Arena, nous avons discuté avec plusieurs entreprises spécialisées dans le reconditionnement et la revente de matériel informatique. Ils étaient unanimes : leur activité est en forte croissance durant cette période compliquée pour la disponibilité et le prix des composants.
Ilia D., un ressortissant russe de 39 ans, a été condamné par le tribunal judiciaire de Paris, ce jeudi 19 février, à cinq années de prison (dont une avec sursis) et à 80 000 euros d’amende pour de multiples atteintes à des systèmes informatiques, extorsion, association de malfaiteurs et blanchiment aggravé.
Une peine assortie d’une interdiction de territoire français de dix ans, précise Le Monde, pour qui il s’agirait de « l’un des premiers dossiers majeurs en lien avec ce type de cybercriminalité », en France. Ilia D. a en effet été reconnu coupable de plusieurs dizaines de cyberattaques à l’aide du logiciel malveillant Phobos, utilisé pour paralyser les réseaux informatiques d’entreprises et de collectivités locales françaises.
Son épouse, Marina D., 34 ans, a été condamnée pour non-justification de ressources à un an de prison, une peine « largement couverte par ses deux années de détention provisoire », souligne Le Monde. Le parquet avait requis huit ans de prison et 100 000 euros d’amende pour Ilia D. et deux ans de prison pour son épouse. Aucun des deux prévenus ne fera appel du jugement, ont déclaré leurs conseils respectifs au Monde.
Ilia D. n’avait pourtant jamais cessé de nier les faits qui lui étaient reprochés, depuis le début de la procédure et lors de l’audience devant la 13ᵉ chambre correctionnelle du tribunal judiciaire de Paris, mercredi 11 février. Il accusait des pirates d’avoir utilisé son ordinateur pour mener des attaques, et l’impliquer comme bouc émissaire.
Des conteneurs chiffrés cachés derrière des fichiers sonores dans une de ses clefs USB contenaient cela dit « toute la méthodologie pour être un affilié de rançongiciel. J’achète des accès [à des réseaux informatiques], je prends attache avec un blanchisseur. Et puis il y a ce fameux journal de bord », a de son côté détaillé le substitut du procureur, Aurélien Brouillet, en référence à un fichier texte contenant un historique détaillé d’attaques menées contre des victimes de rançongiciel : « En fait c’est parfaitement logique, c’est son travail. »
L’article ne détaille pas quand ni comment ils avaient été identifiés puis arrêtés, souligne que le prévenu expliquait ne pas se souvenir du code de déverrouillage de son ordinateur, mais ne précise pas comment les fichiers chiffrés auraient été décryptés.
Bercy a annoncé vendredi après-midi son accord pour la vente d’Exaion par EDF à l’américain Mara, assorti de plusieurs conditions censées garantir la protection des intérêts français. Le montage prévoit l’entrée d’un nouvel investisseur au capital : Xavier Niel, via sa holding NJJ.
L’affaire était devenue très politique, avec un retentissement qui dépassait sans doute la portée réelle des activités d’Exaion en matière de souveraineté énergétique ou industrielle. Qu’importe, l’État semble avoir réussi à négocier avec Mara des conditions à même d’éteindre la polémique : Bercy a en effet annoncé vendredi avoir autorisé la vente d’Exaion à l’américain, mais en l’assortissant de plusieurs conditions contraignantes.
Ancrage et gouvernance propice aux intérêts français garantis
Bercy impose en premier lieu l’internalisation chez EDF de la plupart des activités que son ancienne filiale réalisait pour le groupe, de façon à assurer « l’absence d’hébergement de toute donnée sensible d’EDF sur les serveurs d’Exaion ». Pour les sujets moins sensibles, l’accord prévoit le maintien en France des activités réalisées par Exaion au profit de son ancienne maison mère.
L’État indique par ailleurs avoir fait lever la clause de non-concurrence exigée au départ par Mara de l’ancien propriétaire, qui aurait pu empêcher l’énergéticien de développer certains projets en rapport avec le calcul ou les infrastructures informatiques.
Xavier Niel dans les bagages
Enfin, il a obtenu que l’offre d’acquisition soit révisée pour faire entrer un nouvel acteur autour de la table, le fonds NJJ détenu par Xavier Niel. Du fait de ce nouvel actionnaire, présent aux côtés d’EDF Pulse Holding et donc du nouveau majoritaire qu’est Mara, « les intérêts français représentent désormais près de la moitié du capital d’Exaion », affirme Bercy.
L’investissement de NJJ s’incarne par une prise de participation de 10 % au capital de Mara France, la société de tête qui va intégrer les activités d’Exaion.
« Le conseil d’administration d’Exaion comptera trois représentants désignés par Mara Inc, trois représentants désignés par EDF Pulse Ventures, un représentant désigné par NJJ et le directeur général et co-fondateur d’Exaion. Xavier Niel ainsi que Fred Thiel, CEO Mara Inc, siégeront au sein du conseil d’administration d’Exaion. », précise EDF, qui reste donc à la fois client et actionnaire d’Exaion.
« Dans cette opération, l’État avance sur deux jambes : nous confirmons l’attractivité de la France pour les investissements internationaux, tout en assurant une protection intransigeante de nos intérêts stratégiques et de notre souveraineté technologique. », se félicite Roland Lescure, ministre de l’Économie, dans un communiqué.