↩ Accueil

Vue normale

☕️ Amazon perd le responsable de son AI Lab, qui part en quête de l’IA générale (AGI)

25 février 2026 à 17:30

C’est via un message sur LinkedIn que David Luan annonce son départ d’Amazon, une entreprise qu’il avait rejointe il y a un peu moins de deux ans suite au rachat de sa start-up Adept AI Lab. Il avait auparavant passé un an chez Google et un peu moins de trois ans dans les équipes d’OpenAI chez qui il a eu « la chance de participer à l’incubation des premiers GPT ».

« Il y a un travail incroyable à accomplir chez Amazon et des opportunités pour moi de m’investir dans de nouveaux domaines. Mais avec l’intelligence artificielle générale (IAG) si proche, j’ai décidé de consacrer 100 % de mon temps à enseigner aux systèmes d’IA de toutes nouvelles capacités ».

Amazon serait-elle en retard pour qu’il quitte ainsi l’entreprise ? Selon The Verge, la réponse est clairement oui : « La perte d’un développeur d’IA de premier plan chez Amazon intervient alors que l’entreprise peine à suivre le rythme de la course à l’IA ; même ses propres employés qualifieraient ses produits d’IA internes de « Amazon Basics » ».

Il quittera son poste à la fin de la semaine, Peter Desantis prendra la relève. Cela fait plus de 27 ans qu’il est en place chez Amazon.

Discord temporise sur la vérification d’âge

25 février 2026 à 17:10
Pomme de Discord
Discord temporise sur la vérification d’âge

Face à la bronca d’une partie de ses utilisateurs, Discord met en pause son projet de vérification d’âge généralisée, et prévoit désormais un déploiement au second semestre. L’entreprise promet par ailleurs qu’elle fournira des garanties supplémentaires en matière de respect de la vie privée, au sein de ses propres outils comme dans le choix des prestataires techniques. Elle affirme par exemple avoir abandonné l’idée de travailler avec l’entreprise Persona.

Discord, à qui la rumeur prête l’intention d’aller en bourse, a récemment dévoilé son plan pour vérifier, à l’échelle mondiale, l’âge de ses utilisateurs, afin de protéger les jeunes publics des contenus sensibles. Si l’annonce a peut-être été perçue positivement par l’administration des pays qui veulent imposer un contrôle d’âge avant l’accès aux réseaux sociaux… force est de constater que Discord a raté son effet vis-à-vis de sa cible principale.

Depuis l’annonce du 9 février, la plateforme fait en effet l’objet d’une véritable bronca sur les réseaux sociaux. Les protestations n’émanent bien sûr que d’une infime portion des 200 millions d’utilisateurs revendiqués par la plateforme, mais le bruit qu’elles génèrent a conduit Discord à admettre s’être plantée dans les grandes largeurs. Et donc, à revoir ses plans, comme elle l’a expliqué mardi 24 février dans un billet en forme de mea culpa.

90 % des utilisateurs n’auront pas à justifier leur âge

Alors que le communiqué qui a mis le feu au poudre était simplement signé Discord, c’est cette fois Stanislav Vishnevskiy, cofondateur et directeur technique de la plateforme, qui prend la plume. En préambule, il admet s’être attendu à ce que cette décision de systématiser la vérification d’âge fasse du bruit, mais sans doute pas à un tel niveau. Il affirme dans le même temps que si cette décision a été mal comprise, c’est sans doute parce qu’elle a mal été expliquée, et s’abstient de rejeter la faute sur la couverture médiatique de l’événement :

« Tel que le message a été reçu, beaucoup d’entre vous ont cru que nous exigions une numérisation faciale et le téléchargement d’une pièce d’identité de tous les utilisateurs de Discord. Ce n’est pas le cas, mais le fait que tant de personnes le croient prouve que nous avons failli à notre mission première : expliquer clairement ce que nous faisons et pourquoi. Nous en sommes responsables. »

Rappelons que Discord avait annoncé que tous les comptes de ses utilisateurs seraient passés début mars en mode ado (teen mode), avec désactivation des contenus sensibles par défaut, et indiqué qu’il faudrait justifier de son âge pour modifier ce paramètre avec trois scénarios identifiés : une détection automatisée via un modèle d’inférence, une estimation de l’âge par reconnaissance faciale ou la fourniture d’un document d’identité attestant de son âge à un service de vérification partenaire.

En dépit de la proximité de l’échéance, Discord restait évasif sur la sélection des partenaires autorisés, ou la proportion exacte des utilisateurs susceptibles d’être automatiquement reconnus comme des adultes. L’entreprise se veut désormais nettement plus catégorique, même s’il faudra attendre encore pour les détails techniques :

« Plus de 90 % des utilisateurs n’auront jamais besoin de vérifier leur âge pour continuer à utiliser Discord comme aujourd’hui. Ceci est rendu possible notamment grâce à nos systèmes de sécurité internes, capables de déterminer l’âge de nombreux utilisateurs adultes sans aucune intervention de leur part. Nous détaillerons la méthodologie employée dans un article de blog technique avant le lancement mondial. »

Pour les 10 % restants, une histoire de confiance

Aux près de 10 % restants, Discord promet que l’éventail de solutions garantira la possibilité de justifier leur âge sans lui révéler leur identité. La plateforme souligne également que la vérification d’âge n’est imposée que si l’on souhaite accéder aux contenus dits sensibles.

Pour Stanislav Vishnevskiy, c’est le recours à une solution tierce qui garantit cette étanchéité entre contrôle de l’âge et connaissance de l’identité. « L’idée est simple : nous ne voulons pas savoir qui vous êtes. Nous avons juste besoin de savoir si vous êtes majeur. Et cela fonctionne dans les deux sens : un prestataire n’a aucun moyen de relier votre identité à votre compte Discord. C’est voulu ».

Sans même parler des considérations relatives au double anonymat qui n’est souvent pas tout à fait anonyme d’un point de vue réglementaire, l’argument ne se tient que si l’on a véritablement confiance dans le prestataire chargé d’opérer cette jonction. Sur ce point, Discord promet une sélection drastique, qui passerait par un audit de sécurité et de respect de la vie privée, notamment pour vérifier que les données soumises à contrôle sont bien supprimées dès que possible, etc.

Discord prend ses distances d’avec Persona

Comme pour donner du corps à cette vague promesse, Discord indique dans son billet avoir testé au Royaume-Uni la solution Persona, avant de la révoquer. Cette mention explicite ne doit rien au hasard.

Persona est en effet l’un des prestataires spécialisés disponibles sur le marché. C’est par exemple la solution mise en œuvre par LinkedIn pour son programme de vérification d’identité, et c’est également celle que l’on retrouve chez Roblox ou Reddit, dans les pays tels que le Royaume-Uni ou l’Australie, qui interdisent l’accès aux réseaux sociaux aux moins de 16 ans.

C’est aussi, comme l’a récemment rappelé Open Rights Group, une société financée et donc codétenue par Peter Thiel, le cofondateur de Palantir, l’entreprise star de l’analyse prédictive dont les outils sont mis en œuvre par l’ICE, outre-Atlantique, dans sa chasse aux immigrés en situation irrégulière. C’est enfin, accessoirement, une solution dont la sécurité a récemment été mise en défaut.

Promesses de transparence

Comment se prémunir d’un choix douteux ? Discord met l’accent sur la possibilité de choisir entre différentes options, ainsi que sur la « transparence complète » qui sera la sienne : « Nous documenterons sur notre site web tous les prestataires de vérification avec lesquels nous collaborons, y compris leurs pratiques en matière de traitement des données. Vous n’aurez plus à vous demander qui gère vos informations. »

La plateforme précise également préparer l’introduction d’une vérification d’âge basée sur une carte de paiement (sans en préciser le fonctionnement), et jure qu’elle communiquera en détails sur tous ces changements d’ici le lancement officiel, désormais programmé pour le deuxième semestre 2026. Reste à voir si ce discours, mieux rodé mais pas radicalement différent de l’annonce initiale sur le fond, suffira à éteindre l’incendie.

☕️ #LIDD : Elon Musk a fait de Twitter une zone de « guerre civile » dystopique

25 février 2026 à 16:12

Une fois encore, le décryptage que propose John Oliver dans Last Week Tonight de ce qu’est devenu Twitter est magistral… vu de l’extérieur. Vu de l’intérieur (l’auteur de ces lignes se refuse à déserter X.com), il reste tout à fait possible de continuer à s’y informer, auprès de sources fiables et vérifiables. La démonstration de la « guerre civile » dystopique qu’y mène Musk au nom de ses convictions complotistes n’en reste pas moins implacable.

Rappelant qu’Elon Musk avait célébré son rachat de Twitter en débarquant à son QG avec un lavabo (sink, en anglais) tout en déclarant (jeu de mot) « Let that sink in! » (qu’on pourrait traduire par « je vous laisse absorber l’information ! »), Oliver montre à quel point Musk a fait de X.com un véritable tout-à-l’égout inondant ses utilisateurs conservateurs ou d’extrême droite, ainsi que l’administration Trump en particulier, d’un torrent de désinformations complotistes. Avec des morts à la clef.

Non content d’avoir viré 80 % des employés de Twitter, programmé un répondeur automatique pour renvoyer un émoji caca en réponse aux questions des journalistes, Musk a aussi réintégré les comptes préalablement bannis de Twitter pour racisme, cyberharcèlement ou conspirationisme, et remplacé les comptes préalablement certifiés par des mercenaires de l’info payés par X à l’engagement.

L’un d’entre eux reconnait d’ailleurs que ce sont les contenus les plus provocateurs qui attirent le plus de vues, et qu’y partager des infos que l’on sait être fausses et d’y provoquer les gens rapporte des milliers de dollars.

John Oliver cite notamment l’attaque au couteau de Southport, en Grande-Bretagne, attribuée à tort sur X par un compte xénophobe et islamophobe intitulé « Europe invasion » à un demandeur d’asile musulman, alors que l’assassin des trois fillettes était un adolescent britannique de 17 ans obsédé par la violence, et né au pays de Galles de parents rwandais et chrétiens.

Une fake news largement relayée et propulsée par l’extrême droite sur X.com, y compris par Elon Musk, qui avait tweeté que « la guerre civile est inévitable », qui allait entrainer 6 jours de manifestations et d’émeutes islamophobes et d’extrême droite, l’attaque de la mosquée de Southport ainsi que de nombreux musulmans et indo-pakistanais, et près de 200 condamnations d’émeutiers.

John Oliver cite également une « enquête » vidéo de 42 minutes de Nick Sherley, un « influenceur » complotiste, elle aussi boostée par l’algorithme de X.com au point d’avoir totalisé plus de 140 millions de vues, qui prétendait avoir découvert que les garderies du Minnesota gérées par des Somaliens détournaient plus de 110 millions de dollars « en un jour ».

Après avoir visité plusieurs garderies de sorte de vérifier qu’elles accueillaient bien des bébés et jeunes enfants, il en avait conclu qu’elles étaient fermées ou inactives… sans comprendre qu’elles étaient bien évidemment et tout simplement « fermées au public ».

Ce qui n’empêcha pas l’administration de profiter de son « enquête » pour geler le financement des centres de garde d’enfants dans le Minnesota, mais également d’y renforcer la présence du département américain de la Sécurité intérieure puis de l’ICE, dont l’opération Metro Surge allait entraîner l’arrestation de 3 000 immigrés (ou supposés tels), ainsi que les meurtres de Renée Good et Alex Pretti. What could possibly go wrong went wrong.

☕️ YouTube étoffe son Premium Lite avec lecture hors-ligne ou en arrière-plan

25 février 2026 à 15:15

YouTube a annoncé mardi une évolution à venir de son abonnement Premium Lite, qui autorisera bientôt le téléchargement (pour une consultation hors ligne au sein de l’application) et la lecture en arrière-plan sur « la plupart des vidéos ».

Cette mise à jour doit intervenir « dans les prochaines semaines », sur tous les marchés où YouTube Premium Lite est déjà disponible. D’abord testée aux États-Unis et dans dix pays, cette formule plus accessible de l’abonnement payant à YouTube avait été étendue à de nouvelles zones, dont la France, en juillet dernier.

En ajoutant le téléchargement et la lecture en arrière-plan, YouTube réduit l’écart qui sépare Premium Lite, affichée à 7,99 euros par mois pour un particulier, de la formule Premium classique facturée 12,99 euros par mois.

Cette dernière conserve toutefois l’exclusivité des clips et vidéos musicales dépourvus de publicités, ainsi que de certaines fonctionnalités d’interface, comme la mise en file d’attente. Surtout, YouTube Premium est le seul abonnement qui fait disparaître totalement la publicité.

Avec Premium Lite, il n’y a en principe pas de réclame sur la plupart des vidéos, mais des publicités peuvent apparaître lors de la navigation ou dans le contexte de recherches, indique l’astérisque qui accompagne le résumé comparatif des deux offres.

Premium Lite gagnera dans les prochaines semaines la lecture hors ligne ou en arrière-plan, réservée jusqu’ici à l’abonnement Premium standard – crédit YouTube

☕️ OnlyOffice 9.3 simplifie la signature et l’édition de PDF

25 février 2026 à 14:44

En décembre, OnlyOffice 9.2 officialisait son agent IA pour le travail bureautique. Une nouvelle mise à jour 9.3 vient d’être mise en ligne. Elle permet « de signer des formulaires par saisie de texte, dessin directement sur l’écran ou téléchargement d’une image ». Pour les pros, « une nouvelle fonctionnalité de sécurité permet de télécharger un certificat de signature via le panneau d’administration afin d’apposer des signatures numériques fiables sur les formulaires PDF ».

L’éditeur de PDF a été amélioré afin de prendre en charge « la modification des fichiers protégés par mot de passe, la gestion des hyperliens, le suivi de l’historique des versions et la possibilité de masquer du texte à partir du panneau d’outils contextuel ». Il supporte aussi les macros.

D’autres changements sont de la partie sur la partie collaborative, avec par exemple des commentaires améliorés avec des couleurs sur les documents textes et un rendu accéléré sur les feuilles de calcul volumineuses, notamment celles de plus de 3 Mo.

Impossible de passer à côté : l’IA est toujours plus présente avec des assistants personnalisés : « Cette
fonctionnalité permet de créer et d’enregistrer des invites IA spécifiques pour les opérations textuelles dans l’éditeur de documents
 ».

Les notes de version détaillées se trouvent par ici. Pour télécharger OnlyOffice, c’est par là. Une vidéo de présentation a aussi été mise en ligne.

Le Pentagone donne 3 jours à Anthropic pour lever ses restrictions, ou être black-listé

25 février 2026 à 11:11
MafIA
Le Pentagone donne 3 jours à Anthropic pour lever ses restrictions, ou être black-listé

Le secrétaire d’État états-unien à la Guerre Pete Hegseth a posé un ultimatum à Anthropic. L’entreprise a jusqu’à vendredi pour changer ses conditions d’utilisation de Claude par l’armée des États-Unis (qui l’utilise déjà sur certains projets) ou celle-ci la mettrait sur liste noire.

Dans une réunion avec Dario Amodei, le CEO d’Anthropic, le secrétaire d’État états-unien à la Guerre Pete Hegseth a posé un ultimatum à la startup, lui demandant de lever, pour l’armée américaine, toute restriction d’usage de son IA générative Claude actuellement en place dans ses conditions d’utilisation.

La startup sous menaces de rétorsions par l’administration Trump

Si elle n’exécute pas les volontés de l’administration Trump, l’enjeu de la menace est la mise au ban de la startup des fournisseurs du Pentagone ou l’utilisation d’une loi américaine de réquisition pour la défense « les obligeant à être utilisés par le Pentagone, qu’ils le veuillent ou non », explique une source de CNN.

Pete Hegseth a affirmé au patron de la startup, selon Axios, qu’il ne laisserait aucune entreprise dicter les conditions dans lesquelles le Pentagone prend ses décisions opérationnelles, ni s’opposer à des cas d’utilisation particuliers.

Le Pentagone utilise déjà Claude

Anthropic travaille déjà pour le Pentagone. En novembre 2024, elle communiquait sur un partenariat qu’elle avait noué avec Palantir et AWS pour fournir aux agences de renseignement et de défense des États-Unis un accès aux modèles Claude d’Anthropic. À l’époque, les conditions d’utilisation chez Anthropic étaient floues.

Depuis, l’entreprise les a un peu modifiées en septembre dernier en précisant que les utilisateurs de ses modèles ne doivent pas « développer ou concevoir des armes » avec, alors que le texte précédent interdisait seulement leur utilisation pour en acquérir (ce qui est toujours le cas dans les nouvelles conditions).

Mais comme nous le disions, pour les contrats spécifiques avec l’armée américaine, la startup peut choisir à loisir d’appliquer ou non ses conditions d’utilisation, ou d’avoir un accord spécifique avec le gouvernement américain.

En juin 2025, Anthropic annonçait avoir développé des modèles nommés « Claude Gov », spécifiquement pour les agences de renseignement des États-Unis. Et mi-janvier, le Wall Street Journal assurait que Claude avait été utilisé dans l’enlèvement du président Nicolás Maduro en début d’année, sans donner de détail. Selon CNN, la somme des contrats entre le Pentagone et la startup s’élève à 200 millions de dollars.

Refus d’utilisation pour des armes autonomes et la surveillance de masse

Mais Anthropic refuserait toujours de laisser l’armée américaine utiliser ses modèles pour mettre en place des armes autonomes et de la surveillance de masse, et selon des sources de CNN, la startup n’aurait pas l’intention de céder.

Du côté du Pentagone, un responsable réfute toute volonté de ce genre d’utilisation mais déclare à nos confrères qu’ « on ne peut pas mener des opérations tactiques par exception […] La légalité relève de la responsabilité du Pentagone en tant qu’utilisateur final ».

Pete Hegseth mènerait, selon le Financial Times, des négociations parallèles avec Google, OpenAI et xAI pour remplacer les modèles d’Anthropic dans les systèmes de l’armée états-unienne. Grok serait même « déjà prêt à être utilisé dans un cadre confidentiel, tandis que les autres entreprises sont sur le point de l’être ».

☕️ Gestionnaire de mots de passe : 1Password augmente ses prix de près de 40 %

25 février 2026 à 08:45

C’est via un email que l’entreprise annonce la mauvaise nouvelle à ses clients. À partir du 27 mars 2026, le tarif individuel passera de 38,16 à 52,56 euros, soit près de 38 % de hausse, explique MacG. Le tarif famille passera à 82,8 euros par an.

Les tarifs mensuels ne semblent pas concernés (pour le moment ?), mais ils sont déjà bien plus chers que les prix annuels. L’abonnement individuel est à 5,27 euros par mois, soit 63,22 euros par an, tandis que le familial est à 8,39 par mois, soit 100,66 euros sur un an.

Pour rappel, les tarifs affichés sur le site de 1Password sont hors taxes. La société explique qu’elle calcule et récupère « les taxes en fonction de votre adresse, quelle que soit la devise de paiement. Les prix affichés sur 1Password.com n’incluent pas la TVA, car chaque pays et région applique un taux de taxe différent ». En France, elle est de 20 %.

À titre de comparaison, LastPass est actuellement à 29,23 euros par an pour le compte Premium individuel et à 39,31 euros pour la famille. Dashlane est à 57,6 euros par an en Premium basique, contre 87,12 euros pour la formule Friends & Family. Chez Proton, le Pass Plus est à 35,88 euros par an.

Pour rappel, une étude récente a pointé des faiblesses dans Bitwarden, LastPass et Dashlane. Nous expliquions alors que les trois services « pourraient, dans des conditions exceptionnelles, permettre la divulgation du mot de passe principal de leurs utilisateurs, en dépit de leur promesse relative au chiffrement « Zero Knowledge » ». Des correctifs sont déjà en place.

Bitwarden, nous en parlions récemment avec un tuto pour installer Vaultwarden (une version légère) sur un VPS à moins de cinq euros par mois, soit une soixante d’euros par an. Vous pouvez ainsi auto-héberger votre gestionnaire de mot de passe et même utiliser le VPS pour d’autres usages (des tutos arrivent).

☕️ Firefox 148 introduit le kill switch IA promis par Mozilla

25 février 2026 à 08:34

Annoncé en décembre dernier et confirmé début février, le paramètre dédié à la désactivation en un clic des fonctionnalités d’IA intégrées à Firefox fait son apparition officielle au sein de la version 148 du navigateur, publiée mardi 24 février.

« Firefox vous offre désormais un point de gestion central des fonctionnalités augmentées par l’IA. Vos préférences restent en place, même en cas de déploiement des mises à jour », annonce le logiciel.

Un onglet Contrôles de l’IA fait son apparition dans les paramètres du navigateur. Également accessible à l’adresse about:preferences#ai, il offre donc un bouton permettant de bloquer l’ensemble des fonctions IA du navigateur, mais il faut passer par un écran de confirmation pour valider l’action.

Firefox 148 inaugure un panneau Contrôles de l’IA – capture d’écran Next

« Vous ne verrez pas les améliorations par IA (nouvelles ou existantes) dans Firefox, ni les popups qui s’y rapportent. Par la suite, vous pourrez débloquer toute fonctionnalité que vous souhaitez continuer à utiliser », indique cette alerte.

Elle évoque des possibilités telles que la traduction directement accessible dans la barre d’adresse, l’affichage d’un texte alternatif pour les images dans la visionneuse PDF, ou la mise en avant de points clés dans l’aperçu proposé sur les liens hypertextes. Le kill switch désactive par ailleurs les raccourcis vers les chatbots courants proposés dans le menu latéral. « Le blocage affecte également les extensions qui utilisent l’IA fournie par Firefox », prévient par ailleurs Mozilla.

La fondation a intégré cet interrupteur central en réponse aux vives réactions suscitées, dans la communauté, par l’annonce de ses visées stratégiques autour de l’intelligence artificielle.

Anthony Enzor-DeMeo, CEO de Mozilla, a pour mémoire identifié l’IA comme l’un des axes stratégiques de travail autour de Firefox lors de sa prise de fonction, en décembre 2025. « Nous agirons avec urgence. L’IA change les logiciels. Les navigateurs deviennent le point de contrôle de la vie numérique. La réglementation modifie les défauts. Ces changements jouent en faveur des forces de Mozilla », déclarait-il à cette occasion.

Firefox 148 améliore pour le reste la prise en charge des formules mathématiques dans les PDF pour les lecteurs d’écran, introduit la fonction de sauvegarde Firefox Backup pour les utilisateurs de Windows 10 et ajoute la prise en charge du chinois traditionnel et du vietnamien au niveau de l’outil de traduction intégré. La nouvelle version corrige également quelques bugs et vulnérabilités de sécurité, listés dans les notes de version.

☕️ Microsoft annonce quelques nouvelles possibilités dans son cloud « souverain »

24 février 2026 à 17:26

En juin dernier, Microsoft annonçait la disponibilité en Europe d’un nouveau programme qui faisait la promesse de données restant au sein des frontières de l’Union et donnait des assurances quant au contrôle assuré par un personnel européen.

Huit mois plus tard, l’éditeur étatsunien ajoute quelques nouveautés à son offre.

Ainsi, Microsoft met en avant la disponibilité de la déconnexion d’opérations dans Azure Local : « Les organisations peuvent désormais faire tourner leurs infrastructures critiques avec les outils de gestion et de conformité d’Azure, sans avoir besoin d’une connexion au cloud ».

L’entreprise souligne que la version déconnectée de Microsoft 365 Local est aussi disponible : « les charges de travail de productivité essentielles, Exchange Server, SharePoint Server et Skype for Business Server peuvent fonctionner entièrement dans les limites opérationnelles souveraines du client sur Azure Local ».

Enfin Microsoft met en avant l’ajout à son offre souveraine de Foundry Local, qui est une « solution d’inférence IA sur appareil que vous utilisez pour exécuter des modèles IA localement via une interface CLI, un SDK ou une API REST ».

« Les entreprises peuvent désormais intégrer des grands modèles d’IA dans des environnements souverains entièrement déconnectés grâce à Foundry Local », affirme l’entreprise. Les modes « déconnectés  » Azure Local et Microsoft 365 Local sont « disponibles dans le monde entier » tandis que le déploiement de LLM sur Foundry Local est pour l’instant réservé aux « clients éligibles ».

Mineurs sur Internet : « Réglementez les plateformes, pas les enfants »

24 février 2026 à 16:44
Mais c'est plus difficile
Mineurs sur Internet : « Réglementez les plateformes, pas les enfants »

Réseaux sociaux, IA, jeux vidéo… alors que le gouvernement français s’affiche à la pointe de la régulation des usages du numérique par les enfants, le commissaire aux droits de l’homme du Conseil de l’Europe demande aux législateurs européens de diriger les réglementations sur les obligations des plateformes plutôt que sur les mineurs.

« Alors que plusieurs pays européens envisagent d’introduire un âge minimum pour accéder aux plateformes de médias sociaux, j’appelle à la prudence dans l’imposition d’interdictions générales », affirme dans un communiqué Michael O’Flaherty, le commissaire aux droits de l’homme du Conseil de l’Europe.

La France fait partie des premiers pays de l’Union européenne à vouloir réglementer dans cette direction, soutenue par la Commission européenne malgré quelques critiques. L’Assemblée nationale a adopté fin janvier la proposition de loi visant à interdire l’accès aux réseaux sociaux aux mineurs de moins de 15 ans, problématique à plusieurs points de vue.

Qui doit être responsable : l‘utilisateur ou la plateforme ?

Pour Michael O’Flaherty, « l’accent mis sur la restriction de l’accès ne doit pas faire oublier la nécessité de veiller à ce que les plateformes respectent les droits humains, au moyen d’obligations juridiques claires, d’une surveillance indépendante et d’une responsabilisation effective ».

Il ajoute qu’« interdire l’accès des enfants aux médias sociaux revient à déplacer la responsabilité en matière de sécurité : cette responsabilité n’incomberait plus aux plateformes qui créent l’environnement, mais aux enfants qui naviguent dans cet environnement ».

Le Commissaire aux droits de l’homme estime que « les États devraient plutôt exiger des plateformes qu’elles préviennent et atténuent les risques pour les droits de l’enfant, dès la conception et par défaut, et les tenir pour responsables si ces obligations n’ont pas été remplies ».

L’usage par les mineurs de l’IA dans le viseur du gouvernement français

Cet appel tombe alors que le gouvernement français affiche la volonté de prendre en main deux autres sujets numériques sous l’angle de la régulation de leur utilisation par les mineurs.

La semaine dernière, Anne Le Hénanff, la ministre déléguée chargée de l’Intelligence artificielle et du Numérique, a fait un appel international à contributions scientifiques sur les effets des usages de l’IA générative sur les mineurs.

Ces travaux et données recueillis « viendront nourrir la réflexion scientifique de la commission d’experts et contribuer à l’élaboration de recommandations concrètes dont les conclusions seront présentées dans le cadre de la présidence française du G7 », affirme la ministre dans son communiqué. À cette occasion, elle a lancé que « la France réaffirme ainsi un engagement fort : faire de la protection de l’enfance en ligne une priorité absolue, en s’appuyant sur la science et la coopération internationale au service de l’intérêt général ».

Dans la foulée, le gouvernement a aussi annoncé une « commission d’experts sur les risques et les vulnérabilités engendrées par les usages grand public de l’intelligence artificielle générative ». Le but est de « renforcer notre compréhension des vulnérabilités induites par ces technologies sur l’ensemble de la population, afin de mieux prévenir leurs conséquences ».

Et aussi les jeux vidéo

Autre sujet : le jeu vidéo. Emmanuel Macron indiquait récemment souhaiter disposer d’un éclairage scientifique sur les effets des jeux vidéo sur la violence dans la société tout en affirmant qu’« il est clair qu’on a des jeux vidéo violents qui conditionnent à la violence, qui créent une excitation, une dépendance où on a des jeunes et des ados qui vont passer des heures et des heures ». Le gouvernement l’a suivi en annonçant charger le Conseil de l’intelligence artificielle et du numérique d’une mission sur « les risques potentiels des jeux vidéo concernant les mineurs ».

« Cette mission devra établir une analyse scientifique des effets (tant positifs que négatifs) et risques potentiels des jeux vidéo, particulièrement sur la santé mentale, cognitive et physique des jeunes utilisateurs, et en matière de sécurité des mineurs », affirme la lettre envoyée par Anne Le Hénanff mais aussi par la ministre de la Culture Rachida Dati.

Elles demandent au Conseil d’« d’objectiver les risques, sur la base des connaissances scientifiques disponibles, en tenant compte du caractère multifactoriel des comportements à risque, des distinctions qui pourraient exister en fonction des publics, des types de jeux et des usages, et en évitant toute approche réductrice ».

Les travaux devront aussi évaluer si « les mécanismes actuels de sécurité dès la conception, de modération et de régulation sont suffisants, au regard de l’évolution des contenus, des pratiques et des modèles économiques, et proposer, le cas échéant, des mesures pour les clarifier, les adapter ou les renforcer ». Les deux ministères demandent au conseil de se pencher aussi sur les « nouvelles formes de socialisation induites par certains jeux en ligne ».

Reste la question de la vérification d’âge. Comme nous avons pu le voir avec l’obligation de contrôle à l’entrée des sites pornos, c’est encore trop souvent une vaste blague. Une carte d’identité de Dora l’Exploratrice ou modifier un cookie permet de passer les contrôles.

☕️ AMD va fournir 6 GW de GPU à Meta, qui va pouvoir racheter jusqu’à 10 % de ses actions

24 février 2026 à 16:03

En septembre et octobre 2025, OpenAI multipliait les partenariats avec NVIDIA et AMD. Dans les deux cas, les accords parlaient de « GW de puissance de calculs », sans aucun détail sur le type de puces utilisées. Comme déjà longuement expliqué dans un édito, c’est une pratique regrettable qui ne veut pas dire grand chose…

Quoi qu’il en soit, OpenAI s’engageait à déployer « au moins 10 GW de systèmes NVIDIA » (NVIDIA investit dans OpenAI), tandis qu’AMD s’engageait à fournir l’équivalent de 6 GW de GPU au père de ChatGPT.

Un nouvel accord vient d’être signé entre AMD et Meta cette fois-ci avec « un partenariat stratégique élargi pour déployer 6 GW de GPU AMD ». Pour les détails on repassera puisqu’il s’agit d’équiper les infrastructures de Meta avec « plusieurs générations de GPU AMD Instinct ». Tout juste savons nous que la première tranche, « à l’échelle du GW », devrait débuter durant la seconde moitié de 2026, avec des GPU « personnalisés AMD Instinct MI450 » et des processeurs EPYC de 6ᵉ génération. La suite n’est pas encore précisée.

Dans son communiqué, AMD rappelle que Meta est un partenaire qui a déjà déployé « des millions de processeurs AMD EPYC et d’importantes quantités de GPU Instinct MI300 et MI350 dans son infrastructure mondiale ».

Dans le cadre de ce partenariat, AMD propose aussi à Meta le droit d’acheter jusqu’à 160 millions de ses actions à un prix fixé à l’avance (warrants), en fonction de la réalisation d’objectifs sur les livraisons de GPU. Meta pourrait ainsi récupérer jusqu’à 10 % des actions AMD. L’annonce fait pour le moment bondir l’action d’AMD de 7 % lors de l’ouverture de la bourse.

La semaine dernière, Meta avait déjà annoncé un accord avec NVIDIA. Il porte sur une large gamme de produits, avec le « déploiement à grande échelle de CPU NVIDIA, de millions de GPU Blackwell et Rubin, ainsi que l’intégration des switchs Ethernet Spectrum-X pour la plateforme Facebook Open Switching System de Meta ».

Le point intéressant ici est la mise en avant d’une utilisation massive de CPU NVIDIA (avec des cœurs ARM). Ils seront utilisés pour des « applications dans les data centers de Meta et permettront d’obtenir des améliorations significatives en termes de performances par watt ».

NVIDIA ne cache pas cette joie, en forme de pied de nez à AMD et Intel : « Cette collaboration représente le premier déploiement à grande échelle exclusivement basé sur Grace », le CPU de NVIDIA. La suite se prépare avec le CPU Vera annoncé au CES de Las Vegas au début d’année.

Anthropic et OpenAI accusent des IA chinoises d’utiliser illégalement leur travail

24 février 2026 à 14:58
Misanthropic ?
Anthropic et OpenAI accusent des IA chinoises d’utiliser illégalement leur travail

Alors que l’entraînement de leurs modèles s’appuie notamment sur l’utilisation massive de données dont elles n’ont pas les droits, les startups de l’IA générative américaines se plaignent que leurs rivaux chinois utilisent, via la technique de « distillation », les données générées par leurs modèles.

Anthropic a accusé trois entreprises chinoises, DeepSeek, Moonshot AI et MiniMax d’utiliser les résultats générés par ses modèles pour entrainer les leurs. Quelques jours avant, OpenAI avait aussi accusé Deepseek, devant les élus étatsuniens, d’utiliser la technique de « distillation » (ou extraction) pour mettre au point son prochain modèle. Ces accusations arrivent alors que la startup chinoise doit sortir d’ici quelques jours un nouveau modèle.

Un tir de barrage avant l’arrivée d’un nouveau modèle DeepSeek

Depuis début janvier, les rumeurs d’une sortie d’un nouveau modèle v4 par DeepSeek grandissent. « La société chinoise spécialisée dans l’IA n’a pas encore annoncé de date de sortie, mais celle-ci devrait être imminente après la fin des célébrations du Nouvel An lunaire la semaine dernière », affirmait lundi 23 février CNBC. Et l’industrie américaine de l’IA tremble de revivre l’épisode que lui avait fait subir l’entreprise chinoise il y a un peu plus d’un an quand Wall Street avait remis en cause leurs capacités à lutter.

Dans ce cadre, OpenAI a envoyé le 12 février un mémo [PDF] aux élus de la Chambre des représentants des États-Unis qui participent à la commission sur la « Concurrence stratégique entre les États-Unis et le Parti communiste chinois ». Ce texte accuse DeepSeek de « tenter continuellement de profiter gratuitement des capacités développées par OpenAI et d’autres laboratoires américains de pointe ». L’entreprise de Sam Altman y présentait des indices observés sur sa plateforme qui témoignent, selon elle, « des tentatives continues de DeepSeek pour distiller les modèles de pointe d’OpenAI et d’autres laboratoires américains, notamment par le biais de nouvelles méthodes de brouillage ».

Ce lundi 23 février, Anthropic en remettait donc une couche avec un billet de blog accusant DeepSeek, Moonshot, et MiniMax de lancer des « campagnes à l’échelle industrielle […] pour extraire illicitement les capacités de Claude afin d’améliorer leurs propres modèles ».

« Ces laboratoires ont utilisé une technique appelée « distillation », qui consiste à entraîner un modèle moins performant à partir des résultats d’un modèle plus puissant », explique Anthropic. Pourtant, la startup américaine reconnait que « la distillation est une méthode d’entraînement largement utilisée et légitime. Par exemple, les laboratoires d’IA de pointe distillent régulièrement leurs propres modèles afin de créer des versions plus petites et moins coûteuses pour leurs clients ».

Une utilisation « illicite » de la distillation ?

Mais elle affirme que son utilisation est illicite si des concurrents l’utilisent « pour acquérir les capacités puissantes d’autres laboratoires en une fraction du temps et à un coût bien inférieur à ceux nécessaires pour les développer de manière indépendante », sans pour autant s’appuyer sur un quelconque texte légal. Dans son billet, l’entreprise américaine accuse les trois entreprises chinoises d’avoir utilisé des milliers de comptes qu’elles se seraient créés sur sa plateforme pour récupérer des millions de conversations avec Claude.

Les accusations des deux entreprises semblent plutôt vouloir pointer du doigt que DeepSeek s’appuierait sur leurs travaux et ainsi éviter que Wall Street s’affole de l’arrivée d’un nouveau modèle chinois dépassant les capacités de ses rivaux états-uniens.

Rappelons qu’Anthropic comme OpenAI ont été accusées l’une et l’autre d’avoir entrainé leurs modèles sur des contenus dont elle n’avaient pas les droits. L’entreprise de Dario Amodei a signé un accord de 1,5 milliard de dollars avec des auteurs en septembre 2025, celui-ci est toujours en cours de relecture chez le juge qui doit le valider.

Enfin, Reuters affirme que DeepSeek entrainerait son modèle sur des puces Blackwell de NVIDIA, normalement soumises à un embargo américain. Depuis peu, seule la génération précédente Hopper est autorisée à l’exportation en Chine.

Hetzner aussi augmente fortement le prix de ses VPS et serveurs dédiés

24 février 2026 à 14:20
Under pressure
Hetzner aussi augmente fortement le prix de ses VPS et serveurs dédiés

30 % d’augmentation sur les VPS et les Load Balancers, 15 % de plus sur les dédiés… Hetzner ajuste ses prix aussi bien pour les nouveaux que pour les anciens clients. En cause, encore une fois : les coûts d’exploitation et d’achat des composants qui ont « tous deux augmenté de façon spectaculaire ».

OVHcloud n’est pas le seul à augmenter les tarifs de ses VPS, Hetzner aussi va appliquer une nouvelle grille à partir du 1ᵉʳ avril. Là encore l’hébergeur n’y va pas avec le dos de la cuillère avec 30 à 39 % (32 % en moyenne) de hausse sur les serveurs en Allemagne ou en Finlande.

30 % de plus en moyenne sur les VPS Hetzner

La gamme de VPS d’entrée de gamme (Cost-Optimized) de Hetzner se compose de deux séries : les CX avec des processeurs Intel ou AMD en x86, ainsi que les CAX avec un processeur Ampere exploitant l’architecture Arm. Sur les autres gammes CPX (Regular Performance) et CCX (General Purpose) c’est de l’AMD aux commandes à chaque fois.

Nous avons déjà comparé le VPS CX23 (2 vCore, 4 Go de mémoire et 40 Go de stockage) de Hetzner aux VPS d’OVHcloud et YorkHost. Nous aurons très prochainement l’occasion de revenir plus en détail sur ce VPS dans un article dédié, pour continuer notre série de tests des VPS après Ionos et son CPU AMD EPYC, LWS avec sa virtualisation LXC et ses bridages, et OVHcloud en mode force tranquille.

Sur les modèles d’entrée de gamme comme le CX23, le tarif mensuel passera de 3,59 à 4,79 euros, soit 33,4 % de hausse (même augmentation sur les prix à l’heure). Sur le CAX11 (CPU Ampere, vous suivez ?) le prix augmentera de 36 % pour arriver à 5,39 euros au lieu des 3,95 euros actuels. On ne parle ici que des tarifs en IPv4 seulement, il faut ajouter 0,60 euro par mois pour avoir une adresse IPv6. Les VPS aux États-Unis et à Singapour sont également concernés par ces hausses.

15 % de plus en moyenne sur les dédiés

Les serveurs dédiés ne sont pas épargnés, avec entre 3 et 20 % environ de hausse, pour une moyenne aux alentours de 15 % environ. Les tarifs des dédiés augmentent donc en moyenne deux fois moins que ceux des VPS.

Tous les nouveaux tarifs sont détaillés sur cette page, avec les anciens et les nouveaux tarifs sur une même ligne (pratique pour comparer).

Toujours sur les dédiés, « tous les serveurs mis aux enchères subissent une augmentation de prix générale de 3 % ». La société propose en effet des enchères sur « des serveurs standardisés comme ceux de son portefeuille de produits, mais aussi sur des machines personnalisées adaptées aux besoins des clients par le passé ».

Il y a plusieurs centaines d’enchères en cours avec des tarifs allant de quelques dizaines à plusieurs centaines d’euros par mois. Attention, sur ces machines « les installateurs automatiques d’images, les images logicielles spéciales, le vKVM ou d’autres systèmes logiciels ne sont pas possibles », seul le rescue system est proposé.

C’est encore la faute de la RAM et des SSD

Dans un communiqué, Hetzner explique que « des hausses drastiques des prix ont récemment été observées dans divers secteurs du secteur informatique. C’est pourquoi, malheureusement, nous devons aussi augmenter les prix de nos produits ». Un argument déjà utilisé par OVHcloud. Les raisons sont connues : une pénurie causée par la forte demande de GPU pour l’intelligence artificielle, qui a toujours besoin de plus de mémoire pour ses grands modèles de langage.

Hetzner ajoute que « les coûts d’exploitation de [son] infrastructure et d’achat de nouveaux équipements ont tous deux augmenté de façon spectaculaire. Par conséquent, nos variations de prix affecteront à la fois les produits existants et les nouvelles commandes et entreront en vigueur à partir du 1ᵉʳ avril 2026 ».

L’hébergeur affirme avoir retardé au maximum ces hausses, mais il ne peut aujourd’hui « plus compenser la pression que cela exerce sur [ses] opérations ».

Déjà des hausses début février

Déjà début février, lors de l’annonce d’une hausse des frais d’installation, l’hébergeur expliquait que « les prix d’achat actuellement exceptionnellement élevés des composants matériels perturbent considérablement » son modèle économique. Il ajoutait que « cette augmentation ne couvrait pas les coûts supplémentaires réels supportés, et de loin ».

Hetzner ne cachait pas son agacement sur la gestion de la crise par les fabricants de mémoire et de périphériques de stockage :

« Le marché de la RAM est actuellement dominé par très peu de fabricants. À notre avis, leur politique tarifaire est difficilement compréhensible et a fait grimper les coûts de façon massive en peu de temps. La situation est similaire pour les SSD NVMe.

De plus, il est évident que même les quotas et engagements de prix promis par les fournisseurs ne sont actuellement fiables que dans une certaine mesure ».

Début février, Hetzner parlait d’une « première étape nécessaire » et ajoutait que ce n’était « probablement pas la seule » car il n’y avait alors « aucun signe que les conditions du marché vont s’apaiser ». Selon le PDG d’OVHcloud, l’augmentation des prix « va encore se poursuivre pour trouver un nouveau point d’équilibre entre l’offre et la demande probablement vers fin 2026 ».

Il faudra certainement encore attendre plusieurs mois avant un retour à la normale : « les prix resteront importants jusqu’à au moins 2028, le temps que de nouvelles capacités de production de mémoire voient le jour ». Selon Hetzner, « la pression sur les prix devrait se poursuivre au cours de l’année en cours ».

☕️ IBEX Q1 d’AQT : Scaleway s’équipe lui aussi d’un ordinateur quantique

24 février 2026 à 12:57

Scaleway, la filiale cloud d’iliad (maison mère de Free) a annoncé la semaine dernière une collaboration avec la société autrichienne Alpine Quantum Technologies (AQT, basée à Innsbruck) afin d’intégrer un ordinateur quantique IBEX Q1 à ions piégés. Pour rappel, nous avons publié un article de présentation de l’informatique quantique.

La machine « sera disponible via la plateforme Quantum as a Service (QaaS) de Scaleway » qui permet à tout un chacun ou presque « d’accéder à des unités de traitement quantique (QPU) via son infrastructure cloud souveraine ». Le côté souverain et européen est mis en avant à plusieurs reprises, avec un acteur français du cloud et autrichien du quantique.

« L’ordinateur quantique d’AQT est accessible et programmable sans réservation […] les mardis et mercredis de 10 h à 17 h CET ». Scaleway prend en charge les SDK open-source standard comme Qiskit d’IBM, Cirq de Google et Pennylane. Selon la fiche produit du IBEX Q1, la machine dispose de 12 qubits.

Scaleway propose une facturation « par shot, à l’heure (émulation), ou via une réservation dédiée ». Sur cette page, l’entreprise présente l’IBEX Q1 d’AQT comme ayant bien 12 ions piégés, avec une fiabilité de 99,97 % sur une porte et de 98,7 % sur deux. Comme nous l’expliquons dans cette actualité, les portes quantiques sont tout aussi importantes que les qubits.

« L’appareil est montable en rack standard, fonctionne à température ambiante et consomme moins de 2 kilowatts, idéal pour les simulations nécessitant une précision critique (par exemple, la dynamique des fluides) », ajoute l’entreprise.

Il y a quasiment deux ans, OVHcloud inaugurait « le premier ordinateur quantique installé au cœur d’un fournisseur de services cloud européen ». Il est installé dans locaux de la société à Croix, dans les Haut de France. Il s’agit d’un MosaiQ de la start-up française Quandela, une machine avec deux qubits photoniques.

☕️ Au Grand collisionneur de hadrons, des tests grandeur nature pour la haute luminosité

24 février 2026 à 12:12

Dans un communiqué, le CERN ne cache pas sa joie et annonce avoir « franchi une étape importante dans la progression du projet Grand collisionneur de hadrons à haute luminosité (HiLumi LHC), avec le début du refroidissement cryogénique à 1,9 K (‑271,3 °C) d’un banc d’essai de 95 m de longueur », une opération qui devrait prendre plusieurs semaines. Il s’agit d’une réplique grandeur nature de l’installation qui se trouve sur le Grand collisionneur de hadrons.

Si tout se passe bien, la mise en place est prévue pour l’été prochain avec « le lancement de quatre années de travaux de grande envergure au cours du troisième long arrêt (LS3) ». Le LS3 était prévu pour 2025 à 2027, avant d’être repoussé et rallongé à partir de mi-2026.

Le retour des opérations est donc prévu pour 2030. L’accélérateur sera de nouveau mis à l’arrêt et amélioré en 2034 et 2035, avant de passer au Run 5.

Dans le cas présent, la luminosité correspond au nombre de collisions de particules. Avec la haute luminosité, elle « sera multiplié par dix, ce qui augmentera très fortement le volume de données de physique disponibles pour la recherche ». « Ce bond en avant permettra d’étudier avec une précision inédite le comportement du boson de Higgs et d’autres particules élémentaires, voire éventuellement de découvrir de nouveaux phénomènes rares », explique le CERN.

Mark Thomson, directeur général du CERN, tient à mettre les points sur les i : « On ne soulignera jamais assez l’importance et l’intérêt du LHC à haute luminosité. C’est le plus grand projet entrepris par le CERN depuis 20 ans […] Il permettra d’étudier pour la première fois comment le boson de Higgs interagit avec lui-même : cette mesure clé pourrait nous aider à faire la lumière sur les premiers instants de l’Univers et son évolution ».

Il ajoute que « le LHC à haute luminosité servira également à explorer de nouveaux horizons, et pourrait conduire à des découvertes inattendues. C’est tout l’intérêt de sonder l’inconnu : on ne sait pas ce qui s’y trouve ». Il faudra être patient. Les mesures ne débuteront pas avant 2030, et il faudra ensuite les analyser.

☕️ Sur LinkedIn, drôle de passe d’armes entre Jean-Baptiste Kempf (VLC) et Gérald Darmanin

24 février 2026 à 11:07

Jean-Baptiste Kempf, l’un des principaux contributeurs du projet VideoLAN et de son célèbre lecteur VLC, s’est fendu lundi 23 février d’une charge virulente adressée au garde des Sceaux Gérald Darmanin. « J’envisage de quitter la France, et c’est intégralement la faute de M.Darmanin », titre l’ingénieur, dont la publication LinkedIn devient très vite virale.

Il y raconte les démêlés de sa femme, Audrey Prévost Kempf, avec l’administration en charge des admissions au concours de l’École nationale de la magistrature (ENM), qu’elle passe avec brio à sa seconde tentative, avant d’être informée, par courrier, qu’elle n’a finalement pas le droit de concourir.

D’après le résumé qu’en fait Jean-Baptiste Kempf, le ministère de la Justice décide de retoquer sa participation, a posteriori et alors qu’elle se classe 9ᵉ à l’issue du grand oral, « au motif d’une prétendue insuffisance d’activité juridique qualifiante ».

Intro du billet publié par J-B Kempf le 22 février sur LinkedIn

Audrey Prévost Kempf avait elle-même relaté cette déconvenue quelques jours plus tôt. Son éviction du concours de l’ENM (qui concerne également au moins un autre candidat) intervient dans le cadre des nouvelles modalités d’admission introduites suite à la réforme de 2023.

Aux premier et deuxième concours (destinés respectivement aux jeunes diplômés et aux salariés de la fonction publique), elle ajoute un troisième concours réservé aux candidats venus du privé, sous réserve que ces derniers puissent justifier d’au moins quatre ans d’une expérience « particulièrement qualifiante dans le domaine juridique, administratif, économique ou social ».

Et c’est là que le bât semble avoir blessé dans le cas d’Audrey Prevost Kempf : ses dix ans d’implication aux côtés de Jean-Baptiste Kempf dans VideoLAN n’auraient pas été reconnus comme une expérience « particulièrement qualifiante ».

« Le légal dans VideoLAN est plus compliqué et complexe que dans la plupart des sociétés que je connais, et avec un champ d’application bien plus large. Et devinez qui m’a aidé dans tout ce travail pendant dix ans ? Audrey, évidemment. Moi, je n’ai aucune base scolaire en droit. »

S’ensuivent cinq mois d’échanges avec le ministère avec un recours au fond, jusqu’à cette interpellation publique.

« Le travail autour de VideoLAN est titanesque, même bénévole, et il n’appartient pas au Garde des Sceaux ni à son administration de déjuger notre travail. Le mieux, c’est lorsque M. Darmanin écrit que  « le numérique […] et le droit du numérique ne sont pas utiles au magistrat de l’ordre judiciaire » », écrit Jean-Baptiste Kempf, fait chevalier de l’ordre national du Mérite en 2018, qui jure qu’on ne l’y prendra plus.

« Jamais plus je n’aiderai l’État français gratuitement par mon travail, et tant pis pour les agents de la justice (utilisant beaucoup VLC) qui auraient besoin de lire de nouveaux formats de vidéo. Cracher sur le professionnalisme du travail de VideoLAN est totalement inadmissible. »

Quelques heures plus tard, Gérald Darmanin lui répond en commentaire de sa publication LinkedIn, indiquant d’abord ne pas avoir été saisi personnellement du litige et regrettant le ton agressif de la missive, avant de finalement écrire : « il me semble que ma réponse avant le recours formulé devant le Conseil d’État était de demander à mon administration de revoir sa décision. Mais je veux vous le lui confirmer de façon certaine ».

« J’ai le plus grand respect pour elle d’avoir réussi ce difficile concours et, en effet, la magistrature manque de personnes connaissant le numérique », écrit encore le ministre.

Les 375 nouveaux auditeurs de justice qui constituent la promotion 2026 de l’ENM, dont 49 issus du troisième concours, ont fait leur rentrée le 16 février dernier.

Shein s’installe dans cinq BHV en province, des corners de 400 à 1 000 m²

24 février 2026 à 10:40
Chein
Shein s’installe dans cinq BHV en province, des corners de 400 à 1 000 m²

Angers, Dijon, Limoges, Grenoble et Reims : cinq BHV vont accueillir à partir de demain un corner Shein, de 400 à 1 000 m². Après l’expérimentation à Paris, l’ambiance est toujours électrique, mais le patron du BHV (Frédéric Merlin) se veut rassurant.

En octobre, Shein et le BHV du Marais à Paris défrayaient la chronique avec l’ouverture d’un « corner » du spécialiste de la mode ultra éphémère (ultra-fast fashion). Au cœur de cet accord, la Société des grands magasins (SGM) qui possède le BHV, sept magasins Galeries Lafayette et onze centres commerciaux.

Pour rappel, « en mai 2022, SGM acquiert sept magasins Galeries Lafayette en province. En novembre 2023, le groupe devient propriétaire de la marque BHV, intégrant les magasins BHV Marais et Parly 2 à son portefeuille », relate le groupe SGM.

BHV et Shein : nouvelle tempête après le calme après la tempête ?

Quelques jours avant l’ouverture du corner Shein au BHV à Paris, la marketplace chinoise était sous le feu des projecteurs pour avoir vendu des « poupées sexuelles à caractère pédopornographique ». Les jours et semaines suivantes ont été agités : la plateforme a fermé sa marketplace en France, des contrôles massifs ont été effectués aux douanes, le gouvernement a engagé une procédure de suspension (rejetée par le tribunal judiciaire de Paris), etc.

Alors que le calme était plus ou moins revenu, la SGM vient d’envoyer un communiqué de presse pour annoncer que, « à compter du 25 février, les BHV de Limoges, Angers, Dijon, Grenoble et Reims ouvrent au public leurs corners Shein ». L’ouverture à Paris du corner Shein avait été l’occasion de nombreuses levées de boucliers chez les marques, les commerçants, les clients et les élus. À voir ce qu’il en sera en province.

« Ces espaces s’inscrivent dans le cadre du partenariat expérimental en cours entre le groupe SGM et Shein visant à intégrer une marque digital-first dans l’écosystème d’un magasin physique, afin de répondre aux nouveaux usages des consommateurs », explique la Société des grands magasins fondée par Frédéric et Maryline Merlin.

« L’ouverture se fera de manière progressive », avec des surfaces comprises entre 400 et 1 000 m² selon les magasins. Pour commencer, il sera principalement question d’une « sélection hivernale » d’articles. Ensuite, à partir d’avril, « l’offre évoluera pour intégrer une sélection plus large de références saisonnières » et de produits « en phase avec les préférences observées localement ». Pour la SGM, cela permet « d’ajuster la sélection et le parcours client en fonction des retours clients ».

Frédéric Merlin (SGM) : « Il ne faut pas avoir raison trop tôt »

Il y a quelques jours à peine, Frédéric Merlin répondait à une interview du Figaro. Il reconnaissait des erreurs, notamment l’immense affiche avec le patron de Shein placardé sur son magasin, mais ajoutait qu’il s’était : « rendu compte qu’il ne faut pas avoir raison trop tôt ». Une manière de s’affirmer comme précurseur.

« Si cela ne marche pas dans un an, on arrêtera », ajoutait néanmoins l’entrepreneur à nos confrères. Il revenait aussi sur la qualité des produits et affirmait que, dans les jours qui ont suivi l’ouverture, « nous avons tout eu, le contrôle des douanes, celui de la DGCCRF. Ils n’ont rien trouvé ».

Il précise avoir revu sa stratégie (articles moins chers, plus de choix de taille…) avec succès : six clients sur dix achèteraient désormais des produits Shein. Autre revirement de situation : « Nous allons changer de modèle d’exploitation pour les espaces Shein du BHV. Ce sont toujours nos vendeurs qui continueront à opérer. Mais, à partir d’avril, Shein sera responsable du choix des assortiments et nous percevrons une commission à la vente ».

Divorce largement consommé entre Galeries Lafayette et BHV

Il n’en reste pas moins des séquelles visibles de l’arrivée de Shein au BHV : « Le groupe Galeries Lafayette a rompu son contrat avec la SGM concernant sept magasins de province, rebaptisés BHV. Une centaine de marques (Guerlain, Dior, Sandro, etc.) ont quitté le grand magasin parisien, protestant contre Shein ou des retards de paiements », explique Sud Ouest.

Lors d’une audition au Sénat en janvier, Frédéric Merlin reconnaissait « une vraie baisse de chiffre d’affaires sur cette fin d’année avec le départ de marques ». Il affirmait déjà qu’un nouveau système de paiement était mis en place, promesse de nouveau faite dans l’interview au Figaro. Libération relate une partie de l’audition durant laquelle Frédéric Merlin a été « jusqu’à se présenter comme « un chef d’entreprise éthique ». Rires dans l’assemblée ».

Le BHV était également empêtré dans la vente de l’immeuble qu’il occupe à Paris. C’est finalement en janvier que les Galeries Lafayette ont officialisé la vente au canadien Brookfield, pour 300 millions d’euros. La SGM devait initialement racheter les murs, mais avec l’affaire Shein la Banque des Territoires s’était retirée.

En plein boom de l’IA, Microsoft ferme le centre d’ingénierie sur l’IA de son siège parisien

24 février 2026 à 10:01
Refactoring RH
En plein boom de l’IA, Microsoft ferme le centre d’ingénierie sur l’IA de son siège parisien

Le Microsoft Engineering Center d’Issy-les-Moulineaux va faire l’objet d’un plan de cessation d’activités d’ici l’été. Officiellement motivée par la volonté de réunir les ingénieurs autour de grands hubs internationaux comme Redmond ou Dublin, la décision suscite l’incompréhension parmi la centaine de collaborateurs concernés, qui travaillent au quotidien sur certaines des briques sous-tendant les principaux produits d’IA de l’entreprise.

Inauguré en 2011 aux portes de Paris, et recentré à partir de 2019 sur les sujets liés à l’intelligence artificielle, le Microsoft Engineering Center français va fermer ses portes d’ici l’été. L’annonce en a été faite le 19 février dernier à la centaine de collaborateurs concernés, à qui il a été confirmé qu’il s’agissait bien d’un plan de cessation d’activité et non d’une simple réduction d’effectifs.

Une annonce surprise pour la centaine d’ingénieurs concernés

Révélé la semaine dernière par l’Usine digitale, ce projet de fermeture nous a été confirmé par Microsoft France dans une déclaration :

« Nous avons présenté aux représentants du personnel un projet visant à cesser les activités du Microsoft Engineering Center Paris. Les discussions sont en cours et aucune décision définitive n’a été prise. Nous nous engageons à mener cette consultation de manière responsable et à soutenir tous les collaborateurs tout au long du processus. »

La nouvelle, annoncée par des membres des ressources humaines avec le concours d’un cadre français venu des États-Unis, a d’abord suscité stupeur et incompréhension au sein des équipes concernées. Opérant au sein d’une filiale dédiée, ses ingénieurs avaient été épargnés par la rupture conventionnelle collective mise en place par Microsoft France en novembre dernier (200 postes concernés, soit environ 10 % de l’effectif national).

« On ne comprend pas le signal. D’un côté, on a le discours selon lequel Microsoft investit en France parce que c’est le pays de l’IA et des ingénieurs. De l’autre, on vire une équipe de 100 personnes, dont la capacité à faire des choses n’a jamais été remise en cause. Quand on voit les sujets sur lesquels on travaille, il y a de quoi se poser des questions », nous confie un employé du Microsoft Engineering Center sous couvert d’anonymat.

Un centre d’ingénierie principalement consacré à l’IA

Immatriculé en 2011, le Microsoft Engineering Center français est installé depuis ses débuts au siège social de Microsoft France, à Issy-les-Moulineaux, aux portes de Paris. Au cours des années 2010, le centre se consacre notamment au développement de fonctionnalités et de services chargés d’accompagner la stratégie de l’éditeur en matière de distribution de contenus, qu’il s’agisse de flux vidéo, de musique, de jeux ou d’expériences interactives.

À partir de 2019, Microsoft donne une inflexion particulière à son centre, avec l’ouverture d’un centre de développement spécifiquement dédié à l’intelligence artificielle. « Ce Centre a pour mission d’accompagner les entreprises du monde entier dans leur transformation digitale et dans leur quête d’efficacité et de productivité accrues grâce à l’IA. Elles pourront bénéficier de solutions IA répondant à leurs besoins métiers à travers notamment l’usage des plateformes Dynamics 365 ou Azure. », expliquait alors Microsoft.

Cet axe constitue désormais l’activité principale du centre parisien. « Nous sommes une équipe reconnue, capable de livrer et maintenir des produits à succès, affirme notre contact. Nous étions parmi les premiers à travailler sur l’automatisation avec Copilot dès 2022. Les appels d’IA générative de la Power Platform [la collection d’outils de développement low code de Microsoft, ndlr] passent, par exemple, par un service conçu et développé à Paris ».

Une volonté affichée de rationalisation

Du côté de Microsoft France, un porte-parole indique que ce plan de cessation d’activités découle d’une stratégie, déjà engagée par ailleurs, de concentration des efforts autour de grands hubs internationaux comme Microsoft en compte déjà à Redmond ou à Dublin. Autrement dit, la décision de fermer le centre parisien ne découlerait pas d’une lecture qualitative de ses contributions, mais plutôt d’un changement d’organisation décidé et opéré à plus grande échelle.

« Ces changements proposés n’auront aucune incidence sur les autres activités de Microsoft en France. Nous restons pleinement engagés auprès de nos clients ainsi qu’à poursuivre nos investissements dans le pays », veut par ailleurs rassurer l’éditeur, selon qui des propositions de relocalisation dans l’un de ses centres sont envisageables pour les ingénieurs intéressés.

Le 4 novembre dernier, Microsoft renouvelait ses marques d’intérêt envers la France et l’IA au travers d’un rapport réaffirmant sa double promesse de « former un million de Français à l’IA d’ici 2027 » et « d’accompagner 2 500 startups françaises dans leur développement grâce à l’IA d’ici 2027 ». Au printemps 2024, Microsoft avait par la voix de son président Brad Smith promis 4 milliards d’euros d’investissements « au service de l’intelligence artificielle » dans le pays à l’occasion du salon Choose France.

☕️ Retour des humains sur la Lune : Artemis II rentre au garage, le lancement repoussé

24 février 2026 à 09:07

Ce week-end, Jared Isaacman, administrateur de la NASA, laissait peu d’espoir quant au lancement de la mission Artemis II en mars. Les ingénieurs ont en effet détecté une « interruption du flux d’hélium dans l’étage de propulsion cryogénique intérimaire du SLS » ou Space Launch System, le lanceur lourd de la NASA.

Il ajoutait que « les équipes procèdent au dépannage et se préparent à un probable retour d’Artemis II au VAB » ou Vehicle Assembly Building, le hangar à fusée de l’Agence spatiale américaine. Rapidement, la mauvaise nouvelle a été confirmée : « Quelle que soit la panne potentielle, l’accès et la résolution de ces problèmes ne peuvent être effectués que dans le VAB ».

À cause des conditions météo, le retour au hangar n’est pas prévu avant le 25 février. La fusée mettra environ 12 heures pour faire les 6,4 km qui séparent le dock de lancement du VAB.

Il y a un mois, la fusée s’était installée à la verticale sur son pas de tir. Artemis II embarquera quatre astronautes à bord qui iront faire le tour de la Lune (une première depuis 50 ans), mais sans se poser. Fouler le sol de notre satellite naturel sera l’objectif d’Artemis III.

Selon la NASA, 16 fenêtres de tir étaient possibles entre les 6 février et 30 avril. On peut déjà exclure février et mars, avril semble très court comme délai puisqu’il faut inspecter la fusée, trouver le souci, le régler, effectuer des tests, la replacer sur son pas de tir, etc.

Artemis II : fusée et astronautes dans les starting-blocks pour aller autour de la Lune

La retombée d’un Falcon 9 de SpaceX a créé un nuage de lithium dans la haute atmosphère

24 février 2026 à 08:42
Après moi...
La retombée d’un Falcon 9 de SpaceX a créé un nuage de lithium dans la haute atmosphère

Il y a un an, SpaceX a perdu le contrôle du deuxième étage de sa fusée au cours d’un de ses lancements de satellites de Starlink. Des débris avaient été retrouvés en Pologne, mais des chercheurs allemands montrent un an après que la fusée a créé un nuage de lithium dans la haute atmosphère au dessus de l’ouest de l’Irlande s’étendant jusqu’au nord de l’Allemagne à 96 km d’altitude.

Les échecs des lancements de fusées peuvent polluer la haute atmosphère terrestre avec des conséquences inconnues pour la couche d’ozone. Le 18 février 2025, SpaceX lançait une 438e fois un Falcon 9 en dehors de l’atmosphère pour envoyer une vingtaine de satellites Starlink en orbite basse.

L’entreprise s’est félicitée du retour du premier étage de la fusée pour son premier lancement des Bahamas. Mais le 19 février, des Polonais témoignaient de la retombée de débris du deuxième étage de la fusée de SpaceX et l’agence spatiale polonaise POLSA confirmait « que dans la nuit du 19 février 2025, entre 04h46 et 04h48, une rentrée incontrôlée dans l’atmosphère au-dessus du territoire polonais d’un étage de la fusée porteuse FALCON 9 R/B a eu lieu ».

Une détection au-dessus du nord de l’Allemagne

Mais la retombée incontrôlée du deuxième étage du Falcon 9 a eu des conséquences qu’on n’imaginait pas. Des chercheurs et chercheuses de l’institut Leibniz de physique de l’atmosphère ont publié, tout juste un an après, un article scientifique indiquant qu’ils ont pu détecter et mesurer un nuage de lithium dans la haute atmosphère au-dessus de l’ouest de l’Irlande et s’étendant jusqu’au nord de l’Allemagne à 96 km d’altitude.

De fait, leur équipe explique avoir d’abord détecté une multiplication par 10 des atomes de lithium au-dessus de la petite ville de Kühlungsborn, en Allemagne, « environ 20 heures après la rentrée incontrôlée d’un étage supérieur Falcon 9 » avec un lidar, un appareil de détection par laser qui permet aussi d’estimer la distance à laquelle sont détectées les particules.

« La densité maximale de la couche de lithium était inférieure à 3 atomes cm⁻³ pendant la majeure partie de la mesure. Une augmentation soudaine du signal d’un facteur 10 a été détectée juste après minuit UTC le 20 février », expliquent-ils.

Ils ont ensuite mis en place des simulations pour vérifier d’où pouvaient provenir ces atomes. « L’ensemble des trajectoires calculées (en bleu) est représenté sur la figure 3 [ci-dessous] avec une carte thermique de densité de probabilité indiquant la région au-dessus du Royaume-Uni et de l’Irlande où le panache de lithium a probablement pris naissance » :

Sur la carte, le tracé noir représente la trajectoire de rentrée du Falcon 9 et la courbe constituée de petits cercles représente un exemple de trajectoire possible qu’ils ont simulé et qui correspondrait à l’heure de rentrée de la fusée dans la haute atmosphère.

Le lithium, la signature des débris spatiaux

Ils expliquent que le lithium a été choisi comme métal cible « pour détecter les signatures des débris spatiaux en raison de sa présence en quantités infimes dans les météoroïdes chondritiques et de ses applications bien documentées dans les engins spatiaux, notamment les batteries lithium-ion et le revêtement des coques en alliage lithium-aluminium (Li-Al) ».

Leur travail montre que les lidars, et notamment ceux à fluorescence par résonance, peuvent être utilisés pour la détection du lithium dans la haute atmosphère « lorsqu’il est associé à d’autres mesures atmosphériques et étayé par une analyse modélisée ». L’idée est de pouvoir comprendre ce qu’il se passe avant l’entrée dans la couche d’ozone. Des recherches ont déjà montré que la combustion des satellites pourrait gravement endommager la couche d’ozone. Mais la détection et la quantification de polluants dans la couche d’ozone stratosphérique est complexe et chère, selon eux.

Les autrices et auteurs soulignent aussi que leur travail « vient étayer les inquiétudes croissantes selon lesquelles le trafic spatial pourrait polluer la haute atmosphère d’une manière qui n’est pas encore entièrement comprise. La croissance continue des lancements et des rentrées de satellites pourrait entraîner des effets cumulatifs, avec des implications pour la composition atmosphérique à long terme et les interactions climatiques ». Reste une inconnue : les conséquences de cette pollution que ce soit sur cette haute atmosphère ou sur la couche d’ozone.

Rappelons qu’outre la haute atmosphère, les lancements de SpaceX sont responsables d’autres pollutions. Ainsi, un mois avant, en janvier 2025, des débris de Starship sont tombés sur des plages et routes des îles Turques-et-Caïques. Enfin, depuis plusieurs années, les astrophysiciens alertent sur les menaces que font peser les constellations de satellites sur les observations astronomiques, menaces qui se sont accélérées avec la taille de ces constellations.

☕️ Rembobine.info revient sur l’impact de notre enquête sur les sites d’infos GenAI

24 février 2026 à 07:55

Rembobine.info, le média qui « lutte contre l’obsolescence de l’info et met en lumière l’impact du journalisme sur nos sociétés », s’est penché sur l’enquête de Next consacrée aux faux sites d’informations en tout ou partie générés par IA. Nous l’avions lancée en février 2025, et elle a récemment dépassé le cap symbolique des 10 000 sites GenAI. Nos confrères y consacrent un article et une interview :

En termes d’impact institutionnel, Rembobine relève que le nombre de sites générés par IA mis en avant par l’algorithme de recommandation de contenus Discover de Google a depuis diminué. Nous reviendrons, cela dit, dans un prochain article sur cette diminution, somme toute relative, avec des chiffres plus précis.

La Commission paritaire des publications et des agences de presse (CPPAP), chargée de reconnaître (ou non) la qualité de service de presse en ligne à un média web, m’a par ailleurs convoqué pour m’auditionner dans le cadre d’un groupe de travail sur les sites générés par IA, et notamment sur la question du plagiat auquel ces sites recourent.

En termes d’impact judiciaire, un seul site généré par IA a depuis été condamné par la justice pour plagiat, et notre enquête n’a fait l’objet d’aucune plainte.

En termes d’impact médiatique et public, l’enquête, initialement relayée par Libération, a fait l’objet de plusieurs reprises, notamment par France CultureTV5MONDE ou France Télévisions, et l’extension web (gratuite) que nous avons développée afin d’alerter celles et ceux qui l’ont installée qu’ils ou elles consultent un site dont les articles ont été « en tout ou partie générés par IA » est utilisée par près de 10 000 personnes.

Elle permet également de nous signaler des sites GenAI, et nous avons d’ores et déjà reçu plus de 3 000 signalements, mais il nous en reste encore plus de 250 à vérifier… tâche que nous ne parvenons pas à effectuer seuls. Nous pourrions la crowd-sourcer et mutualiser avec d’autres fact-checkers, OSINTers, journalistes et ONG.

Médiamétrie a en outre découvert que les 250 sites générés par IA les plus recommandés par Google étaient, à eux seuls, visités par 15 millions de personnes en moyenne par mois, soit un quart des internautes français (dont 75 % de plus de 50 ans) !

« Il y a le risque de désinformation et de propagation des fake news, bien sûr, mais c’est aussi très dangereux pour les médias dits traditionnels », a précisé l’auteur de ces lignes dans l’interview associée :

« Face à ces faux sites, qui sont pourtant très consultés, ils ont perdu des centaines de millions de pages vues, et donc de revenus publicitaires. C’est un vrai problème pour l’économie des médias ! Sans parler du fait qu’en dupliquant leurs articles, tous ces médias générés par IA diffusent des versions différentes d’une même histoire sans que ces dernières ne soient vérifiées. Ça participe à créer du doute sur ce qui est vrai et ce qui ne l’est pas or, plus les gens ont des doutes sur ce qu’est ou non un fait vérifié, plus les risques sont grands de voir arriver des gouvernements autoritaires. On s’en rend bien compte, notamment dans les États-Unis de Trump. »

[Récap] Nous avons découvert des milliers de sites d’info générés par IA : tous nos articles

17 février 2026 à 07:59
« Mais tu écris n'importe quoi, en fait »
[Récap] Nous avons découvert des milliers de sites d’info générés par IA : tous nos articles

Entamée début 2024, notre enquête sur les « sites d’information » générés par IA (mais qui ne le précisent pas) nous avait permis d’en identifier 250 en octobre 2024, 500 à Noël, 1 000 fin janvier 2025, près de 3 000 début mars, 6 000 en août, 9 000 en décembre… et plus de 10 000 depuis février 2026. Cette page résume la quarantaine d’articles que nous y avons consacrés depuis février 2025.

Next a découvert que des milliers de soi-disant sites d’information polluent le web et les moteurs de recherche, ainsi que MSN, Google Actualités et son algorithme de recommandation Discover, alors que leurs soi-disant « articles » :

  • sont (en tout ou partie) générés par IA (mais sans le préciser),
  • prétendent (à tort) émaner de « journalistes », de « médias » et/ou d’experts/professionnels/passionnés,
  • ne sont pas vérifiés ni relus avant publication (contrairement au b.a.-ba de n’importe quel métier),
  • relaient donc potentiellement des « hallucinations/confabulations »,
  • ne respectent pas les chartes d’éthique professionnelle des journalistes,
  • volent des revenus publicitaires qui auraient dû aller à des médias/journalistes/professionnels,
  • contribuent au confusionnisme informationnel voire à la désinformation,
  • relèvent donc d’une « pollution » numérique et médiatique.

Or, le règlement européen sur l’IA (AI Act) obligera les éditeurs à labelliser comme tels les contenus générés par IA (GenAI) à partir d’août 2026. Nous avons donc développé une extension web (gratuite) pour les navigateurs basés sur Chromium (Chrome, Brave, Edge, Vivaldi, Opera, etc.) et Firefox (y compris Android) afin d’afficher un message d’alerte lorsque ses utilisateurs visitent un site dont nous avons identifié que les articles « semblent avoir été (en tout ou partie) générés par IA (GenAI) » (qu’ils soient « full GenAI » ou bien « dopés à l’IA »), mais sans le préciser.

En attendant le « filtre anti-arnaques » promis par le gouvernement (en mars 2022), notre extension intègre aussi les listes noires de Red Flag Domains des 35 000 noms de domaine potentiellement suspects, ainsi que les 2 000 sites web de celle de l’Autorité des marchés financiers (AMF).

Comme indiqué dans le message d’alerte, l’extension flaggue les sites qui « des articles semblent avoir été (en tout ou partie) générés par IA (GenAI) », sous-entendu sans véritable supervision voire sans relecture, et à qui l’on ne saurait donc faire confiance : il s’agit moins de jauger la « qualité » des articles que le fait qu’ils comportent un fort risque d’« hallucinations » générées par IA.

Ces articles et sites GenAI qui polluent le web servent ainsi d’ « armes de désinformation massive », contribuant en outre à l’objectif politique de l’ex-conseiller de Donald Trump Steve Bannon, pour qui « La véritable opposition, ce sont les médias », ce pourquoi il proposa que « la façon de les traiter est d’inonder la zone avec de la merde ».

Nous avons d’ailleurs pu constater que plusieurs des professionnels du référencement – SEO – et du marketing numérique ayant lancé de tels sites générés par IA semblent être fans de Javier Milei, Elon Musk & Donald Trump, entre autres promoteurs politiques de la désinformation, du complotisme et du confusionnisme, et ennemis déclarés du « journalisme ».

De plus en plus de médias et rédactions recourent eux aussi à la GenAI

Au-delà de ces soi-disant sites d’informations n’émanant pas de journalistes, nous avons également découvert (et documenté) que de plus en plus de véritables sites d’information, émanant de passionnés, experts, professionnels et même de rédactions employant des rédacteurs SEO et/ou journalistes, ont eux aussi recours à la GenAI afin de « doper » leurs rédacteurs, et leur permettre de publier un grand nombre d’articles qu’ils ne sauraient pouvoir publier sans recourir à l’IA générative, mais là encore sans le mentionner.

À l’instar du dopage, cette hyperproductivité nuit à la crédibilité du journalisme, non seulement parce qu’elle fausse les statistiques, en surreprésentant les médias dopés par rapport à ceux qui ne le sont pas, mais également parce qu’ils privent les médias qui ne trichent pas des visiteurs uniques et pages vues leur permettant d’une part d’engranger des revenus publicitaires, d’autre part d’être proprement référencés dans les moteurs de recherche.

Nos constats montrent en outre que si les médias dopant leurs rédacteurs et journalistes grâce à la GenAI avancent que leurs contenus sont vérifiés et validés avant d’être publiés, tel n’est souvent pas le cas, au point, pour certains, de publier des articles relayant de fausses informations « hallucinées » (ou « confabulées ») par les IA, et donc de nuire, là encore, à la crédibilité du journalisme et des médias en général, et des journalistes qui ne trichent pas en particulier.

Ils en parlent :

Au commencement était la GenAI (la liste de nos enquêtes)

Notre enquête avait débuté suite au lancement de ChatGPT, fin novembre 2022, et de ses avatars, après avoir publié deux modes d’emploi expliquant comment tenter d’identifier les textes et images émanant d’intelligences artificielles génératives. Ce qui nous avait permis de commencer à identifier ces sites d’infos et articles GenAI.

Mais vu l’ampleur du problème, à mesure que nous en avions identifié plusieurs dizaines au printemps 2024, puis plusieurs centaines fin 2024, nous avions donc proposé au service de fact-checking CheckNews de Libération, à Arrêt sur images ainsi qu’à des fact-checkeurs de Wikipédia, de nous aider à enquêter sur cette « pollution » numérique et médiatique.

Près de 150 des 500 sites GenAI que nous avions initialement identifiés étaient en effet mentionnés comme « sources » sur Wikipédia. Et ce, alors que leurs articles ne semblent avoir été ni relus, ni corrigés, ni validés avant leur publication automatisée (et, donc, sans supervision humaine).

La plupart des articles mentionnés dans l’encyclopédie avaient été publiés avant que leurs noms de domaine (expirés) ne soient rachetés, afin de capitaliser sur leur réputation (ranking) dans l’algorithme de Google, et autres moteurs de recherche.

Nous avons depuis également découvert que, parmi la centaine de professionnels du référencement (SEO) et du marketing numérique qui éditent et administrent ces sites, certains en gèrent plusieurs dizaines, centaines et même plusieurs milliers, sans être en capacité d’identifier combien polluent de la sorte Google, et particulièrement Google Actualités.

Nous avons bien évidemment détaillé notre méthodologie, challengée et vérifiée par les deux contributeurs expérimentés de l’encyclopédie Wikipédia, et les deux journalistes du service de fact-checking CheckNews de Libération.

Next a en outre développé une extension pour les navigateurs compatibles Chrome et Firefox (y compris sur Android), afin d’alerter ses utilisateurs lorsqu’ils consultent un site GenAI (cf sa présentation, et notre méthodologie). Elle les alerte aussi désormais lorsqu’ils visitent aussi des noms de domaines « potentiellement malveillants » identifiés par Red Flag Domains, et des « entités non autorisées à proposer des produits ou services financiers en France » par l’Autorité des marchés financiers.

40 médias français ont depuis demandé à la Justice d’ordonner aux FAI le blocage du site news.dayfr.com. Ce dernier, le plus bourrin du millier de sites d’informations générés par IA que nous avons identifiés, plagiait de 5 à 15 articles… par minute, et jusqu’à plus de 6 000 par jour. Ironie de l’histoire : il a aussi été jusqu’à…. plagier deux des articles mentionnant la plainte le concernant.

Une enquête de l’équipe « pour une IA responsable » de la BBC a par ailleurs découvert que plus de la moitié des réponses fournies par les assistants d’intelligence artificielle (IA) à qui il avait été demandé de chercher leurs réponses dans les articles de la BBC étaient « factuellement incorrectes, trompeuses et potentiellement dangereuses ». Mais également que 20 % d’entre elles ont en outre rajouté des « inexactitudes factuelles » qui ne figuraient pas dans les articles pourtant mentionnés.

Un rapport rédigé par 22 médias de service public européens révèle que près d’une réponse sur deux formulée par les services d’IA générative populaire déforme l’information qui lui est fournie comme source. Qualifiant le phénomène de « distorsion systémique », l’alliance à l’origine de ces travaux appelle le régulateur à garantir le respect de l’information.

Cherchant à satisfaire leurs utilisateurs, les chatbots d’IA générative ont cessé de leur rétorquer qu’ils n’avaient pas de réponse à leurs questions, quitte à raconter n’importe quoi. Dans le même temps, des réseaux de propagande ont ciblé les LLM pour pourrir leurs données d’entraînement, contribuant à aider les IA à raconter n’importe quoi.

Plus d’une centaine (au moins, et probablement plusieurs centaines, voire milliers) des sites GenIA que nous avions initialement identifiés plagient en outre des articles de véritables journalistes, sans mentionner leurs sources ni préciser qu’ils ont été générés avec des IA. Ils sont pourtant, pour la plupart, référencés sur Google Actualités, et parfois relayés par son IA de recommandation algorithmique Discover. Certains se contentent de traduire des articles en français quand d’autres les paraphrasent, rendant leurs plagiats plus difficiles à identifier.

Interrogé par Arrêt sur images, à qui nous avions transmis notre enquête à son sujet, le patron du groupe de presse Économie Matin, par ailleurs co-directeur pédagogique d’une école de journalisme d’extrême-droite, a reconnu que ses articles étaient bien générés par IA, contrairement à ce que son rédacteur en chef adjoint prétendait initialement. Ce dernier, par ailleurs « prompt engineer » du groupe, attribue de son côté les dizaines de plagiats que nous avons en outre identifiés à un « bug du script » envoyé à ChatGPT qui, « étant complètement idiot, parfois, ne fait pas ce qu’on lui dit » (sic).

Notre enquête nous a valu quelques remarques acerbes de la part de professionnels du SEO, au motif que le fait de rendre public le fait que certains de leurs sites sont GenAI pourrait nuire à leur business :

« Les gens veulent manger de la merde ? Donnez en leur à la pelle plutôt que d essayer de buzzer et cherchant à bousiller le business de milliers de sites. »

L’un d’entre eux nous a par exemple rétorqué que de nombreux médias français avaient récemment relayé une « rumeur »… qu’ils n’auraient cela dit probablement pas relayée si les journalistes avaient été informés que l’information initiale avait en fait été « hallucinée » dans des articles générés par IA.

Les sites d’information de la presse quotidienne régionale (PQR) sont, eux aussi, de plus en plus victimes de pure players qui les concurrencent, voire les plagient, tout en étant générés par des IA. Si certains se positionnent comme des « médias indépendants », d’autres ne cherchent qu’à faire du clic. Au point que des journalistes de la PQR se retrouvent à devoir fact-checker des infos erronées car « hallucinées » par les IA qui les publient.

Après avoir analysé un échantillon de 8 795 posts LinkedIn publics de plus de 100 mots publiés entre janvier 2018 et octobre 2024, une start-up de détection de contenus générés par IA a par ailleurs découvert que plus de 50 % d’entre eux étaient GenAI, et que le nombre de messages longs susceptibles d’avoir été générés par IA avait explosé de 189 % dans les mois suivants le lancement de ChatGPT.

Dans son (216e) podcast, Mediarama a en outre reçu Alexandre Laurent, directeur de la rédaction de Next.ink, pour discuter de notre enquête-fleuve sur les 2 000 (au moment de l’enregistrement, mi-février) 3 000 (depuis début mars) « sites d’information » en tout ou partie générés par IA (GenAI) que nous avons identifiés, où il résume (et revient sur) les articles que nous y avons consacrés.

Le Conseil des ministres espagnol a approuvé un avant-projet de loi pour une « utilisation éthique, inclusive et bénéfique de l’intelligence artificielle » qui sanctionnera les contenus ne précisant pas qu’ils sont générés par IA. Il s’agit des adaptations au droit espagnol du règlement européen dit « AI Act » adopté par le Parlement européen en mars 2024

Quatre agences chinoises ont annoncé une nouvelle série de règles qui obligeront les fournisseurs de services, à partir du 1ᵉʳ septembre 2025, à désigner comme tels les contenus générés par IA via des identifiants explicites et implicites (méta-données et/ou filigranes).

Le nombre exponentiel de contenus « GenAI » polluant le web est tel qu’il devient parfois difficile de distinguer les contenus émanant d’êtres humains de ceux générés par des IA. Nous avons, a contrario, identifié plusieurs « faux positifs » dans le cadre de notre enquête sur les sites d’info GenAI. Après avoir expliqué comment identifier de tels contenus, il nous semble important d’expliquer comment nous avons décelé ces « faux positifs », de sorte de ne pas, non plus, contribuer à la « panique morale » autour de la GenAI.

Deux responsables de Google viennent de rappeler aux éditeurs de sites web que la création en masse de grandes quantités de contenu, en particulier à l’aide de l’IA, relève du « spam » (sauf si elle fait montre d’originalité et offre une réelle valeur ajoutée). Or, l’algorithme de recommandation de contenus Discover de Google promeut (au moins) une quarantaine de sites générés par IA (GenAI), dont plusieurs relaient rumeurs et infox.

Le nombre de morceaux de musique identifiés par le détecteur de contenus synthétiques développé par la plateforme est passé de 10 000 à plus de 20 000 par jour entre janvier et avril. 7 à 8 % relèveraient de tentatives de fraude. Le patron de Deezer propose de « légiférer pour que les plateformes rémunèrent les artistes et pas ces bruits », mais ne précise pas comment.

L’an passé, Google a fait face à une crue de publicités reposant sur l’usurpation d’identité, générée par IA, de personnalités, afin de promouvoir des escroqueries. La régie publicitaire de Google a « rapidement constitué une équipe de plus de 100 experts », et suspendu « plus de 700 000 comptes d’annonceurs ». Une célérité qui contraste fortement avec le laxisme de Google et de son algorithme de recommandation de contenus Discover pour ce qui est des médias générés par IA.

Saisie par une quarantaine de médias, qui se plaignaient du fait que ce site plagiait jusqu’à 6 000 de leurs articles… par jour, la Justice ordonne aux quatre principaux FAI le blocage du plagieur en série, d’ici 15 jours, pendant 18 mois.

Google représente 61% des sources de trafic des sites de presse. Pour la deuxième année consécutive, le trafic en provenance de son algorithme de recommandation de contenus Discover explose de + 50%, représentant 68% du trafic émanant des services de Google. Un renversement de tendance qui attire de plus en plus de professionnels du marketing numérique cherchant à profiter de cette « pompe à fric » : 14 % du Top 50 des sites mis en avant sur Discover sont désormais générés par IA.

7 des 50 principaux sites d’information en français mis en avant par l’algorithme Discover de recommandation de contenus de Google sont générés par IA. Plus de 75 sites « générés par IA » (au moins) ont été « recommandés » par Discover ces derniers mois, et 15 y ont même figuré dans son Top50, dont 1 pendant 5 mois, 3 pendant 3 mois, 2 pendant 2 mois, & 4 dans son Top25 (dont un pendant 3 mois consécutifs, un autre 2 mois de suite). Plusieurs éditeurs de sites GenAI comparent Discover à TikTok et le qualifient de « réseau social de Google », voire à « une drogue » susceptible de « générer une dépendance », au vu des milliers d’euros de chiffre d’affaires engrangés, par jour. Deux d’entre eux seraient même devenus millionnaires grâce à Discover, en trois mois seulement.

Des dizaines de médias britanniques ont publié des articles reposant sur des témoignages d’ « experts » qui n’existent pas. Créés pour améliorer le référencement naturel des sites web dont ils se réclament par des pros du SEO et/ou du marketing numérique, leurs « expertises », promues par des agences de mises en relation avec des journalistes, ont été grandement facilitées par les intelligences artificielles génératives.

À lui seul, le plus prolifique des éditeurs de sites francophones générés par IA a réussi à faire promouvoir plusieurs milliers d’articles, dont de très nombreuses fake news, par l’algorithme de recommandation de contenus Discover de Google. Au point que d’autres pros du SEO (pourtant eux-mêmes éditeurs de sites GenAI), en arrivent à se plaindre publiquement de cette surenchère et pollution.

L’algorithme Discover de « recommandation de contenus » de Google, principale source de trafic des sites journalistiques français, est devenu une « pompe à fric » pour les sites monétisés par la publicité, majoritairement financés par… la régie publicitaire de Google. Au point que près de 20 % des 1 000 sites d’info les plus recommandés par Google Discover, et 33 % des 120 sites les plus recommandés par Google News, à la rubrique Technologie, sont générés par IA.

Cet été, un éditeur de sites d’infos générées par IA a accusé plusieurs chaînes d’hypermarchés de vendre des produits cancérigènes, pourris, lavés à l’eau de javel ou recongelés. Ses articles n’en ont pas moins été recommandés par l’algorithme Discover de Google.

Confrontée à une déferlante de fausses informations cet été, la retraite complémentaire a publié à la rentrée un message d’alerte sur son site web. Nous avons découvert que la quasi-totalité des articles mis en avant ces derniers mois par Google au sujet de l’Agirc-Arrco émanaient d’articles (hallucinés, voire mensongers) générés par IA. Et sur les 10 % d’articles émanant de rédactions humaines, plus de la moitié concernaient ces fake news.

Le tsunami de soi-disant sites d’informations générés par IA (GenAI) auquel nous assistons depuis des mois, émanant de professionnels du marketing numérique et du référencement (SEO), contamine aussi la presse. Nous avons en effet identifié (au moins) cinq sites hébergés par deux des plus importants groupes de presse français et reposant eux aussi, « en tout ou partie », sur la GenAI, et susceptibles de doper artificiellement leurs statistiques de fréquentation.

Une ancienne responsable de la division podcast d’Amazon pense avoir trouvé un filon « scalable » susceptible de lui permettre de la rendre richissime. Entièrement générés par IA, en une heure et pour un dollar seulement, ses podcasts sont en effet rentables à partir de 20 auditeurs.

En France, des crèches acceptent des poupées « reborn » (hyperréalistes) au détriment de bébés humains, avance un site du groupe Reworld. Il s’agit en fait d’infox et canulars ayant fait le buzz sur TikTok, relayés au premier degré. Contacté, le directeur des activités numériques du groupe aurait « bien voulu que ce soit une hallucination émanant d’une IA », mais nous « certifie qu’aucun article n’a été écrit par de l’IA ».

Universcience vient de lancer une « IA au service des enseignants ». Elle propose de créer des cours en utilisant la base de données de contenus stockés par la structure de médiation scientifique. Mais les premiers cours présentés dans Ada sont accompagnés d’images générées par IA illustrant de manière absurde, par exemple, l’évolution des espèces en incluant entre autres des voitures.

Premier éditeur de presse magazine en France, et 3ᵉ groupe média sur le web et les réseaux sociaux, Reworld Media estime que les sites d’infos générées par IA auraient fait perdre des dizaines de millions d’euros aux médias depuis que l’algorithme de Google a commencé à recommander leurs articles. Il vient de commencer à… faire pareil, ou presque. Étrangement, nombre de ses articles « augmentés » par l’IA publient comme images d’illustration des… bras cassés coupés.

Le syndicat des journalistes de Politico a remporté une « victoire majeure », qui devrait faire jurisprudence aux États-Unis, en matière de recours à l’IA dans les médias. Leurs rédacteurs en chef avaient plaidé, en vain, que les contenus générés par IA ne devraient pas être soumis aux normes éthiques et éditoriales, au motif qu’elles étaient développées par des ingénieurs, et non par des journalistes.

14 à 16 millions d’internautes français consultent chaque mois l’un des 251 sites d’infos GenAI les plus recommandés par Google et identifiés par Next, selon une étude de Médiamétrie pour le Groupement des éditeurs de services en ligne. Près des trois quarts (74 %) de ces internautes ont plus de 50 ans, au point que ces derniers visitent plus de sites d’infos GenAI que de vrais sites d’actualités. 77 % y sont envoyés par l’un des services de Google (Discover, Search ou Actualités), et 10 % via Meta.

Plus de 20 % des vidéos recommandées par l’algorithme de YouTube aux nouveaux utilisateurs sont des « AI slop » (ou bouillie d’IA en français), du nom donné à ces contenus bas de gamme générés par intelligence artificielle et conçus pour cumuler les vues afin de les monétiser par la publicité.

Les fulgurantes avancées en matière de contenus générés par IA, notamment (audio)visuels, rendront de plus en plus difficile le fait d’identifier ceux qui cherchent à imiter voire usurper des contenus humains. Le patron d’Instagram propose dès lors de renverser la charge de la preuve, en identifiant plus formellement les contenus créés par des humains.

Le tsunami de sites d’infos générées par IA que nous documentons depuis des mois a pris une telle ampleur que le ministère de la Culture vient lui-même de publier un communiqué de presse largement inspiré d’un billet de blog généré par IA, tout en y relayant une erreur « hallucinée » par l’IA.

Arrêt sur images et le Syndicat national des journalistes ont découvert que deux sites de presse quotidienne régionale (PQR) ont publié près de 900 articles en 50 jours « avec l’aide de l’IA » concernant ce qui se passe dans des départements limitrophes pour… induire les préfectures en erreur.

L’épidémie de sites d’informations générés par IA que Next documente depuis des mois vient de faire un premier accident industriel. Un site d’information féminin a en effet laissé entendre, par le truchement d’articles générés (et « hallucinés ») par IA, qu’une certaine Thérèse aurait ouvert une crèche dédiée aux bébés « reborn » (du nom donné aux poupées hyperréalistes). L’infox’ a depuis été reprise, citée et commentée par des milliers de personnes sur les réseaux sociaux, et quelques médias. Sans avoir cherché à le vérifier, ni préciser qu’il s’agit d’une ex-actrice porno, habituée des plateaux de talk-shows depuis 1999 et des réseaux sociaux depuis les années 2010 pour y mettre en scène sa vie fantasque et ses fantasmes.

[à suivre…]

☕️ Il y a plus de lobbyistes tech que d’eurodéputés à Bruxelles

23 février 2026 à 16:41

« Il y a aujourd’hui plus de lobbyistes tech que d’eurodéputé·es à Bruxelles ! », s’étonne synthmedia.fr : un rapport des ONG Corporate Europe Observatory (CEO) et LobbyControl dénombrait en effet, en octobre dernier, 890 lobbyistes tech, contre 720 eurodéputés. En deux ans à peine, le budget des lobbys de la tech est quant à lui passé de 113 à 151 millions d’euros, soit une progression de 33 % :

« En tête de peloton, Meta ouvre la marche avec 10 millions d’euros consacrés à l’influence, talonnée par Microsoft, Apple et Amazon. Les dix plus grandes entreprises du numérique dépensent à elles seules trois fois plus que leurs homologues des secteurs pharmaceutique, financier et automobile réunis, et deux fois plus que celui de l’énergie. »

Cette montée en puissance viserait à détricoter les piliers législatifs du Vieux Continent par le biais de textes tels le Digital Omnibus présenté en novembre 2025 pour simplifier des lois numériques issues de dix ans de réflexion, relève Synth.

Après avoir comparé les argumentaires des lobbyistes adressés aux eurodéputés et la copie rendue par la Commission européenne, Felix Duffy, chargé de campagne chez LobbyControl pointe un « chevauchement assez important » des textes, et y voit un « cadeau fait à Donald Trump et à ses oligarques de la tech ».

IA Act Europe

« Une montée en puissance qui inquiète et alimente le débat sur la souveraineté numérique du Vieux Continent », écrit Synth, alors que la Commission européenne tente de consolider son arsenal numérique, que l’Union européenne peaufine sa prochaine grande loi numérique, le Digital Fairness Act, que l’administration états-unienne attaque de son côté le Digital Services Act (DSA) et prend la défense des ingérences numériques d’Elon Musk via son média social X.com.

« Les géants américains de la tech ont clairement fait allégeance au président des États-Unis. Derrière ce positionnement, il y a un imaginaire politique de puissance impériale transhumaniste et une volonté assumée de domination », analyse l’eurodéputé écologiste David Cormand : « l’offensive contre les régulations européennes n’est pas seulement politique, elle vise le modèle démocratique lui-même. Il ne peut donc pas y avoir de compromis durable entre nos valeurs et leur modèle ».

☕️ Mistral aussi entraine ses IA sur des contenus dont elle n’a pas les droits

23 février 2026 à 16:19

« Le plus grand vol de propriété intellectuelle de l’histoire. » Telle était la manière dont le directeur général de la Confédération internationale des éditeurs de musique (ICMP) décrivait en septembre 2025 la manière dont les plus gros éditeurs d’intelligence artificielle (IA) avait réussi à entraîner leurs modèles génératifs. 


Et ces débats sur les travaux soumis aux droits d’auteur intégrés dans les bases d’entraînement de large language models (LLM, grands modèles de langage) reviennent en France : selon les travaux menés par Mediapart avec l’appui de Paul Bouchaud, chercheur·euse en post-doctorat au CNRS, le modèle Mistral Large 3 - 2512 de la société française contient notamment les incipits de Harry Potter à l’école de sorciers de J.K. Rowling, du Trône de fer de George R.R. Martin ou encore de 1984, de George Orwell.

Outre les incipits, Mediapart a interrogé l’outil de Mistral pour voir dans quelle proportion il recrachait des textes littéraires, potentiellement issus de LibGen. Base de données pirate, cette dernière a été utilisée par Meta pour entraîner son modèle Llama, notamment à l’instigation du cofondateur de Mistral Guillaume Lample.

Entre autres résultats, Mistral Large 3 a produit près des deux tiers du texte du Petit Prince, d’Antoine de Saint-Exupéry, et plus du tiers du premier tome de Harry Potter. Des chiffres qui tendent à démontrer le recours à ces textes dans l’entraînement du modèle.

De même, dans le domaine musical, Mistral Large 3 produit directement des éléments de chansons d’Elton John, Amel Bent ou Jacques Dutronc, tous engagés contre le recours à leurs textes pour entraîner des systèmes d’IA.

IA photocopiant des produits copyright

Auprès de Mediapart, Mistral évoque un « principe de réalité » selon lequel certains des contenus précités, « particulièrement populaires, sont répliqués à de nombreuses reprises sur Internet ».

Dans plusieurs cas, le média constate néanmoins que Mistral ne respecte pas les logiques d’opt-out, c’est-à-dire de refus d’alimenter les robots qui permettent aux constructeurs d’IA de récupérer des données en ligne. 
En effet, sur le site de Radio France comme sur celui de Mediapart, diverses versions de ce droit de retrait ont été appliquées – que ce soit via un fichier robots.txt ou via une mention explicite de refus de scraping dans les conditions générales d’utilisation.

D’après leurs gestionnaires, néanmoins, les robots crawlers de Mistral envoient tout de même des requêtes vers les sites des deux médias.

❌