↩ Accueil

Vue lecture

Avec Copilot Autofix, GitHub part à la chasse de vos secrets

Un ptit (Auto)fix ?
Avec Copilot Autofix, GitHub part à la chasse de vos secrets

GitHub a annoncé plusieurs améliorations et changements importants. Parmi les ajouts, un renforcement de la fonction Copilot Autofix, au centre de campagnes de sécurité désormais poussées par l’entreprise. Sur Windows, Copilot reçoit également deux fonctions attendues.

Ces derniers jours, GitHub a annoncé plusieurs évolutions significatives, et certaines nécessiteront de payer. On commence avec la sécurité, pour laquelle l’entreprise avait préparé le terrain. Il y a une semaine, elle communiquait ainsi sur les 39 millions de secrets que son service Secret Scanning avait trouvés jusqu’à présent. L’outil sert à analyser le code pour y trouver des clés d’API, mots de passe, jetons et autres informations ne devant pas se retrouver devant les yeux des utilisateurs.

Sécurité en services détachés

GitHub indiquait alors qu’en dépit des améliorations continuelles sur la sécurité, le désir de productivité et de confort prendraient le dessus. Par commodité, des secrets peuvent ainsi fuiter pendant les commits. L’autre source de fuite selon GitHub réside dans l’historique git, qui peut révéler accidentellement des informations sensibles dans le dépôt.

En conséquence, GitHub a annoncé hier soir plusieurs changements. Le plus important est la disponibilité des services Secret Protection et Code Security en produits autonomes. Selon l’entreprise, leur disponibilité limitée aux abonnements les plus onéreux était un frein pour nombre d’entreprises. En outre, une fonction d’évaluation gratuite des risques est proposée pour tous les dépôts GitHub, basée sur l’organisation et les éventuels secrets révélés. Cette recherche de secrets a également été intégrée dans Copilot pour les données non structurées (comme les mots de passe) et renforcée dans l’analyse des pushs.

GitHub pousse vers des campagnes de sécurité

La société, filiale de Microsoft, pousse depuis vers une hausse de la sécurité du code et des dépôts associés. Hier soir, elle a même appelé à des campagnes de sécurité, destinées à tous les clients disposant d’une offre Advanced Security ou Code Security. Elles avaient été lancées en préversion l’année dernière. Objectif : réduire la dette de sécurité.

Les campagnes doivent permettre aux équipes produits et sécurité de mieux communiquer. La direction est donnée par l’équipe de sécurité, qui définit les risques à traiter en priorité. Ce référentiel sert de cadre à la campagne et peut être accompagné d’un modèle prédéfini, comme le Top 10 des types de failles par MITRE. GitHub remonte également des statistiques, sur lesquelles l’équipe peut s’appuyer.

Après quoi, la campagne est lancée avec un calendrier. Les développeurs concernés reçoivent une notification, selon le contexte (place dans l’équipe, section du projet, etc.). Les tâches dévolues peuvent se traiter comme « n’importe quel autre travail de fonctionnalité ». À ceci près que l’assistant Copilot Autofix fait partie intégrante du processus. Il commence alors à suggérer des corrections pour l’ensemble des alertes de la campagne, accompagnées d’un « texte personnalisé ». Chaque campagne a au moins un ou une responsable pour faciliter les échanges avec l’équipe produit.

Par rapport à la préversion lancée l’année dernière, les campagnes ont plusieurs nouvelles fonctions. L’équipe de sécurité peut notamment itérer sur la portée des campagnes et les enregistrer sous forme de campagnes provisoires, avant leur lancement effectif. Les responsables peuvent aussi créer automatiquement des enjeux dans les dépôts à partir des alertes présentes dans la campagne. Surtout, ils ont maintenant accès à des statistiques agrégées reflétant la progression générale de toutes les campagnes, en cours ou passées.

Copilot : des agents partout

GitHub a annoncé il y a quelques jours plusieurs améliorations aussi pour son Copilot, tout particulièrement sur les agents, notamment la disponibilité en version stable du Mode Agent, qui avait été présenté en février.

On note aussi le lancement d’une préversion pour Model Context Protocol (MCP), conçu pour compléter le Mode Agent avec du contexte et des capacités, à la manière d’un hub où viennent se brancher des aides externes, explique GitHub. L’entreprise fournit une liste de serveurs MCP, permettant au Mode Agent de gagner en fonctions comme la recherche à travers des dépôts multiples, dans l’idée de le transformer en aide de camp.

Un nouveau forfait Pro+ avec des requêtes premium

GitHub Copilot dispose en outre désormais des modèles Claude 3.5, 3.7 Sonnet et 3.7 Sonnet Thinking d’Anthropic, Gemini 2.0 Flash de Google et o3-mini d’OpenAI pour les développeurs disposant d’un abonnement payant.

Pour compenser l’arrivée des nouveaux modèles et outils, l’entreprise impose quelques limites. Toutes les tâches et actions faisant appel aux derniers modèles ajoutés, comme Claude 3.7 Sonnet, sont soumises à un plafond de « requêtes premium ». Le nombre de requêtes disponibles dépend de la formule d’abonnement : 300 pour Pro et Business, 1 000 pour Enterprise. Ces réserves seront appliquées respectivement les 5, 12 et 19 mai.

GitHub précise que ces limites ne s’appliquent qu’aux nouveaux modèles. Pour les personnes se servant de l’actuel GPT-4o, rien ne change. En outre, un nouveau forfait Pro+ est proposé avec 1 500 requêtes premium pour 39 dollars par mois. Il sera nécessaire pour accéder aux « meilleures modèles, comme GPT-4.5 ». Enfin, il est possible d’acheter des requêtes premium supplémentaires à raison de 0,04 dollar l’unité quand la réserve est épuisée.

Copilot devient plus intéressant sur Windows

Si Microsoft a décliné son Copilot pour presque tous les usages, l’assistant n’a jusqu’à présent pas marqué les esprits sur Windows, où ses capacités pourraient pourtant faire quelques étincelles.

Plusieurs améliorations sont désormais disponibles sur l’ensemble des canaux de préversion pour Windows, via une mise à jour de l’application par le Microsoft Store. Toutefois, ces fonctions ne sont accessibles qu’aux États-Unis pour l’instant.

La première est une recherche détaillée pour les fichiers. Le type de recherche que l’on attend sans doute d’un système moderne aujourd’hui. Les requêtes peuvent se faire en langage naturel, par exemple « Peux-tu retrouver mon CV ? » ou « Ouvre le document de planification de voyage sur lequel je travaillais la semaine dernière ». La plupart des types de fichiers sont pris en charge, dont les .docx, .xlsx, .pptx, .txt, .pdf et .json.

L’autre fonction, Copilot Vision, permet en théorie à l’assistant de venir donner un coup de main dans n’importe quelle application tierce. Depuis Copilot, on commence par cliquer sur l’icône représentant une paire de lunettes, puis on sélectionne la fenêtre d’application ou du navigateur sur laquelle on veut pouvoir agir. Après quoi, on rédige sa demande dans Copilot, l’assistant effectuant l’opération sur la base des renseignements présents dans l’application surveillée.

  •  

Trump a-t-il commis le plus grand délit d’initié de tous les temps ?

Buy the dip
Trump a-t-il commis le plus grand délit d’initié de tous les temps ?

Sans crier gare, Donald Trump a annoncé mercredi la suspension des droits de douane dits réciproques qu’il venait de mettre en œuvre contre des dizaines de pays, entraînent l’envol immédiat de tous les indices boursiers américains. Problème : le président des États-Unis avait incité, quatre heures plus tôt, ses abonnés à acheter des actions…

+ 12 % pour le Nasdaq, l’indice de référence de la bourse américaine.+ 15 % pour Apple.+ 18 % pour NVIDIA.+ 22,7 % pour Tesla, etc. Après plusieurs jours d’une extrême volatilité sur les marchés, Donald Trump peut se targuer d’avoir relancé la machine : mercredi soir, le président des États-Unis a en effet annoncé la suspension immédiate, pour 90 jours, des droits de douane dits réciproques, qu’il avait plus ou moins arbitrairement décrétés une semaine plus tôt.

C’est, une fois de plus, via les réseaux sociaux que Donald Trump a formulé son annonce. Dans un long message publié sur son propre réseau, Truth, il partage sa satisfaction d’avoir été contacté par des dizaines de pays engagés dans une recherche de négociation avec les États-Unis. Il signale le maintien d’une taxe plancher de 10 % pour tous les pays du monde, et enfonce le clou avec la Chine, annonçant que les droits de douane exceptionnels allaient désormais monter à 125 %.

Sur les marchés financiers américains, le soulagement est immédiat. Bien sûr, il ne s’agit que d’une suspension, bien sûr le conflit commercial avec la Chine risque de s’intensifier, mais la double menace d’une économie américaine paralysée et d’une récession imminente s’éloigne un peu. Immédiatement, les investisseurs retrouvent le chemin du bouton achat, soit par regain de confiance, soit par volonté de jouer le rebond, c’est-à-dire de profiter d’un mouvement de hausse soudain pour enregistrer une plus-value rapide.

Difficile de savoir si l’effet de consolidation sera durable… mais en attendant, ceux qui se sont positionnés au bon moment ont pu engranger des fortunes, et d’aucuns estiment que Donald Trump pourrait les y avoir aidés.

« C’est un bon moment pour acheter !!! »

L’annonce de Donald Trump a pris le monde par surprise. Howard Lutnick, secrétaire au commerce, affirme sur X qu’il était aux côtés du président quand ce dernier a rédigé son message, soulignant implicitement le caractère spontané de la décision. D’autres s’inquiètent toutefois de messages publiés quelques heures plus tôt par Donald Trump.

« THIS IS A GREAT TIME TO BUY!!! DJT », s’est exclamé ce dernier, mercredi à 15h37 (heure de Paris, soit 9h37 sur la côte Est, sept minutes après l’ouverture des marchés boursiers de Wall Street), quatre heures avant l’annonce de sa volte-face sur les droits de douane.

À première vue, le message ne détonne pas particulièrement au milieu du flux parfois décousu des publications de Donald Trump sur son réseau social. Il se démarque toutefois par l’usage de ces trois points d’exclamation, ou par la signature DJT, qui correspond au symbole boursier de la holding du président, Trump Media & Technology Group. Il a largement suffi pour que beaucoup d’internautes réagissent, sur les réseaux sociaux, en criant au délit d’initié.

« Constitue un délit d’initié le fait, en toute connaissance de cause et pour une personne disposant d’une information privilégiée, d’en faire un usage en réalisant, pour elle-même ou pour autrui, soit directement, soit indirectement, une ou plusieurs opérations ou en annulant ou en modifiant un ou plusieurs ordres passés sur l’émetteur ou l’instrument financier concerné par cette information privilégiée », rappelle Dalloz.

Très vite, des observateurs décèlent des mouvements suspects sur des produits financiers complexes (des options d’achat), qui permettent de parier sur la hausse (ou la baisse) d’un cours en bourse, en ajoutant un effet de levier significatif à la transaction. D’autres remarquent que la très MAGA Marjorie Taylor Greene, représentante de la Géorgie au Congrès américain, a procé (PDF) à de nombreux achats en bourse le 4 avril dernier.

Pas de quoi, à ce stade, étayer une accusation de délit d’initié ou, pour être plus précis, de manipulation de marché, mais la question risque de se poser en des termes plus officiels.

Plusieurs représentants des deux chambres du Parlement états-unien ont en effet d’ores et déjà appelé à l’ouverture d’une enquête. C’est le cas par exemple du sénateur démocrate de Californie Adam Schiff. « Qui, au sein de l’administration, était au courant du dernier revirement de Trump sur les droits de douane ? Quelqu’un a-t-il acheté ou vendu des actions, et en a-t-il tiré profit aux dépens du public ? J’écris à la Maison-Blanche : le public a le droit de savoir », s’inquiète-t-il sur Bluesky.

Pendant ce temps, à Vera Cruz

Un autre politique s’en est ému mercredi, dans une séquence qui fera date. Jamieson Greer, représentant pour le commerce extérieur de la Maison-Blanche depuis le 26 février dernier, passait en effet une audition devant le House Ways and Means Committee, la commission en charge des affaires fiscales de la Chambre des représentants, précisément au moment où Donald Trump annonçait la suspension des droits de douane.

Et le sénateur démocrate Steven Horsford, qui préside ladite commission, n’a pas ménagé ses remarques quand l’information est tombée : « On dirait que votre patron vient de vous couper l’herbe sous le pied et de suspendre les droits de douane, les impôts sur le peuple américain. Il n’y a aucune stratégie. Vous venez de l’apprendre il y a trois secondes, assis ici, on vous a vu… », a-t-il déclaré, avant d’à son tour faire part de ses soupçons.

« Si c’était un plan, si cela a toujours été le plan, comment pourrait-on dire qu’il ne s’agit pas de manipulation de marché ? » a demandé Horsford. « Ce n’est pas une manipulation de marché, Monsieur », a répondu Greer. « Ce n’est pas une stratégie », a ajouté Horsford. « Nous essayons de repenser le système commercial mondial », s’est finalement défendu le (soi-disant ?) chargé du commerce extérieur.

Ce nouveau rebondissement boursier intervient deux jours après la diffusion d’une fake news, qui avait provoqué une envolée soudaine des marchés boursiers. Elle concernait déjà l’hypothèse d’une suspension des taxes pour 90 jours.

Il rappelle aussi d’autres suspicions de malversations, liées notamment à l’univers des cryptomonnaies. L’annonce selon laquelle la Maison-Blanche allait lancer la création d’une réserve stratégique de bitcoins, début mars, avait ainsi permis à une « baleine » (un gros investisseur) de réaliser un coup particulièrement lucratif.

  •  

Avec Nova Sonic, Amazon a enfin un modèle d’IA pour le traitement vocal

Don't Call Me Baby
Avec Nova Sonic, Amazon a enfin un modèle d’IA pour le traitement vocal

Amazon a présenté hier soir un nouveau venu dans sa famille de modèles d’IA générative Nova. Nommé Sonic, il est spécialisé dans le speech-to-speech et se veut idéal pour les bots dédiés à la relation client.

Amazon renforce et complète actuellement sa gamme Nova. On a ainsi vu récemment la version 1.1 de Nova Reel, destinée à la génération de vidéos pouvant aller jusqu’à 2 minutes. Nova Sonic, le nouveau venu, est un modèle destiné à l’audio, plus précisément dans la catégorie speech-to-speech. Il est donc conçu pour donner des réponses vocales à des invites tout aussi vocales.

Destinations chatbots et streaming

Sans surprise, le modèle Sonic est fait avant tout pour les interfaces permettant les discussions à haute voix. C’est la réponse d’Amazon au Voice Mode de ChatGPT et autres technologies équivalentes. L’entreprise sait d’ailleurs qu’elle arrive assez tard sur ce marché. Elle déclenche donc une guerre des prix, avec une tarification agressive, environ 80 % moins chère que l’équivalent dans GPT-4o, en tout cas selon Amazon.

Amazon qualifie son Nova Sonic de modèle vocal « le plus rentable » du marché. Il serait également le plus rapide, avec une latence moyenne perçue de 1,09 seconde, contre 1,18 pour GPT-4o. Ces performances lui ouvrent – comme son concurrent – les portes d’une utilisation en direct sur du streaming.

Capter l’attention l’intention

Et si vous vous en doutiez, Sonic est bien le modèle utilisé par Amazon dans son assistant Alexa+ lancé récemment.

Selon l’entreprise, Sonic est particulièrement doué pour « comprendre » l’intention des utilisateurs. Il examine notamment les pauses et interruptions de l’interlocuteur et tâche de répondre « au moment opportun ». En d’autres termes, Nova Sonic tente de prendre en compte la prosodie et le sentiment, comme on peut le voir dans la démonstration ci-dessous.

Selon Amazon cependant, la plus grande force de Nova Sonic est son agilité au sein d’un environnement hétérogène. Il achemine ainsi les demandes vers différentes API, lui permettant d’aller chercher des informations sur internet, d’analyser des sources de données propriétaires et même d’agir dans d’autres applications.

Permission de marmonner

Sonic serait également doué dans sa gestion des erreurs de reconnaissance vocale. Dans le benchmark Multilingual LibriSpeech, le taux d’erreur rencontré serait de seulement 4,2 % pour l’anglais, le français, l’italien, l’allemand et l’espagnol. Cette précision le rendrait performant dans des situations de faible articulation, d’environnement bruyant ou même de « marmonnement ». Ces performances seraient atteintes grâce à l’union des capacités de compréhension et de génération en un seul modèle.

Nova Sonic est disponible depuis Amazon Bedrock, mais uniquement en anglais pour l’instant. Le modèle sait générer une transcription texte à des fins de développement. La fenêtre de contexte est de 300 000 jetons et une connexion peut durer 8 minutes, à raison de 20 connexions concurrentes par client à la fois. En revanche, cette disponibilité est limitée pour l’instant à l’anglais (accents anglais et américain inclus), et pour la seule région US East.

Enfin, Amazon parle d’IA « responsable », avec des protections incluses pour la modération de contenu et l’ajout de filigranes (watermarks).

  •  

☕️ Airbnb condamnée à verser plus de 8 millions d’euros à l’île d’Oléron

Oléron a gagné son procès en appel contre la plateforme de location Airbnb.

Mardi 8 avril, la cour d’appel de Poitiers a confirmé les jugements rendus en 2023 et 2024 par le tribunal judiciaire de La Rochelle et augmenté le montant de ses condamnations au titre de manquements au versement de 7 410 taxes de séjour à 5 millions d’euros pour l’année 2021 et 3,5 millions d’euros pour 2022, précise Sud-Ouest.

Phare de Chassiron, Saint-Denis d’Oléron / Lucas Gallone

La Cour d’Appel a estimé le « manquement (…) d’autant plus grave que le recouvrement de la taxe de séjour représente une part non négligeable du budget de la Communauté de Communes de l’île d’Oléron pour financer les dépenses liées à l’afflux de touristes sur la période estivale. »

D’après l’AFP, Airbnb envisage un nouveau recours, jugeant les amendes « disproportionnées ». L’île d’Oléron reste en procédures avec deux autres plateformes : Booking et Leboncoin.

  •  

Datacenters pour l’IA : le protocole ouvert UALink lance l’offensive contre NVIDIA

À l’attaqueeeeeeee !
Datacenters pour l’IA : le protocole ouvert UALink lance l’offensive contre NVIDIA

UALink 200G est disponible en version 1.0. Elle se présente comme une « norme ouverte » pour interconnecter les GPU dans les centres de calcul pour l’intelligence artificielle. Elle est établie à partir d’Infinity Fabric d’AMD et vient se placer en concurrent de NVLink de NVIDIA.

En fin d’année dernière, nous vous parlions de deux protocoles « next-gen » en préparation chez les fabricants : Ultra Ethernet et Ultra Accelerator Link (UALink). Dans les deux cas, il s’agit de venir jouer sur les platebandes de NVIDIA en visant respectivement ses technologies InfiniBand (et son Remote Direct Memory Access, ou RDMA) ainsi que NVLink. L’image ci-dessous résume assez bien la cible des deux protocoles.

L’Ultra Accelerator Link 200G 1.0 est disponible

Avec du retard sur le calendrier, l’UALink Consortium a mis en ligne la version 1.0 des caractéristiques de l’Ultra Accelerator Link 200G. Cette norme « définit une interconnexion à faible latence et à large bande passante pour la communication entre les accélérateurs et les switchs dans les modules de calcul d’IA ».

La version 1.0 de l’Ultra Accelerator Link 200G est disponible par ici (pdf de 253 pages). Comme on pouvait s’en douter, il est expliqué que le 200G fait référence à la bande passante d’une ligne UALink : 200 GT/s (GT pour GigaTransfers, une unité pour mesurer le débit d’un bus de données). La liaison est même à 212,5 GT/s pour laisser de la place à de la correction d’erreur par exemple. Jusqu’à quatre lignes peuvent être agrégées pour obtenir 800 GT/s.

Pour passer des GT/ à des Gb/s, la formule est la suivante : Largeur du canal (nombre de bits par transfer) x nombre de transfers par seconde. On obtient bien des b/s, une fois le calcul effectué. On parle aussi de GT/s pour la bande passante des bus PCIe et de la mémoire vive par exemple.

Débit, latence, efficacité énergétique et sécurité

Comme prévu, cette première version permet de connecter jusqu’à 1 024 accélérateurs. Le consortium affirme que son protocole autorise des échanges de données « avec la même vitesse brute qu’Ethernet et la latence du PCIe ». UALink vise des câbles de moins de 4 mètres de longueur pour avoir une latence aller/retour inférieure à la μs.

Il met aussi l’accent sur l’efficacité énergétique et sur l’utilisation d’un die « nettement plus petit ». Dernier point et pas des moindres : le protocole est « ouvert et standardisé », contrairement au NVLink de NVIDIA. Astera, membre du consortium, ajoute que « la norme UALink a été développée à partir du protocole éprouvé Infinity Fabric d’AMD ».

Le consortium met aussi en avant une fonction de sécurité simplement baptisée UALinkSec avec du chiffrement de bout en bout et de l’authentification.

Plus de 85 membres, Synopsys déjà dans les starting-blocs

Le consortium compte plus de 85 membres, dont Alibaba, AMD, Apple, Astera Labs, AWS, Cisco, Google, HPE, Intel, Meta, Microsoft et Synopsys comme « promoter members ». Dans les contributeurs, on retrouve Arm, Broadcom, Dell, Juniper, Marvell, Mediatek, Qualcomm, Tencent, ZTE, etc. La liste complète est disponible par là. Sans surprise, NVIDIA est absente.

Synopsys a déjà répondu présent à l’appel d’UALink et prévoit de lancer des produits durant la seconde moitié de l’année. Maintenant que la version 1.0 de la norme est disponible, d’autres devraient rapidement lui emboiter le pas.

  •  

Souveraineté numérique : les entreprises européennes s’inquiètent mais ne la priorisent pas

How do you say "souveraineté" in american english ?
Souveraineté numérique : les entreprises européennes s’inquiètent mais ne la priorisent pas

Si de nombreux professionnels européens se déclarent préoccupées par les questions de souveraineté numérique, à peine un tiers font de l’adoption de solutions européennes une priorité.

La souveraineté numérique, enjeu majeur pour les entreprises, dans le contexte géopolitique tendu ? C’est ce que laissent entendre les résultats d’un sondage réalisé par Ipsos et Yougov, dans lequel 78 % des décideurs européens interrogés déclarent important de choisir des outils numériques locaux, notamment pour des raisons de cybersécurité.

Mais il y a un mais : si la préoccupation des dirigeants d’entreprise transparait de façon évidente, elle ne se transforme pas nécessairement en acte. En 2025, 53 % d’entre eux prévoient en effet de maintenir leur budget cybersécurité inchangé. Surtout, seulement 32 % font de l’adoption de solutions technologiques européennes une priorité.

Des coûts plus élevés ?

4 000 actifs Français, Espagnols, Allemands et Italiens de 18 à 75 ans ont été sondés pour les besoins de cette étude. Chacun relève de l’un des statuts d’emploi suivants : professions indépendantes, cadre supérieurs, professions intermédiaires et employés, et tous travaillent dans des secteurs variés (banque/assurance, immobilier, finance, tech, retail, ressources humaines ou éducation).

Parmi eux, 46 % se déclarent préoccupés « par la dépendance aux plateformes comme Google, Microsoft ou Amazon ». Un sujet, légèrement contrasté selon les pays : si 54 % des Italiens se déclarent préoccupés, seulement 36 % des Allemands le sont (et 43 % des Français).

Parmi les explications de ces considérations, 28 % des répondants « ne perçoivent aucun obstacle majeur » à l’utilisation de solutions européennes. Une proportion équivalente les juge en revanche plus coûteuses que les solutions non européennes, et malgré les cadres réglementaires, 20 % doutent de la fiabilité et des performances des solutions locales.

Critères de choix

Leviers potentiels : 69 % des professionnels interrogés déclarent que l’éthique des prestataires technologique est un critère essentiel (33 %) ou important (36 %) dans leur processus de choix. Un enjeu bien plus fréquemment cité en Espagne (par 79 % des répondants) qu’en Allemagne (52 %). En France, 71 % des répondants font de l’éthique de leurs prestataires un enjeu essentiel ou important.

La localisation des serveurs est un autre axe que 58 % des personnes interrogées qualifient d’important, et 23 % de primordiale. Les Français sont les plus attentifs à la question : 30 % des interrogés estiment qu’une localisation en Europe est primordiale.

Cela dit, près de 4 personnes interrogées sur 10 ne savent pas où les serveurs de leurs outils sont localisés – une problématique qui, pour des fournisseurs états-uniens, n’empêche de toute manière pas leurs autorités de surveillance nationales d’exiger l’accès aux données d’un serveur.

Souveraineté vs réalité

Évoquer les enjeux de souveraineté sans la prioriser, la logique des professionnels interrogés ressemble fort à celle… des institutions françaises, où des accords avec des fournisseurs états-uniens continuent d’être conclus malgré les préoccupations affichées.

Les solutions ne manquent pourtant pas : mi-mars, 80 entreprises et représentants de la tech appelaient la Commission européenne à soutenir EuroStack, une série de solutions européennes permettant de couvrir toute l’infrastructure numérique. À leurs côtés, chercheurs et professionnels du secteur publiaient différents répertoires de solutions – Euro-stack alternatives, european alternatives – pour faciliter la recherche et la transition vers des services numériques européens.

  •  

Le Royaume-Uni développe un programme de prédiction des meurtres

Minority Report
Le Royaume-Uni développe un programme de prédiction des meurtres

Le ministère de la Justice britannique développe, sans en avoir parlé, un projet de prédiction des meurtres utilisant des données personnelles. L’information a été révélée via des demandes de documents en vertu de la liberté d’information. Le programme serait pour l’instant un projet de recherche.

S’appuyant sur plusieurs documents officiels, l’association StateWatch a révélé le 31 mars dernier un « Projet de prédiction des homicides ». Mis en place par le gouvernement britannique, il utilise les données de certaines polices du pays et du ministère de la Justice pour « prédire » quelle personne a « des risques » de commettre un meurtre.

StateWatch a pu connaître et confirmer l’existence de ce projet en faisant plusieurs requêtes au nom du Freedom of Information Act, la loi britannique qui permet d’accéder à des informations et des documents détenus par l’administration.

« Explorer le pouvoir prédictif des ensembles de données »

Dans l’un de ces documents, au format Excel (xlsx), ce programme est décrit comme « un projet pilote de sciences des données visant à :

  • examiner les caractéristiques des délinquants qui augmentent le risque de commettre un homicide
  • explorer des techniques alternatives et innovantes de science des données pour la prédiction du risque d’homicide,
  • explorer le pouvoir prédictif des ensembles de données Oasys, Delius et Nomis (ensembles de données du ministère de la Justice disponibles sur la plateforme analytique) en ce qui concerne le risque d’homicide,
  • explorer le pouvoir prédictif supplémentaire de l’ensemble de données national PNC (ensemble de données du ministère de la Justice hébergé sur un terminal AirGap sécurisé et séparé du système analytique) en ce qui concerne le risque d’homicide,
  • explorer le pouvoir prédictif supplémentaire des données de la police locale (Greater Manchester) par rapport au risque d’homicide,
  • fournir des preuves pour améliorer la prédiction des crimes graves et, en fin de compte, contribuer à la protection du public grâce à une meilleure analyse ».

Selon le Guardian, le projet a changé de nom en cours de route et est passé de « projet de prédiction des homicides » à « partage des données pour améliorer l’évaluation des risques ».

Des données qui concernent de 100 000 à 500 000 personnes

StateWatch explique que l’accord de partage des données entre le ministère de la Justice britannique et la police locale de Greater Manchester « indique que des données concernant entre 100 000 et 500 000 personnes ont été partagées par les forces de police pour développer l’outil ».

L’association ajoute que les données de cette police locale utilisées « comprennent des informations sur des centaines de milliers de suspects, de victimes, de témoins, de personnes disparues et de personnes pour lesquelles il existe des préoccupations en matière de protection ». Celles-ci incluraient des « marqueurs de santé […] censés avoir un pouvoir prédictif important » et notamment « des données sur la santé mentale, la toxicomanie, l’automutilation, le suicide, la vulnérabilité et le handicap », selon StateWatch.

Interrogées par le Guardian, les autorités responsables nient fermement et insistent sur le fait que seules les données de personnes ayant fait l’objet d’au moins une condamnation pénale ont été utilisées.

Confirmation de l’existence du projet par les autorités

Les autorités confirment donc l’existence du projet, en insistant sur la dimension de recherche. Néanmoins, selon le ministère de la Justice britannique cité par le Guardian, le projet doit bien « examiner les caractéristiques des délinquants qui augmentent le risque de commettre un homicide » et « explorer des techniques alternatives et innovantes de science des données pour l’évaluation du risque d’homicide ». Il ajoute qu’il doit « fournir des éléments permettant d’améliorer l’évaluation des risques de criminalité grave et contribuer en fin de compte à la protection du public grâce à une meilleure analyse ».

« La tentative du ministère de la Justice de mettre en place ce système de prédiction des meurtres est le dernier exemple effrayant et dystopique de l’intention du gouvernement de mettre au point des systèmes de « prédiction » de la criminalité », juge pour sa part Sofia Lyall, chercheuse au sein de StateWatch. Elle ajoute que « ce dernier modèle, qui utilise les données de notre police et de notre ministère de l’Intérieur institutionnellement racistes, renforcera et amplifiera la discrimination structurelle qui sous-tend le système juridique pénal. Comme d’autres systèmes de ce type, il codera les préjugés à l’égard des communautés racialisées et à faibles revenus ». L’association demande au ministère britannique d’arrêter immédiatement tout développement de cet outil.

  •  

☕️ WhatsApp colmate une importante faille de sécurité dans son application Windows

Les utilisateurs du client WhatsApp pour Windows sont invités à installer rapidement la dernière version de l’application, soit depuis le site officiel, soit depuis le Microsoft Store.

L’application a en effet un problème assez sérieux sur la gestion des fichiers. Quand une personne reçoit un fichier en pièce jointe dans un message, WhatsApp se sert en effet des MIME (Multipurpose Internet Mail Extensions) pour déterminer de quel type de données il s’agit. Ces extensions peuvent par exemple signaler que l’on a affaire à une image, WhatsApp préparant donc sa prévisualisation en miniature.

WhatsApp

C’est justement ce mécanisme que des pirates réussissent actuellement à abuser. Car un fichier reconnu comme image peut cacher un exécutable. Tant que le fichier se trouve dans WhatsApp, ce dernier n’affiche qu’une miniature. Mais si on double-clique pour l’ouvrir, c’est bien un programme qui se lance.

La faille, estampillée CVE-2025-30401, est décrite par Meta comme pouvant être utilisée par des pirates pour distribuer des logiciels malveillants. L’entreprise n’indique cependant pas si elle est déjà exploitée.

« Un problème d’usurpation d’identité dans WhatsApp pour Windows avant la version 2.2450.6 affichait les pièces jointes en fonction de leur type MIME mais sélectionnait le gestionnaire d’ouverture de fichier en fonction de l’extension du nom de fichier de la pièce jointe. Une erreur malveillante pourrait amener le destinataire à exécuter par inadvertance un code arbitraire au lieu de visualiser la pièce jointe lors de l’ouverture manuelle de cette dernière dans WhatsApp », indique Meta dans son billet.

Il est donc recommandé d’installer la dernière version au plus vite.

  •  

Pédopornographie : les plateformes poussent-elles au crime ?

Culture du V*0l
Pédopornographie : les plateformes poussent-elles au crime ?

La multiplication d’affaires de pédopornographie et le rajeunissement de ceux qui en possèdent et en diffusent oblige à s’interroger sur le rôle des usages numériques dans l’explosion de ce type de contenus criminels.

« Je n’ai aucune excuse (…). Mais je n’ai pas commencé par vouloir voir des enfants. J’étais accro au porno et je me suis totalement désensibilisé. » Tels sont les propos de l’un des 850 hommes arrêtés chaque mois en Angleterre et aux Pays de Galles pour avoir consommé ou échangé des contenus pédopornographiques en ligne.

Ils sont enseignants, policiers, chauffeurs de bus, médecins. Ils sont de plus en plus jeunes, aussi.

The Guardian en a interrogé plusieurs, pour tenter de répondre à une question complexe : les logiques de recommandations des plateformes sur lesquelles nous consommons toutes et tous des contenus de tous types se contentent-elles d’alimenter tout une génération de pédophiles, ou la créent-elles ?

Pente glissante

La plupart des pédocriminels interrogés par le média britannique décrivent un usage incontrôlé de la pornographie, consommée pour gérer du stress, tromper l’ennui ou la solitude, quelquefois jusqu’à l’addiction.

Condamné pour possession des trois catégories d’images catégorisées comme pédocriminelles dans le droit britannique, dont la plus grave, l’un d’eux indique : « La police n’a jamais trouvé une seule recherche d’images d’enfants : tout s’est fait en cliquant sur des liens – ce que les algorithmes me proposaient. Les sites pornographiques ont un bouton qui dit “Voir d’autres images de ce genre”. J’étais désensibilisé, j’avais regardé tellement de porno pour adolescents. »

Le phénomène est multiforme et international : Europol opérait en mars un coup de filet dans 19 pays, démantelant un réseau dédié à la génération de pédopornographie par IA, le mois précédant, elle alertait sur l’essor de communautés dédiées à la torture de mineurs, en décembre, la gendarmerie française arrêtait 95 membres d’un réseau pédocriminel opérant via Signal…

Pour comprendre les motivations des auteurs, le groupe finnois Protect Children a lancé une étude de deux ans impliquant de poster des questionnaires sur le dark web pour toucher des internautes consommateurs de contenus illégaux dans différents pays. Sur les plus de 4 500 personnes interrogées, un tiers se déclarent clairement intéressées par la pédopornographie. Les deux tiers déclarent un intérêt pour les mineurs, principalement les 15 à 17 ans.

Quant au rôle des plateformes, et au lien qui pourrait unir pornographie classique et pédopornographie, il est lui-même controversé. Mais plus de 50 % des répondants au questionnaire de Protect Children déclarent ne pas avoir cherché d’images pédopornographiques lorsqu’ils y ont été confrontés pour la première fois.

Si de nombreux hommes adultes arrêtés pour de tels actes posent un réel danger aux mineurs, le psychologue Michael Sheath explique au Guardian avoir vu, en 14 ans de carrière, une évolution dans les profils arrêtés. Parmi ces derniers, il rencontre désormais régulièrement « des hommes qui ont suivi ce que j’appelle une « pente glissante » ». Une explication similaire à celle du « trou du lapin » (rabbit hole), décrite pour expliquer la radicalisation d’internautes vers des idées complotistes ou haineuses.

Suspension de tabous protecteurs

Pour Michael Sheath, le lien entre pornographie classique et pédopornographie est « sans ambiguïté ». Il l’illustre notamment par l’évolution des tabous sociaux qui, pendant longtemps, protégeaient les mineurs. « Autrefois, explique-t-il au média britannique, il était difficile de trouver du matériel pédopornographique et il était extrêmement risqué d’en regarder. L’état d’esprit d’une personne qui cherchait du matériel pornographique était “je suis un vrai criminel sexuel” — elle savait qu’elle sortait des normes de la société. »

Aujourd’hui, la plupart des sites pornographique grand public proposent des titres évoquant clairement de la pédopornographie et des relations incestueuses, du type « Les garçons dépucelés par leur tante » ou « beau-père et belle-fille ».

Selon une étude menée en 2021 par l’université de Durham, un titre sur huit en page d’accueil des principales plateformes pornographiques montre des formes de violences sexuelles contre les filles et les femmes. L’équipe de chercheurs constatait par ailleurs que les vidéos étiquetées « teens » (adolescents/adolescentes) montraient plus fréquemment de la violence.

La plupart des plateformes grand public, comme Pornhub, ont des règles de modération interdisant la représentation d’activités sexuelles non consensuelles, agressions sexuelles et viols compris. PornHub a d’ailleurs conclu un partenariat avec l’Internet Watch Foundation et la Fondation Lucy Faithfull, qui a conduit à l’ajout de pop-up pour signaler à l’internaute britannique qu’il semble en train de chercher des contenus pédopornographiques.

Mais comme sur n’importe quelle plateforme sociale, cette modération est imparfaite. Et les contenus s’échangent aussi ailleurs, dans des boucles de discussion ou des forums fermés.

Enjeu de santé publique

L’enjeu, alertent les spécialistes, est aussi celui d’une forme d’addiction. Dès 2013, des études montraient que la dopamine reçue au visionnage régulier de pornographie modifie peu à peu les goûts des personnes concernés. Le mois dernier, une autre publication constatait qu’au fil du temps, un consommateur de pornographie sur cinq glissait vers des contenus plus extrêmes.

Et la tendance n’est pas prête de s’améliorer : en 2023, devant la jeunesse accrue des personnes recourant à ses services, la Lucy Faithfull Foundation, qui lutte contre les violences pédopornographiques, s’est trouvée obligée d’ouvrir un service d’accueil des adolescents. De même, du côté de la police de Worcester, l’enquêteur Tony Garner déclare recevoir de plus en plus d’adolescents, quelquefois âgés d’à peine 18 ans, mais déjà « exposés pendant 10 ans à du porno hardcore ».

  •  

☕️ Médias, matières premières… : l’Europe renforce son filtrage des investissements étrangers

Dans un communiqué publié hier, la commission du commerce international du Parlement européen annonce que, « en vertu des nouvelles règles, un plus grand nombre de secteurs, comme ceux des médias, des matières premières critiques et des infrastructures de transport feront l’objet d’un filtrage obligatoire par les États membres, afin de détecter et de traiter les risques en matière de sécurité ou d’ordre public liés aux investissements étrangers ». Une annonce faite dans un contexte géopolitique tendu avec les États-Unis, qui se sont lancés dans une guerre commerciale avec le reste du monde, Europe comprise.

Le Parlement ajoute que la Commission européenne aura ainsi « le pouvoir d’intervenir de sa propre initiative ou en cas de désaccord entre les États membres ». Et si l’investissement étranger est susceptible « de porter atteinte à la sécurité ou à l’ordre public, elle pourra soit autoriser le projet sous réserve de mesures d’atténuation, soit l’interdire ». En clair, elle pourra avoir le dernier mot. Il s’agit donc de fortement renforcer le cadre actuel sur le filtrage des investissements étranger, qui date d’octobre 2020.

La proposition a été adoptée avec 31 voix pour, 7 voix contre et 3 abstentions en commission du commerce international. Maintenant, le Parlement dans son ensemble devra la voter lors d’une session plénière, « après quoi les négociations avec les États membres sur la forme finale du texte pourront commencer ».

IA Act
  •  

☕️ Patch Tuesday : un avril copieux, avec 134 failles corrigées, dont une déjà exploitée

Comme chaque deuxième mardi de chaque mois, Microsoft a publié hier soir ses correctifs de sécurité pour Windows et plusieurs autres produits. Le lot d’avril 2025 est particulièrement riche en corrections, avec un total de 134 vulnérabilités colmatées, dont 11 sont critiques et une est même déjà activement exploitée. C’est la deuxième fois depuis le début de l’année que Microsoft dépasse les 100 failles corrigées en un seul mois.

Cette dernière est estampillée CVE-2025-29824 et permet, quand elle est exploitée, d’entrainer une élévation de privilèges dans le pilote Windows Common Log File System (CLFS). L’exploitation doit se faire localement, donc avec un accès physique au système, ou à la suite de l’exploitation d’une autre faille donnant un premier accès. La faille CVE-2025-29824 permet alors d’obtenir des droits SYSTEM. La gravité de la faille est considérée comme importante, et non critique. Quand bien même, elle est au cœur d’un ransomware actuellement utilisé, nommé PipeMagic et créé par le groupe de pirates Storm-2460.

Vitrée brisée

La société Tenable note que Microsoft a corrigé 32 failles dans CLFS depuis 2022. Elle observe également un changement de fond dans le type de failles corrigées chaque mois, avec une prévalence désormais des vulnérabilités débouchant sur des élévations de privilèges. Ce mois-ci, elles comptent en effet pour 40 % de l’ensemble, là où les exploitations à distance (RCE) étaient auparavant majoritaires, du moins dans Windows.

Au sujet des failles critiques, cinq concernent Office et sont justement de type RCE. Deux résident dans le service de passerelle de bureau à distance, une dans l’hyperviseur Hyper-V, deux dans Windows LDAP et une dernière dans la pile TCP/IP du système.

Le nombre élevé de failles colmatées et la présence d’une brèche activement exploitée encouragent à l’installation rapide de la mise à jour associée. Notez que les correctifs sont d’ailleurs légèrement différents entre Windows 11 et 10. Ce dernier recevra ainsi le patch pour la faille CVE-2025-29824 qu’un peu plus tard, sans que l’on sache ni quand ni pourquoi. Microsoft indique simplement que le bulletin CVE sera mis à jour dès que la solution sera disponible. Attention donc à PipeMagic.

Comme toujours, l’installation prendra plus ou moins de temps, selon la configuration et surtout les performances de la machine. Le redémarrage de l’ordinateur sera obligatoire pour finaliser le processus.

  •  

☕️ Donald Trump menace TSMC de taxer ses produits à 100 %

Donald Trump a donc annoncé des droits de douane particulièrement lourds pour les marchandises importées aux États-Unis.

Mais le dirigeant étasunien ne s’est pas arrêté là. Il a aussi affirmé avoir menacé l’entreprise taïwanaise de semi-conducteur TSMC d’une taxe de 100 % sur ses produits si elle ne construisait pas les usines qu’elle s’était engagée à implanter aux États-Unis, explique Reuters.

Crédits : 李 季霖 (CC BY-SA 2.0)

« TSMC, je ne leur ai pas donné d’argent […] tout ce que j’ai fait, c’est dire que si vous ne construisez pas votre usine ici, vous allez payer une grosse taxe », a affirmé Donald Trump.

Donald Trump a aussi critiqué l’administration de l’ancien président Joe Biden pour avoir accordé une subvention de 6,6 milliards de dollars à l’unité américaine de TSMC pour la production de semi-conducteurs à Phoenix, en Arizona, affirmant que les entreprises de semi-conducteurs n’avaient pas besoin de cet argent, relève Reuters.

Au total, TSMC a prévu d’investir environ 165 milliards de dollars sur quatre ans dans trois usines de fabrication et deux de conditionnement aux États-Unis.

  •  

☕️ Infineon veut racheter l’Automotive Ethernet de Marvell pour 2,5 milliards de dollars

Infineon, une société allemande spécialisée dans les semi-conducteurs (spin-off de Siemens), vient d’annoncer « un accord pour l’acquisition de l’activité Ethernet automobile de Marvell Technology pour 2,5 milliards de dollars américains ». Le financement, en cash, viendra de liquidités existantes et d’une dette supplémentaire.

Jochen Hanebeck, CEO d’Infineon, parle d’un « choix stratégique pour Infineon en tant que premier fournisseur mondial de solutions de semi-conducteurs pour l’industrie automobile […] Nous tirerons parti de cette technologie Ethernet […] pour les véhicules conçus autour du logiciel ».

Infineon
Infineon

On parle de Software Defined Vehicle dans la langue de Shakespeare. Il s’agit de la « capacité à faire évoluer une voiture tout au long de sa vie, grâce à une architecture centralisée, en la mettant à jour et en y installant de nouvelles applications pour étoffer ses fonctions », rappelle Renault.

« Parmi les clients de l’activité Ethernet automobile de Marvell, figurent plus de 50 constructeurs automobiles, dont huit des dix principaux OEM », précise le communiqué. Infineon voit aussi des avancées possibles dans le monde des robots humanoïdes grâce à cette acquisition.

Comme toujours, cette transaction est soumise aux approbations des autorités compétentes. Elle devrait être finalisée cette année. Infineon comptait environ 58 060 employés dans le monde fin septembre 2024

  •  

Meta étend ses comptes restreints pour adolescents à Facebook et Messenger

Presque de bon cœur
Meta étend ses comptes restreints pour adolescents à Facebook et Messenger

Meta commence à appliquer ses « Teen Accounts », inaugurés sur Instagram, à Facebook et Messenger. L’entreprise débute par plusieurs pays anglo-saxons, mais tous les marchés seront concernés. Elle fait toujours face à de multiples plaintes portant sur des questions de santé mentale.

En septembre 2024, Meta a débuté une bascule importante sur Instagram : tous les jeunes âgés de moins de 18 ans sont passés automatiquement sur un nouveau type de compte. Il était impossible de refuser le changement et plusieurs restrictions étaient mises en place. Par exemple, tous ces comptes étaient privés par défaut et il était notamment impossible de leur envoyer un message privé si l’on n’était pas déjà « amis ».

Une extension des restrictions à Facebook et Messenger

Aujourd’hui, Meta annonce que le même type de compte commence à être appliqué pour l’ensemble des jeunes utilisateurs sur Facebook et Messenger. Cette bascule débute aux États-Unis, au Royaume-Uni, en Australie et au Canada, puis devrait être appliquée au reste du monde au cours des prochains mois, sans calendrier précis pour le moment.

La transformation des comptes peut se révéler assez radicale pour les personnes mineures concernées. Comme pour Instagram, les comptes sont ainsi privés par défaut, et il est impossible de les contacter si l’on n’est pas déjà amis ou qu’une conversation n’a pas eu lieu avant ce changement.

Il y a également une grande différence entre les mineurs de 16 - 17 ans et ceux ayant moins de 16 ans. Pour ces jeunes personnes, les restrictions grimpent d’un cran. Seuls d’autres utilisateurs identifiés comme amis pourront voir les Stories et y répondre. Mêmes limitations pour les mentions, commentaires et autres tags. Si les personnes âgées d’au moins 16 ans pourront elles-mêmes modifier les paramètres, celles ayant entre 13 (âge minimal requis sur ces plateformes) et 15 ans auront besoin d’une autorisation parentale.

Renforcement des barrières sur Instagram

Ce n’est pas tout, car les plus jeunes recevront également des notifications les invitant à quitter les réseaux sociaux au bout d’une heure d’utilisation par jour. La coupure n’est cependant pas forcée et les parents devront s’appuyer sur d’autres outils, comme ceux intégrés en standard dans Android et iOS notamment, s’ils veulent l’imposer. En outre, les applications couperont automatiquement leurs notifications durant la nuit. Là encore, pour les moins de 16 ans, la modification de ces réglages réclamera une autorisation parentale.

Meta en profite d’ailleurs pour renforcer les restrictions sur son Instagram. Les moins de 16 ans ne peuvent ainsi pas se produire en Live, sauf accord parental une fois de plus. Et tant qu’à réclamer ce dernier, un autre réglage est concerné : il n’est plus possible de désactiver soi-même la fonction de floutage des contenus suspectés comme contenant de la nudité.

Meta glisse dans son billet de blog les résultats d’un sondage réalisé par Ipsos à sa demande. D’après l’enquête, qui s’est déroulée aux États-Unis, 94 % des parents interrogés ont estimé utile ce type de compte pour les adolescents, 85 % estimant que la fonction les aide à faire en sorte que leurs enfants aient « une expérience positive » sur Instagram. 90 % ont également trouvé les réglages par défaut « bénéfiques ».

Une situation tendue pour Meta

Ces changements n’ont pas été entièrement à l’initiative de Meta cependant. Aux États-Unis notamment, l’entreprise a fait l’objet d’un nombre croissant d’attaques sur les questions de santé mentale et l’aliénation engendrée par les réseaux sociaux. Tout particulièrement quand ils sont équipés d’un « mur infini » que l’on peut faire défiler sans jamais s’arrêter, le flux étant alimenté par les algorithmes. En octobre 2023, un total de 41 États américains avaient ainsi déposé plainte contre Meta, accusant Facebook et Instagram de favoriser une addiction toxique (33 en commun et 8 dans des plaintes séparées).

Ce sujet de la santé mentale, particulièrement chez les adolescents, est devenu prégnant. Quelques mois avant la plainte des États américains, on avait ainsi 2 000 familles étasuniennes faire de même contre un lot de réseaux sociaux (TikTok, Snapchat, YouTube, Roblox et Meta). Un an plus tard, TikTok faisait directement face à une plainte de 14 États américains, le réseau étant accusé de nuire à la santé mentale des jeunes utilisateurs. L’Europe s’est également emparée de cette question.

  •  

☕️ L’État veut recenser les solutions IA dédiées au secteur public

L’État, par l’intermédiaire de la Direction interministérielle du numérique (DINUM), lance un appel aux éditeurs proposant des briques applicatives d’intelligence artificielle générative. Objectif affiché ? « Recenser et valoriser des solutions (…) qui répondent aux besoins du secteur public ».

La démarche prend la forme d’un appel à manifestation d’intérêt (AMI), ouvert jusqu’au 15 mai prochain, au terme duquel les lauréats feront « l’objet d’un recensement dans le socle interministériel de briques technologiques d’IAG, publié par la DINUM, et alimenteront la réflexion pour étoffer le socle technologique d’IAG Albert (API Gateway) déjà en développement et proposé par la DINUM ».

Autrement dit, participer à cet AMI doit permettre aux éditeurs concernés de faire référencer leurs solutions auprès de la DINUM et des services de l’État, sans autre promesse plus concrète à ce stade. Il pourrait toutefois contribuer à donner un peu de visibilité aux lauréats, puisque la liste de ces derniers sera présentée en juin prochain, à l’occasion du salon VivaTech.

Le règlement de l’AMI ratisse volontairement large : « toutes les solutions développées et disponibles sur le marché » sont les bienvenues, qu’elles se présentent comme une application complète ou comme une brique technologique dédiée à un aspect plus particulier du déploiement de l’IA générative comme l’inférence de modèles, la gestion de bases de données vectorielles ou l’apprentissage spécialisé.

L’AMI n’établit pas de préférence entre open source et logiques propriétaires. Il réclame en revanche que les solutions candidates soient adaptées à un environnement SecNumCloud en France ou dans l’Union européenne, et conformes à l’objectif de maîtrise, de pérennité et d’indépendance des systèmes d’information de l’État. L’acte de candidature suppose par ailleurs que l’éditeur soit prêt à détailler sa proposition technique et les ordres de grandeur de coûts associés.

L’État a déjà réalisé un premier AMI intitulé « IA au service de l’efficience » dont les enseignements ont été rendus publics le 11 février dernier, à l’occasion du Sommet pour l’action sur l’IA. Plus qu’un annuaire de solutions, le livrable prend la forme d’un catalogue de projet IA menés principalement par des entreprises, avec un objectif affiché d’efficience (principalement économique).

  •  

Clearview : outil de reconnaissance faciale tourné dès l’origine contre les migrants

Qui aurait pu prévoir ?
Clearview : outil de reconnaissance faciale tourné dès l’origine contre les migrants

Dès la création de l’entreprise en 2017, le co-fondateur de Clearview, Hoan Ton-That, avait en tête la reconnaissance faciale des immigrants et la surveillance des frontières étasuniennes. L’entreprise s’appuie sur des milliards d’images récupérées sur Internet, très souvent sans aucun consentement. Elle a aussi essayé de récupérer des millions de données de police comprenant des photos de suspects.

L’entreprise américaine Clearview est connu pour son web scraping sauvage pour obtenir des milliards d’images, ceci à fin de créer un logiciel proposé aux forces de l’ordre pour résoudre des enquêtes criminelles. Sur son site web, elle propose aux autorités d’ « exploiter le pouvoir de la reconnaissance faciale dans les enquêtes criminelles ».

Ses méthodes de scraping ont été reconnues illégales en Europe par la CNIL, mais aussi par ses homologues britannique, grecque, italienne et néerlandaise, entre autres. En tout, ces autorités de contrôle ont prononcé un peu plus de 100 millions d’amendes, sans pour autant avoir les moyens de contraindre l’entreprise de payer.

Du côté étasunien, un juge s’est prononcé le 20 mars dernier sur un règlement unique de class-action sans compensation financière immédiate et spécifique pour les victimes. Mais ce règlement pourrait, à terme, mener à un fond de compensation basé sur la valeur de Clearview et atteindre 23% de celle-ci, ce qui équivaudrait à 51,75 millions de dollars si on prend la valeur actuelle de l’entreprise.

Un pitch pour le contrôle aux frontières dès 2017

Le co-fondateur de l’entreprise, Hoan Ton-That, a, dès la création de l’entreprise en 2017, présenté le projet de Clearview comme une technologie de surveillance des frontières étasuniennes, selon une enquête du média américain Mother Jones.

Dans un email obtenu par Mother Jones et envoyé à des partenaires commerciaux en mars 2017, alors que l’entreprise n’avait pas encore adopté le nom de Clearview, il proposait un « pitch sur les patrouilles aux frontières ». Il y expliquait vouloir convaincre le gouvernement fédéral américain d’intégrer à ses caméras de surveillance des frontières son logiciel pour utiliser la « détection des visages » sur les immigrants entrant aux États-Unis.

Celui qui a récemment laissé sa place de CEO à un proche de Donald Trump est pourtant lui-même un immigrant venant d’Australie, tout en se réclamant d’une descendance royale vietnamienne. Après des études à San Francisco, « il s’est ensuite rapproché des néoréactionnaires de la Silicon Valley qui ont adopté une vision technocratique et d’extrême droite de la société », commente Mother Jones, et est devenu un « partisan inconditionnel de Donald Trump ». L’entreprise a été financée, dès ses débuts, par Peter Thiel.

Dans son pitch, Hoan Ton-That proposait de comparer les images des étrangers venant aux États-Unis avec des photos de suspects pour déterminer s’ils avaient déjà été arrêtés dans ce pays, selon le média. Récemment, 404 Média révélait que l’entreprise avait dépensé près d’un million de dollars en 2019 pour acheter « 690 millions de dossiers d’arrestation et 390 millions de photos d’arrestation » à une entreprise de renseignement nommée Investigative Consultant.

Surveillance des réseaux sociaux des migrants

Toujours dans cette présentation, l’ancien CEO de Clearview proposait d’analyser les médias sociaux des personnes migrantes pour connaître leur « sentiment à l’égard des États-Unis ». Cette proposition rappelle le système appelé « Catch and Revoke » que le secrétaire d’État des États-Unis, Marco Rubio, veut mettre en place afin de traquer les étudiants étrangers et révoquer leurs visas.

Hoan Ton-That proposait d’analyser les médias sociaux des migrants à la recherche de « messages disant “Je déteste Trump” ou “Trump est une puta” » et de cibler les personnes ayant des « affinités avec des groupes d’extrême-gauche », en donnant comme seul exemple UnidosUS, « l’une des plus grandes organisations hispaniques de défense des droits civiques du pays », explique Mother Jones.

  •  

Comment un simple tweet a fait tanguer les marchés à hauteur de 2 000 milliards de dollars

Down Rodeo
Comment un simple tweet a fait tanguer les marchés à hauteur de 2 000 milliards de dollars

Un simple tweet, publié par un compte X « certifié », a mis le feu aux marchés lundi, entraînant une hausse momentanée de quelque 2 000 milliards de dollars de la capitalisation boursière mondiale. L’incident, survenu dans un contexte de fébrilité exceptionnel, souligne à quel point les marchés restent vulnérables à des tentatives de manipulation délibérées.

Plus volatil, tu meurs. Sur les forums spécialisés comme sur les réseaux sociaux, l’annonce d’une embellie s’est propagée comme une traînée de poudre lundi après-midi (heure de Paris) : après trois jours de baisse continue, l’heure du rebond est arrivée, et les indices repartent à la hausse ! Pendant vingt minutes, une forme d’euphorie gagne les investisseurs.

Entre le moment où la contagion a débuté et celui où le feu de paille s’est éteint, les places boursières ont regagné lundi l’équivalent de quelque 2 000 milliards de dollars de capitalisation perdus depuis le 3 avril et l’annonce de la mise en place des droits de douane exceptionnels décidés par Donald Trump. Avant de les reperdre, tout aussi rapidement. Que s’est-il donc passé ?

Une interview détournée

Le phénomène débute avec un tweet massivement relayé par de nombreux comptes présentant des affinités avec les thématiques de l’investissement en bourse ou des cryptomonnaies. Écrit tout en majuscules, il affirme : « Trump envisage une pause de 90 jours dans la mise en place des droits de douane pour tous les pays sauf la Chine ». Souvent, il est assorti d’un nom propre, Hassett, en référence à Kevin Hassett, le conseiller économique de Donald Trump à la Maison-Blanche.

Une heure plus tôt, la question d’une possible pause dans la mise en œuvre des droits de douane lui avait bien été posée au micro de Fox News, mais Kevin Hassett avait alors botté en touche, indiquant que le président déciderait… ce qu’il déciderait.

Une intox particulièrement virale

C’est cette déclaration, plutôt prudente, qui semble avoir servi de point de départ à la diffusion d’une fausse information. D’après le déroulé retracé par NPR, la fake news aurait d’abord été propagée par un compte X baptisé Hammer Capital, et doté de la coche bleue (accessible en souscrivant un abonnement payant) qui permet de disposer de la mention « certifié » à côté de son pseudonyme et offre une portée supérieure aux messages. Le compte initial affiche environ 1 100 followers, mais la fausse information gagne rapidement en visibilité grâce au relais de nombreux autres comptes.

Quelques minutes plus tard, elle gagne une nouvelle caisse de résonance : le message est repris par le compte @DeItaone, qui compte pour sa part quelque 850 000 abonnés, et adopte « Walter Bloomberg » comme pseudonyme sur le réseau social X.

Officiellement, le compte n’a aucun lien avec la célèbre agence d’actu financière Bloomberg, mais il relaie fréquemment les alertes de cette dernière, ce qui explique vraisemblablement sa popularité. Le flux de dépêches de Bloomberg est très prisé des investisseurs particuliers, dans la mesure où il permet d’être alerté très en avance de phase d’éventuelles informations susceptibles d’influencer la bourse, mais il est payant (et facturé très cher).

Une caution journalistique

À ce stade, ni Bloomberg, ni la Maison-Blanche, ni Fox News n’ont confirmé la soi-disant pause sur leurs propres canaux, et même si la rumeur a déjà entraîné un début de hausse sur les marchés, son effet reste encore limité. Le véritable déclencheur intervient peu après 16 heures (heure de Paris), quand CNBC relaie l’intox – via son bandeau d’informations écrites – sur son direct. Cinq minutes plus tard, l’agence Reuters envoie à son tour une dépêche, qui confère, aux yeux de nombreux investisseurs, une légitimité à l’information… jusqu’à ce que la Maison-Blanche démente.

« Alors que nous suivions l’évolution du marché en temps réel, nous avons diffusé des informations non confirmées dans une bannière. Nos reporters ont rapidement corrigé l’information à l’antenne », précise une porte-parole de CNBC au Wall Street Journal. « La Maison-Blanche a démenti ces informations. Reuters a retiré cette information erronée et regrette son erreur », réagit Reuters dans la même veine.

CNBC a démenti vers 16h33 (heure de Paris)

Immédiatement, les investisseurs qui avaient acheté des titres ou des fonds cotés pour essayer de profiter de la hausse s’extraient du marché, provoquant la fin de l’embellie. Dans le lot, d’aucuns s’estiment toutefois heureux : la hausse a été si fulgurante que celui qui a acheté et vendu au bon moment a pu, en quelques minutes, réaliser un gain à deux chiffres.

La martingale est d’ailleurs si belle qu’elle devrait, en théorie, motiver l’ouverture d’une enquête, notamment aux États-Unis, où Donald Trump a récemment renforcé son pouvoir de contrôle sur le gendarme de la bourse, la SEC.

  •  

☕️ Avec son modèle Nova 1.1, Amazon permet de générer des vidéos jusqu’à 2 min

En décembre dernier, Amazon lançait sa nouvelle famille de modèles d’IA générative Nova. On y trouvait cinq variantes : Micro, Lite, Premier, Canvas et Reel, tous conçus pour une finalité spécifique. Le modèle principal et multimodal Premier est actuellement le plus grand modèle de l’entreprise. Micro est par exemple beaucoup plus petit et ne prend en charge que le texte.

Reel, lui, était conçu pour permettre la génération de vidéos d’un maximum de 6 secondes, à partir d’un texte et/ou d’images. Amazon promettait alors une extension de cette durée à 2 min dans le courant 2025, dont acte.

Nova Reel 1.1 est disponible depuis Amazon Bedrock et permet effectivement de générer des vidéos d’une durée maximale de 2 min. Dans son mode automatisé, la société a recours à une petite « astuce » : ces 2 minutes sont composées de plans de 6 secondes. Toutefois, Reel 1.1 est capable de maintenir « un style cohérent d’un plan à l’autre », selon Amazon. Dans ce mode, l’invite peut grimper jusqu’à 4 000 caractères, mais aucune image n’est acceptée en entrée.

Le modèle peut également fonctionner en mode manuel. Dans ce cas, on peut envoyer une invite – texte ou images cette fois – spécifique pour chaque plan. Attention cependant, la limite de caractères descend à 512, et la définition des images ne peut pas dépasser 1 280 x 720.

Le tarif du service est le même que pour la première version, avec une facturation de 0,08 dollar par seconde de vidéo générée.

  •  

☕️ Le patron de Shopify oblige ses équipes à prouver qu’une tâche ne peut être faite par IA

Dans un memo rendu public sur X, le directeur général de Shopify Tobi Lutke a déclaré modifier l’approche de son entreprise en termes de ressources humaines.

Il intime à ses équipes de prouver que des tâches ne peuvent être réalisées à l’aide de l’intelligence artificielle avant de demander une augmentation de ressources ou d’équipes.

Et de préciser que l’usage de l’IA est une « attente fondamentale » envers les équipes de Shopify, dans la mesure où elle aurait « multiplié » la productivité de ceux qui l’utilisent.

Comme le relève CNBC, la directive est formulée alors que les entreprises du numérique investissent des milliards de dollars dans le développement de l’intelligence artificielle, en même temps qu’elles licencient régulièrement. 


En 2024, selon le décompte de Layoffs.fyi, 152 000 postes ont été supprimés dans 549 entreprises de la tech.

Chez Shopify, les équipes totalisaient 8 100 personnes au mois de décembre, contre 8 300 plus tôt en 2024. L’entreprise avait supprimé 14 % de ses équipes en 2022 et 20 % en 2023.

  •  

Des associations demandent un débat sur la création des datacenters en France

Stockera, stockera pas
Des associations demandent un débat sur la création des datacenters en France

Dans le cadre du projet de loi de simplification de la vie économique, un groupe d’associations appellent les députés à supprimer l’article 15, qui faciliterait la construction de centres de données, pour laisser le temps d’organiser un débat citoyen sur la multiplication de ces entrepôts.

De ce 8 avril jusqu’à vendredi 11 avril, les députés examinent le projet de loi « de simplification de la vie économique ». De mesure de simplification du quotidien des très petites entreprises à la simplification des démarches pour accéder aux marchés publics, le texte prévoit une variété de mesures, dont la facilitation de l’obtention de licences IV dans les petites villes.

Mais son article 15, qui vise à faciliter la construction de centres de données, inquiète la Quadrature du Net, le collectif marseillais le Nuage était sous nos pieds et la coalition Hiatus, qui réunit une vingtaine d’associations françaises aux mandats variés. Ils appellent les députés à soutenir un moratoire de deux ans « sur la construction des plus gros data centers » en France, le temps d’organiser un débat public.

Début février, en amont du Sommet sur l’intelligence artificielle organisé à Paris, le Premier ministre avait en effet annoncé l’identification de 35 sites industriels déclarés propices à l’installation de centres de données, à la fois en termes de surface foncière, de disponibilité et d’accès à l’énergie. Matignon précisait que les surface allaient de « 18 à 150 hectares et plus », pour une surface totale de l’ordre de 1 200 hectares.

« Projet d’intérêt national majeur »

Or, l’article 15 du projet de loi de simplification de la vie économique permettrait précisément d’accorder le statut de « projet d’intérêt national majeur » (PINM) à des centres de données de ce genre. L’intérêt pour leurs porteurs : accélérer l’implantation des bâtiments et les procédures – de gestion des documents d’urbanisme, de raccordement au réseau électrique, de reconnaissance de raisons impératives d’intérêt public majeurs.

Créé dans la loi sur l’industrie verte de 2023, le statut de « projet d’intérêt national majeur » (PINM) introduit dans le code de l’urbanisme a en effet été pensé pour faciliter l’implantation de projets industriels dans le pays. En juillet 2024, il a été accordé par décret à plusieurs projets, souvent liés à l’industrie numérique : une usine de fabrication de cellules et modules photovoltaïques de la société Holosolis, une de production de panneaux photovoltaïques de la société Carbon, une usine Eastman de recyclage moléculaire des plastiques, une usine Gravithy de production de minerai de fer réduit et d’hydrogène et un site d’extraction et de transformation de lithium d’Imerys, dans l’Allier.

Moratoire de deux ans pour une convention citoyenne

L’un des problèmes que pointent les associations : le statut PINM permettrait notamment de déroger à l’obligation de protection des espèces protégées, alors que la multiplication de data centers pose de multiples enjeux environnementaux de bétonisation des sols et de concurrence dans l’usage des terres et de l’eau.

À l’heure actuelle, la France compte environ 315 data centers, dont la grande majorité est concentrée en Île-de-France (la région concentre 60 % de la puissance de la capacité nationale, selon Knight Frank), suivie par Marseille et la région PACA, où aboutissent 18 câbles sous-marins.

Détaillant l’empreinte environnementale de ces infrastructures, la Quadrature du Net et ses partenaires, rappellent que les hyperscalers, ces data centers extrêmement grands poussés par les acteurs états-uniens du numérique, recourent massivement à l’eau pour refroidir leurs serveurs. Google a ainsi révélé avoir consommé 28 milliards de litres d’eau en 2023, dont les deux tiers d’eau potable, suscitant de telles tensions que le Chili a freiné l’un de ses projets.

Les associations notent que l’expansion de ces projets en France, y compris lorsqu’elle est réalisée par étapes, comme dans la ville de Wissous, créent déjà des oppositions au niveau local. Enfin, elles interrogent les effets de ces édifices en termes de création d’emploi, un enjeu sur lequel le sociologue Clément Marquet revenait à notre micro.

En écho aux experts de l’ADEME, qui soulignent la nécessité de planifier et réguler le déploiement des centres de données, les associations incitent les députés à rejeter l’article 15 du projet de loi en cours de discussion. Elles demandent aussi un moratoire sur la construction des plus gros data centers, le temps de permettre à « une convention citoyenne de penser les conditions d’une maîtrise démocratique des data centers ».

  •  

Alertes sur les sites GenAI : pourquoi notre extension affiche-t-elle des faux positifs ?

Ça Bloom ?
Alertes sur les sites GenAI : pourquoi notre extension affiche-t-elle des faux positifs ?

Next utilise un filtre de Bloom pour afficher des alertes sur les médias utilisant de l’IA générative pour tout ou partie de ses articles. Comment fonctionne notre algorithme de détection et pourquoi y a-t-il des faux positifs ? On vous explique.

Notre extension Chrome et Firefox pour alerter les visiteurs des sites d’information utilisant l’IA générative pour tout ou partie de leurs articles utilise une liste de plus de 3 000 noms de domaines identifiés « à la main et de visu » (sans recours à des outils de vérification algorithmique et automatisé) par notre journaliste Jean-Marc Manach. Le code source est disponible sur GitHub.

Cachez cette liste que je ne saurais voir…

Nous ne souhaitons pas diffuser publiquement la liste des domaines (et des entreprises), pour plusieurs raisons que nous avons déjà expliquées dès la première partie de notre enquête :

« Nous ne voulons pas, d’une part, que cette base de données puisse aider ceux qui voudraient améliorer leurs générateurs d’articles automatisés, et qui se targuent de ne pas être reconnus comme GenAI (nous y reviendrons). Nous ne voulons pas non plus faire de « name and shame » et mettre sur le même plan des auto-entrepreneurs SEO ayant créé quelques sites de façon opportuniste et les entreprises (y compris individuelles) en ayant créé plusieurs dizaines ».

Nous avons donc utilisé une méthode d’obfuscation pour masquer la liste. Un développeur de moji – Hasnaine – nous a grandement épaulés pour cette tâche. Il a développé le code de cette partie de l’extension, ainsi qu’un script pour transformer notre liste de manière irréversible. La méthode utilise un filtre de Bloom, mais qu’est-ce que c’est et qu’est-ce que cela implique ?

Comme l’explique Bioinfo-fr, « le filtre de Bloom ne vous permet pas vraiment de “stocker” des données à proprement parler ; le filtre est là pour vous permettre de tester l’appartenance d’un élément à un ensemble de données ». Parfait, c’est exactement ce que l’on cherche.

Contre les faux positifs, la liste blanche

Un filtre de Bloom est une structure probabiliste. Dans la pratique, c’est un tableau de n bits qui est initialement à 0 sur toutes ses entrées. « Nous allons utiliser plusieurs fonctions de hachage indépendantes qui retourneront une suite de bits correspondant à des adresses mémoires : au lieu d’effectivement stocker les données, on ne stockera ainsi que quelques bits d’information », explique Bioinfo-fr.

L’exemple parle du stockage de séquences ADN (logique pour un site dédié à la biologie), mais cela fonctionne à peu près pour n’importe quoi. L’algorithme a deux résultats possibles lors d’un test : l’élément est probablement dans la liste, ou il n’est pas présent (cette fois-ci avec certitude), comme le résume Wikipédia :

« Plus précisément, un test d’appartenance renvoie soit « peut-être dans l’ensemble » ou « assurément pas dans l’ensemble ». Dit autrement, il n’y a jamais de faux négatif mais il peut y avoir des faux positifs. »

Il a donc l’avantage de ne pas produire de faux négatif (un site qui serait dans la liste, mais non identifié comme tel). Toutefois, il a l’inconvénient de générer des faux positifs. Et plus la liste d’éléments de base est grande, plus le risque de faux positifs augmente. Raison pour laquelle certains sites sont parfois identifiés à tort par notre extension.

Un faux positif arrive donc lorsque l‘algorithme identifie à tort un site comme étant « peut-être » dans notre liste, quand bien même il n’y figure pourtant pas. Pour contrer cette problématique inhérente au fonctionnement du filtre de Bloom, nous avons mis en place depuis quasiment le début une liste blanche d’URL à ne pas identifier.

Nous tâchons d’ajouter au plus vite les éléments dans notre liste pour corriger les faux positifs quand ils nous sont signalés. Depuis peu, l’application télécharge sa liste blanche sur les serveurs de Next, ce qui évite d’avoir à la pousser manuellement à chaque nouvelle mise à jour (encore à déployer sur Chrome, ça arrive).

Notre algorithme, côté technique

Pour en revenir à notre filtre de Bloom, nous vous donnons les principaux paramètres de notre formule pour calculer la taille de notre tableau (en bits), à partir du nombre d’éléments et du taux de faux positif spécifié. Attention, plus le taux est faible, plus la taille du tableau est importante, il faut donc choisir avec précaution ce paramètre.

const expectedElements = strings.length;
const falsePositiveRate = 0.00000001; 
const size = Math.ceil(-(expectedElements * Math.log(falsePositiveRate)) / (Math.log(2) ** 2));
const numHashes = Math.max(1, Math.ceil((size / expectedElements) * Math.log(2)));

Une fois la taille de notre tableau obtenu, nous calculons le nombre de hachages pour notre filtre de Bloom.

L’influence de la précision

Voici quelques résultats en fonction de la précision (falsePositiveRate) demandée sur les faux positifs (il s’agit ici de quelques exemples, d’autres combinaisons sont possibles) :

1 % (0.01):

  • Taille : 32 772 bits
  • Nombre de fonctions de hash : 7

0,01 % (0.0001) :

  • Taille : 65 543 bits
  • Nombre de fonctions de hash : 14

0,0001 % (0.000001) :

  • Taille : 98 314 bits
  • Nombre de fonctions de hash : 20

0.000001 % (0.00000001) :

  • Taille : 131 086 bits
  • Nombre de fonctions de hash : 27

Afin de limiter le nombre de faux positifs, nous avons augmenté la précision dans la dernière mise à jour de notre extension.

  •  

Meta accusée d’avoir triché sur les performances de ses modèles Llama 4

Sous son meilleur jour
Meta accusée d’avoir triché sur les performances de ses modèles Llama 4

L’entreprise a été épinglée hier pour des résultats de Llama 4 peu en phase avec ce qu’elle proclamait avoir obtenu dans plusieurs benchmarks. Une déception générale semble se manifester sur l’utilisation des modèles en conditions réelle, tandis que des soupçons de triche apparaissent. Meta nie avoir voulu tromper la communauté.

Meta a lancé samedi sa nouvelle famille de modèles de fondation Llama 4. Trois variantes ont été présentées, selon les cas d’usage envisagés : Scout, Maverick et surtout Behemot. Ce dernier, avec ses 2 000 milliards de paramètres, 288 milliards de paramètres actifs et 16 experts, est un colosse dont les résultats seraient pratiquement au niveau de Gemini 2.5 Pro, alors que ce dernier « raisonne » et pas Llama 4.

Pourtant, si plusieurs personnes ont commencé à s’interroger dès le dimanche, une polémique est apparue progressivement hier. Au centre de l’attention, le modèle intermédiaire Maverick, dont le score sur LLArena (1 417) ne semble pas se refléter dans les tests réalisés par un nombre croissant de chercheurs et autres experts.

Meta épinglée par LLArena

Dans son communiqué, Meta indiquait discrètement avoir utilisé une version expérimentale du modèle pour réaliser ses tests. La version mise à disposition samedi n’est cependant pas celle utilisée sur LLArena. Au point que l’équipe du site s’est fendu d’un message sur X hier après-midi pour pester contre Meta :

« L’interprétation de notre politique par Meta ne correspond pas à ce que nous attendons des fournisseurs de modèles. Meta aurait dû préciser que « Llama-4-Maverick-03-26-Experimental » était un modèle personnalisé visant à optimiser les préférences humaines. En conséquence, nous mettons à jour nos politiques de classement pour renforcer notre engagement en faveur d’évaluations équitables et reproductibles, afin d’éviter que ce genre de confusion ne se reproduise à l’avenir ».

Hier, une rumeur a également pris de l’ampleur : Meta aurait triché. Relevant qu’une publication un samedi était étrange (nous l’avions effectivement signalé), plusieurs personnes affirment que Meta aurait spécifiquement entrainé ses modèles pour les benchmarks, signale The Verge. Le cas serait semblable à celui des constructeurs de smartphones accusés d’optimisations pour les benchmarks pour mieux mettre en avant les performances de leurs produits. Performances que l’on ne retrouvait pas en utilisation réelle.

Meta nie tout en bloc

Au point qu’Ahmad Al-Dahle, ingénieur en chef sur l’intelligence artificielle chez Meta, a fini par prendre la parole hier soir pour démentir. « Comme nous avons lancé les modèles dès qu’ils ont été prêts, nous nous attendons à ce qu’il faille plusieurs jours pour que toutes les implémentations publiques se mettent en place. Nous continuerons à travailler à la correction des bogues et à l’intégration des partenaires », a-t-il déclaré pour expliquer la variabilité des résultats. Explication qui a valu au responsable quelques moqueries.

Concernant les accusations de tricherie, il réfute en bloc : « Nous avons également entendu dire que nous nous étions entraînés sur des ensembles de tests – ce n’est tout simplement pas vrai et nous ne ferions jamais cela. Nous pensons que les modèles Llama 4 représentent une avancée significative et nous sommes impatients de travailler avec la communauté pour libérer leur potentiel ».

Les commentaires en réponse font souvent état de performances médiocres, tout particulièrement dans Meta AI, censé utiliser Llama 4 dans WhatsApp, Threads et Facebook. Quelques jours avant la publication des nouveaux modèles, The Information indiquait que leur genèse avait été particulièrement complexe. Le lancement aurait été repoussé à plusieurs reprises à cause de performances inférieures aux attentes de l’entreprise.

  •  

Free lance sa Freebox Pop S « 100 % Internet » : 5 Gb/s et Wi-Fi 7 pour 24,99 € par mois

Elle a popé un mardi, quelle surprise :D
Free lance sa Freebox Pop S « 100 % Internet » : 5 Gb/s et Wi-Fi 7 pour 24,99 € par mois

Une nouvelle Freebox est dès à présent disponible : la Freebox Pop S, en réponse à la Pure Fibre de Bouygues Telecom. Pour 24,99 euros par mois, vous avez un accès à Internet jusqu’à 5 Gb/s partagés, du Wi-Fi et… aucun service de télévision.

Les amateurs de la marque l’auront certainement compris à la lecture du titre de cette actualité : la Freebox Pop S est à la Freebox Pop ce que la Delta S était à la Delta : « une offre 100 % Internet sans TV ». La Freebox Pop S ne propose donc qu’un accès à Internet (en fibre optique FTTH ou en xDSL), sans service supplémentaire. Il s’agit évidemment de venir jouer sur les platebandes de la box Pure Fibre de Bouygues Telecom.

Jusqu’à 5 Gb/s partagés et 900 Mb/s en upload

La Freebox Pop S reprend le boîtier de la Freebox Pop et propose donc « des débits Fibre jusqu’à 5 Gb/s partagés en téléchargement et jusqu’à 900 Mb/s en envoi ». Le mot important est « partagés », puisque la Freebox Pop ne dispose pas de port à 5 ou 10 Gb/s (ni de cage SFP+).

Pour atteindre les 5 Gb/s, il faut combiner plusieurs solutions : 2,5 Gb/s sur un port Ethernet, 1 Gb/s sur deux autres ports Ethernet et enfin 0,5 Gb/s en Wi-Fi, soit 5 Gb/s au total. Sur une seule machine, vous ne pouvez pas dépasser les 2,5 Gb/s par contre.

Avec sa Pure Fibre, Bouygues Telecom propose pour rappel un port 10 GbE (Ethernet, via un connecteur RJ45). Nous avions déjà détaillé les différents ports multi-GIG des principales box des FAI dans un précédent dossier.

Wi-Fi 7 jusqu’à 2,2 Gb/s

Comme la Freebox Pop depuis mars 2024, la version S dispose du Wi-Fi 7 avec « jusqu’à 2,2 Gb/s, soit des débits jusqu’à 2 fois plus rapides que le Wi-Fi 6). Sur demande, un répéteur Wi-Fi 7 est proposé par le fournisseur d’accès. Bouygues Telecom a pour rappel attaqué Free devant le tribunal de commerce de Paris sur son Wi-Fi 7, qui n’est pas certifié par la Wi-Fi Alliance.

Pas de boitier TV, ni d’appels vers les mobiles en France

La Freebox Pop ne dispose pas de Player (le boitier multimédia) et ne permet pas d’accéder à des chaines de télévision. Oqee et Free Foot ne sont pas non plus inclus.

Une autre différence existe entre les deux Freebox Pop : les appels ne sont illimités que vers les fixes en France et les DOM, pas vers les mobiles en France et DOM (c‘est le cas sur Freebox Pop).

24,99 euros par mois, sans engagement, avec Free Family

« La nouvelle offre Freebox Pop S est une exclusivité web au prix de 24,99 euros par mois seulement. Comme toutes les offres Freebox, elle est sans engagement », ajoute enfin l’opérateur. L’option Free Family est disponible, permettant d’avoir jusqu’à quatre lignes mobiles à 9,99 euros par mois pendant 1 an, puis à 15,99 euros par mois (sans engagement), au lieu de 19,99 euros par mois.

La Freebox Pop S est donc à 15 euros de moins que la Freebox Pop classique. Cette dernière bénéficie d’une remise de 10 euros par mois la première année, ramenant la différence à 5 euros pendant 12 mois. Nous mettrons à jour notre tableau comparatif dans la journée. Dans les deux cas, les frais de résiliation sont de 59 euros et ceux de mise en service de 49 euros.

« Les abonnés existants éligibles seront informés par email ou directement dans leur Espace Abonné de la possibilité de changer pour la Freebox Pop S », indique le fournisseur d’accès, sans plus de détails.

Par rapport à la Pure Fibre, la Freebox Pop S est donc un euro plus cher par mois, avec un débit inférieur. Elle propose toutefois des appels vers les fixes et du Wi-Fi 7, en plus de l’écosystème Free (l’application Freebox Files par exemple).

Freebox Pop, Révolution et Delta passent à 900 Mb/s en upload

Enfin, « Free booste la connectivité Fibre de ses Freebox : les débits maximum théoriques montants de la Freebox Pop, de la Freebox Révolution et de la Freebox Delta passent à 900 Mbit/s. Ces évolutions se font automatiquement et sans surcoût pour tous les abonnés existants et les nouveaux abonnés ».

C’est la confirmation d’une hausse que certains avaient déjà remarqué depuis mi-mars.

  •  

☕️ Hausse de 20 % des demandes d’autorisation pour des traitements de données de santé

La CNIL explique qu’en 2024 il y a eu 619 demandes d’autorisation pour des traitements de données de santé, ce qui représente une hausse de 20 % par rapport à 2023.

L’autorité chargée de la protection des données en France ajoute que les deux tiers (397) de ces demandes ont reçu une autorisation. Les trois quarts des demandes concernaient des projets de recherche.

À côté d'une patiente âgée, un médecin observe une radio dentaire.

174 dossiers sont des demandes classées sans suite (en baisse de 7 %), la plupart du temps car ce sont des « demandes relatives à des traitements non soumis à formalité préalable, des dossiers incomplets (par exemple ceux relatifs à des projets de recherche pour lesquels l’avis du comité compétent n’a pas été transmis) ou qui sont conformes à un référentiel de la CNIL et ne nécessitent donc pas d’autorisation spécifique ».

La CNIL explique cette légère baisse par une « amélioration de la qualité des dossiers reçus », notamment grâce à « l’accompagnement accru » qu’elle a mis en place.

Et sur ces 619, seulement 3 ont fait l’objet d’un refus de la part de l’autorité. Ceux-ci sont émis « principalement sur les mesures techniques et organisationnelles visant à assurer la sécurité des données comme la pseudonymisation des données et le respect du principe de minimisation ».

  •  

Avec 192 Gb/s et 480 W, le GPMI veut concurrencer le HDMI ou le DisplayPort

Du tout-en-un, manque plus que la version Wi-Fi !
Avec 192 Gb/s et 480 W, le GPMI veut concurrencer le HDMI ou le DisplayPort

Un consortium d’une cinquantaine d’entreprises chinoises planche sur la mise au point d’un nouveau standard d’interface numérique. Baptisé GPMI, il offrirait jusqu’à 192 Gb/s de bande passante et autoriserait une alimentation électrique pouvant atteindre 480 W, soit des performances deux fois supérieures aux meilleurs connecteurs actuels. Un premier processeur est déjà compatible chez HiSilicon.

GPMI, pour General Purpose Media Interface : voilà peut-être le nouvel acronyme qui figurera à l’arrière des écrans de TV ou des moniteurs PC d’ici quelques années. Il désigne un nouveau standard dédié à la transmission de données et d’images, qui viendrait donc directement concurrencer le HDMI et le DisplayPort.

Des performances doublées par rapport aux standards actuels

Le GPMI avance avec deux arguments clés. D’abord, une bande passante capable d’atteindre 192 Gb/s, à comparer aux 80 Gb/s du DisplayPort ou aux 96 Gb/s de la récemment officialisée norme HDMI 2.2. Il intègre ensuite une possibilité d’alimentation électrique, avec une puissance maximale (théorique à ce stade) de 480 W. Là encore, le GPMI doublerait la donne, non pas par rapport au HDMI (qui n’a pas vocation à alimenter ou recharger), mais par rapport à Power Delivery (USB Type-C), qui permet de délivrer jusqu’à 240 W.

Deux connecteurs, Type-B et Type-C. La ligne du bas souligne en bleu la possibilité d’une alimentation électrique

Pour atteindre ce plein potentiel, il faudrait recourir à un connecteur dédié, le GPMI type-B, qui se présente sur un format semblable à celui du HDMI ou du DisplayPort. Le consortium prévoit toutefois une deuxième implémentation via un connecteur USB type-C. Dans ce contexte, les performances seraient divisées par deux, soit tout de même 96 Gb/s et 240 W d’alimentation, comme en USB avec Power Delivery 3.1.

Le standard prévoit par ailleurs un bus secondaire, qui complète le flux principal de transmission pour toutes les opérations de contrôle, ainsi qu’un port de type CEC, pour le contrôle des appareils connectés.

Le connecteur intègre plusieurs ports spécialisés

Un projet encore discret mais déjà bien avancé

Le GPMI et son double connecteur ont récemment fait une apparition sur un salon, repérée par IT Home. S’il était resté relativement discret jusqu’ici, le standard fait l’objet de travaux préparatoires depuis 2019. Et il peut compter sur des soutiens de poids. La Shenzhen 8K UHD Video Industry Cooperation Alliance (SUCA), consortium qui porte le GPMI, réunit en effet un aréopage varié d’industriels avec des grands noms des télécoms (China Mobile, Tencent), des fabricants d’électronique grand public (Haier, Hisense, TCL, Huawei), des acteurs de la télédiffusion et des équipementiers spécialisés.

Dans le lot, on trouve HiSilicon, filiale de Huawei dédiée aux semi-conducteurs, qui développe ses propres processeurs sur base ARM, et dispose déjà, à son catalogue, d’une puce tout-en-un destinée aux marchés des téléviseurs connectés affichant sa compatibilité avec le GPMI, la V660. D’après la SUCA, deux autres puces dotées de la nouvelle interface sont attendues en 2025.

L’alliance SUCA s’est par ailleurs félicitée en novembre dernier d’avoir obtenu le SVID (Standard or Vendor ID) par lequel l’USB Implementers Forum valide la compatibilité de la connectique avec ses propres normes.

Un connecteur dédié au marché chinois ?

Une connectique bidirectionnelle, à très grande bande passante, avec une alimentation électrique suffisante pour alimenter un ordinateur, une console de jeux ou une set-top box, le tout sur un seul et unique câble : le GPMI a sur le papier de quoi devenir le connecteur idéal… s’il s’impose sur le marché. L’USB Type-C le permet aussi dans un moindre mesure avec l’Alternate Mode du DisplayPort annoncé en 2020 (sur de l’USB4).

Or à ce niveau, la SUCA et les industriels concernés ne font pour l’instant pas beaucoup d’efforts pour que le GPMI rayonne hors de leur marché domestique. Le format semble n’avoir été présenté que sur des événements chinois. Les rares documentations accessibles en ligne (à l’image de ce livre blanc chez HiSilicon, accessible uniquement après avoir rempli le formulaire de contact) mettent par ailleurs en avant la prise en charge d’une norme de protection baptisée ADCP, présentée comme une alternative au HDCP, et fonctionnant à l’aide des algorithmes de chiffrement SM3 et SM4, couramment utilisés en Chine.

Face au HDMI (sous licence) et surtout au DisplayPort (sans redevance), il faudra donc attendre de voir quelle est la logique de diffusion adoptée par la SUCA, et surtout dans quelle mesure elle arrive à fédérer un écosystème complet de produits estampillés GPMI, des téléviseurs aux ordinateurs ou aux cartes graphiques. Tout comme il conviendra d’étudier les performances réelles de la transmission et ses exigences en matière de câbles…

  •  

☕️ Aux États-Unis, Meta met officiellement fin à sa vérification des faits

La décision aura fait couler beaucoup d’encre et avait notamment provoqué chez Bloomberg une grande enquête sur les données des notes de communauté. Mais cette fois ça y est : dans quelques heures, le programme de vérification professionnelle des faits de Meta sera officiellement terminé.

Comme nous le rappelions le mois dernier, Mark Zuckerberg avait fait une annonce fracassante sur le sujet. Selon le CEO, cette vérification prenait trop de temps et était trop « politisée », rejoignant en filigrane la grande chasse au « wokisme » tant propulsée par Donald Trump et Elon Musk.

Les logos de Facebook et Meta dans des carrés en 3D sur un fond grisé dégradé
Photo de Dima Solomin sur Unsplash

À la place, Meta applique désormais les mêmes notes de la communauté. Toutes les personnes utilisant Facebook pourront ainsi faire une proposition de note, pour expliquer en quoi le contenu est problématique. Comme sur X, il est recommandé d’ajouter un ou plusieurs liens pour étayer son propos. La validation de la note est ensuite soumise à approbation d’autres membres de la communauté.

Les premières notes devraient apparaitre « progressivement sur Facebook, Threads et Instagram », a indiqué vendredi Joel Kaplan, responsable des affaires mondiales chez Meta. Rappelons une différence majeure entre l’ancien processus de vérification et les notes de la communauté : les publications épinglées par des notes resteront en ligne, ces dernières n’étant là que pour fournir du contexte.

Dans son enquête, basée sur plus d’un million de notes récupérées sur X, Bloomberg reconnaissait plusieurs vertus au système, dont une plus grande réactivité. Cependant, il n’est en rien une solution vraiment efficace de modération à une telle échelle. Surtout, le média critiquait aussi bien que X que Meta en pointant que la rémunération des publications revenait à encourager la viralité, donc à accentuer les problèmes de modération.

Précisons enfin que les changements évoqués ici ne sont pour l’instant valables qu’aux États-Unis. En Europe notamment, rien n’a encore été annoncé.

  •  

☕️ OpenAI : o3 et o4-mini arrivent finalement, GPT-5 repoussé de quelques mois

Alors que l’actualité sur l’intelligence artificielle générative se déchaine avec les nouvelles versions de DeepSeek V3, Gemini 2.5 Pro ou encore le très récent Llama 4, OpenAI annonce du retard du GPT-5.

« Nous allons être en mesure de rendre le GPT-5 bien meilleur que ce que nous pensions au départ. Nous avons également constaté qu’il était plus difficile que nous le pensions de tout intégrer en douceur », a ainsi indiqué Sam Altman, CEO d’OpenAI, dans une publication sur X le 4 avril.

En conséquence, GPT-5 n’arrivera que dans quelques mois, donc avec du retard. Altman ajoute que l’entreprise veut s’assurer qu’elle disposera « d’une capacité suffisante pour répondre à ce [qu’elle prévoit] être une demande sans précédent ».

La société avait expliqué plus tôt dans l’année que son modèle serait disponible pour tous, mais que le degré de précision se ferait en fonction de la formule utilisée. Sans abonnement payant, le niveau d’intelligence sera ainsi « standard ». La formule ChatGPT Plus aura droit à « un niveau d’intelligence plus élevé », tandis que ChatGPT Pro donnera accès au niveau le plus élevé. On ignore concrètement à quoi correspondent ces paliers.

« L’un de nos principaux objectifs est d’unifier nos modèles en créant des systèmes capables d’utiliser tous nos outils, de savoir s’il faut réfléchir longtemps ou non, et d’être utiles pour un large éventail de tâches », précise également Sam Altman. GPT-5 sera un modèle unifié : il sera multimodal et intègrera la voix, Canvas, la recherche approfondie et d’autres outils.

Si GPT-5 sera en retard, il en va autrement des modèles « o ». Contrairement à ce qui avait été indiqué en février, o3 va finalement sortir « dans quelques semaines », accompagné d’un o4-mini. On apprend également qu’un modèle o3-pro est en préparation, sans plus de détails. Aucune précision technique n’a été donnée sur ces futurs modèles de raisonnement.

  •  

Meta dégaine ses Llama 4 multimodaux, dont un Behemot de 2 000 milliards de paramètres

It really kicks
Meta dégaine ses Llama 4 multimodaux, dont un Behemot de 2 000 milliards de paramètres

Dans la longue quête des modèles d’IA générative toujours plus puissants, c’est au tour de Meta de dégainer avec la quatrième version de son Llama. Il est décliné en trois versions, selon le cas d’usage, et tous sont multimodaux. Alors que Meta se lance pour la première fois dans les « mélanges d’experts », l’Europe continue d’être privée des nouveautés.

Meta veut frapper fort avec son modèle Llama 4. Dans son annonce, publiée samedi (c’est la première fois que l’entreprise lance un modèle majeur durant le week-end), Meta explique qu’il a été entrainé sur « de grandes quantités de textes, d’images et de données vidéo non étiquetés » et qu’il dispose d’une « large compréhension visuelle ».

Llama 4 est décliné en trois versions : Scout, Maverick et Behemot. Précisons d’emblée que si les deux premiers sont disponibles, ils ont été distillés depuis Behemot qui, lui, est toujours en cours d’entrainement.

Des paramètres et des experts

Llama 4 Scout est le plus petit modèle, avec 16 experts. Ces derniers représentent des sous-sections spécifiques du modèle, conçues pour traiter des tâches particulières. Ils sont la conséquence de l’approche MoE (Mixture of Experts), utilisée pour la première fois chez Meta. Chaque expert représente un réseau neuronal pouvant être entrainé séparément, permettant un entrainement global du modèle nettement plus rapide, comme l’expliquait déjà Hugging Face fin 2023.

En fonction de la tâche, c’est le modèle qui « décide » ensuite à quel expert envoyer les jetons. Conséquence, si Llama 4 Scout a 109 milliards de paramètres, 17 milliards « seulement » sont actifs en même temps.

Même cas de figure pour Maverick, le modèle principal. Cette fois, le nombre de paramètres est de 400 milliards, mais le modèle dispose de 128 experts, toujours avec la même technique. Comme pour Scout, le nombre de paramètres actifs est de 17 milliards.

Selon Meta, ces deux modèles sont tout simplement les meilleurs modèles multimodaux de leur catégorie respective. Scout fournit ainsi une fenêtre contextuelle de 10 millions de jetons, peut fonctionner sur un seul GPU H100 de NVIDIA et fournit de meilleurs résultats que Gemma 3, Gemini 2.0 Flash-Lite et Mistral 3.1 « dans une large gamme de tests de référence », selon Meta.

Maverick, qui doit devenir le principal modèle poussé par Meta, est présenté comme surpassant GPT-4o et Gemini 2.0 Flash. Sur LMArena, le modèle se classe deuxième avec un score de 1417. Point intéressant, Meta évoque directement DeepSeek, car les résultats obtenus par Maverick sont décrits comme « comparables » au dernier modèle chinois. Selon Meta, Maverick peut fonctionner sur un seul système H100 DGX de NVIDIA.

L’énorme Behemot toujours en formation

Dans la nouvelle trilogie de Meta, Scout et Maverick sont les étudiants. L’enseignant se nomme Behemot, à partir duquel ils ont été distillés. Le modèle porte a priori bien son nom : on ne joue plus du tout dans la même cour.

Ce mastodonte, dont l’entrainement est toujours en cours, affiche la bagatelle de 2 000 milliards de paramètres. Bien sûr, tous ne fonctionnent pas en même temps, mais le modèle, doté de 16 experts, dispose quand même de 288 milliards de paramètres actifs. De fait, il est présenté comme le modèle « de pointe » pour tout ce qui touche aux mathématiques, au multilinguisme et aux images. Pour économiser les coûts, la distillation du modèle a été réalisée pendant la phase de pré-entrainement, précise Meta.

Évidemment, les performances d’un tel modèle sont annoncées comme supérieures à tout ce qui existe. Ou presque. Dans le tableau donné par Meta, on peut voir que les notes obtenues par son Behemot sont largement supérieures globalement que les modèles concurrents. Mais si Meta a fait combattre son modèle face à Claude Sonnet 3.7 et GPT-4.5 – qui sont effectivement les dernières versions des modèles – l’entreprise a choisi de se limiter à Gemini 2.0 Pro, alors que la 2.5 est disponible.

How to train a behemot

L’entrainement d’un tel modèle aurait « constitué un défi de taille ». Pendant celui de Maverick, Meta dit s’être aperçue de plusieurs problèmes, au point de changer toute sa chaine de traitements post-entrainement. Le réglage fin supervisé (SFT) et l’optimisation des préférences directes (DPO) ont ainsi été allégés. 50 % des données jugées « faciles » ont été supprimées, en se servant d’autres modèles Llama comme juges. L’étape intermédiaire d’apprentissage par renforcement (RL) est restée entière, bien qu’avec des prompts « plus difficiles ».

Concernant Behemot, Meta a appliqué une version extrême de cette recette, puisque 95 % des données « faciles » ont été élaguées pour la phase SFT. « Nous avons également constaté que l’exécution d’un SFT léger suivi d’un apprentissage par renforcement (RL) à grande échelle produisait des améliorations encore plus significatives dans les capacités de raisonnement et de codage du modèle », affirme Meta.

Même l’étape d’apprentissage par renforcement a nécessité des travaux. L’entreprise dit avoir dû passer par une refonte de son infrastructure : nouvelle conception de la parallélisation MoE pour des itérations plus rapides et un nouveau cadre asynchrone pour l’apprentissage par renforcement. Pour ce dernier, Meta dit avoir développé un système d’allocation flexible des modèles à des GPU distincts. Cette amélioration aurait « multiplié par 10 l’efficacité de l’entrainement », comparé à l’ancienne méthode qui consistait à « empiler tous les modèles en mémoire ».

Meta précise enfin que tous les entrainements de Llama 4 ont été réalisés en précision FP8. Dans le cas de Behemot, l’entreprise s’est servie de 32 000 GPU, avec un niveau de performances de 390 TFLOPS par GPU. La réserve de données, même après le fameux élagage, représentait 30 000 milliards de jetons, plus du double de ce qui avait été utilisé pour Llama 3.

Des réponses « utiles »

Les trois nouveaux modèles annoncés sont « classiques » : ils n’opèrent aucun raisonnement. Les comparaisons sont donc d’autant plus intéressantes, surtout dans le cas de Behemot sur des domaines comme les mathématiques et le développement logiciel. Reste à savoir bien sûr le type de coût qu’un modèle aussi volumineux peut engendrer. Surtout quand la concurrence, notamment DeepSeek-V3-0324, commence à mettre un accent plus prononcé sur l’efficacité.

Meta, en tout cas, indique avoir tout mis en œuvre pour que ses modèles fournissent des réponses utiles et « factuelles ». Toutes les variantes de Llama 4 auraient été réglées pour refuser moins souvent de répondre à des questions plus « litigieuses ». Une précision intéressante, et qui rejoint Anthropic dans sa communication : c’était l’un des changements mis en avant au lancement de Claude Sonnet 3.7 fin février. Deux semaines plus tôt, OpenAI annonçait des changements en ce sens dans la manière d’entrainer ses modèles. On pourrait y voir une influence de xAI et de son Grok, qui se veut effronté dans ses réponses.

« Vous pouvez compter sur [Llama 4] pour fournir des réponses utiles et factuelles sans porter de jugement. Nous continuons à rendre Llama plus réactif afin qu’il réponde à plus de questions, qu’il puisse répondre à une variété de points de vue différents […] et qu’il ne favorise pas certains points de vue par rapport à d’autres », a ainsi déclaré Meta à TechCrunch.

Quid de la disponibilité ?

Techniquement, les nouveaux modèles Llama 4 Scout et Maverick sont disponibles depuis le site dédié et Hugging Face. Plus précisément, ce sont les modèles Llama-4-Scout-17B-16E, Llama-4-Scout-17B-16E-Instruct, et Llama 4-Maverick-17B-128E-Instruct-FP8. Ces modèles alimentent même déjà Meta AI pour WhatsApp, Messenger et Instagram pour tout ce qui touche aux conversations (du moins, sur les conversations non chiffrées de bout en bout). Les nouveaux modèles sont également disponibles dans Azure AI Foundry de Microsoft.

Mais en Europe, la situation est plus complexe. La licence associée aux modèles Llama 4 n’exclut pas les utilisateurs finaux. Ces derniers devraient donc avoir les mêmes capacités sur Meta AI que dans les autres pays où l’assistant est présent. En revanche, les personnes physiques et morales (donc les entreprises) européennes n’ont pas le droit d’accéder aux modèles.

« En ce qui concerne les modèles multimodaux inclus dans Llama 4, les droits accordés en vertu de la section 1(a) de l’accord de licence communautaire Llama 4 ne vous sont pas accordés si vous êtes une personne physique domiciliée dans l’Union européenne ou une société dont le siège social se trouve dans l’Union européenne. Cette restriction ne s’applique pas aux utilisateurs finaux d’un produit ou d’un service qui intègre de tels modèles multimodaux », indique Meta.

On retrouve une fois de plus les tensions entre Meta et l’Europe, l’entreprise ayant largement critiqué cette dernière pour ses « incertitudes réglementaires ». Elle a fustigé plus d’une fois le DMA (notamment à cause de ses abonnements supprimant la publicité), mais s’en est également prise à l’AI Act, main dans la main avec Spotify. Mais en attendant que la situation se détende, malgré un contexte géopolitique toujours plus complexe, ni les entreprises ni les chercheurs européens ne peuvent officiellement mettre la main dessus.

Ajoutons enfin que, dans le reste du monde, les applications et services tirant parti de Llama 4 devront afficher une mention « Built with Llama ».

  •  

Après avoir restructuré la dette, Patrick Drahi chercherait à vendre SFR

Il est pas frais mon poisson ?
Après avoir restructuré la dette, Patrick Drahi chercherait à vendre SFR

D’après le Figaro, Patrick Drahi étudierait sérieusement la possibilité de mettre en vente SFR. Particulièrement complexe sur le plan réglementaire, l’opération conduirait soit à l’arrivée d’un nouvel acteur sur le marché, soit à un retour à trois opérateurs.

L’hypothèse d’une mise en vente de SFR sera-t-elle abordée le 15 avril prochain, date à laquelle le groupe Altice organise avec ses actionnaires et ses créanciers un point d’étape sur la restructuration de sa dette et ses performances sur le quatrième trimestre 2024 ? La question sera certainement posée, mais il n’est pas dit que Patrick Drahi et la direction d’Altice France lâchent le morceau, tant le dossier risque de se révéler complexe.

C’est pourtant l’idée qui revient au goût du jour, suite à la publication, dimanche, d’une enquête du Figaro, selon laquelle SFR serait – officieusement – en quête d’un repreneur. Ironiquement, c’est du nouveau directeur financier d’Orange, Laurent Martinez, que vient la première confirmation évoquée par le Figaro. « Pour la première fois depuis quinze ans dans les télécoms françaises, nous avons un vendeur », aurait ainsi déclaré ce dernier lors d’un échange avec des analystes financiers.

Le bon moment pour vendre ?

La rumeur selon laquelle Drahi envisagerait la vente de SFR n’est pas inédite. Elle revient toutefois dans l’actualité auréolée d’un contexte particulier : le milliardaire vient en effet de réussir le tour de force de restructurer la dette financière de son groupe, sans en perdre le contrôle. Pour y parvenir, il doit toutefois abandonner 45 % d’Altice à ses créanciers, principalement des fonds d’investissement américains, parmi lesquels des géants de la gestion d’actifs comme BlackRock, Elliott Investment Management ou Pacific Investment Management.

Pour atteindre son objectif, Altice a toutefois admis qu’il lui faudrait poursuivre la vente de ses actifs non essentiels. Après plusieurs cessions récentes (Altice Medias, datacenters, La Poste Mobile), c’est désormais la filiale XP Fibre, en charge de l’infrastructure réseau du groupe, qui ferait l’objet de tractations en coulisses…

L’opération doit, selon les propres termes d’Altice, faire retrouver au groupe un niveau d’endettement conforme aux standards du marché, et donc lui redonner des marges de manœuvre pour financer son développement. Elle lui confère également une structure de dette plus saine, nettement plus compatible avec un scénario de reprise que les 24 milliards d’euros qui plombaient les comptes…

Un marché déjà en ébullition

Les trois opérateurs français restants étudieraient déjà très sérieusement la question, indique le Figaro. À grands renforts d’avocats et de banques d’affaires, ils chercheraient à déterminer les différentes modalités de rapprochement envisageables, au regard bien sûr des conditions de marché, mais aussi et surtout du cadre réglementaire, français comme européen.

En admettant qu’Orange, Free ou Bouygues Telecom souhaite se porter acquéreur des activités de SFR, les conditions d’un retour à trois opérateurs sont-elles réunies ? Rien n’est moins sûr, et le projet devrait très certainement prévoir la ventilation des actifs entre les trois, pour limiter les risques d’abus de position dominante. Au 30 septembre dernier, Altice France revendiquait pour mémoire (PDF) 6,174 millions de clients fixes (dont fibre) et 19,515 millions de clients mobiles.

En France, le cas de figure d’un retour à trois opérateurs ne s’est sérieusement présenté qu’une seule fois depuis l’entrée de Free sur le marché : l’hypothèse d’un rapprochement entre Orange et Bouygues Telecom avait longuement défrayé la chronique, avant de finalement achopper en avril 2016.

L’exemple du Royaume-Uni montre toutefois qu’une telle transaction n’est pas impossible : l’Autorité de la concurrence britannique a ainsi donné, en décembre dernier, son feu vert au projet de fusion entre Vodafone et Three, qui permettra au nouvel ensemble de devenir le premier acteur du marché, devant British Telecom et Virgin O2.

  •  

Du Nord de la France à Jakarta, Microsoft a bien arrêté plusieurs projets de data centers

Bubble or not?
Du Nord de la France à Jakarta, Microsoft a bien arrêté plusieurs projets de data centers

Microsoft a récemment arrêté ou reporté certains projets de construction de data centers en Indonésie, au Royaume-Uni, en Australie, aux États-Unis et en France. Alors qu’il y a encore quelques mois, la mode était à la construction d’énorme centres pour l’IA, le géant du numérique planifiait déjà de freiner ses projets.

Microsoft est bel et bien en train de revoir les plans de son installation massive de data centers dans le monde, comme le laissait déjà entendre l’annulation de contrats de location qu’avait divulguée la banque d’investissement TD Cowen.

Espoirs douchés dans le Nord

La petite commune de Quaëdypre du Nord de la France devait accueillir, sur une parcelle d’une vingtaine d’hectares, la création d’un tel centre. Enfin, c’est ce que Microsoft avait laissé entendre en aout dernier, selon La Voix du Nord. En octobre, l’entreprise avait confirmé son intention aux élus des Hauts-de-Flandre, expliquait le même quotidien régional. Deux projets étaient en discussion aussi dans l’Audomarois et le Calaisis.

Mais, finalement, Microsoft n’installera pas de data center à Quaëdypre ni sur les deux autres lieux en discussion. En février dernier, le même quotidien régional expliquait que Microsoft avait finalement fait savoir qu’elle ne viendrait pas. La communauté de communes des Hauts-de-Flandre espérait qu’une autre entreprise reprendrait le projet, sans en dire plus.

De Quaëdypre à Jakarta

Quaëdypre pourrait être un cas anecdotique dans les plans d’installation de Microsoft. Mais Bloomberg confirme que l’entreprise a réduit ses projets de centres de données dans le monde entier. Elle a arrêté les négociations ou retardé le développement de sites en Indonésie, au Royaume-Uni, en Australie et dans trois États américains (L’Illinois, le Dakota du Nord et le Wisconsin).

En avril 2024, Microsoft annonçait un investissement de 1,7 milliard de dollars dans de nouvelles infrastructures de cloud et d’IA en Indonésie. Mais l’entreprise aurait interrompu les travaux d’une partie de son futur projet de regroupement de data centers, qui devait voir le jour à environ une heure de Jakarta, selon Bloomberg.

Au Royaume-Uni, Microsoft projetait de louer une zone située entre Londres et Cambridge. Elle devait accueillir un data center équipé des « meilleures puces Nvidia ». Mais elle a, semble-t-il, abandonné les négociations. De même avec Ada Infrastructure, alors que la multinationale projetait de louer une partie de son data center 210 MW Docklands. Mais, selon Bloomberg, Microsoft a finalement renoncé et Ada Infrastructure est maintenant en négociation avec un autre client.

L’entreprise aurait aussi arrêté les négociations concernant un emplacement à côté de Chicago, son projet d’extension de son site à Mount Pleasant, dans le Wisconsin, ou laissé courir les négociations au-delà de la clause d’exclusivité pour la location d’un centre d’Applied Digital Corp dans le Dakota du Nord.

Tout va bien d’après Microsoft

Interrogée par Bloomberg, Microsoft refuse de parler de chaque implantation, mais reconnait avoir modifié ses plans en matière de data centers. Elle affirme :

« Nous planifions les besoins en capacité de nos data centers des années à l’avance pour nous assurer que nous disposons d’une infrastructure suffisante aux bons endroits. […] Alors que la demande en IA continue de croître et que notre présence dans les centres de données continue de s’étendre, les changements que nous avons apportés démontrent la flexibilité de notre stratégie ».

Microsoft, une boussole du marché de l’IA ?

Microsoft n’est pas forcément le leader de la R&D en IA générative, puisqu’elle a laissé ce rôle à OpenAI. Elle en a fait le cheval de Troie des modèles de langage en y investissant massivement. Mais l’entreprise est sans doute le leader en termes de commercialisation. La firme de Redmond a intégré l’IA générative dans ses offres logicielles et a augmenté la facture. Les investissements et abandons de l’entreprise dans le secteur sont donc scrutés avec intérêt.

Mais il est difficile de savoir de quoi ces abandons et cette pause dans les investissements sont le signe. S’agit-il de difficultés de construction, de pénuries, de coûts, de baisse des besoins en IA ou encore d’une projection de ventes de services d’IA plus faibles que prévu par l’entreprise ?

  •  

Batterie externe : attention à « l’arnaque » des mAh

Non, je ne ferai pas un T@LC de ton dessin @Flock !
Batterie externe : attention à « l’arnaque » des mAh

Votre smartphone a une batterie de 4 000 mAh et vous pensez qu’avec une batterie externe de 20 000 mAh, vous allez pouvoir le charger cinq fois ? Oubliez tout de suite, ce ne sera jamais le cas. Le problème ne vient pas que des pertes, mais de l’imprécision des mAh dans ce genre de situation (et ce n’est pas toujours mieux avec les Wh), on vous explique.

Dans un précédent article, nous avons posé les bases du fonctionnement du courant électrique, en expliquant notamment ce qu’étaient les mAh et les Wh. Aujourd’hui, nous allons nous attarder un peu plus sur les mAh (milliampère heure), une unité de charge électrique.

Petit rappel sémantique : l’Ah (ampère heure) n’est pas dans le Système international, mais cette unité est tout de même largement utilisée, d’autant qu’elle est en lien direct avec une autre unité du SI cette fois : le Coulomb, en hommage au physicien Charles-Augustin Coulomb. Larousse précise que 1 C est « équivalant à la quantité d’électricité transportée en une seconde par un courant d’un ampère ». Avec 3 600 secondes dans une heure, 3600 coulombs valent donc 1 Ah. Simple et il n’y a pas de piège.

Quand les Ah se marient avec les V, cela donne des Wh

Revenons aux Ah, qui permet donc de mesurer une quantité de charges électriques, ni plus ni moins. Il ne faut pas confondre les Ah avec le Wh (watt-heure) qui est une unité d’énergie, on parle de quantité d’énergie stockée. Il existe néanmoins une relation très simple entre Ah et Wh : Ah x V = Wh.

En clair, pour passer d’une quantité de charges électriques (Ah) à une quantité d’énergie (Wh), on multiplie le premier élément par la tension (V pour Volt). Corollaire, connaitre les Ah d’une batterie ne permet pas de déduire sa « capacité » en Wh si on ne connait pas sa tension.

Une batterie de 10 000 mAh sous 3,7 volts donnera 37 Wh. Une batterie de 10 000 mAh sous 5 volts donnera 50 Wh. Avez-vous remarqué que nous avons répété deux fois la phrase, sans mettre un « ou » pour passer de 3,7 à 5 volts ? Il y a une raison : on ne crée pas de la « capacité » simplement en augmentant la tension (cela se saurait, croyez-moi…).

On simplifie par l’exemple, avec une batterie de 20 000 mAh

Prenons un exemple concret d’une batterie externe de 20 000 mAh que nous utilisons lors de déplacements. Cela veut-il forcément dire que l’on a 100 Wh avec une tension de 5 volts (20 000 mAh x 5 volts) ? Bien évidemment… que non. Il faut regarder le détail (s’il est donné).

Dans notre cas, c’est 20 000 mAh sous 3,6 volts, soit 72 Wh. Le fabricant donne une autre valeur : 5 000 mAh sous 14,4 volts, soit toujours 72 Wh, jusqu’ici tout va bien. Les 14,4 volts ne sont pas choisi au hasard : c’est exactement 4x 3,6 volts, ce qui permet de garder un rendement maximal et donc d’arriver de nouveau à 72 Wh.

20 000 mAh pour 52 à 72 Wh selon les cas

Sur la boite de la batterie, d’autres valeurs sont données : 12 817 mAh sous 5 volts et 2 606 mAh sous 20 volts, soit respectivement 64 et 52 Wh. La perte est donc quasiment de 30 % dans ce dernier cas. Voici un résumé des chiffres annoncés par le fabricant :

  • 20 000 mAh avec 3,6 volts soit 72 Wh
  • 12 681 mAh avec 5 volts, soit 64 Wh
  • 5 000 mAh avec 14,4 volts, soit 72 Wh
  • 2 606 mAh avec 20 volts, soit 52 Wh

Problème, ces informations ne sont pas du tout présentes sur la fiche du revendeur chez qui nous l’avons achetée. Il est simplement précisé 20 000 mAh et 74 Wh… Oui 74 Wh, alors que le produit que nous avons reçu n’en affiche que 72 Wh. La raison : sur la fiche du revendeur, la tension prise en compte pour calculer les Wh est de 3,7 volts.

Il faudrait plus de transparence de la part des fabricants

Si vous souhaitez savoir combien de fois vous pouvez charger un smartphone et/ou un ordinateur, il faut donc regarder la tension de charge pour connaitre les Wh et comparer à ceux de vos terminaux mobiles. Si vous utilisez la batterie pour charger un ancien smartphone qui ne prend que du 5 volts, alors vous avez 64 Wh. Pour un ordinateur en 20 volts, on descend à 52 Wh. Si par contre votre machine est en 14,4 volts, alors vous avez droit au maximum : 72 Wh.

Communiquer uniquement sur les mAh est trompeur… comme le serait finalement la seule communication des Wh. Dans les deux cas, il faudrait toujours préciser la tension associée. Il faudrait que les fiches produits soient bien plus détaillées, avec au minimum les Wh en fonction de plusieurs tensions différentes, surtout pour des batteries Power Delivery, avec une plage de fonctionnement généralement comprise entre 5 et 20 volts (jusqu’à 48 volts dans la version 3.1).

Bref, on a commandé une batterie de 20 000 mAh et 74 Wh, pour se retrouver avec une 20 000 mAh et 72 Wh, mais « seulement » 52 Wh pour recharger notre ordinateur portable en 20 volts. Si ce dernier point est assez logique, nous n’avions pas moyen de connaitre cette valeur avant de passer commande, dommage.

Et encore, on parle ici de capacité théorique, dans la pratique, il y a toujours des pertes supplémentaires à prendre en compte. C’est parfaitement logique, mais à considérer lorsqu’il s’agit de choisir une batterie externe, surtout si vous avez besoin d’une quantité minimum de mAh/Wh.

100 Wh max en avion, ça fait combien de mAh ? Ça dépend…

Dans les avions, la limite pour embarquer une batterie est fixée en Wh, pour toutes les raisons que nous venons de détailler. Air France rappelle que les « batteries de rechange et batteries externes de moins de 100 Wh » peuvent être embarqué en cabine (mais pas en soute), sans accord préalable, alors que ce dernier sera nécessaire pour une batterie entre 100 et 160 Wh.

On parle aussi parfois de batterie de 27 000 mAh maximum pour une simple raison : les batteries lithium ont une tension de 3,6 ou 3,7 suivant les technologies, soit un maximum de… 99,9 Wh en 3,7 volts, juste en dessous des 100 Wh.

Mais là encore, ce n’est pas une règle et seuls les Wh comptent. Par exemple, Anker propose une batterie de 27 650 mAh et affirme qu’elle « répond aux exigences de la TSA (< 100 Wh) pour être emportée dans les avions comme bagage à main ». Le fabricant annonce, en effet, une capacité de 99,54 Wh, signifiant que la tension de base de la batterie est de 3,6 volts.

  •  

☕️ #LIDD : « Le Big Bang à portée de téléscope »

« Campagnes d’observation « grand format », méthodes d’analyse des données novatrices, développements théoriques tous azimuts » : le Journal du Centre national pour la recherche scientifique revient sur la nouvelle « ère de précision » de l’astrophysique et de la cosmologie. Elles permettraient de « percer tous les mystères du cosmos. Y compris celui de ses origines », c’est-à-dire le Big Bang.

Il y a tout d’abord le nouveau catalogue Cosmicflow (.pdf), avec la position et la vitesse de 56 000 galaxies, qui a permis de « cartographier les bassins d’attraction gravitationnelle de notre univers proche ». Les analyses semblent confirmer le modèle cosmologique standard : « il y a 13,8 milliards d’années, notre Univers a émergé d’un état extrêmement chaud et dense qui, sous l’effet de l’expansion, s’est ensuite refroidi et structuré, laissant petit à petit apparaître le gigantesque réseau de galaxies que l’on peut observer aujourd’hui ».

Euclid espace
Voie lactée et galaxies voisines par le satellite Gaia

Les scientifiques cherchent aussi à cartographier l’univers local en étudiant la vitesse d’un échantillon de Galaxie. Problème, il y a de très nombreux paramètres et hypothèses à confirmer. Les chercheurs utilisent donc une méthode d’inférence probabiliste : « Fondée sur l’intelligence artificielle, elle consiste à engendrer numériquement d’innombrables configurations et à assortir chacune d’elles d’une probabilité de compatibilité avec les observations ».

Le CNRS s’attaque ensuite aux paramètres du modèle standard, à l’inflation de l’Univers, aux soubresauts quantiques, à la toile cosmique et à la recherche du fond diffus gravitationnel. Un long format à lire pour les amateurs d’astronomie et d’origines de l’Univers.

  •  

☕️ Avec iOS 18.4, d’anciennes applications supprimées réapparaissent

L’arrivée d’iOS 18.4 a sonné en Europe le top départ pour le bouquet de services Apple Intelligence. Il s’agit de l’une des mises à jour intermédiaires les plus touffues jamais proposées pour iPhone. Du moins pour les personnes ayant un modèle compatible, car l’IA de la pomme est réservée aux modèles les plus récents : iPhone 15 Pro et tous les iPhone 16 (classique, Pro et 16e).

Comme signalé par MacRumors, de nombreux fils de discussion sont apparus sur Reddit (ici, , ou encore ) ainsi que sur les propres forums d’Apple pour évoquer un drôle de souci : d’anciennes applications supprimées sont de retour.

L’origine du problème n’est pas encore comprise, mais il s’agit probablement d’un bug introduit par le système. Les applications réinstallées avaient été supprimées il y a plusieurs mois, voire il y a plusieurs années. Le problème ne semble pas une conséquence de la fonction Téléchargements automatique, qui permet normalement de répercuter les installations faites sur d’autres appareils. Des utilisateurs affirment ainsi que leur iPhone est le seul appareil Apple qu’ils possèdent.

Au sein de l’équipe, nous avons pu observer ce comportement sur un appareil : deux applications supprimées il y a longtemps, réinstallées et présentes dans le dossier « Ajouts récents ». Sur d’autres iPhone de la rédaction, tout semblait normal.

Précisions que l’appareil concerné n’est pas jailbreaké et n’a jamais utilisé de boutique alternative. Il a été utilisé pour tester les bêtas d’iOS 18.4 et le problème ne s’est manifesté qu’en fin de cycle, avec la première Release Candidate ou la version finale. Il ne semble cependant pas lié à la phase bêta, car les témoignages évoquent principalement l’installation de la mise à jour en usage courant.

Quoi qu’il en soit, le problème n’est pas très grave, puisqu’il suffit de supprimer les quelques applications éventuellement de retour. Il faut simplement jeter un œil et vérifier que de vieux fantômes ne sont pas revenus hanter votre téléphone.

  •  

☕️ Donald Trump accorde de nouveau 75 jours pour la vente TikTok

Fin janvier, dans les premières heures suivant son investiture, Donald Trump signait un décret pour accorder 75 jours afin de mettre en place la vente ou l’interdiction de TikTok. Le 47ᵉ président des États-Unis vient d’accorder de nouveau 75 jours à la plateforme.

Il affirme que son administration a « fait d’énormes progrès » dans ce dossier, mais qu’un accord « nécessite plus de travail pour s’assurer que toutes les approbations nécessaires sont signées ». « Nous espérons continuer à travailler de bonne foi avec la Chine, qui, je le comprends, n’est pas très satisfaite de nos tarifs réciproques », ajoute le président. La Chine a pour rappel répondu du tac au tac avec 34 % de taxe sur les importations des États-Unis.

« Nous ne voulons pas que TikTok disparaisse », réaffirme Donald Trump. Plusieurs personnalités et sociétés sont sur les rangs, résume le Parisien : « le « Project Liberty » de l’entrepreneur Frank McCourt, propriétaire de l’Olympique de Marseille, le youtubeur MrBeast ». Citons également Perplexity AI, Amazon, Blackstone, Microsoft, Walmart…

TikTok
  •  

☕️ Le gestionnaire de paquets APT 3.0 est disponible avec sa nouvelle interface

La version 3.0 du gestionnaire de paquets APT est désormais disponible. Annoncée par le projet Debian, elle propose une nouvelle interface se voulant nettement plus lisible que celle disponible jusqu’à présent.

APT 3.0 se distingue en particulier par son affichage en colonnes et son utilisation des couleurs. En rouge, par exemple, toutes les suppressions, et en vert les ajouts. La barre de progression est elle aussi révisée, avec un fonctionnement plus souple et l’utilisation d’Unicode.

APT 2.8 à gauche, APT 3.0 à droite

La nouvelle mouture ne revoit pas que sa lisibilité. On y trouve de nouvelles fonctions, comme un solveur permettant de revenir à des versions stables des paquets (via –solver), un autoremove plus efficace, le support de –target-release, une option –comment pour l’historique, la prise en charge des miroirs non compressés pour les miroirs partiels, le calcul correct de la taille du noyau dans /boot, le remplacement de GnuTLS et gcrypt par OpenSSL, ou encore le support des transactions et du comptage des mises à jour pour pkgDepCache.

On se souvient qu’APT 3.0 était présent dans Ubuntu 24.10, mais il s’agissait d’une préversion. Cette version finale devrait être graduellement disponible sur toutes les distributions basées sur Debian et Ubuntu. APT 3.0 sera présent dans Debian 13 et Ubuntu 25.04.

  •  

☕️ Tails 6.14.1 apporte un peu de souplesse à Tor Browser sur la gestion des fichiers

Nouvelle mouture pour la distribution Linux centrée sur la sécurité et la vie privée. Une version 6.14.1 qui peut surprendre, car la 6.14 n’a pas été publiée. L’équipe de développement s’en explique dans un billet, indiquant qu’un problème important a été découvert à la dernière minute, nécessitant un correctif.

Tails 6.14.1 se distingue surtout par un changement notable dans le navigateur Tor Browser. La technologie de confinement utilisée pour la sécurité est désormais plus souple. Ainsi, plutôt que de limiter l’écriture des fichiers dans le seul dossier Téléchargements et la lecture à quelques répertoires, les accès peuvent se faire maintenant sur l’ensemble des dossiers.

L’équipe indique que cette amélioration est permise par XDG Desktop Portal, qui fournit un accès à des fonctions standards d’un système comme les fenêtres de dialogue pour les fichiers, le presse-papiers ou encore l’ouverture des liens. Dans le cas présent, ce framework est utilisé pour Flatpak au sein de Tails, autorisant un « relâchement » du confinement opéré par AppArmor.

La nouvelle version corrige également deux problèmes d’accessibilité dans Tor Browser, qui empêchaient d’utiliser les fonctions de texte et de curseurs agrandis.

  •  

[Màj] : les sites de la NOAA temporairement sauvés, le contrat AWS prendra fin en juillet

[Màj] : les sites de la NOAA temporairement sauvés, le contrat AWS prendra fin en juillet

L’agence américaine NOAA, qui a en charge notamment des données sur le climat et la météorologie, s’apprête à supprimer une quantité importante de sites internet via une simple annulation d’un contrat avec des hébergeurs cloud.

Mise à jour du 7 avril : alors que la menace d’une disparition de plusieurs sites de la NOAA planait le week-end dernier, ceux-ci sont encore disponibles. L’agence a finalement affirmé à Bloomberg qu’ « il n’y aura pas d’interruption de service » et que « tous les sites de recherche de la NOAA resteront en ligne ». Selon Axios, l’arrêt du contrat avec AWS a été repoussé au 31 juillet 2025, ce qui doit permettre à l’agence de trouver une solution de repli.

Article originel publié le 4 avril à 17h28 :

De nombreux sites de la NOAA, l’agence d’observation océanique et atmosphérique qui s’occupe aussi des données météorologiques aux États-Unis, vont sans doute devenir inaccessibles dès ce week-end. En cause ? Un contrat de prestations d’hébergement dans divers cloud a été annulé par sa direction, selon Bloomberg.

Cette agence est, comme de nombreuses agences fédérales américaines et notamment les agences scientifiques, visée par le DOGE et l’administration de Donald Trump depuis son retour au pouvoir. Elle s’est déjà séparée de certains de ses locaux et par deux fois d’une partie de son personnel.

Elle semble aussi particulièrement visée pour son rôle extrêmement important dans l’information sur le climat et la météorologie. Bloomberg explique qu’un contrat signé pour l’ensemble du bureau de la recherche océanique et atmosphérique de l’agence a été visé pour une « résiliation anticipée », selon des documents internes que le média a pu consulter.

Les services d’Amazon, de Google et de WordPress sur le point d’être coupés

« En conséquence, la quasi-totalité des sites web externes dépendant des services d’Amazon, de Google et de WordPress sont sur le point de disparaître tôt samedi matin à Washington, effaçant ainsi de la vue du public l’essentiel du travail de l’unité, qui comprend la recherche en sciences du climat et de l’environnement », explique notre consœur Lauren Rosenthal. La NOAA n’a pas répondu à sa demande de commentaire.

Cette information fait mouche avec une alerte lancée sur le forum du projet Safeguarding Research & Culture. Celui-ci émane de la volonté de certains chercheurs, notamment l’historien allemand Henrik Schönemann de l’université de Humboldt à Berlin, de créer « une infrastructure alternative pour l’archivage et la diffusion du patrimoine culturel et des connaissances scientifiques ». L’alerte concerne une cinquantaine de sites de la NOAA et on y retrouve rien de moins que le site de l’agence dédié à la recherche : https://research.noaa.gov/.

« Ce qui est prévu d’être supprimé, ce sont les services basés sur AWS pour la NOAA », expliquent les chercheurs, évoquant une mise hors-ligne dès ce vendredi soir. Mais des questions se posent aussi sur les données ouvertes hébergées elles aussi sur AWS.

Selon une note interne obtenue par Bloomberg, la résiliation du contrat pourrait aussi affecter d’autres activités de recherche de l’agence : le laboratoire qui surveille les tempêtes « violentes » pour le pays (le National Severe Storms Laboratory) et celui chargé de l’innovation en climatologie (le Earth Prediction Innovation Center) utilisent des services de cloud computing externes pour un système de prévisions météorologiques à grande échelle.

Le réseau national de l’agence menacé aussi

Les chercheurs de l’agence ont d’autres raisons d’être préoccupés : deux autres contrats arrivent à leur fin concernant le support de N-Wave, son réseau national qui « s’étend sur toute la zone contiguë des États-Unis jusqu’à l’Alaska et Hawaï, atteignant les sites de terrain éloignés, les grands campus, les centres de données et les installations de supercalculateurs ». Ils sont déjà sous le coup d’une extension très brève de cinq jours qui doit se terminer samedi pour l’un et lundi pour l’autre, selon Bloomberg.

  •  

☕️ Amazon teste un agent IA pour acheter des produits sur d’autres sites

Amazon a présenté hier soir une fonction nommée « Buy for me », destinée à simplifier encore un peu plus les achats. Contrairement à d’autres agents IA que l’on a pu voir jusqu’à présent, notamment chez Opera, il n’est pas question cette fois d’écrire une demande et de laisser l’intégralité du processus de découverte et d’achat à un agent.

Cette fonction, disponible en bêta pour un petit groupe de personnes aux États-Unis, a un périmètre nettement plus restreint. Comme l’indique Amazon dans son billet, « Buy for me » veut simplifier les achats pour des produits présentés par la boutique Amazon, mais disponibles depuis d’autres, notamment les sites officiels des entreprises concernées.

La fonction, présente dans les applications Android et iOS, s’affiche sous forme d’un bouton dédié, accompagnant certains résultats. S’il est actionné par l’internaute, il lance une procédure d’achat sur le site officiel du fabricant, de manière automatisée.

Mais si cette fonction est plus restreinte dans ses cas d’usage, elle demande une grande confiance en Amazon. Car contrairement à ce que l’on a déjà pu voir, c’est toute la procédure d’achat qui se retrouve gérée par l’agent, y compris le paiement. Ce qui suppose que l’IA accède aux informations de la carte bancaire. L’achat est considéré comme externe. « La livraison, les retours et les échanges, ainsi que le service client sont gérés par la boutique de la marque », précise Amazon.

Le géant du commerce en ligne précise dans son billet que ces opérations sont chiffrées et qu’il n’accède pas aux données des autres sites. Il affirme qu’il ne tient aucun historique de ces actions et qu’il s’agit simplement d’apporter une commodité. En outre, la présence de cette fonction sur des produits se fait à la demande des fabricants et Amazon assure que les clients peuvent observer toutes les étapes d’un processus décrit comme « transparent ». Le tout repose sur Amazon Bedrock et utilise le modèle Nova maison, ainsi que les modèles Claude d’Anthropic (dont la version 3.7 est sortie fin février), sans plus de précision.

« Gagner la confiance est la pierre angulaire du succès des agents d’IA », déclare Amazon dans son billet. À voir désormais si la clientèle se laissera séduire par un processus automatisé impliquant des informations bancaires. Ajoutons que ce n’est pas la première fois qu’Amazon tente ce type d’approche automatisée. En 2018, nous avions ainsi testé la commande de pizza via Alexa, avec des résultats particulièrement décevants.

  •  

Électricité : « oubliez les datacenters, la climatisation est la véritable bête noire »

L’éléphant dans la pièce
Électricité : « oubliez les datacenters, la climatisation est la véritable bête noire »

Il n’y a pas que les datacenters qui façonnent le monde à cause de leur consommation électrique. La climatisation aussi est fortement consommatrice d’électricité… et cela ne va pas aller en s’arrangeant.

L’arrivée de l’IA générative a bousculé le numérique et soulève de nombreuses questions (droit d’auteur, éthique, biais, hallucinations…). Se pose aussi la question de l’empreinte écologique de datacenters toujours plus gros, partout dans le monde, avec des GPU toujours plus puissants.

La douce/triste « folie » de l’IA générative

Le tout avec une consommation électrique toujours plus importante, sur des zones bien précises. L’augmentation de la densité électrique par baie et l’expansion des datacenters posent d’ailleurs des contraintes sur le choix de l’emplacement physique alloué à ces derniers.

Avec les images et les vidéos de l’IA générative, on passe encore dans une autre dimension. Les chiffres de l’utilisation des IA peuvent donner le tournis, preuve en est encore récemment avec un tweet de Brad Lightcap (COO d’OpenAI) : « Première semaine de folie pour les images dans ChatGPT : plus de 130 millions d’utilisateurs ont généré plus de 700 millions (!) d’images ». Il se garde d’ailleurs bien de détailler l’empreinte environnementale d’une telle utilisation.

Bientôt 1 000 TWh pour les datacenters ?

Dans un rapport publié fin 2024, l’Agence internationale de l’énergie atomique (IAEA, sous l’égide de l’ONU) expliquait que « les datacenters avaient consommé environ 460 TWh d’électricité en 2022. Cette consommation pourrait s’élever à plus de 1 000 TWh d’ici 2026, soit plus d’un tiers de l’électricité produite par les centrales nucléaires du monde entier l’année dernière, et à peu près l’équivalent de la consommation d’électricité du Japon ». À titre de comparaison, en 2023, la consommation d’électricité en France était de 445,4 TWh.

L’Agence donne quelques chiffres d’anticipation. En Chine, la demande devrait doubler pour atteindre 400 TWh en 2030. En Irlande, la consommation des datacenters (5,3 TWh) représentait 17 % du total du pays et devrait atteindre 32 % d’ici fin 2026. Elle ajoute au passage que la consommation cumulée d’Amazon, Microsoft, Google et Meta « a plus que doublé entre 2017 et 2021 pour s’établir à environ 72 térawattheures (TWh) ».

Par exemple, pour Meta, la consommation des datacenters était de 14,975 TWh en 2023, contre 6,966 TWh en 2020. Elle a donc quasiment doublé en trois ans.

« On devrait parler davantage de climatisation »…

Dans un article publié sur MIT Review, Casey Crownhart (journaliste spécialisée sur le climat et l’énergie) explique que l’on « devrait parler davantage de climatisation ». Elle met cette problématique (bien moins médiatisée) en balance avec la consommation des datacenters largement plus présente dans les débats. Avec ce sous-titre volontairement provocateur : « oubliez les datacenters, la climatisation est la véritable bête noire »

Elle commence par rappeler le cercle vicieux de la climatisation et du réchauffement climatique : « À mesure que les températures augmentent, le besoin en refroidissement augmente. De plus en plus de centrales électriques à combustibles fossiles sont alors mises en service pour répondre à cette demande, augmentant ainsi la température de la planète ».

…qui représente 2 000 TWh, et plus 5 000 TWh en 2050 ?

Selon une étude publiée mi-2024 par l’organisation à but non lucratif Our World in Data (qui travaille en partenariat avec l’université d’Oxford), sur l’année 2022 « la climatisation représentait 7 % de l’électricité mondiale et 3 % des émissions de carbone ». Sur la base d’une consommation mondiale de 29 000 TWh en 2022, la climatisation représenterait un peu plus de 2 000 TWh. À mettre en face des 460 TWh des datacenters.

Selon une projection de l’Agence internationale de l’énergie (IEA, une organisation internationale fondée à l’OCDE), le nombre de climatiseurs devrait fortement augmenter dans les années à venir. De 2 milliards d’unités à la fin des années 2010, elle prévoit près de 3 milliards en 2030 et plus de 5 milliards en 2050. À ce moment-là, la consommation électrique pourrait grimper entre 3 500 et 5 000 TWh.

La Chine dope la croissance, l’Europe n’est pas en reste

Comme le rappelle Le Monde, les évolutions sont variables selon les continents : « Le nombre de ménages africains équipés en climatisation n’a enregistré qu’une très faible hausse au cours des vingt dernières années, passant de 4 % à 6 % aujourd’hui. Dopée par la Chine, l’Asie a en revanche vu son taux d’équipement exploser de 19 % à 47 % sur la même période ». En Europe, la proportion de ménages équipés d’une climatisation pourrait doubler et atteindre 40 % (55 % en France) d’ici 2050.

Les climatiseurs, contrairement aux datacenters, ont tendance à s’allumer à peu près en même temps dans une zone. « Dans certaines régions des États-Unis, par exemple, les climatiseurs peuvent représenter plus de 70 % de la demande d’énergie résidentielle aux moments où le réseau est le plus sollicité », affirme Casey Crownhart. Les climatiseurs sont répartis un peu partout alors que les datacenters concentrent la consommation en certains points précis (nécessitant des lignes dédiées). Signalons aussi que certains datacenters ont recours à la climatisation.

Notre consœur termine quand même par une bonne nouvelle : « nous assistons à des innovations dans la technologie de refroidissement ». Elle explique que certains proposent par exemple un stockage de l’énergie pour se recharger lorsque l’énergie est disponible à bas coût, et de nouvelles technologies de refroidissement. Cela ne suffira certainement pas à combler la hausse prévue de la consommation de la climatisation.

  •  

☕️ Datacenter : iliad finalise la vente de 50 % d’OpCore à InfraVia

L’acquisition de 50 % du capital d’OpCore par le fonds d’infrastructure français InfraVia est désormais finalisée. « À travers ce partenariat, le Groupe iliad et Infravia vont doter OpCore d’une structure financière à même de libérer ses perspectives d’hypercroissance par le développement de nouveaux datacenters de plusieurs centaines de mégawatts en France et en Europe. Plusieurs projets de construction sont déjà en cours », indiquent les deux entreprises, déjà partenaires de longue date dans les investissements autour de la fibre, dans un communiqué commun.

L’opération, initialement annoncée le 4 décembre dernier, valorise l’entreprise à hauteur de 860 millions d’euros. Elle confère à OpCore (anciennement Scaleway Datacenter) une structure financière et un accès à de nouveaux fonds propres qui doivent permettre à l’entreprise d’aller plus facilement lever de la dette bancaire pour financer la création de ses futurs centres de données. Elle permet dans le même temps à iliad de réduire son endettement, sans perdre le contrôle d’une activité considérée comme stratégique.

« Nous allons investir avec notre partenaire InfraVia 2,5 milliards d’euros dans notre plateforme de datacenters OpCore pour devenir la première plateforme indépendante européenne », promettait à cette occasion Thomas Reynaud, directeur général du groupe iliad.

En France, OpCore revendique à ce stade plus de 50 MW de capacités opérées à ce jour sur cinq datacenters en région parisienne, ainsi que deux en région lyonnaise et un en région marseillaise, commercialisés sous la marque Free Pro.

  •