↩ Accueil

Vue lecture

Clearview : outil de reconnaissance faciale tourné dès l’origine contre les migrants

Qui aurait pu prévoir ?
Clearview : outil de reconnaissance faciale tourné dès l’origine contre les migrants

Dès la création de l’entreprise en 2017, le co-fondateur de Clearview, Hoan Ton-That, avait en tête la reconnaissance faciale des immigrants et la surveillance des frontières étasuniennes. L’entreprise s’appuie sur des milliards d’images récupérées sur Internet, très souvent sans aucun consentement. Elle a aussi essayé de récupérer des millions de données de police comprenant des photos de suspects.

L’entreprise américaine Clearview est connu pour son web scraping sauvage pour obtenir des milliards d’images, ceci à fin de créer un logiciel proposé aux forces de l’ordre pour résoudre des enquêtes criminelles. Sur son site web, elle propose aux autorités d’ « exploiter le pouvoir de la reconnaissance faciale dans les enquêtes criminelles ».

Ses méthodes de scraping ont été reconnues illégales en Europe par la CNIL, mais aussi par ses homologues britannique, grecque, italienne et néerlandaise, entre autres. En tout, ces autorités de contrôle ont prononcé un peu plus de 100 millions d’amendes, sans pour autant avoir les moyens de contraindre l’entreprise de payer.

Du côté étasunien, un juge s’est prononcé le 20 mars dernier sur un règlement unique de class-action sans compensation financière immédiate et spécifique pour les victimes. Mais ce règlement pourrait, à terme, mener à un fond de compensation basé sur la valeur de Clearview et atteindre 23% de celle-ci, ce qui équivaudrait à 51,75 millions de dollars si on prend la valeur actuelle de l’entreprise.

Un pitch pour le contrôle aux frontières dès 2017

Le co-fondateur de l’entreprise, Hoan Ton-That, a, dès la création de l’entreprise en 2017, présenté le projet de Clearview comme une technologie de surveillance des frontières étasuniennes, selon une enquête du média américain Mother Jones.

Dans un email obtenu par Mother Jones et envoyé à des partenaires commerciaux en mars 2017, alors que l’entreprise n’avait pas encore adopté le nom de Clearview, il proposait un « pitch sur les patrouilles aux frontières ». Il y expliquait vouloir convaincre le gouvernement fédéral américain d’intégrer à ses caméras de surveillance des frontières son logiciel pour utiliser la « détection des visages » sur les immigrants entrant aux États-Unis.

Celui qui a récemment laissé sa place de CEO à un proche de Donald Trump est pourtant lui-même un immigrant venant d’Australie, tout en se réclamant d’une descendance royale vietnamienne. Après des études à San Francisco, « il s’est ensuite rapproché des néoréactionnaires de la Silicon Valley qui ont adopté une vision technocratique et d’extrême droite de la société », commente Mother Jones, et est devenu un « partisan inconditionnel de Donald Trump ». L’entreprise a été financée, dès ses débuts, par Peter Thiel.

Dans son pitch, Hoan Ton-That proposait de comparer les images des étrangers venant aux États-Unis avec des photos de suspects pour déterminer s’ils avaient déjà été arrêtés dans ce pays, selon le média. Récemment, 404 Média révélait que l’entreprise avait dépensé près d’un million de dollars en 2019 pour acheter « 690 millions de dossiers d’arrestation et 390 millions de photos d’arrestation » à une entreprise de renseignement nommée Investigative Consultant.

Surveillance des réseaux sociaux des migrants

Toujours dans cette présentation, l’ancien CEO de Clearview proposait d’analyser les médias sociaux des personnes migrantes pour connaître leur « sentiment à l’égard des États-Unis ». Cette proposition rappelle le système appelé « Catch and Revoke » que le secrétaire d’État des États-Unis, Marco Rubio, veut mettre en place afin de traquer les étudiants étrangers et révoquer leurs visas.

Hoan Ton-That proposait d’analyser les médias sociaux des migrants à la recherche de « messages disant “Je déteste Trump” ou “Trump est une puta” » et de cibler les personnes ayant des « affinités avec des groupes d’extrême-gauche », en donnant comme seul exemple UnidosUS, « l’une des plus grandes organisations hispaniques de défense des droits civiques du pays », explique Mother Jones.

  •  

Comment un simple tweet a fait tanguer les marchés à hauteur de 2 000 milliards de dollars

Down Rodeo
Comment un simple tweet a fait tanguer les marchés à hauteur de 2 000 milliards de dollars

Un simple tweet, publié par un compte X « certifié », a mis le feu aux marchés lundi, entraînant une hausse momentanée de quelque 2 000 milliards de dollars de la capitalisation boursière mondiale. L’incident, survenu dans un contexte de fébrilité exceptionnel, souligne à quel point les marchés restent vulnérables à des tentatives de manipulation délibérées.

Plus volatil, tu meurs. Sur les forums spécialisés comme sur les réseaux sociaux, l’annonce d’une embellie s’est propagée comme une traînée de poudre lundi après-midi (heure de Paris) : après trois jours de baisse continue, l’heure du rebond est arrivée, et les indices repartent à la hausse ! Pendant vingt minutes, une forme d’euphorie gagne les investisseurs.

Entre le moment où la contagion a débuté et celui où le feu de paille s’est éteint, les places boursières ont regagné lundi l’équivalent de quelque 2 000 milliards de dollars de capitalisation perdus depuis le 3 avril et l’annonce de la mise en place des droits de douane exceptionnels décidés par Donald Trump. Avant de les reperdre, tout aussi rapidement. Que s’est-il donc passé ?

Une interview détournée

Le phénomène débute avec un tweet massivement relayé par de nombreux comptes présentant des affinités avec les thématiques de l’investissement en bourse ou des cryptomonnaies. Écrit tout en majuscules, il affirme : « Trump envisage une pause de 90 jours dans la mise en place des droits de douane pour tous les pays sauf la Chine ». Souvent, il est assorti d’un nom propre, Hassett, en référence à Kevin Hassett, le conseiller économique de Donald Trump à la Maison-Blanche.

Une heure plus tôt, la question d’une possible pause dans la mise en œuvre des droits de douane lui avait bien été posée au micro de Fox News, mais Kevin Hassett avait alors botté en touche, indiquant que le président déciderait… ce qu’il déciderait.

Une intox particulièrement virale

C’est cette déclaration, plutôt prudente, qui semble avoir servi de point de départ à la diffusion d’une fausse information. D’après le déroulé retracé par NPR, la fake news aurait d’abord été propagée par un compte X baptisé Hammer Capital, et doté de la coche bleue (accessible en souscrivant un abonnement payant) qui permet de disposer de la mention « certifié » à côté de son pseudonyme et offre une portée supérieure aux messages. Le compte initial affiche environ 1 100 followers, mais la fausse information gagne rapidement en visibilité grâce au relais de nombreux autres comptes.

Quelques minutes plus tard, elle gagne une nouvelle caisse de résonance : le message est repris par le compte @DeItaone, qui compte pour sa part quelque 850 000 abonnés, et adopte « Walter Bloomberg » comme pseudonyme sur le réseau social X.

Officiellement, le compte n’a aucun lien avec la célèbre agence d’actu financière Bloomberg, mais il relaie fréquemment les alertes de cette dernière, ce qui explique vraisemblablement sa popularité. Le flux de dépêches de Bloomberg est très prisé des investisseurs particuliers, dans la mesure où il permet d’être alerté très en avance de phase d’éventuelles informations susceptibles d’influencer la bourse, mais il est payant (et facturé très cher).

Une caution journalistique

À ce stade, ni Bloomberg, ni la Maison-Blanche, ni Fox News n’ont confirmé la soi-disant pause sur leurs propres canaux, et même si la rumeur a déjà entraîné un début de hausse sur les marchés, son effet reste encore limité. Le véritable déclencheur intervient peu après 16 heures (heure de Paris), quand CNBC relaie l’intox – via son bandeau d’informations écrites – sur son direct. Cinq minutes plus tard, l’agence Reuters envoie à son tour une dépêche, qui confère, aux yeux de nombreux investisseurs, une légitimité à l’information… jusqu’à ce que la Maison-Blanche démente.

« Alors que nous suivions l’évolution du marché en temps réel, nous avons diffusé des informations non confirmées dans une bannière. Nos reporters ont rapidement corrigé l’information à l’antenne », précise une porte-parole de CNBC au Wall Street Journal. « La Maison-Blanche a démenti ces informations. Reuters a retiré cette information erronée et regrette son erreur », réagit Reuters dans la même veine.

CNBC a démenti vers 16h33 (heure de Paris)

Immédiatement, les investisseurs qui avaient acheté des titres ou des fonds cotés pour essayer de profiter de la hausse s’extraient du marché, provoquant la fin de l’embellie. Dans le lot, d’aucuns s’estiment toutefois heureux : la hausse a été si fulgurante que celui qui a acheté et vendu au bon moment a pu, en quelques minutes, réaliser un gain à deux chiffres.

La martingale est d’ailleurs si belle qu’elle devrait, en théorie, motiver l’ouverture d’une enquête, notamment aux États-Unis, où Donald Trump a récemment renforcé son pouvoir de contrôle sur le gendarme de la bourse, la SEC.

  •  

☕️ Avec son modèle Nova 1.1, Amazon permet de générer des vidéos jusqu’à 2 min

En décembre dernier, Amazon lançait sa nouvelle famille de modèles d’IA générative Nova. On y trouvait cinq variantes : Micro, Lite, Premier, Canvas et Reel, tous conçus pour une finalité spécifique. Le modèle principal et multimodal Premier est actuellement le plus grand modèle de l’entreprise. Micro est par exemple beaucoup plus petit et ne prend en charge que le texte.

Reel, lui, était conçu pour permettre la génération de vidéos d’un maximum de 6 secondes, à partir d’un texte et/ou d’images. Amazon promettait alors une extension de cette durée à 2 min dans le courant 2025, dont acte.

Nova Reel 1.1 est disponible depuis Amazon Bedrock et permet effectivement de générer des vidéos d’une durée maximale de 2 min. Dans son mode automatisé, la société a recours à une petite « astuce » : ces 2 minutes sont composées de plans de 6 secondes. Toutefois, Reel 1.1 est capable de maintenir « un style cohérent d’un plan à l’autre », selon Amazon. Dans ce mode, l’invite peut grimper jusqu’à 4 000 caractères, mais aucune image n’est acceptée en entrée.

Le modèle peut également fonctionner en mode manuel. Dans ce cas, on peut envoyer une invite – texte ou images cette fois – spécifique pour chaque plan. Attention cependant, la limite de caractères descend à 512, et la définition des images ne peut pas dépasser 1 280 x 720.

Le tarif du service est le même que pour la première version, avec une facturation de 0,08 dollar par seconde de vidéo générée.

  •  

☕️ Le patron de Shopify oblige ses équipes à prouver qu’une tâche ne peut être faite par IA

Dans un memo rendu public sur X, le directeur général de Shopify Tobi Lutke a déclaré modifier l’approche de son entreprise en termes de ressources humaines.

Il intime à ses équipes de prouver que des tâches ne peuvent être réalisées à l’aide de l’intelligence artificielle avant de demander une augmentation de ressources ou d’équipes.

Et de préciser que l’usage de l’IA est une « attente fondamentale » envers les équipes de Shopify, dans la mesure où elle aurait « multiplié » la productivité de ceux qui l’utilisent.

Comme le relève CNBC, la directive est formulée alors que les entreprises du numérique investissent des milliards de dollars dans le développement de l’intelligence artificielle, en même temps qu’elles licencient régulièrement. 


En 2024, selon le décompte de Layoffs.fyi, 152 000 postes ont été supprimés dans 549 entreprises de la tech.

Chez Shopify, les équipes totalisaient 8 100 personnes au mois de décembre, contre 8 300 plus tôt en 2024. L’entreprise avait supprimé 14 % de ses équipes en 2022 et 20 % en 2023.

  •  

Des associations demandent un débat sur la création des datacenters en France

Stockera, stockera pas
Des associations demandent un débat sur la création des datacenters en France

Dans le cadre du projet de loi de simplification de la vie économique, un groupe d’associations appellent les députés à supprimer l’article 15, qui faciliterait la construction de centres de données, pour laisser le temps d’organiser un débat citoyen sur la multiplication de ces entrepôts.

De ce 8 avril jusqu’à vendredi 11 avril, les députés examinent le projet de loi « de simplification de la vie économique ». De mesure de simplification du quotidien des très petites entreprises à la simplification des démarches pour accéder aux marchés publics, le texte prévoit une variété de mesures, dont la facilitation de l’obtention de licences IV dans les petites villes.

Mais son article 15, qui vise à faciliter la construction de centres de données, inquiète la Quadrature du Net, le collectif marseillais le Nuage était sous nos pieds et la coalition Hiatus, qui réunit une vingtaine d’associations françaises aux mandats variés. Ils appellent les députés à soutenir un moratoire de deux ans « sur la construction des plus gros data centers » en France, le temps d’organiser un débat public.

Début février, en amont du Sommet sur l’intelligence artificielle organisé à Paris, le Premier ministre avait en effet annoncé l’identification de 35 sites industriels déclarés propices à l’installation de centres de données, à la fois en termes de surface foncière, de disponibilité et d’accès à l’énergie. Matignon précisait que les surface allaient de « 18 à 150 hectares et plus », pour une surface totale de l’ordre de 1 200 hectares.

« Projet d’intérêt national majeur »

Or, l’article 15 du projet de loi de simplification de la vie économique permettrait précisément d’accorder le statut de « projet d’intérêt national majeur » (PINM) à des centres de données de ce genre. L’intérêt pour leurs porteurs : accélérer l’implantation des bâtiments et les procédures – de gestion des documents d’urbanisme, de raccordement au réseau électrique, de reconnaissance de raisons impératives d’intérêt public majeurs.

Créé dans la loi sur l’industrie verte de 2023, le statut de « projet d’intérêt national majeur » (PINM) introduit dans le code de l’urbanisme a en effet été pensé pour faciliter l’implantation de projets industriels dans le pays. En juillet 2024, il a été accordé par décret à plusieurs projets, souvent liés à l’industrie numérique : une usine de fabrication de cellules et modules photovoltaïques de la société Holosolis, une de production de panneaux photovoltaïques de la société Carbon, une usine Eastman de recyclage moléculaire des plastiques, une usine Gravithy de production de minerai de fer réduit et d’hydrogène et un site d’extraction et de transformation de lithium d’Imerys, dans l’Allier.

Moratoire de deux ans pour une convention citoyenne

L’un des problèmes que pointent les associations : le statut PINM permettrait notamment de déroger à l’obligation de protection des espèces protégées, alors que la multiplication de data centers pose de multiples enjeux environnementaux de bétonisation des sols et de concurrence dans l’usage des terres et de l’eau.

À l’heure actuelle, la France compte environ 315 data centers, dont la grande majorité est concentrée en Île-de-France (la région concentre 60 % de la puissance de la capacité nationale, selon Knight Frank), suivie par Marseille et la région PACA, où aboutissent 18 câbles sous-marins.

Détaillant l’empreinte environnementale de ces infrastructures, la Quadrature du Net et ses partenaires, rappellent que les hyperscalers, ces data centers extrêmement grands poussés par les acteurs états-uniens du numérique, recourent massivement à l’eau pour refroidir leurs serveurs. Google a ainsi révélé avoir consommé 28 milliards de litres d’eau en 2023, dont les deux tiers d’eau potable, suscitant de telles tensions que le Chili a freiné l’un de ses projets.

Les associations notent que l’expansion de ces projets en France, y compris lorsqu’elle est réalisée par étapes, comme dans la ville de Wissous, créent déjà des oppositions au niveau local. Enfin, elles interrogent les effets de ces édifices en termes de création d’emploi, un enjeu sur lequel le sociologue Clément Marquet revenait à notre micro.

En écho aux experts de l’ADEME, qui soulignent la nécessité de planifier et réguler le déploiement des centres de données, les associations incitent les députés à rejeter l’article 15 du projet de loi en cours de discussion. Elles demandent aussi un moratoire sur la construction des plus gros data centers, le temps de permettre à « une convention citoyenne de penser les conditions d’une maîtrise démocratique des data centers ».

  •  

Alertes sur les sites GenAI : pourquoi notre extension affiche-t-elle des faux positifs ?

Ça Bloom ?
Alertes sur les sites GenAI : pourquoi notre extension affiche-t-elle des faux positifs ?

Next utilise un filtre de Bloom pour afficher des alertes sur les médias utilisant de l’IA générative pour tout ou partie de ses articles. Comment fonctionne notre algorithme de détection et pourquoi y a-t-il des faux positifs ? On vous explique.

Notre extension Chrome et Firefox pour alerter les visiteurs des sites d’information utilisant l’IA générative pour tout ou partie de leurs articles utilise une liste de plus de 3 000 noms de domaines identifiés « à la main et de visu » (sans recours à des outils de vérification algorithmique et automatisé) par notre journaliste Jean-Marc Manach. Le code source est disponible sur GitHub.

Cachez cette liste que je ne saurais voir…

Nous ne souhaitons pas diffuser publiquement la liste des domaines (et des entreprises), pour plusieurs raisons que nous avons déjà expliquées dès la première partie de notre enquête :

« Nous ne voulons pas, d’une part, que cette base de données puisse aider ceux qui voudraient améliorer leurs générateurs d’articles automatisés, et qui se targuent de ne pas être reconnus comme GenAI (nous y reviendrons). Nous ne voulons pas non plus faire de « name and shame » et mettre sur le même plan des auto-entrepreneurs SEO ayant créé quelques sites de façon opportuniste et les entreprises (y compris individuelles) en ayant créé plusieurs dizaines ».

Nous avons donc utilisé une méthode d’obfuscation pour masquer la liste. Un développeur de moji – Hasnaine – nous a grandement épaulés pour cette tâche. Il a développé le code de cette partie de l’extension, ainsi qu’un script pour transformer notre liste de manière irréversible. La méthode utilise un filtre de Bloom, mais qu’est-ce que c’est et qu’est-ce que cela implique ?

Comme l’explique Bioinfo-fr, « le filtre de Bloom ne vous permet pas vraiment de “stocker” des données à proprement parler ; le filtre est là pour vous permettre de tester l’appartenance d’un élément à un ensemble de données ». Parfait, c’est exactement ce que l’on cherche.

Contre les faux positifs, la liste blanche

Un filtre de Bloom est une structure probabiliste. Dans la pratique, c’est un tableau de n bits qui est initialement à 0 sur toutes ses entrées. « Nous allons utiliser plusieurs fonctions de hachage indépendantes qui retourneront une suite de bits correspondant à des adresses mémoires : au lieu d’effectivement stocker les données, on ne stockera ainsi que quelques bits d’information », explique Bioinfo-fr.

L’exemple parle du stockage de séquences ADN (logique pour un site dédié à la biologie), mais cela fonctionne à peu près pour n’importe quoi. L’algorithme a deux résultats possibles lors d’un test : l’élément est probablement dans la liste, ou il n’est pas présent (cette fois-ci avec certitude), comme le résume Wikipédia :

« Plus précisément, un test d’appartenance renvoie soit « peut-être dans l’ensemble » ou « assurément pas dans l’ensemble ». Dit autrement, il n’y a jamais de faux négatif mais il peut y avoir des faux positifs. »

Il a donc l’avantage de ne pas produire de faux négatif (un site qui serait dans la liste, mais non identifié comme tel). Toutefois, il a l’inconvénient de générer des faux positifs. Et plus la liste d’éléments de base est grande, plus le risque de faux positifs augmente. Raison pour laquelle certains sites sont parfois identifiés à tort par notre extension.

Un faux positif arrive donc lorsque l‘algorithme identifie à tort un site comme étant « peut-être » dans notre liste, quand bien même il n’y figure pourtant pas. Pour contrer cette problématique inhérente au fonctionnement du filtre de Bloom, nous avons mis en place depuis quasiment le début une liste blanche d’URL à ne pas identifier.

Nous tâchons d’ajouter au plus vite les éléments dans notre liste pour corriger les faux positifs quand ils nous sont signalés. Depuis peu, l’application télécharge sa liste blanche sur les serveurs de Next, ce qui évite d’avoir à la pousser manuellement à chaque nouvelle mise à jour (encore à déployer sur Chrome, ça arrive).

Notre algorithme, côté technique

Pour en revenir à notre filtre de Bloom, nous vous donnons les principaux paramètres de notre formule pour calculer la taille de notre tableau (en bits), à partir du nombre d’éléments et du taux de faux positif spécifié. Attention, plus le taux est faible, plus la taille du tableau est importante, il faut donc choisir avec précaution ce paramètre.

const expectedElements = strings.length;
const falsePositiveRate = 0.00000001; 
const size = Math.ceil(-(expectedElements * Math.log(falsePositiveRate)) / (Math.log(2) ** 2));
const numHashes = Math.max(1, Math.ceil((size / expectedElements) * Math.log(2)));

Une fois la taille de notre tableau obtenu, nous calculons le nombre de hachages pour notre filtre de Bloom.

L’influence de la précision

Voici quelques résultats en fonction de la précision (falsePositiveRate) demandée sur les faux positifs (il s’agit ici de quelques exemples, d’autres combinaisons sont possibles) :

1 % (0.01):

  • Taille : 32 772 bits
  • Nombre de fonctions de hash : 7

0,01 % (0.0001) :

  • Taille : 65 543 bits
  • Nombre de fonctions de hash : 14

0,0001 % (0.000001) :

  • Taille : 98 314 bits
  • Nombre de fonctions de hash : 20

0.000001 % (0.00000001) :

  • Taille : 131 086 bits
  • Nombre de fonctions de hash : 27

Afin de limiter le nombre de faux positifs, nous avons augmenté la précision dans la dernière mise à jour de notre extension.

  •  

Meta accusée d’avoir triché sur les performances de ses modèles Llama 4

Sous son meilleur jour
Meta accusée d’avoir triché sur les performances de ses modèles Llama 4

L’entreprise a été épinglée hier pour des résultats de Llama 4 peu en phase avec ce qu’elle proclamait avoir obtenu dans plusieurs benchmarks. Une déception générale semble se manifester sur l’utilisation des modèles en conditions réelle, tandis que des soupçons de triche apparaissent. Meta nie avoir voulu tromper la communauté.

Meta a lancé samedi sa nouvelle famille de modèles de fondation Llama 4. Trois variantes ont été présentées, selon les cas d’usage envisagés : Scout, Maverick et surtout Behemot. Ce dernier, avec ses 2 000 milliards de paramètres, 288 milliards de paramètres actifs et 16 experts, est un colosse dont les résultats seraient pratiquement au niveau de Gemini 2.5 Pro, alors que ce dernier « raisonne » et pas Llama 4.

Pourtant, si plusieurs personnes ont commencé à s’interroger dès le dimanche, une polémique est apparue progressivement hier. Au centre de l’attention, le modèle intermédiaire Maverick, dont le score sur LLArena (1 417) ne semble pas se refléter dans les tests réalisés par un nombre croissant de chercheurs et autres experts.

Meta épinglée par LLArena

Dans son communiqué, Meta indiquait discrètement avoir utilisé une version expérimentale du modèle pour réaliser ses tests. La version mise à disposition samedi n’est cependant pas celle utilisée sur LLArena. Au point que l’équipe du site s’est fendu d’un message sur X hier après-midi pour pester contre Meta :

« L’interprétation de notre politique par Meta ne correspond pas à ce que nous attendons des fournisseurs de modèles. Meta aurait dû préciser que « Llama-4-Maverick-03-26-Experimental » était un modèle personnalisé visant à optimiser les préférences humaines. En conséquence, nous mettons à jour nos politiques de classement pour renforcer notre engagement en faveur d’évaluations équitables et reproductibles, afin d’éviter que ce genre de confusion ne se reproduise à l’avenir ».

Hier, une rumeur a également pris de l’ampleur : Meta aurait triché. Relevant qu’une publication un samedi était étrange (nous l’avions effectivement signalé), plusieurs personnes affirment que Meta aurait spécifiquement entrainé ses modèles pour les benchmarks, signale The Verge. Le cas serait semblable à celui des constructeurs de smartphones accusés d’optimisations pour les benchmarks pour mieux mettre en avant les performances de leurs produits. Performances que l’on ne retrouvait pas en utilisation réelle.

Meta nie tout en bloc

Au point qu’Ahmad Al-Dahle, ingénieur en chef sur l’intelligence artificielle chez Meta, a fini par prendre la parole hier soir pour démentir. « Comme nous avons lancé les modèles dès qu’ils ont été prêts, nous nous attendons à ce qu’il faille plusieurs jours pour que toutes les implémentations publiques se mettent en place. Nous continuerons à travailler à la correction des bogues et à l’intégration des partenaires », a-t-il déclaré pour expliquer la variabilité des résultats. Explication qui a valu au responsable quelques moqueries.

Concernant les accusations de tricherie, il réfute en bloc : « Nous avons également entendu dire que nous nous étions entraînés sur des ensembles de tests – ce n’est tout simplement pas vrai et nous ne ferions jamais cela. Nous pensons que les modèles Llama 4 représentent une avancée significative et nous sommes impatients de travailler avec la communauté pour libérer leur potentiel ».

Les commentaires en réponse font souvent état de performances médiocres, tout particulièrement dans Meta AI, censé utiliser Llama 4 dans WhatsApp, Threads et Facebook. Quelques jours avant la publication des nouveaux modèles, The Information indiquait que leur genèse avait été particulièrement complexe. Le lancement aurait été repoussé à plusieurs reprises à cause de performances inférieures aux attentes de l’entreprise.

  •  

Free lance sa Freebox Pop S « 100 % Internet » : 5 Gb/s et Wi-Fi 7 pour 24,99 € par mois

Elle a popé un mardi, quelle surprise :D
Free lance sa Freebox Pop S « 100 % Internet » : 5 Gb/s et Wi-Fi 7 pour 24,99 € par mois

Une nouvelle Freebox est dès à présent disponible : la Freebox Pop S, en réponse à la Pure Fibre de Bouygues Telecom. Pour 24,99 euros par mois, vous avez un accès à Internet jusqu’à 5 Gb/s partagés, du Wi-Fi et… aucun service de télévision.

Les amateurs de la marque l’auront certainement compris à la lecture du titre de cette actualité : la Freebox Pop S est à la Freebox Pop ce que la Delta S était à la Delta : « une offre 100 % Internet sans TV ». La Freebox Pop S ne propose donc qu’un accès à Internet (en fibre optique FTTH ou en xDSL), sans service supplémentaire. Il s’agit évidemment de venir jouer sur les platebandes de la box Pure Fibre de Bouygues Telecom.

Jusqu’à 5 Gb/s partagés et 900 Mb/s en upload

La Freebox Pop S reprend le boîtier de la Freebox Pop et propose donc « des débits Fibre jusqu’à 5 Gb/s partagés en téléchargement et jusqu’à 900 Mb/s en envoi ». Le mot important est « partagés », puisque la Freebox Pop ne dispose pas de port à 5 ou 10 Gb/s (ni de cage SFP+).

Pour atteindre les 5 Gb/s, il faut combiner plusieurs solutions : 2,5 Gb/s sur un port Ethernet, 1 Gb/s sur deux autres ports Ethernet et enfin 0,5 Gb/s en Wi-Fi, soit 5 Gb/s au total. Sur une seule machine, vous ne pouvez pas dépasser les 2,5 Gb/s par contre.

Avec sa Pure Fibre, Bouygues Telecom propose pour rappel un port 10 GbE (Ethernet, via un connecteur RJ45). Nous avions déjà détaillé les différents ports multi-GIG des principales box des FAI dans un précédent dossier.

Wi-Fi 7 jusqu’à 2,2 Gb/s

Comme la Freebox Pop depuis mars 2024, la version S dispose du Wi-Fi 7 avec « jusqu’à 2,2 Gb/s, soit des débits jusqu’à 2 fois plus rapides que le Wi-Fi 6). Sur demande, un répéteur Wi-Fi 7 est proposé par le fournisseur d’accès. Bouygues Telecom a pour rappel attaqué Free devant le tribunal de commerce de Paris sur son Wi-Fi 7, qui n’est pas certifié par la Wi-Fi Alliance.

Pas de boitier TV, ni d’appels vers les mobiles en France

La Freebox Pop ne dispose pas de Player (le boitier multimédia) et ne permet pas d’accéder à des chaines de télévision. Oqee et Free Foot ne sont pas non plus inclus.

Une autre différence existe entre les deux Freebox Pop : les appels ne sont illimités que vers les fixes en France et les DOM, pas vers les mobiles en France et DOM (c‘est le cas sur Freebox Pop).

24,99 euros par mois, sans engagement, avec Free Family

« La nouvelle offre Freebox Pop S est une exclusivité web au prix de 24,99 euros par mois seulement. Comme toutes les offres Freebox, elle est sans engagement », ajoute enfin l’opérateur. L’option Free Family est disponible, permettant d’avoir jusqu’à quatre lignes mobiles à 9,99 euros par mois pendant 1 an, puis à 15,99 euros par mois (sans engagement), au lieu de 19,99 euros par mois.

La Freebox Pop S est donc à 15 euros de moins que la Freebox Pop classique. Cette dernière bénéficie d’une remise de 10 euros par mois la première année, ramenant la différence à 5 euros pendant 12 mois. Nous mettrons à jour notre tableau comparatif dans la journée. Dans les deux cas, les frais de résiliation sont de 59 euros et ceux de mise en service de 49 euros.

« Les abonnés existants éligibles seront informés par email ou directement dans leur Espace Abonné de la possibilité de changer pour la Freebox Pop S », indique le fournisseur d’accès, sans plus de détails.

Par rapport à la Pure Fibre, la Freebox Pop S est donc un euro plus cher par mois, avec un débit inférieur. Elle propose toutefois des appels vers les fixes et du Wi-Fi 7, en plus de l’écosystème Free (l’application Freebox Files par exemple).

Freebox Pop, Révolution et Delta passent à 900 Mb/s en upload

Enfin, « Free booste la connectivité Fibre de ses Freebox : les débits maximum théoriques montants de la Freebox Pop, de la Freebox Révolution et de la Freebox Delta passent à 900 Mbit/s. Ces évolutions se font automatiquement et sans surcoût pour tous les abonnés existants et les nouveaux abonnés ».

C’est la confirmation d’une hausse que certains avaient déjà remarqué depuis mi-mars.

  •  

☕️ Hausse de 20 % des demandes d’autorisation pour des traitements de données de santé

La CNIL explique qu’en 2024 il y a eu 619 demandes d’autorisation pour des traitements de données de santé, ce qui représente une hausse de 20 % par rapport à 2023.

L’autorité chargée de la protection des données en France ajoute que les deux tiers (397) de ces demandes ont reçu une autorisation. Les trois quarts des demandes concernaient des projets de recherche.

À côté d'une patiente âgée, un médecin observe une radio dentaire.

174 dossiers sont des demandes classées sans suite (en baisse de 7 %), la plupart du temps car ce sont des « demandes relatives à des traitements non soumis à formalité préalable, des dossiers incomplets (par exemple ceux relatifs à des projets de recherche pour lesquels l’avis du comité compétent n’a pas été transmis) ou qui sont conformes à un référentiel de la CNIL et ne nécessitent donc pas d’autorisation spécifique ».

La CNIL explique cette légère baisse par une « amélioration de la qualité des dossiers reçus », notamment grâce à « l’accompagnement accru » qu’elle a mis en place.

Et sur ces 619, seulement 3 ont fait l’objet d’un refus de la part de l’autorité. Ceux-ci sont émis « principalement sur les mesures techniques et organisationnelles visant à assurer la sécurité des données comme la pseudonymisation des données et le respect du principe de minimisation ».

  •  

Avec 192 Gb/s et 480 W, le GPMI veut concurrencer le HDMI ou le DisplayPort

Du tout-en-un, manque plus que la version Wi-Fi !
Avec 192 Gb/s et 480 W, le GPMI veut concurrencer le HDMI ou le DisplayPort

Un consortium d’une cinquantaine d’entreprises chinoises planche sur la mise au point d’un nouveau standard d’interface numérique. Baptisé GPMI, il offrirait jusqu’à 192 Gb/s de bande passante et autoriserait une alimentation électrique pouvant atteindre 480 W, soit des performances deux fois supérieures aux meilleurs connecteurs actuels. Un premier processeur est déjà compatible chez HiSilicon.

GPMI, pour General Purpose Media Interface : voilà peut-être le nouvel acronyme qui figurera à l’arrière des écrans de TV ou des moniteurs PC d’ici quelques années. Il désigne un nouveau standard dédié à la transmission de données et d’images, qui viendrait donc directement concurrencer le HDMI et le DisplayPort.

Des performances doublées par rapport aux standards actuels

Le GPMI avance avec deux arguments clés. D’abord, une bande passante capable d’atteindre 192 Gb/s, à comparer aux 80 Gb/s du DisplayPort ou aux 96 Gb/s de la récemment officialisée norme HDMI 2.2. Il intègre ensuite une possibilité d’alimentation électrique, avec une puissance maximale (théorique à ce stade) de 480 W. Là encore, le GPMI doublerait la donne, non pas par rapport au HDMI (qui n’a pas vocation à alimenter ou recharger), mais par rapport à Power Delivery (USB Type-C), qui permet de délivrer jusqu’à 240 W.

Deux connecteurs, Type-B et Type-C. La ligne du bas souligne en bleu la possibilité d’une alimentation électrique

Pour atteindre ce plein potentiel, il faudrait recourir à un connecteur dédié, le GPMI type-B, qui se présente sur un format semblable à celui du HDMI ou du DisplayPort. Le consortium prévoit toutefois une deuxième implémentation via un connecteur USB type-C. Dans ce contexte, les performances seraient divisées par deux, soit tout de même 96 Gb/s et 240 W d’alimentation, comme en USB avec Power Delivery 3.1.

Le standard prévoit par ailleurs un bus secondaire, qui complète le flux principal de transmission pour toutes les opérations de contrôle, ainsi qu’un port de type CEC, pour le contrôle des appareils connectés.

Le connecteur intègre plusieurs ports spécialisés

Un projet encore discret mais déjà bien avancé

Le GPMI et son double connecteur ont récemment fait une apparition sur un salon, repérée par IT Home. S’il était resté relativement discret jusqu’ici, le standard fait l’objet de travaux préparatoires depuis 2019. Et il peut compter sur des soutiens de poids. La Shenzhen 8K UHD Video Industry Cooperation Alliance (SUCA), consortium qui porte le GPMI, réunit en effet un aréopage varié d’industriels avec des grands noms des télécoms (China Mobile, Tencent), des fabricants d’électronique grand public (Haier, Hisense, TCL, Huawei), des acteurs de la télédiffusion et des équipementiers spécialisés.

Dans le lot, on trouve HiSilicon, filiale de Huawei dédiée aux semi-conducteurs, qui développe ses propres processeurs sur base ARM, et dispose déjà, à son catalogue, d’une puce tout-en-un destinée aux marchés des téléviseurs connectés affichant sa compatibilité avec le GPMI, la V660. D’après la SUCA, deux autres puces dotées de la nouvelle interface sont attendues en 2025.

L’alliance SUCA s’est par ailleurs félicitée en novembre dernier d’avoir obtenu le SVID (Standard or Vendor ID) par lequel l’USB Implementers Forum valide la compatibilité de la connectique avec ses propres normes.

Un connecteur dédié au marché chinois ?

Une connectique bidirectionnelle, à très grande bande passante, avec une alimentation électrique suffisante pour alimenter un ordinateur, une console de jeux ou une set-top box, le tout sur un seul et unique câble : le GPMI a sur le papier de quoi devenir le connecteur idéal… s’il s’impose sur le marché. L’USB Type-C le permet aussi dans un moindre mesure avec l’Alternate Mode du DisplayPort annoncé en 2020 (sur de l’USB4).

Or à ce niveau, la SUCA et les industriels concernés ne font pour l’instant pas beaucoup d’efforts pour que le GPMI rayonne hors de leur marché domestique. Le format semble n’avoir été présenté que sur des événements chinois. Les rares documentations accessibles en ligne (à l’image de ce livre blanc chez HiSilicon, accessible uniquement après avoir rempli le formulaire de contact) mettent par ailleurs en avant la prise en charge d’une norme de protection baptisée ADCP, présentée comme une alternative au HDCP, et fonctionnant à l’aide des algorithmes de chiffrement SM3 et SM4, couramment utilisés en Chine.

Face au HDMI (sous licence) et surtout au DisplayPort (sans redevance), il faudra donc attendre de voir quelle est la logique de diffusion adoptée par la SUCA, et surtout dans quelle mesure elle arrive à fédérer un écosystème complet de produits estampillés GPMI, des téléviseurs aux ordinateurs ou aux cartes graphiques. Tout comme il conviendra d’étudier les performances réelles de la transmission et ses exigences en matière de câbles…

  •  

☕️ Aux États-Unis, Meta met officiellement fin à sa vérification des faits

La décision aura fait couler beaucoup d’encre et avait notamment provoqué chez Bloomberg une grande enquête sur les données des notes de communauté. Mais cette fois ça y est : dans quelques heures, le programme de vérification professionnelle des faits de Meta sera officiellement terminé.

Comme nous le rappelions le mois dernier, Mark Zuckerberg avait fait une annonce fracassante sur le sujet. Selon le CEO, cette vérification prenait trop de temps et était trop « politisée », rejoignant en filigrane la grande chasse au « wokisme » tant propulsée par Donald Trump et Elon Musk.

Les logos de Facebook et Meta dans des carrés en 3D sur un fond grisé dégradé
Photo de Dima Solomin sur Unsplash

À la place, Meta applique désormais les mêmes notes de la communauté. Toutes les personnes utilisant Facebook pourront ainsi faire une proposition de note, pour expliquer en quoi le contenu est problématique. Comme sur X, il est recommandé d’ajouter un ou plusieurs liens pour étayer son propos. La validation de la note est ensuite soumise à approbation d’autres membres de la communauté.

Les premières notes devraient apparaitre « progressivement sur Facebook, Threads et Instagram », a indiqué vendredi Joel Kaplan, responsable des affaires mondiales chez Meta. Rappelons une différence majeure entre l’ancien processus de vérification et les notes de la communauté : les publications épinglées par des notes resteront en ligne, ces dernières n’étant là que pour fournir du contexte.

Dans son enquête, basée sur plus d’un million de notes récupérées sur X, Bloomberg reconnaissait plusieurs vertus au système, dont une plus grande réactivité. Cependant, il n’est en rien une solution vraiment efficace de modération à une telle échelle. Surtout, le média critiquait aussi bien que X que Meta en pointant que la rémunération des publications revenait à encourager la viralité, donc à accentuer les problèmes de modération.

Précisons enfin que les changements évoqués ici ne sont pour l’instant valables qu’aux États-Unis. En Europe notamment, rien n’a encore été annoncé.

  •  

☕️ OpenAI : o3 et o4-mini arrivent finalement, GPT-5 repoussé de quelques mois

Alors que l’actualité sur l’intelligence artificielle générative se déchaine avec les nouvelles versions de DeepSeek V3, Gemini 2.5 Pro ou encore le très récent Llama 4, OpenAI annonce du retard du GPT-5.

« Nous allons être en mesure de rendre le GPT-5 bien meilleur que ce que nous pensions au départ. Nous avons également constaté qu’il était plus difficile que nous le pensions de tout intégrer en douceur », a ainsi indiqué Sam Altman, CEO d’OpenAI, dans une publication sur X le 4 avril.

En conséquence, GPT-5 n’arrivera que dans quelques mois, donc avec du retard. Altman ajoute que l’entreprise veut s’assurer qu’elle disposera « d’une capacité suffisante pour répondre à ce [qu’elle prévoit] être une demande sans précédent ».

La société avait expliqué plus tôt dans l’année que son modèle serait disponible pour tous, mais que le degré de précision se ferait en fonction de la formule utilisée. Sans abonnement payant, le niveau d’intelligence sera ainsi « standard ». La formule ChatGPT Plus aura droit à « un niveau d’intelligence plus élevé », tandis que ChatGPT Pro donnera accès au niveau le plus élevé. On ignore concrètement à quoi correspondent ces paliers.

« L’un de nos principaux objectifs est d’unifier nos modèles en créant des systèmes capables d’utiliser tous nos outils, de savoir s’il faut réfléchir longtemps ou non, et d’être utiles pour un large éventail de tâches », précise également Sam Altman. GPT-5 sera un modèle unifié : il sera multimodal et intègrera la voix, Canvas, la recherche approfondie et d’autres outils.

Si GPT-5 sera en retard, il en va autrement des modèles « o ». Contrairement à ce qui avait été indiqué en février, o3 va finalement sortir « dans quelques semaines », accompagné d’un o4-mini. On apprend également qu’un modèle o3-pro est en préparation, sans plus de détails. Aucune précision technique n’a été donnée sur ces futurs modèles de raisonnement.

  •  

Meta dégaine ses Llama 4 multimodaux, dont un Behemot de 2 000 milliards de paramètres

It really kicks
Meta dégaine ses Llama 4 multimodaux, dont un Behemot de 2 000 milliards de paramètres

Dans la longue quête des modèles d’IA générative toujours plus puissants, c’est au tour de Meta de dégainer avec la quatrième version de son Llama. Il est décliné en trois versions, selon le cas d’usage, et tous sont multimodaux. Alors que Meta se lance pour la première fois dans les « mélanges d’experts », l’Europe continue d’être privée des nouveautés.

Meta veut frapper fort avec son modèle Llama 4. Dans son annonce, publiée samedi (c’est la première fois que l’entreprise lance un modèle majeur durant le week-end), Meta explique qu’il a été entrainé sur « de grandes quantités de textes, d’images et de données vidéo non étiquetés » et qu’il dispose d’une « large compréhension visuelle ».

Llama 4 est décliné en trois versions : Scout, Maverick et Behemot. Précisons d’emblée que si les deux premiers sont disponibles, ils ont été distillés depuis Behemot qui, lui, est toujours en cours d’entrainement.

Des paramètres et des experts

Llama 4 Scout est le plus petit modèle, avec 16 experts. Ces derniers représentent des sous-sections spécifiques du modèle, conçues pour traiter des tâches particulières. Ils sont la conséquence de l’approche MoE (Mixture of Experts), utilisée pour la première fois chez Meta. Chaque expert représente un réseau neuronal pouvant être entrainé séparément, permettant un entrainement global du modèle nettement plus rapide, comme l’expliquait déjà Hugging Face fin 2023.

En fonction de la tâche, c’est le modèle qui « décide » ensuite à quel expert envoyer les jetons. Conséquence, si Llama 4 Scout a 109 milliards de paramètres, 17 milliards « seulement » sont actifs en même temps.

Même cas de figure pour Maverick, le modèle principal. Cette fois, le nombre de paramètres est de 400 milliards, mais le modèle dispose de 128 experts, toujours avec la même technique. Comme pour Scout, le nombre de paramètres actifs est de 17 milliards.

Selon Meta, ces deux modèles sont tout simplement les meilleurs modèles multimodaux de leur catégorie respective. Scout fournit ainsi une fenêtre contextuelle de 10 millions de jetons, peut fonctionner sur un seul GPU H100 de NVIDIA et fournit de meilleurs résultats que Gemma 3, Gemini 2.0 Flash-Lite et Mistral 3.1 « dans une large gamme de tests de référence », selon Meta.

Maverick, qui doit devenir le principal modèle poussé par Meta, est présenté comme surpassant GPT-4o et Gemini 2.0 Flash. Sur LMArena, le modèle se classe deuxième avec un score de 1417. Point intéressant, Meta évoque directement DeepSeek, car les résultats obtenus par Maverick sont décrits comme « comparables » au dernier modèle chinois. Selon Meta, Maverick peut fonctionner sur un seul système H100 DGX de NVIDIA.

L’énorme Behemot toujours en formation

Dans la nouvelle trilogie de Meta, Scout et Maverick sont les étudiants. L’enseignant se nomme Behemot, à partir duquel ils ont été distillés. Le modèle porte a priori bien son nom : on ne joue plus du tout dans la même cour.

Ce mastodonte, dont l’entrainement est toujours en cours, affiche la bagatelle de 2 000 milliards de paramètres. Bien sûr, tous ne fonctionnent pas en même temps, mais le modèle, doté de 16 experts, dispose quand même de 288 milliards de paramètres actifs. De fait, il est présenté comme le modèle « de pointe » pour tout ce qui touche aux mathématiques, au multilinguisme et aux images. Pour économiser les coûts, la distillation du modèle a été réalisée pendant la phase de pré-entrainement, précise Meta.

Évidemment, les performances d’un tel modèle sont annoncées comme supérieures à tout ce qui existe. Ou presque. Dans le tableau donné par Meta, on peut voir que les notes obtenues par son Behemot sont largement supérieures globalement que les modèles concurrents. Mais si Meta a fait combattre son modèle face à Claude Sonnet 3.7 et GPT-4.5 – qui sont effectivement les dernières versions des modèles – l’entreprise a choisi de se limiter à Gemini 2.0 Pro, alors que la 2.5 est disponible.

How to train a behemot

L’entrainement d’un tel modèle aurait « constitué un défi de taille ». Pendant celui de Maverick, Meta dit s’être aperçue de plusieurs problèmes, au point de changer toute sa chaine de traitements post-entrainement. Le réglage fin supervisé (SFT) et l’optimisation des préférences directes (DPO) ont ainsi été allégés. 50 % des données jugées « faciles » ont été supprimées, en se servant d’autres modèles Llama comme juges. L’étape intermédiaire d’apprentissage par renforcement (RL) est restée entière, bien qu’avec des prompts « plus difficiles ».

Concernant Behemot, Meta a appliqué une version extrême de cette recette, puisque 95 % des données « faciles » ont été élaguées pour la phase SFT. « Nous avons également constaté que l’exécution d’un SFT léger suivi d’un apprentissage par renforcement (RL) à grande échelle produisait des améliorations encore plus significatives dans les capacités de raisonnement et de codage du modèle », affirme Meta.

Même l’étape d’apprentissage par renforcement a nécessité des travaux. L’entreprise dit avoir dû passer par une refonte de son infrastructure : nouvelle conception de la parallélisation MoE pour des itérations plus rapides et un nouveau cadre asynchrone pour l’apprentissage par renforcement. Pour ce dernier, Meta dit avoir développé un système d’allocation flexible des modèles à des GPU distincts. Cette amélioration aurait « multiplié par 10 l’efficacité de l’entrainement », comparé à l’ancienne méthode qui consistait à « empiler tous les modèles en mémoire ».

Meta précise enfin que tous les entrainements de Llama 4 ont été réalisés en précision FP8. Dans le cas de Behemot, l’entreprise s’est servie de 32 000 GPU, avec un niveau de performances de 390 TFLOPS par GPU. La réserve de données, même après le fameux élagage, représentait 30 000 milliards de jetons, plus du double de ce qui avait été utilisé pour Llama 3.

Des réponses « utiles »

Les trois nouveaux modèles annoncés sont « classiques » : ils n’opèrent aucun raisonnement. Les comparaisons sont donc d’autant plus intéressantes, surtout dans le cas de Behemot sur des domaines comme les mathématiques et le développement logiciel. Reste à savoir bien sûr le type de coût qu’un modèle aussi volumineux peut engendrer. Surtout quand la concurrence, notamment DeepSeek-V3-0324, commence à mettre un accent plus prononcé sur l’efficacité.

Meta, en tout cas, indique avoir tout mis en œuvre pour que ses modèles fournissent des réponses utiles et « factuelles ». Toutes les variantes de Llama 4 auraient été réglées pour refuser moins souvent de répondre à des questions plus « litigieuses ». Une précision intéressante, et qui rejoint Anthropic dans sa communication : c’était l’un des changements mis en avant au lancement de Claude Sonnet 3.7 fin février. Deux semaines plus tôt, OpenAI annonçait des changements en ce sens dans la manière d’entrainer ses modèles. On pourrait y voir une influence de xAI et de son Grok, qui se veut effronté dans ses réponses.

« Vous pouvez compter sur [Llama 4] pour fournir des réponses utiles et factuelles sans porter de jugement. Nous continuons à rendre Llama plus réactif afin qu’il réponde à plus de questions, qu’il puisse répondre à une variété de points de vue différents […] et qu’il ne favorise pas certains points de vue par rapport à d’autres », a ainsi déclaré Meta à TechCrunch.

Quid de la disponibilité ?

Techniquement, les nouveaux modèles Llama 4 Scout et Maverick sont disponibles depuis le site dédié et Hugging Face. Plus précisément, ce sont les modèles Llama-4-Scout-17B-16E, Llama-4-Scout-17B-16E-Instruct, et Llama 4-Maverick-17B-128E-Instruct-FP8. Ces modèles alimentent même déjà Meta AI pour WhatsApp, Messenger et Instagram pour tout ce qui touche aux conversations (du moins, sur les conversations non chiffrées de bout en bout). Les nouveaux modèles sont également disponibles dans Azure AI Foundry de Microsoft.

Mais en Europe, la situation est plus complexe. La licence associée aux modèles Llama 4 n’exclut pas les utilisateurs finaux. Ces derniers devraient donc avoir les mêmes capacités sur Meta AI que dans les autres pays où l’assistant est présent. En revanche, les personnes physiques et morales (donc les entreprises) européennes n’ont pas le droit d’accéder aux modèles.

« En ce qui concerne les modèles multimodaux inclus dans Llama 4, les droits accordés en vertu de la section 1(a) de l’accord de licence communautaire Llama 4 ne vous sont pas accordés si vous êtes une personne physique domiciliée dans l’Union européenne ou une société dont le siège social se trouve dans l’Union européenne. Cette restriction ne s’applique pas aux utilisateurs finaux d’un produit ou d’un service qui intègre de tels modèles multimodaux », indique Meta.

On retrouve une fois de plus les tensions entre Meta et l’Europe, l’entreprise ayant largement critiqué cette dernière pour ses « incertitudes réglementaires ». Elle a fustigé plus d’une fois le DMA (notamment à cause de ses abonnements supprimant la publicité), mais s’en est également prise à l’AI Act, main dans la main avec Spotify. Mais en attendant que la situation se détende, malgré un contexte géopolitique toujours plus complexe, ni les entreprises ni les chercheurs européens ne peuvent officiellement mettre la main dessus.

Ajoutons enfin que, dans le reste du monde, les applications et services tirant parti de Llama 4 devront afficher une mention « Built with Llama ».

  •  

Après avoir restructuré la dette, Patrick Drahi chercherait à vendre SFR

Il est pas frais mon poisson ?
Après avoir restructuré la dette, Patrick Drahi chercherait à vendre SFR

D’après le Figaro, Patrick Drahi étudierait sérieusement la possibilité de mettre en vente SFR. Particulièrement complexe sur le plan réglementaire, l’opération conduirait soit à l’arrivée d’un nouvel acteur sur le marché, soit à un retour à trois opérateurs.

L’hypothèse d’une mise en vente de SFR sera-t-elle abordée le 15 avril prochain, date à laquelle le groupe Altice organise avec ses actionnaires et ses créanciers un point d’étape sur la restructuration de sa dette et ses performances sur le quatrième trimestre 2024 ? La question sera certainement posée, mais il n’est pas dit que Patrick Drahi et la direction d’Altice France lâchent le morceau, tant le dossier risque de se révéler complexe.

C’est pourtant l’idée qui revient au goût du jour, suite à la publication, dimanche, d’une enquête du Figaro, selon laquelle SFR serait – officieusement – en quête d’un repreneur. Ironiquement, c’est du nouveau directeur financier d’Orange, Laurent Martinez, que vient la première confirmation évoquée par le Figaro. « Pour la première fois depuis quinze ans dans les télécoms françaises, nous avons un vendeur », aurait ainsi déclaré ce dernier lors d’un échange avec des analystes financiers.

Le bon moment pour vendre ?

La rumeur selon laquelle Drahi envisagerait la vente de SFR n’est pas inédite. Elle revient toutefois dans l’actualité auréolée d’un contexte particulier : le milliardaire vient en effet de réussir le tour de force de restructurer la dette financière de son groupe, sans en perdre le contrôle. Pour y parvenir, il doit toutefois abandonner 45 % d’Altice à ses créanciers, principalement des fonds d’investissement américains, parmi lesquels des géants de la gestion d’actifs comme BlackRock, Elliott Investment Management ou Pacific Investment Management.

Pour atteindre son objectif, Altice a toutefois admis qu’il lui faudrait poursuivre la vente de ses actifs non essentiels. Après plusieurs cessions récentes (Altice Medias, datacenters, La Poste Mobile), c’est désormais la filiale XP Fibre, en charge de l’infrastructure réseau du groupe, qui ferait l’objet de tractations en coulisses…

L’opération doit, selon les propres termes d’Altice, faire retrouver au groupe un niveau d’endettement conforme aux standards du marché, et donc lui redonner des marges de manœuvre pour financer son développement. Elle lui confère également une structure de dette plus saine, nettement plus compatible avec un scénario de reprise que les 24 milliards d’euros qui plombaient les comptes…

Un marché déjà en ébullition

Les trois opérateurs français restants étudieraient déjà très sérieusement la question, indique le Figaro. À grands renforts d’avocats et de banques d’affaires, ils chercheraient à déterminer les différentes modalités de rapprochement envisageables, au regard bien sûr des conditions de marché, mais aussi et surtout du cadre réglementaire, français comme européen.

En admettant qu’Orange, Free ou Bouygues Telecom souhaite se porter acquéreur des activités de SFR, les conditions d’un retour à trois opérateurs sont-elles réunies ? Rien n’est moins sûr, et le projet devrait très certainement prévoir la ventilation des actifs entre les trois, pour limiter les risques d’abus de position dominante. Au 30 septembre dernier, Altice France revendiquait pour mémoire (PDF) 6,174 millions de clients fixes (dont fibre) et 19,515 millions de clients mobiles.

En France, le cas de figure d’un retour à trois opérateurs ne s’est sérieusement présenté qu’une seule fois depuis l’entrée de Free sur le marché : l’hypothèse d’un rapprochement entre Orange et Bouygues Telecom avait longuement défrayé la chronique, avant de finalement achopper en avril 2016.

L’exemple du Royaume-Uni montre toutefois qu’une telle transaction n’est pas impossible : l’Autorité de la concurrence britannique a ainsi donné, en décembre dernier, son feu vert au projet de fusion entre Vodafone et Three, qui permettra au nouvel ensemble de devenir le premier acteur du marché, devant British Telecom et Virgin O2.

  •  

Du Nord de la France à Jakarta, Microsoft a bien arrêté plusieurs projets de data centers

Bubble or not?
Du Nord de la France à Jakarta, Microsoft a bien arrêté plusieurs projets de data centers

Microsoft a récemment arrêté ou reporté certains projets de construction de data centers en Indonésie, au Royaume-Uni, en Australie, aux États-Unis et en France. Alors qu’il y a encore quelques mois, la mode était à la construction d’énorme centres pour l’IA, le géant du numérique planifiait déjà de freiner ses projets.

Microsoft est bel et bien en train de revoir les plans de son installation massive de data centers dans le monde, comme le laissait déjà entendre l’annulation de contrats de location qu’avait divulguée la banque d’investissement TD Cowen.

Espoirs douchés dans le Nord

La petite commune de Quaëdypre du Nord de la France devait accueillir, sur une parcelle d’une vingtaine d’hectares, la création d’un tel centre. Enfin, c’est ce que Microsoft avait laissé entendre en aout dernier, selon La Voix du Nord. En octobre, l’entreprise avait confirmé son intention aux élus des Hauts-de-Flandre, expliquait le même quotidien régional. Deux projets étaient en discussion aussi dans l’Audomarois et le Calaisis.

Mais, finalement, Microsoft n’installera pas de data center à Quaëdypre ni sur les deux autres lieux en discussion. En février dernier, le même quotidien régional expliquait que Microsoft avait finalement fait savoir qu’elle ne viendrait pas. La communauté de communes des Hauts-de-Flandre espérait qu’une autre entreprise reprendrait le projet, sans en dire plus.

De Quaëdypre à Jakarta

Quaëdypre pourrait être un cas anecdotique dans les plans d’installation de Microsoft. Mais Bloomberg confirme que l’entreprise a réduit ses projets de centres de données dans le monde entier. Elle a arrêté les négociations ou retardé le développement de sites en Indonésie, au Royaume-Uni, en Australie et dans trois États américains (L’Illinois, le Dakota du Nord et le Wisconsin).

En avril 2024, Microsoft annonçait un investissement de 1,7 milliard de dollars dans de nouvelles infrastructures de cloud et d’IA en Indonésie. Mais l’entreprise aurait interrompu les travaux d’une partie de son futur projet de regroupement de data centers, qui devait voir le jour à environ une heure de Jakarta, selon Bloomberg.

Au Royaume-Uni, Microsoft projetait de louer une zone située entre Londres et Cambridge. Elle devait accueillir un data center équipé des « meilleures puces Nvidia ». Mais elle a, semble-t-il, abandonné les négociations. De même avec Ada Infrastructure, alors que la multinationale projetait de louer une partie de son data center 210 MW Docklands. Mais, selon Bloomberg, Microsoft a finalement renoncé et Ada Infrastructure est maintenant en négociation avec un autre client.

L’entreprise aurait aussi arrêté les négociations concernant un emplacement à côté de Chicago, son projet d’extension de son site à Mount Pleasant, dans le Wisconsin, ou laissé courir les négociations au-delà de la clause d’exclusivité pour la location d’un centre d’Applied Digital Corp dans le Dakota du Nord.

Tout va bien d’après Microsoft

Interrogée par Bloomberg, Microsoft refuse de parler de chaque implantation, mais reconnait avoir modifié ses plans en matière de data centers. Elle affirme :

« Nous planifions les besoins en capacité de nos data centers des années à l’avance pour nous assurer que nous disposons d’une infrastructure suffisante aux bons endroits. […] Alors que la demande en IA continue de croître et que notre présence dans les centres de données continue de s’étendre, les changements que nous avons apportés démontrent la flexibilité de notre stratégie ».

Microsoft, une boussole du marché de l’IA ?

Microsoft n’est pas forcément le leader de la R&D en IA générative, puisqu’elle a laissé ce rôle à OpenAI. Elle en a fait le cheval de Troie des modèles de langage en y investissant massivement. Mais l’entreprise est sans doute le leader en termes de commercialisation. La firme de Redmond a intégré l’IA générative dans ses offres logicielles et a augmenté la facture. Les investissements et abandons de l’entreprise dans le secteur sont donc scrutés avec intérêt.

Mais il est difficile de savoir de quoi ces abandons et cette pause dans les investissements sont le signe. S’agit-il de difficultés de construction, de pénuries, de coûts, de baisse des besoins en IA ou encore d’une projection de ventes de services d’IA plus faibles que prévu par l’entreprise ?

  •  

Batterie externe : attention à « l’arnaque » des mAh

Non, je ne ferai pas un T@LC de ton dessin @Flock !
Batterie externe : attention à « l’arnaque » des mAh

Votre smartphone a une batterie de 4 000 mAh et vous pensez qu’avec une batterie externe de 20 000 mAh, vous allez pouvoir le charger cinq fois ? Oubliez tout de suite, ce ne sera jamais le cas. Le problème ne vient pas que des pertes, mais de l’imprécision des mAh dans ce genre de situation (et ce n’est pas toujours mieux avec les Wh), on vous explique.

Dans un précédent article, nous avons posé les bases du fonctionnement du courant électrique, en expliquant notamment ce qu’étaient les mAh et les Wh. Aujourd’hui, nous allons nous attarder un peu plus sur les mAh (milliampère heure), une unité de charge électrique.

Petit rappel sémantique : l’Ah (ampère heure) n’est pas dans le Système international, mais cette unité est tout de même largement utilisée, d’autant qu’elle est en lien direct avec une autre unité du SI cette fois : le Coulomb, en hommage au physicien Charles-Augustin Coulomb. Larousse précise que 1 C est « équivalant à la quantité d’électricité transportée en une seconde par un courant d’un ampère ». Avec 3 600 secondes dans une heure, 3600 coulombs valent donc 1 Ah. Simple et il n’y a pas de piège.

Quand les Ah se marient avec les V, cela donne des Wh

Revenons aux Ah, qui permet donc de mesurer une quantité de charges électriques, ni plus ni moins. Il ne faut pas confondre les Ah avec le Wh (watt-heure) qui est une unité d’énergie, on parle de quantité d’énergie stockée. Il existe néanmoins une relation très simple entre Ah et Wh : Ah x V = Wh.

En clair, pour passer d’une quantité de charges électriques (Ah) à une quantité d’énergie (Wh), on multiplie le premier élément par la tension (V pour Volt). Corollaire, connaitre les Ah d’une batterie ne permet pas de déduire sa « capacité » en Wh si on ne connait pas sa tension.

Une batterie de 10 000 mAh sous 3,7 volts donnera 37 Wh. Une batterie de 10 000 mAh sous 5 volts donnera 50 Wh. Avez-vous remarqué que nous avons répété deux fois la phrase, sans mettre un « ou » pour passer de 3,7 à 5 volts ? Il y a une raison : on ne crée pas de la « capacité » simplement en augmentant la tension (cela se saurait, croyez-moi…).

On simplifie par l’exemple, avec une batterie de 20 000 mAh

Prenons un exemple concret d’une batterie externe de 20 000 mAh que nous utilisons lors de déplacements. Cela veut-il forcément dire que l’on a 100 Wh avec une tension de 5 volts (20 000 mAh x 5 volts) ? Bien évidemment… que non. Il faut regarder le détail (s’il est donné).

Dans notre cas, c’est 20 000 mAh sous 3,6 volts, soit 72 Wh. Le fabricant donne une autre valeur : 5 000 mAh sous 14,4 volts, soit toujours 72 Wh, jusqu’ici tout va bien. Les 14,4 volts ne sont pas choisi au hasard : c’est exactement 4x 3,6 volts, ce qui permet de garder un rendement maximal et donc d’arriver de nouveau à 72 Wh.

20 000 mAh pour 52 à 72 Wh selon les cas

Sur la boite de la batterie, d’autres valeurs sont données : 12 817 mAh sous 5 volts et 2 606 mAh sous 20 volts, soit respectivement 64 et 52 Wh. La perte est donc quasiment de 30 % dans ce dernier cas. Voici un résumé des chiffres annoncés par le fabricant :

  • 20 000 mAh avec 3,6 volts soit 72 Wh
  • 12 681 mAh avec 5 volts, soit 64 Wh
  • 5 000 mAh avec 14,4 volts, soit 72 Wh
  • 2 606 mAh avec 20 volts, soit 52 Wh

Problème, ces informations ne sont pas du tout présentes sur la fiche du revendeur chez qui nous l’avons achetée. Il est simplement précisé 20 000 mAh et 74 Wh… Oui 74 Wh, alors que le produit que nous avons reçu n’en affiche que 72 Wh. La raison : sur la fiche du revendeur, la tension prise en compte pour calculer les Wh est de 3,7 volts.

Il faudrait plus de transparence de la part des fabricants

Si vous souhaitez savoir combien de fois vous pouvez charger un smartphone et/ou un ordinateur, il faut donc regarder la tension de charge pour connaitre les Wh et comparer à ceux de vos terminaux mobiles. Si vous utilisez la batterie pour charger un ancien smartphone qui ne prend que du 5 volts, alors vous avez 64 Wh. Pour un ordinateur en 20 volts, on descend à 52 Wh. Si par contre votre machine est en 14,4 volts, alors vous avez droit au maximum : 72 Wh.

Communiquer uniquement sur les mAh est trompeur… comme le serait finalement la seule communication des Wh. Dans les deux cas, il faudrait toujours préciser la tension associée. Il faudrait que les fiches produits soient bien plus détaillées, avec au minimum les Wh en fonction de plusieurs tensions différentes, surtout pour des batteries Power Delivery, avec une plage de fonctionnement généralement comprise entre 5 et 20 volts (jusqu’à 48 volts dans la version 3.1).

Bref, on a commandé une batterie de 20 000 mAh et 74 Wh, pour se retrouver avec une 20 000 mAh et 72 Wh, mais « seulement » 52 Wh pour recharger notre ordinateur portable en 20 volts. Si ce dernier point est assez logique, nous n’avions pas moyen de connaitre cette valeur avant de passer commande, dommage.

Et encore, on parle ici de capacité théorique, dans la pratique, il y a toujours des pertes supplémentaires à prendre en compte. C’est parfaitement logique, mais à considérer lorsqu’il s’agit de choisir une batterie externe, surtout si vous avez besoin d’une quantité minimum de mAh/Wh.

100 Wh max en avion, ça fait combien de mAh ? Ça dépend…

Dans les avions, la limite pour embarquer une batterie est fixée en Wh, pour toutes les raisons que nous venons de détailler. Air France rappelle que les « batteries de rechange et batteries externes de moins de 100 Wh » peuvent être embarqué en cabine (mais pas en soute), sans accord préalable, alors que ce dernier sera nécessaire pour une batterie entre 100 et 160 Wh.

On parle aussi parfois de batterie de 27 000 mAh maximum pour une simple raison : les batteries lithium ont une tension de 3,6 ou 3,7 suivant les technologies, soit un maximum de… 99,9 Wh en 3,7 volts, juste en dessous des 100 Wh.

Mais là encore, ce n’est pas une règle et seuls les Wh comptent. Par exemple, Anker propose une batterie de 27 650 mAh et affirme qu’elle « répond aux exigences de la TSA (< 100 Wh) pour être emportée dans les avions comme bagage à main ». Le fabricant annonce, en effet, une capacité de 99,54 Wh, signifiant que la tension de base de la batterie est de 3,6 volts.

  •  

☕️ #LIDD : « Le Big Bang à portée de téléscope »

« Campagnes d’observation « grand format », méthodes d’analyse des données novatrices, développements théoriques tous azimuts » : le Journal du Centre national pour la recherche scientifique revient sur la nouvelle « ère de précision » de l’astrophysique et de la cosmologie. Elles permettraient de « percer tous les mystères du cosmos. Y compris celui de ses origines », c’est-à-dire le Big Bang.

Il y a tout d’abord le nouveau catalogue Cosmicflow (.pdf), avec la position et la vitesse de 56 000 galaxies, qui a permis de « cartographier les bassins d’attraction gravitationnelle de notre univers proche ». Les analyses semblent confirmer le modèle cosmologique standard : « il y a 13,8 milliards d’années, notre Univers a émergé d’un état extrêmement chaud et dense qui, sous l’effet de l’expansion, s’est ensuite refroidi et structuré, laissant petit à petit apparaître le gigantesque réseau de galaxies que l’on peut observer aujourd’hui ».

Euclid espace
Voie lactée et galaxies voisines par le satellite Gaia

Les scientifiques cherchent aussi à cartographier l’univers local en étudiant la vitesse d’un échantillon de Galaxie. Problème, il y a de très nombreux paramètres et hypothèses à confirmer. Les chercheurs utilisent donc une méthode d’inférence probabiliste : « Fondée sur l’intelligence artificielle, elle consiste à engendrer numériquement d’innombrables configurations et à assortir chacune d’elles d’une probabilité de compatibilité avec les observations ».

Le CNRS s’attaque ensuite aux paramètres du modèle standard, à l’inflation de l’Univers, aux soubresauts quantiques, à la toile cosmique et à la recherche du fond diffus gravitationnel. Un long format à lire pour les amateurs d’astronomie et d’origines de l’Univers.

  •  

☕️ Avec iOS 18.4, d’anciennes applications supprimées réapparaissent

L’arrivée d’iOS 18.4 a sonné en Europe le top départ pour le bouquet de services Apple Intelligence. Il s’agit de l’une des mises à jour intermédiaires les plus touffues jamais proposées pour iPhone. Du moins pour les personnes ayant un modèle compatible, car l’IA de la pomme est réservée aux modèles les plus récents : iPhone 15 Pro et tous les iPhone 16 (classique, Pro et 16e).

Comme signalé par MacRumors, de nombreux fils de discussion sont apparus sur Reddit (ici, , ou encore ) ainsi que sur les propres forums d’Apple pour évoquer un drôle de souci : d’anciennes applications supprimées sont de retour.

L’origine du problème n’est pas encore comprise, mais il s’agit probablement d’un bug introduit par le système. Les applications réinstallées avaient été supprimées il y a plusieurs mois, voire il y a plusieurs années. Le problème ne semble pas une conséquence de la fonction Téléchargements automatique, qui permet normalement de répercuter les installations faites sur d’autres appareils. Des utilisateurs affirment ainsi que leur iPhone est le seul appareil Apple qu’ils possèdent.

Au sein de l’équipe, nous avons pu observer ce comportement sur un appareil : deux applications supprimées il y a longtemps, réinstallées et présentes dans le dossier « Ajouts récents ». Sur d’autres iPhone de la rédaction, tout semblait normal.

Précisions que l’appareil concerné n’est pas jailbreaké et n’a jamais utilisé de boutique alternative. Il a été utilisé pour tester les bêtas d’iOS 18.4 et le problème ne s’est manifesté qu’en fin de cycle, avec la première Release Candidate ou la version finale. Il ne semble cependant pas lié à la phase bêta, car les témoignages évoquent principalement l’installation de la mise à jour en usage courant.

Quoi qu’il en soit, le problème n’est pas très grave, puisqu’il suffit de supprimer les quelques applications éventuellement de retour. Il faut simplement jeter un œil et vérifier que de vieux fantômes ne sont pas revenus hanter votre téléphone.

  •  

☕️ Donald Trump accorde de nouveau 75 jours pour la vente TikTok

Fin janvier, dans les premières heures suivant son investiture, Donald Trump signait un décret pour accorder 75 jours afin de mettre en place la vente ou l’interdiction de TikTok. Le 47ᵉ président des États-Unis vient d’accorder de nouveau 75 jours à la plateforme.

Il affirme que son administration a « fait d’énormes progrès » dans ce dossier, mais qu’un accord « nécessite plus de travail pour s’assurer que toutes les approbations nécessaires sont signées ». « Nous espérons continuer à travailler de bonne foi avec la Chine, qui, je le comprends, n’est pas très satisfaite de nos tarifs réciproques », ajoute le président. La Chine a pour rappel répondu du tac au tac avec 34 % de taxe sur les importations des États-Unis.

« Nous ne voulons pas que TikTok disparaisse », réaffirme Donald Trump. Plusieurs personnalités et sociétés sont sur les rangs, résume le Parisien : « le « Project Liberty » de l’entrepreneur Frank McCourt, propriétaire de l’Olympique de Marseille, le youtubeur MrBeast ». Citons également Perplexity AI, Amazon, Blackstone, Microsoft, Walmart…

TikTok
  •  

☕️ Le gestionnaire de paquets APT 3.0 est disponible avec sa nouvelle interface

La version 3.0 du gestionnaire de paquets APT est désormais disponible. Annoncée par le projet Debian, elle propose une nouvelle interface se voulant nettement plus lisible que celle disponible jusqu’à présent.

APT 3.0 se distingue en particulier par son affichage en colonnes et son utilisation des couleurs. En rouge, par exemple, toutes les suppressions, et en vert les ajouts. La barre de progression est elle aussi révisée, avec un fonctionnement plus souple et l’utilisation d’Unicode.

APT 2.8 à gauche, APT 3.0 à droite

La nouvelle mouture ne revoit pas que sa lisibilité. On y trouve de nouvelles fonctions, comme un solveur permettant de revenir à des versions stables des paquets (via –solver), un autoremove plus efficace, le support de –target-release, une option –comment pour l’historique, la prise en charge des miroirs non compressés pour les miroirs partiels, le calcul correct de la taille du noyau dans /boot, le remplacement de GnuTLS et gcrypt par OpenSSL, ou encore le support des transactions et du comptage des mises à jour pour pkgDepCache.

On se souvient qu’APT 3.0 était présent dans Ubuntu 24.10, mais il s’agissait d’une préversion. Cette version finale devrait être graduellement disponible sur toutes les distributions basées sur Debian et Ubuntu. APT 3.0 sera présent dans Debian 13 et Ubuntu 25.04.

  •  

☕️ Tails 6.14.1 apporte un peu de souplesse à Tor Browser sur la gestion des fichiers

Nouvelle mouture pour la distribution Linux centrée sur la sécurité et la vie privée. Une version 6.14.1 qui peut surprendre, car la 6.14 n’a pas été publiée. L’équipe de développement s’en explique dans un billet, indiquant qu’un problème important a été découvert à la dernière minute, nécessitant un correctif.

Tails 6.14.1 se distingue surtout par un changement notable dans le navigateur Tor Browser. La technologie de confinement utilisée pour la sécurité est désormais plus souple. Ainsi, plutôt que de limiter l’écriture des fichiers dans le seul dossier Téléchargements et la lecture à quelques répertoires, les accès peuvent se faire maintenant sur l’ensemble des dossiers.

L’équipe indique que cette amélioration est permise par XDG Desktop Portal, qui fournit un accès à des fonctions standards d’un système comme les fenêtres de dialogue pour les fichiers, le presse-papiers ou encore l’ouverture des liens. Dans le cas présent, ce framework est utilisé pour Flatpak au sein de Tails, autorisant un « relâchement » du confinement opéré par AppArmor.

La nouvelle version corrige également deux problèmes d’accessibilité dans Tor Browser, qui empêchaient d’utiliser les fonctions de texte et de curseurs agrandis.

  •  

[Màj] : les sites de la NOAA temporairement sauvés, le contrat AWS prendra fin en juillet

[Màj] : les sites de la NOAA temporairement sauvés, le contrat AWS prendra fin en juillet

L’agence américaine NOAA, qui a en charge notamment des données sur le climat et la météorologie, s’apprête à supprimer une quantité importante de sites internet via une simple annulation d’un contrat avec des hébergeurs cloud.

Mise à jour du 7 avril : alors que la menace d’une disparition de plusieurs sites de la NOAA planait le week-end dernier, ceux-ci sont encore disponibles. L’agence a finalement affirmé à Bloomberg qu’ « il n’y aura pas d’interruption de service » et que « tous les sites de recherche de la NOAA resteront en ligne ». Selon Axios, l’arrêt du contrat avec AWS a été repoussé au 31 juillet 2025, ce qui doit permettre à l’agence de trouver une solution de repli.

Article originel publié le 4 avril à 17h28 :

De nombreux sites de la NOAA, l’agence d’observation océanique et atmosphérique qui s’occupe aussi des données météorologiques aux États-Unis, vont sans doute devenir inaccessibles dès ce week-end. En cause ? Un contrat de prestations d’hébergement dans divers cloud a été annulé par sa direction, selon Bloomberg.

Cette agence est, comme de nombreuses agences fédérales américaines et notamment les agences scientifiques, visée par le DOGE et l’administration de Donald Trump depuis son retour au pouvoir. Elle s’est déjà séparée de certains de ses locaux et par deux fois d’une partie de son personnel.

Elle semble aussi particulièrement visée pour son rôle extrêmement important dans l’information sur le climat et la météorologie. Bloomberg explique qu’un contrat signé pour l’ensemble du bureau de la recherche océanique et atmosphérique de l’agence a été visé pour une « résiliation anticipée », selon des documents internes que le média a pu consulter.

Les services d’Amazon, de Google et de WordPress sur le point d’être coupés

« En conséquence, la quasi-totalité des sites web externes dépendant des services d’Amazon, de Google et de WordPress sont sur le point de disparaître tôt samedi matin à Washington, effaçant ainsi de la vue du public l’essentiel du travail de l’unité, qui comprend la recherche en sciences du climat et de l’environnement », explique notre consœur Lauren Rosenthal. La NOAA n’a pas répondu à sa demande de commentaire.

Cette information fait mouche avec une alerte lancée sur le forum du projet Safeguarding Research & Culture. Celui-ci émane de la volonté de certains chercheurs, notamment l’historien allemand Henrik Schönemann de l’université de Humboldt à Berlin, de créer « une infrastructure alternative pour l’archivage et la diffusion du patrimoine culturel et des connaissances scientifiques ». L’alerte concerne une cinquantaine de sites de la NOAA et on y retrouve rien de moins que le site de l’agence dédié à la recherche : https://research.noaa.gov/.

« Ce qui est prévu d’être supprimé, ce sont les services basés sur AWS pour la NOAA », expliquent les chercheurs, évoquant une mise hors-ligne dès ce vendredi soir. Mais des questions se posent aussi sur les données ouvertes hébergées elles aussi sur AWS.

Selon une note interne obtenue par Bloomberg, la résiliation du contrat pourrait aussi affecter d’autres activités de recherche de l’agence : le laboratoire qui surveille les tempêtes « violentes » pour le pays (le National Severe Storms Laboratory) et celui chargé de l’innovation en climatologie (le Earth Prediction Innovation Center) utilisent des services de cloud computing externes pour un système de prévisions météorologiques à grande échelle.

Le réseau national de l’agence menacé aussi

Les chercheurs de l’agence ont d’autres raisons d’être préoccupés : deux autres contrats arrivent à leur fin concernant le support de N-Wave, son réseau national qui « s’étend sur toute la zone contiguë des États-Unis jusqu’à l’Alaska et Hawaï, atteignant les sites de terrain éloignés, les grands campus, les centres de données et les installations de supercalculateurs ». Ils sont déjà sous le coup d’une extension très brève de cinq jours qui doit se terminer samedi pour l’un et lundi pour l’autre, selon Bloomberg.

  •  

☕️ Amazon teste un agent IA pour acheter des produits sur d’autres sites

Amazon a présenté hier soir une fonction nommée « Buy for me », destinée à simplifier encore un peu plus les achats. Contrairement à d’autres agents IA que l’on a pu voir jusqu’à présent, notamment chez Opera, il n’est pas question cette fois d’écrire une demande et de laisser l’intégralité du processus de découverte et d’achat à un agent.

Cette fonction, disponible en bêta pour un petit groupe de personnes aux États-Unis, a un périmètre nettement plus restreint. Comme l’indique Amazon dans son billet, « Buy for me » veut simplifier les achats pour des produits présentés par la boutique Amazon, mais disponibles depuis d’autres, notamment les sites officiels des entreprises concernées.

La fonction, présente dans les applications Android et iOS, s’affiche sous forme d’un bouton dédié, accompagnant certains résultats. S’il est actionné par l’internaute, il lance une procédure d’achat sur le site officiel du fabricant, de manière automatisée.

Mais si cette fonction est plus restreinte dans ses cas d’usage, elle demande une grande confiance en Amazon. Car contrairement à ce que l’on a déjà pu voir, c’est toute la procédure d’achat qui se retrouve gérée par l’agent, y compris le paiement. Ce qui suppose que l’IA accède aux informations de la carte bancaire. L’achat est considéré comme externe. « La livraison, les retours et les échanges, ainsi que le service client sont gérés par la boutique de la marque », précise Amazon.

Le géant du commerce en ligne précise dans son billet que ces opérations sont chiffrées et qu’il n’accède pas aux données des autres sites. Il affirme qu’il ne tient aucun historique de ces actions et qu’il s’agit simplement d’apporter une commodité. En outre, la présence de cette fonction sur des produits se fait à la demande des fabricants et Amazon assure que les clients peuvent observer toutes les étapes d’un processus décrit comme « transparent ». Le tout repose sur Amazon Bedrock et utilise le modèle Nova maison, ainsi que les modèles Claude d’Anthropic (dont la version 3.7 est sortie fin février), sans plus de précision.

« Gagner la confiance est la pierre angulaire du succès des agents d’IA », déclare Amazon dans son billet. À voir désormais si la clientèle se laissera séduire par un processus automatisé impliquant des informations bancaires. Ajoutons que ce n’est pas la première fois qu’Amazon tente ce type d’approche automatisée. En 2018, nous avions ainsi testé la commande de pizza via Alexa, avec des résultats particulièrement décevants.

  •  

Électricité : « oubliez les datacenters, la climatisation est la véritable bête noire »

L’éléphant dans la pièce
Électricité : « oubliez les datacenters, la climatisation est la véritable bête noire »

Il n’y a pas que les datacenters qui façonnent le monde à cause de leur consommation électrique. La climatisation aussi est fortement consommatrice d’électricité… et cela ne va pas aller en s’arrangeant.

L’arrivée de l’IA générative a bousculé le numérique et soulève de nombreuses questions (droit d’auteur, éthique, biais, hallucinations…). Se pose aussi la question de l’empreinte écologique de datacenters toujours plus gros, partout dans le monde, avec des GPU toujours plus puissants.

La douce/triste « folie » de l’IA générative

Le tout avec une consommation électrique toujours plus importante, sur des zones bien précises. L’augmentation de la densité électrique par baie et l’expansion des datacenters posent d’ailleurs des contraintes sur le choix de l’emplacement physique alloué à ces derniers.

Avec les images et les vidéos de l’IA générative, on passe encore dans une autre dimension. Les chiffres de l’utilisation des IA peuvent donner le tournis, preuve en est encore récemment avec un tweet de Brad Lightcap (COO d’OpenAI) : « Première semaine de folie pour les images dans ChatGPT : plus de 130 millions d’utilisateurs ont généré plus de 700 millions (!) d’images ». Il se garde d’ailleurs bien de détailler l’empreinte environnementale d’une telle utilisation.

Bientôt 1 000 TWh pour les datacenters ?

Dans un rapport publié fin 2024, l’Agence internationale de l’énergie atomique (IAEA, sous l’égide de l’ONU) expliquait que « les datacenters avaient consommé environ 460 TWh d’électricité en 2022. Cette consommation pourrait s’élever à plus de 1 000 TWh d’ici 2026, soit plus d’un tiers de l’électricité produite par les centrales nucléaires du monde entier l’année dernière, et à peu près l’équivalent de la consommation d’électricité du Japon ». À titre de comparaison, en 2023, la consommation d’électricité en France était de 445,4 TWh.

L’Agence donne quelques chiffres d’anticipation. En Chine, la demande devrait doubler pour atteindre 400 TWh en 2030. En Irlande, la consommation des datacenters (5,3 TWh) représentait 17 % du total du pays et devrait atteindre 32 % d’ici fin 2026. Elle ajoute au passage que la consommation cumulée d’Amazon, Microsoft, Google et Meta « a plus que doublé entre 2017 et 2021 pour s’établir à environ 72 térawattheures (TWh) ».

Par exemple, pour Meta, la consommation des datacenters était de 14,975 TWh en 2023, contre 6,966 TWh en 2020. Elle a donc quasiment doublé en trois ans.

« On devrait parler davantage de climatisation »…

Dans un article publié sur MIT Review, Casey Crownhart (journaliste spécialisée sur le climat et l’énergie) explique que l’on « devrait parler davantage de climatisation ». Elle met cette problématique (bien moins médiatisée) en balance avec la consommation des datacenters largement plus présente dans les débats. Avec ce sous-titre volontairement provocateur : « oubliez les datacenters, la climatisation est la véritable bête noire »

Elle commence par rappeler le cercle vicieux de la climatisation et du réchauffement climatique : « À mesure que les températures augmentent, le besoin en refroidissement augmente. De plus en plus de centrales électriques à combustibles fossiles sont alors mises en service pour répondre à cette demande, augmentant ainsi la température de la planète ».

…qui représente 2 000 TWh, et plus 5 000 TWh en 2050 ?

Selon une étude publiée mi-2024 par l’organisation à but non lucratif Our World in Data (qui travaille en partenariat avec l’université d’Oxford), sur l’année 2022 « la climatisation représentait 7 % de l’électricité mondiale et 3 % des émissions de carbone ». Sur la base d’une consommation mondiale de 29 000 TWh en 2022, la climatisation représenterait un peu plus de 2 000 TWh. À mettre en face des 460 TWh des datacenters.

Selon une projection de l’Agence internationale de l’énergie (IEA, une organisation internationale fondée à l’OCDE), le nombre de climatiseurs devrait fortement augmenter dans les années à venir. De 2 milliards d’unités à la fin des années 2010, elle prévoit près de 3 milliards en 2030 et plus de 5 milliards en 2050. À ce moment-là, la consommation électrique pourrait grimper entre 3 500 et 5 000 TWh.

La Chine dope la croissance, l’Europe n’est pas en reste

Comme le rappelle Le Monde, les évolutions sont variables selon les continents : « Le nombre de ménages africains équipés en climatisation n’a enregistré qu’une très faible hausse au cours des vingt dernières années, passant de 4 % à 6 % aujourd’hui. Dopée par la Chine, l’Asie a en revanche vu son taux d’équipement exploser de 19 % à 47 % sur la même période ». En Europe, la proportion de ménages équipés d’une climatisation pourrait doubler et atteindre 40 % (55 % en France) d’ici 2050.

Les climatiseurs, contrairement aux datacenters, ont tendance à s’allumer à peu près en même temps dans une zone. « Dans certaines régions des États-Unis, par exemple, les climatiseurs peuvent représenter plus de 70 % de la demande d’énergie résidentielle aux moments où le réseau est le plus sollicité », affirme Casey Crownhart. Les climatiseurs sont répartis un peu partout alors que les datacenters concentrent la consommation en certains points précis (nécessitant des lignes dédiées). Signalons aussi que certains datacenters ont recours à la climatisation.

Notre consœur termine quand même par une bonne nouvelle : « nous assistons à des innovations dans la technologie de refroidissement ». Elle explique que certains proposent par exemple un stockage de l’énergie pour se recharger lorsque l’énergie est disponible à bas coût, et de nouvelles technologies de refroidissement. Cela ne suffira certainement pas à combler la hausse prévue de la consommation de la climatisation.

  •  

☕️ Datacenter : iliad finalise la vente de 50 % d’OpCore à InfraVia

L’acquisition de 50 % du capital d’OpCore par le fonds d’infrastructure français InfraVia est désormais finalisée. « À travers ce partenariat, le Groupe iliad et Infravia vont doter OpCore d’une structure financière à même de libérer ses perspectives d’hypercroissance par le développement de nouveaux datacenters de plusieurs centaines de mégawatts en France et en Europe. Plusieurs projets de construction sont déjà en cours », indiquent les deux entreprises, déjà partenaires de longue date dans les investissements autour de la fibre, dans un communiqué commun.

L’opération, initialement annoncée le 4 décembre dernier, valorise l’entreprise à hauteur de 860 millions d’euros. Elle confère à OpCore (anciennement Scaleway Datacenter) une structure financière et un accès à de nouveaux fonds propres qui doivent permettre à l’entreprise d’aller plus facilement lever de la dette bancaire pour financer la création de ses futurs centres de données. Elle permet dans le même temps à iliad de réduire son endettement, sans perdre le contrôle d’une activité considérée comme stratégique.

« Nous allons investir avec notre partenaire InfraVia 2,5 milliards d’euros dans notre plateforme de datacenters OpCore pour devenir la première plateforme indépendante européenne », promettait à cette occasion Thomas Reynaud, directeur général du groupe iliad.

En France, OpCore revendique à ce stade plus de 50 MW de capacités opérées à ce jour sur cinq datacenters en région parisienne, ainsi que deux en région lyonnaise et un en région marseillaise, commercialisés sous la marque Free Pro.

  •  

Les nord-coréens de Lazarus ciblent le monde de la crypto via de faux entretiens d’embauche

Pwnd
Les nord-coréens de Lazarus ciblent le monde de la crypto via de faux entretiens d’embauche

Le groupe de pirates Lazarus, lié à l’état nord-coréen, a mis en place un système de piratage visant le monde de la cryptomonnaie, notamment en organisant de faux entretiens d’embauche et en poussant à l’installation de logiciels malveillants via des techniques de social engineering.

En octobre dernier, nous nous étions faits l’écho de la propagation d’une arnaque au recrutement qui cible les développeurs amateurs de crypto. Les soupçons se tournaient vers Lazarus, groupe de pirates nord-coréen auquel est aussi attribué l’immense vol de cryptoactifs, d’une valeur approchant 1,5 milliard de dollars, révélé en février dernier.

L’éditeur de logiciel de cybersécurité français Sekoia confirme dans un rapport que le groupe de pirates est à l’origine d’une campagne d’arnaque au recrutement de ce type. « Il utilise des sites web d’entretiens d’embauche légitimes pour exploiter la tactique ClickFix et installer des portes dérobées pour Windows et macOS », explique l’entreprise française.

Le ClickFix est une tactique d’ingénierie sociale qui « consiste à afficher de faux messages d’erreur dans les navigateurs web pour tromper les utilisateurs et les inciter à copier et à exécuter un code PowerShell malveillant donné, ce qui finit par infecter leurs systèmes », expliquait Sekoia en octobre dernier. Détectée en mai 2024, cette tactique est déjà qualifiée de « tristement célèbre » par Sekoia.

Windows et MacOS, deux variantes

Selon l’entreprise de sécurité, la chaine d’infection utilisée par Lazarus ciblerait les systèmes d’exploitation Windows et MacOS de deux façons différentes. Sur le premier, le groupe de pirates passerait par un script VBS puis un script NodeJS et sur le second via un script Bash puis le malware FrostyFerret pour récupérer le mot de passe système. Mais à la fin, ils utiliseraient un virus, nommé GolangGhost par Sekoia, écrit en GO. Ce code a déjà été partiellement étudié par les spécialistes de cybersécurité Sonatype et dmpdump. Sekoia explique que GolangGhost est prévu pour fonctionner sur Windows et macOS et permet de mettre en place une porte dérobée puis de voler des données via Chrome.

Sous MacOS, FrostyFerret affiche une fausse fenêtre indiquant que le navigateur web Chrome a besoin d’accéder à la caméra ou au microphone. Ensuite, le malware demande à l’utilisateur de saisir le mot de passe du système. Celui-ci est ensuite récupéré et envoyé vers un espace Dropbox.

Essentiellement des acteurs de la CeFi utilisés comme appâts

En analysant cette attaque, Sekoia a récupéré 184 invitations différentes pour des entretiens d’embauche. Parmi ces invitations, elle a trouvé 14 noms d’entreprises utilisés pour inciter la victime à compléter le processus de demande. Parmi elles, Coinbase est celle dont le nom est le plus utilisé par Lazarus pour attirer l’attention de ses proies :

Sekoia fait remarquer que 9 des 14 entreprises « proposent des services financiers centralisés (CeFi), c’est-à-dire des services financiers construits autour des crypto-monnaies qui s’appuient sur des intermédiaires, tels que des échanges et des plateformes de prêt, pour faciliter les transactions ». L’entreprise de sécurité rappelle que « ces plateformes sont dites « centralisées » car elles obligent les utilisateurs à faire confiance à une entité centrale pour gérer les fonds, traiter les transactions et assurer la sécurité ». Archblock est la seule plateforme de services financiers décentralisés (DeFi) détectée par Sekoia comme cible de Lazarus.

Lazarus vise des profils moins tech

Mais si les développeurs amateurs de crypto sont ciblés, l’analyse de Sekoia montre qu’ils ne sont ni les seuls, ni la principale cible. En effet, l’entreprise explique qu’ « il s’agit principalement de postes de responsables axés sur le développement commercial, la gestion des actifs, le développement de produits ou de spécialistes de la finance décentralisée ». Et elle explique que c’est un changement important s’agissant des attaques de Lazarus qui, jusque-là, « visaient principalement les développeurs et les ingénieurs en informatique ».

Sekoia livre une liste des faux sites d’entretiens que l’entreprise a détectés :

  •  

☕️ WordPress : Automattic licencie 16 % de ses effectifs

Matt Mullenweg, CEO d’Automattic, a dévoilé mercredi les contours d’un vaste plan de restructuration, annoncé le jour même en interne, qui passe essentiellement par le licenciement de 16 % des effectifs. L’entreprise ne précise pas le nombre exact de salariés concernés, mais sa page A propos livre de façon indirecte le détail : le 20 mars dernier, elle mentionnait des équipes composées de 1 781 personnes. Au 4 avril, elle n’évoque plus que 1 495 « Automatticians », ce qui correspondrait à 286 départs officialisés au cours des deux derniers jours.

« Bien que notre chiffre d’affaires continue de croître, Automattic évolue dans un marché hautement concurrentiel et la technologie connaît une évolution sans précédent. Pour accompagner nos clients et nos produits, nous devons améliorer notre productivité, notre rentabilité et notre capacité d’investissement », justifie Matt Mullenweg. Le plan de restructuration permettrait selon lui de redonner un surcroît d’agilité à l’entreprise, éliminer certains silos et améliorer la qualité générale des produits édités par Automattic.

Cette vague de licenciement intervient après une période troublée pour l’écosystème commercial de WordPress, qui a vu Matt Mullenweg s’écharper publiquement avec son concurrent WP Engine, l’accusant d’utiliser la marque WordPress de façon abusive et de ne pas collaborer assez au projet open source éponyme. En réaction à cette affaire et suite à une manche juridique perdue face à WP Engine, Automattic avait annoncé début janvier « réduire ses contributions au projet WordPress ».

En octobre dernier, suite à ce conflit, Matt Mullenweg affirmait qu’Automattic était à court d’employés.

  •  

IA : OpenAI et Anthropic ciblent les étudiants

Aie confiance, crois en moi, que je puisse veiller sur toi
IA : OpenAI et Anthropic ciblent les étudiants

OpenAI et Anthropic viennent tous deux de lancer une offensive en direction du monde universitaire outre-Atlantique. Le premier choisit de rendre son abonnement ChatGPT Plus gratuit pour tous les étudiants aux États-Unis et au Canada jusqu’au mois de mai. Le second mise sur la création d’une offre dédiée, Claude for Education.

Les étudiants d’aujourd’hui sont les professionnels de demain, et cette logique, qui explique en partie pourquoi des éditeurs comme Microsoft courtisent le monde de l’éducation, n’a pas échappé aux ténors de l’intelligence artificielle générative, comme l’illustrent deux annonces quasi simultanées.

ChatGPT Plus gratuit pour les étudiants… pendant deux mois

La première émane d’OpenAI, qui vient de lancer une offre d’essai promotionnelle dédiée à son abonnement payant, ChatGPT Plus. L’entreprise dirigée par Sam Altman offre aux étudiants deux mois d’accès gratuits (valables jusqu’au 31 mai 2025), sous réserve qu’ils soient inscrits dans un établissement supérieur, aux États-Unis ou au Canada. Le statut d’étudiant sera vérifié au travers du système SheerID, indique OpenAI.

Il appartiendra ensuite aux étudiants ayant souscrit l’abonnement de résilier avant le 31 mai ou, à défaut de s’acquitter du montant de l’abonnement, soit 20 dollars par mois. « Votre abonnement se renouvelle automatiquement au tarif mensuel standard de ChatGPT Plus, sauf résiliation. Si vous ne souhaitez plus continuer, veuillez résilier avant la première date de facturation suivant la période promotionnelle », avertit l’éditeur.

OpenAI cible ici directement l’utilisateur final, alors que l’entreprise mène en parallèle une politique de conquête commerciale tournée vers les établissements supérieurs avec une offre dédiée, ChatGPT Edu, qui propose notamment des possibilités plus poussées en matière d’administration, de sécurité et de création d’agents personnalisés.

Anthropic lance Claude for Education

Concurrent d’OpenAI avec ses modèles Claude, Anthropic lance justement sa propre offensive en la matière. L’entreprise a en effet annoncé mercredi le lancement de Claude for Education, une offre qui vise à fournir aux établissements supérieurs un accès personnalisé à ses outils d’IA générative. Anthropic promet notamment une « nouvelle expérience Claude qui guide le processus de raisonnement des élèves plutôt que de fournir des réponses, contribuant ainsi à développer des compétences de pensée critique ».

En attendant de voir ce que recouvre cette dernière, Anthropic ne cache pas son ambition de contribuer à améliorer le taux de pénétration de ses IA parmi le public des étudiants. Le lancement de Claude for Education s’accompagne ainsi d’accords commerciaux avec plusieurs grands campus (Northeastern University à Boston, London School of Economics and Political Science (LSE), Champlain College au Canada), dont les étudiants accèderont gratuitement aux outils d’Anthropic.

La société présente également un programme d’étudiants ambassadeurs, à qui elle promet un accès privilégié à ses équipes, mais aussi une formule de crédits gratuits pour les étudiants qui souhaiteraient élaborer leurs projets d’étude grâce à Claude. Anthropic annonce par ailleurs rejoindre à cette occasion le consortium Internet2 et collaborer avec la ed tech américaine Instructure pour interfacer Claude avec la plateforme d’apprentissage Canvas LMS.

Études : les bénéfices de l’IA toujours contestés

« L’IA change ce que signifie être paré à l’emploi et, en tant qu’établissement tourné vers l’avenir, Champlain offre aux étudiants la possibilité d’utiliser l’IA afin qu’ils puissent être opérationnels dès l’obtention de leur diplôme », se réjouit Alex Hernandez, président du Champlain College, cité par Anthopic.

Si la capacité à utiliser l’IA générative, comprendre leurs atouts et se prémunir de leurs limites constitue assurément un atout, plusieurs études alertent déjà sur les risques associés à l’omniprésence de ces outils dans les cursus étudiants. Des chercheurs de Microsoft, en partenariat avec l’université de Carnegie Mellon, ont par exemple récemment conclu que l’utilisation de l’IA générative contribuait à une diminution de l’esprit critique.

  •  

☕️ Le CNRS se demande ce qu’est la conscience et si l’IA peut y accéder

Dans son Journal, le CNRS se pose des questions existentielles autour de la conscience : « Quand commence-t-elle et où finit-elle ? Comment la mesurer ? Et l’IA en est-elle douée ? ». De quoi ouvrir de nombreux débats…

L’article s’articule autour de cinq questions avec des réponses de plusieurs chercheurs, notamment Catherine Tallon-Baudry, (directrice de recherche CNRS au Laboratoire de neurosciences cognitives computationnelles à Paris) et Jean-Rémy Hochmann (directeur de recherche CNRS à l’Institut des sciences cognitives Marc-Jeannerod).

La question des intelligences artificielles est évidemment abordée par le CNRS : « une intelligence artificielle (IA) pourrait-elle, à terme, être consciente ? Si l’on définit la conscience uniquement par la capacité à traiter l’information et à raisonner, certaines intelligences artificielles pourraient déjà être considérées comme conscientes. Mais si la conscience implique nécessairement une dimension organique, subjective et sensible, alors les machines en sont encore très loin ».

Boite de conserve avec du faux cerveau en cube pixelisé par Flock

D’après le Journal, les chercheurs suggèrent que, chez les humains, « les structures de base, cognitives et neuronales, qui permettent la conscience sont déjà en place très tôt, peut-être dès la naissance ». Mais la conscience est-elle seulement dans le cerveau ? Catherine Tallon-Baudry soutient l’idée que « la conscience résulte d’une interaction complexe entre le cerveau et le corps – un aspect souvent négligé par les théories classiques », explique le CNRS.

Quoi qu’il en soit, n’attendez pas une réponse tranchée (il faudrait déjà s’accorder sur le sens précis de la question et des mots utilisés). L’article termine par une autre question : « une intelligence artificielle pourrait-elle un jour devenir consciente ? ». Vous avez deux heures.

  •  

☕️ Amazon va lancer les 27 premiers satellites de sa constellation Kuiper

Le géant du Net prépare depuis des années un concurrent à Starlink de SpaceX : Kuiper. Les premiers prototypes ont été lancés fin 2023 et il est cette fois-ci question de commencer le « déploiement à grande échelle du réseau Internet par satellite ». En France, des stations de base ont déjà été autorisées par l’Arcep.

Cette mission se nomme Atlas V Kuiper 1 pour Kuiper Atlas 01. Elle sera lancée à bord d’une fusée Atlas V de United Launch Alliance (ULA) depuis Cap Canaveral (Floride). Elle « déploiera 27 satellites à une altitude de 450 kilomètres au-dessus de la Terre ». Le lancement est programmé pour le 9 avril. Amazon affirme que ce sera « la charge utile la plus lourde jamais transportée par la fusée Atlas V d’ULA ».

L’entreprise indique avoir largement revu sa copie depuis ses prototypes : « Nous avons amélioré les performances de tous les systèmes et sous-systèmes à bord, y compris les antennes réseau, les processeurs, les panneaux solaires, les systèmes de propulsion et les liaisons optiques entre les satellites. De plus, les satellites sont recouverts d’un film miroir diélectrique unique à Kuiper qui disperse la lumière du soleil pour les rendre moins visibles pour les astronomes au sol ».

Amazon prévoit ensuite 7 autres lancements sur Atlas V, 38 supplémentaires sur Vulcan Centaur d’ULA et 30 autres chez des partenaires tels qu’Arianespace, Blue Origin et SpaceX.

  •  

Les crawlers des IA deviennent un sérieux problème pour le web, même pour Wikimédia

DDoS généré pour IA
Les crawlers des IA deviennent un sérieux problème pour le web, même pour Wikimédia

Pour entrainer et tenir à jour leurs intelligences artificielles, les crawlers des entreprises d’IA parcourent le web en permanence et sont suspectés de ne pas respecter les fameux robots.txt censés permettre leur blocage. Leur activité va jusqu’à mettre en péril des sites web de projets de logiciels libres ou toucher fortement les activités de Wikimédia.

Les entreprises qui ont mis en place des IA génératives comme OpenAI, Meta, Anthropic, Mistral ou encore Amazon, Google et Microsoft ont besoin d’indexer des contenus sur le web en permanence pour entrainer leurs grands modèles de langage (LLM), récupérer les nouvelles informations afin que leurs outils soient capables de répondre aux demandes de leurs utilisateurs.

Un trafic difficile à gérer, même pour la fondation Wikimédia

Mais en venant en permanence sur les sites web, ils ajoutent du trafic important à leur bande passante, au point de saturer certains. La fondation Wikimédia a publié un billet pour expliquer à quel point ces robots ont un impact sur ses projets : « Notre infrastructure est conçue pour supporter des pics soudains de trafic d’origine humaine lors d’événements très intéressants, mais le volume de trafic généré par les robots scrapeurs est sans précédent et présente des risques et des coûts croissants ».

En effet, ces entreprises récupèrent ces contenus à l’aide de « crawlers », des robots d’indexation, ou plutôt ici de récupération de données. OpenAI a officiellement donné le nom de son robot, GPTBot, en aout 2023, suscitant immédiatement la réaction de RSF qui a rapidement invité « tous les médias à configurer leurs sites pour éviter qu’OpenAI ne récupère leur contenu gratuitement ». C’est ce qu’ont fait beaucoup de sites web.

Un blocage pas si efficace

Pour cela, il « suffit » de lister dans le fichier robots.txt de son site les robots dont on ne veut pas. Mais, comme l’ont démontré récemment des chercheuses, certains robots récupèrent des informations de sites qui, pourtant, les ont ajoutés dans leurs listes. De plus, l’outil d’IA générative de Microsoft, Copilot, utilise BingBot, le robot d’indexation du moteur de recherche de l’entreprise. Un site qui voudrait bloquer l’IA de Microsoft ne serait plus indexé dans le moteur de recherche Bing.

Et, comme on l’a vu récemment, certains sites peuvent être visités 2 millions de fois par un bot en un trimestre. Il est déjà difficile pour des infrastructures comme celles de la Fondation Wikimédia de faire face à cet afflux « artificiel » pour gérer sa bande passante, mais ça l’est encore plus pour des projets qui ont moins de moyens.

Certains expriment leur ras-le-bol

Plusieurs responsables de projets de logiciels libres se sont plaints du problème, expliquait récemment ArsTechnica. Le développeur Xe Iaso a, par exemple, exprimé son ras-le-bol en janvier face au crawler d’Amazon : « À la personne qui gère AmazonBot, veuillez ajouter git.xeserv.us à votre liste de domaines bloqués. Si vous connaissez quelqu’un chez Amazon, merci de lui transmettre ce message et de lui demander de le transmettre à l’équipe d’AmazonBot » alors qu’il avait radicalement bloqué tous les robots dans son fichier robots.txt.

TheLibre.News a aussi recensé plusieurs infrastructures de logiciels libres touchés par ce problème. Le GitLab des développeurs de KDE a, par exemple, été touché par des crawlers ayant des IP détenues par Alibaba, ce qui l’a rendu temporairement inaccessible. L’un des administrateurs systèmes du projet Pagure de Fedora a, lui aussi, constaté un afflux massif de robots de récupération de données venant du Brésil. Il explique avoir décidé de bloquer temporairement toutes les IP brésiliennes pour en venir à bout tout en sachant bien que ce n’était pas une solution de long terme.

Gergely Orosz, qui publie la newsletter The Pragmatic Engineer, explique sur LinkedIn que le site d’un de ses projets personnels qui déclinait a reçu récemment un trafic important « lorsque le crawler AI de Meta et d’autres bots comme Imagesiftbot ont commencé à crawler le site sans réfléchir : ça a poussé le trafic à plus de 700Go par mois » alors qu’il était aux alentours de 100Go par mois un peu avant.

« Le site est hébergé sur Render où 500Go/mois sont inclus, au-delà c’est 30 $ pour 100Go. Ce mois-ci, je paie donc 90 $ pour l’entrainement de ces LLM », commente-t-il. Et lui aussi pointe que « l’ironie est que les robots – y compris Meta ! – ignorent manifestement le fichier robots.txt du site qui leur dit de « s’il vous plait, restez à l’écart » ».

Drew DeVault, le fondateur de la plateforme d’outils open source Source Hut, a publié un billet de blog le 17 mars dernier demandant aux entreprises d’IA génératives d’ « arrêter d’externaliser [leur] coûts directement sur [lui] ». « Au lieu de travailler sur nos priorités à SourceHut, j’ai passé entre 20 et 100 % de mon temps à atténuer les crawlers LLM hyper-agressifs », s’y lamente-t-il. Il explique que Source Hut subit des « dizaines de brèves pannes par semaine » et qu’il doit chercher tous les jours de nouvelles solutions pour ne pas voir la situation empirer. Le même jour, son entreprise expliquait que des crawlers de LLM continuaient à provoquer un DDoS sur SourceHut.

Des solutions pour piéger les crawlers d’IA

Elle expliquait avoir décidé de déployer Anubis pour essayer de bloquer les bots des entreprises d’IA. « Ce logiciel présente à certains utilisateurs un défi de preuve de travail qui est résolu par le navigateur de l’utilisateur à l’aide de JavaScript », explique SourceHut. C’est en fait une solution qu’a développée Xe Iaso après avoir publié son ras-le-bol.

D’autres solutions commencent à être développées, notamment en essayant de piéger les IA dans un labyrinthe de liens. Nepenthes, par exemple. Sa documentation explique que le logiciel « fonctionne en générant des séquences infinies de pages, chacune contenant des dizaines de liens, qui retournent simplement dans un piège ». Nepenthes ajoute des petits détails comme un délai ou une fausse apparence de fichiers statiques pour tromper le crawler.

De son côté, Cloudflare a aussi pensé à une solution de labyrinthe, explique-t-elle dans un billet de blog. Celle-ci « utilise du contenu généré par l’IA pour ralentir, embrouiller et gaspiller les ressources des AI Crawlers et d’autres robots qui ne respectent pas les directives « no crawl » ». L’entreprise, connue pour vendre des solutions pour augmenter la sécurité et les performances des sites internet, propose pour le moment à tous ses utilisateurs la possibilité d’activer gratuitement cette fonctionnalité.

  •  

☕️ Le noyau Linux 6.15 permet à exFAT de supprimer les fichiers bien plus vite

exFAT est un système de fichier créé par Microsoft en 2006 pour les supports amovibles, particulièrement les cartes SD, avec un accent mis sur la gestion des métadonnées. Il s’agissait alors d’un système de fichiers propriétaire. Les spécifications ont finalement été ouvertes en 2019 et la propriété des brevets transférée à l’Open Invention Network. Ce n’est cependant pas une technologie ouverte.

Son support dans Linux a toujours été bancal, malgré des améliorations notables de temps en temps. La version 6.15 du noyau devrait cependant donner un gros coup de fouet, notamment lors de la suppression de fichiers, quand l’option de montage « discard » est active. Cette dernière signifie qu’une opération informe le périphérique de stockage que les blocs sous-jacents ne sont plus utilisés. Supprimer un fichier envoie ainsi un signal pour passer ces blocs du statut « occupé » à « libre ».

Disque dur

C’est un ingénieur de Sony, Yuezhang Mo, qui a apporté la modification. Il explique ainsi qu’en mode discard, les clusters sont éliminés un par un quand l’utilisateur déclenche une suppression de fichiers. Plus le nombre et le poids des fichiers augmente, plus l’opération prend de temps. Au point que ce dernier peut devenir excessif et entrainer un plantage des composants logiciels impliqués, jusqu’au blocage parfois de la machine. Sa modification a donc consisté à permettre le traitement par lots des clusters impliqués, comme le rapporte notamment Phoronix.

Pour donner un ordre d’idée, la suppression d’un fichier unique de 80 Go prenait la bagatelle de 286 secondes, un temps que l’on peut considérer comme « fou ». Avec le noyau Linux 6.15, la même opération prend… 1,6 seconde.

  •  

Les droits de douane Trump relancent l’hypothèse d’une taxe GAFAM européenne

Seul contre tous
Les droits de douane Trump relancent l’hypothèse d’une taxe GAFAM européenne

Donald Trump a tenu parole, en annonçant, mercredi, de nouveaux droits de douane exceptionnels, censés favoriser selon lui la réindustrialisation des États-Unis. Si la sidération domine encore sur les marchés financiers, les réactions politiques ne se sont pas fait attendre. L’Europe et la France défendent déjà l’idée de contre-mesures, parmi lesquelles l’hypothèse d’une taxe GAFAM, appliquée sur les flux financiers des géants du numérique, risque de s’imposer comme une évidence.

L’incertitude a duré jusqu’aux dernières heures : jusqu’où Donald Trump allait-il mettre à exécution ses menaces de droits de douane ? Le président des États-Unis n’a finalement pas mis d’eau dans son vin. Il a annoncé mercredi, à l’occasion de ce qu’il qualifie de « Liberation Day », un jeu de mesures exceptionnelles, qui instaurent des droits de douane particulièrement lourds pour les marchandises importées aux États-Unis. La Chine et les autres pays de l’Asie manufacturière sont particulièrement touchés, tout comme l’Union européenne.

Outre une taxe plancher sur les importations de 10 %, valable pour tous les pays – une approche systématique qui conduit à introduire des droits de douane sur des archipels peuplés uniquement de manchots et d’oiseaux, Trump prévoit des droits de douane individualisés et réciproques plus élevés pour les pays avec lesquels les États-Unis entretiennent une balance commerciale déficitaire.

Présentés à grands renforts de tableaux pendant une conférence de presse, ces droits de douane se montent à 20 % pour l’Union européenne, 54 % pour la Chine (en intégrant les précédentes taxes de 20 % entrées en vigueur début mars), 32 % pour Taïwan, 24 % pour le Japon, 49 % pour le Cambodge ou 46 % pour le Vietnam, 48% pour le Laos, 47% pour Madagascar, 44% pour le Sri Lanka, etc.

Ils ne préjugent pas, par ailleurs, d’éventuelles taxes spécifiques, comme les 25 % désormais prélevés sur l’importation de véhicules produits en dehors des États-Unis.

Une méthodologie qui interroge

Outre les cas particuliers comme le Canada, le Mexique ou la Chine, pourquoi de telles variations entre, disons, le Vietnam et le Cambodge ? Après analyse des chiffres, l’économiste américain James Surowiecki a remarqué une corrélation entre le déficit commercial des États-Unis avec le pays concerné et le niveau de droits de douane appliqué. Une hypothèse qu’a partiellement confirmée le bureau du représentant américain au commerce (USPTR), en publiant, jeudi, l’équation ayant soi-disant présidé au calcul.

Si les modalités de ce calcul interrogent, c’est aussi parce que Donald Trump parle de droits de douane réciproques, comme si les États-Unis ne faisaient que réagir aux pressions commerciales que lui font subir les autres pays du monde. L’Europe est dans ce contexte accusée de taxer à hauteur de 39 % les importations venues de l’autre côté de l’Atlantique, mais d’où vient ce chiffre ?

De façon empirique, un journaliste de Wired vérifie, sur 182 des 185 pays concernés, l’hypothèse de Surowiecki : « pour chaque pays, ils ont simplement pris notre déficit commercial avec ce pays et l’ont divisé par les exportations de ce pays vers nous ». En 2024, l’Union européenne a, par exemple, exporté l’équivalent de 605 milliards de dollars vers les États-Unis, mais importé uniquement 370 milliards de dollars, soit une balance déficitaire de 236 milliards de dollars… qui représente 39 % de ce que les États-Unis ont consommé en provenance de l’Europe.

Quel impact sur le secteur de la tech ?

Jeudi matin, les marchés européens ont vu rouge, très rouge, et l’ouverture de Wall Street s’annonce difficile. Bien que Trump défende l’impact positif de ses mesures pour l’économie américaine, ces droits de douane risquent en effet de soulever de nombreuses difficultés pour les sociétés qui produisent ou s’approvisionnent dans le reste du monde. Apple, qui fabrique massivement en Asie (Chine, Inde, Vietnam) ou Amazon, dont les rayons virtuels débordent de produits manufacturés à l’étranger, figurent parmi les acteurs de premier plan les plus exposés.

Les répercussions à plus long terme sont toutefois difficiles à mesurer. D’abord, parce que l’économie de la tech repose sur une infinité d’interdépendances entre composants, technologies, logiciels et flux financiers mondialisés. Ensuite, parce que la manœuvre de Donald Trump recèle une part variable non négligeable.

« Ces droits de douane resteront en vigueur jusqu’à ce que le président Trump détermine que la menace posée par le déficit commercial et le traitement non réciproque sous-jacent est satisfaite, résolue ou atténuée », expose clairement la Maison blanche. Le président ne s’en cache pas : il cherche à faire pression sur les états comme sur les acteurs économiques, pour obtenir des mesures favorables à l’économie des États-Unis, et ramener sur son sol des investissements, des usines et des emplois.

Vers une guerre commerciale ?

Droits de douane contre droits de douane, l’hypothèse laisse supposer une hausse généralisée des prix avec, à la clé, un risque de récession de l’économie américaine, dont la consommation des ménages représente près de 70 %. Un risque assumé par Donald Trump. « Ce que nous faisons est grand, nous rapportons la richesse à l’Amérique, et il y aura une période de transition. Il faut du temps », déclarait-il le 9 mars dernier, au micro de NBC.

En attendant, une forme de riposte s’organise, même si les contours en sont encore flous. Ursula Von der Leyen, présidente de la Commission européenne, a rappelé jeudi matin que l’Union préparait déjà un lot de mesures visant à taxer les marchandises venues des États-Unis, en réponse aux droits de douane déjà instaurés par Donald Trump sur les produits contenant de l’acier et de l’aluminium. « Et nous nous préparons maintenant à de nouvelles contre-mesures pour protéger nos intérêts et nos entreprises si les négociations échouent », a-t-elle ajouté lors de sa déclaration.

Le retour d’une taxe GAFAM européenne ?

Il est toutefois probable que d’autres mesures, moins « réciproques », soient aussi envisagées, et l’hypothèse d’une taxe GAFAM suscite déjà, dans ce contexte, de premières déclarations. Elle apparaît en effet comme une mesure de rétorsion relativement évidente, du fait de la part prépondérante des services, et donc de l’économie numérique, dans la balance commerciale états-unienne. Un point que Donald Trump omet sciemment dans ses propres chiffres et déclarations, qui ne raisonnent que sur la base des biens matériels.

En 2023, l’Europe exportait par exemple 503 milliards d’euros de marchandises vers les États-Unis, et en importait 347 milliards d’euros. Or la situation s’inverse quand on regarde les services : l’Union européenne exportait l’équivalent de 319 milliards d’euros vers les États-Unis, alors que ces derniers génèraient 427 milliards d’euros à partir du marché européen. En matière de services, les États-Unis bénéficient donc d’un excédent commercial significatif vis à vis de l’Europe.

La France semble déjà pencher en faveur de l’idée d’une taxe GAFAM, comme l’a laissé entendre Sophie Primas, porte-parole du gouvernement, sur RTL. Rappelant le premier volet de la riposte européenne relative à l’aluminium et à l’acier, elle évoque un second volet, plus large, « probablement prêt à la fin du mois d’avril sur l’ensemble des produits et des services, et j’insiste bien sur les services, avec de nouveaux outils » réglementaires, dits anti-coercition.

  •  

Spam : l’Arcep confirme une explosion des appels et messages abusifs en 2024

Oui allo ? Alors je sais, vous avez sûrement…
Spam : l’Arcep confirme une explosion des appels et messages abusifs en 2024

En 2024, comme les années précédentes, le nombre de plaintes envoyées à l’Arcep est en hausse. Les alertes concernant la fibre optique sont sans surprise les plus importantes. Sur le mobile, on note aussi une explosion des spams téléphonique. Dans le même temps, l’Observatoire de la satisfaction client 2025 est aussi disponible.

L’Arcep (régulateur des télécoms) vient de publier le bilan annuel de sa plateforme J’alerte l’Arcep. Lancée fin 2017, elle permet à tout un chacun (particuliers et professionnels) de lui signaler un problème. « Les alertes recueillies permettent de suivre en temps réel les difficultés rencontrées par les utilisateurs, d’identifier les dysfonctionnements récurrents ou les pics d’alertes », explique l’Autorité.

En 2024, le gendarme des télécoms a reçu plus de « 57 000 [+ 8% par rapport à 2023, ndlr] alertes dont environ 49 000 directement sur la plateforme ». Sans surprise, « l’utilisation de j’alerte l’Arcep, en hausse constante, reflète les évolutions des problèmes rencontrés depuis 2018 ».

Le nombre d’alertes sur les réseaux hors fibre décroit (sauf un petit rebond en 2023), tandis que celui sur la fibre optique représente désormais plus de la moitié des signalements. On peut également voir (zone rose) une forte hausse des appels/messages non sollicités ou abusifs sur le mobile, nous allons y revenir.

Signalements : Free (en tête) vs les trois autres opérateurs

Au niveau des opérateurs, Free se démarque à la fois sur le fixe et sur le mobile, mais pas de la meilleure des manières :

« Les signalements reçus concernant les opérateurs Orange, SFR et Bouygues sont en baisse en 2024 et compris entre 75 et 100 pour 100 000 utilisateurs, ceux pour Free sont stables aux alentours de 150 pour 100 000 utilisateurs.

Sur le marché mobile, les signalements reçus concernant les opérateurs Bouygues, Orange et SFR sont plutôt stables depuis 3 ans et sont compris entre 5 et 10 pour 100 000 utilisateurs, ceux pour Free sont en hausse et sont compris entre 10 et 15 pour 100 000 utilisateurs ».

Satisfaction client : Free aussi en tête

Si Free arrive premier sur le nombre de signalements, l’opérateur est aussi en tête sur les notes de satisfaction attribuées par les utilisateurs au service client, avec 2,8/5. Bouygues Telecom et Orange sont deuxièmes avec 2,4/5 et SFR dernier avec 2,2 sur 5.

Autre indicateur : la satisfaction globale des abonnés à un réseau fixe et/ou mobile. Elle « est en légère hausse, pour l’ensemble des opérateurs, par rapport à l’année précédente ». Free est en tête avec 8,1 sur 10, Orange deuxième avec 8,0, Bouygues Telecom troisième avec 7,8 et SFR encore dernier avec 7,5.

« La satisfaction des utilisateurs vis-à-vis des opérateurs mobiles (notés 7,9/10 en moyenne) est
équivalente à celle vis-à-vis des fournisseurs d’accès à internet fixe (notés 7,8/10 en moyenne)
 », ajoute l’Arcep.

Le bilan complet de la satisfaction des utilisateurs vis-à-vis des opérateurs mobiles et Internet est disponible ici. Le document (PDF) fait pas moins de 111 pages. C’était un questionnaire en ligne auto-administré d’une quinzaine de minutes réalisé entre le 23 septembre et le 11 octobre sur un échantillon de 4 006 consommateurs âgés de 18 ans et plus.

Grogne sur les déploiements

Les alertes sur le fixe sont encore et toujours majoritaires avec 85,4%, contre 14,6 % pour le mobile. Néanmoins, « les signalements relatifs au marché fixe ont, pour la première fois depuis le début du lancement de la plateforme de « J’alerte », diminué en 2024 », avec presque deux points de moins.

Dans le détail, sur le fixe chez le grand public, le déploiement des réseaux et la qualité de services et du SAV représentent 94,7 % des signalements. Entre 2023 et 2024, il y a eu un fort mouvement : les plaintes sur les déploiements ont augmenté de presque 50 %, tandis que celles sur la qualité de service ont baissé de 67 %.

Spam téléphonique : explosion des alertes

Cela ne surprendra personne : « en 2024, le volume des signalements relatifs au phénomène d’usurpation de numéro a été multiplié par 16 passant approximativement de 500 alertes en 2023 à 8500 en 2024 ». L’Arcep note une forte fluctuation durant l’année, avec un pic au mois de septembre avec près de 1 500 alertes.

Au global, c’est l’ensemble de la catégorie des alertes liées aux appels et messages non sollicités ou abusifs qui est en très forte augmentation : de 2 029 alertes en 2023, l’Arcep en a reçu 10 973 en 2024, soit plus de cinq fois plus.

Quasiment tous les indicateurs sont en très forte hausse par rapport à 2023 si on se base sur le nombre d’alertes. Par exemple, le démarchage téléphonique abusif est passé de 1 094 à 1 517 alertes, mais ne représentent plus que 13,8 % de l’ensemble à cause de l’explosion du nombre d’usurpations de numéro.

Les opérateurs mettent en place des protections… encore partielles

La lutte s’est intensifiée fin 2024 et début 2025 avec le Mécanisme d’Authentification des Numéros (MAN) en place depuis 1ᵉʳ octobre sur le fixe et sur le mobile chez les quatre opérateurs depuis le début de l’année. Cela pourrait expliquer l’intensification de septembre, avec un dernier tour « d’honneur » ?

Il faudra attendre le prochain observatoire pour juger d’éventuels effets sur le mobile, mais il reste un important trou dans le filet de protection du MAN, comme nous l’expliquions récemment : « les appels en roaming (depuis l’étranger) avec un numéro français ne sont pas concernés ».

Sur le graphique de droite ci-dessous, ne vous fiez pas uniquement à la longueur des barres qui représentent la répartition des alertes (en pourcentage), pas le nombre de signalements.

  •  

L’Agence spatiale européenne alerte encore sur la prolifération des débris

Dirty space
L’Agence spatiale européenne alerte encore sur la prolifération des débris

Le rapport annuel de l’ESA sur l’environnement spatial alerte sur l’augmentation toujours plus importante du nombre de débris. Et l’orbite terrestre basse est de plus en plus encombrée. Pourtant, l’agence européenne constate une meilleure prise en compte des directives de réduction des débris spatiaux par les différents acteurs. Mais celle-ci va moins vite que l’augmentation du nombre de lancements.

L’ESA a publié son rapport annuel sur l’environnement spatial [PDF]. L’agence spatiale européenne y explique que le monde du spatial commence à prendre en compte le fait que « l’environnement orbital de la Terre est une ressource limitée » comme l’indiquait l’ONU en 2019 dans ses recommandations sur la durabilité de l’espace extra-atmosphérique.

Trop lents

Mais cette prise en compte est encore beaucoup trop lente. Nous augmentons moins rapidement le nombre d’objets en orbite autour de la Terre, mais nous l’augmentons toujours : « si la croissance exponentielle du nombre de nouvelles charges utiles s’est ralentie en 2024, le nombre de lancements a continué d’augmenter et, en termes de masse et de superficie, le nombre de lancements est toujours le plus élevé jamais enregistré jusqu’à présent ».

De la même façon, les directives établies pour pousser au désorbitage sont de mieux en mieux suivies mais ça ne va pas encore assez vite :

« Alors que l’adoption et le respect des pratiques de réduction des débris spatiaux au niveau mondial augmentent lentement, il est important de noter que la mise en œuvre réussie de l’un ou l’autre des seuils de durée de vie est encore trop faible pour garantir un environnement durable à long terme. Notamment, une partie de l’augmentation de l’adoption des mesures de réduction […] comme les rentrées contrôlées de corps de fusée ou les taux de réussite de l’élimination des charges utiles en orbite terrestre basse après la mission, est liée au déploiement et à la mise hors service de grandes fusées et d’engins spatiaux de grande taille », explique l’agence européenne.

Des politiques mises en place mais un futur incertain aux États-Unis

C’est d’ailleurs en ce sens qu’elle a augmenté ses exigences en 2023, avec un objectif « zéro débris » d’ici à 2030. L’ESA s’engageait à :

  • limiter la quantité de débris spatiaux créés par les opérations normales ;
  • réduire au minimum le risque de désintégration en orbite ;
  • prévenir les collisions en orbite ;
  • mettre en œuvre l’élimination après la mission.

Du côté américain, la FCC infligeait en 2023 sa première amende pour mauvais désorbitage. Mais la nouvelle administration Trump et la suppression de l’indépendance de l’agence américaine qui régule les satellites risquent de changer la donne.

Autant de débris que de satellites actifs sur l’orbite terrestre basse

« Le nombre de débris spatiaux en orbite continue d’augmenter rapidement. Environ 40 000 objets sont actuellement suivis par les réseaux de surveillance de l’espace, dont environ 11 000 sont des charges utiles actives », explique l’agence.

Elle ajoute qu’il y en a beaucoup en orbite qui pourraient causer des accidents : « le nombre réel de débris spatiaux d’une taille supérieure à 1 cm – suffisamment grands pour être capables de causer des dommages catastrophiques – est estimé à plus de 1,2 million, dont plus de 50 000 objets d’une taille supérieure à 10 cm ».

L’orbite terrestre basse est celle qui inquiète le plus l’agence. Elle fait remarquer qu’ « à environ 550 km d’altitude, le nombre de débris constituant une menace est aujourd’hui du même ordre de grandeur que celui des satellites actifs ».

  •  

☕️ 50 ans plus tard, Bill Gates publie le code source de l’Altair BASIC

Alors que Microsoft célèbrera vendredi 4 avril les cinquante ans de sa création en tant que société, Bill Gates est revenu cette semaine sur ce qui constitue sans doute l’épisode fondateur de son aventure entrepreneuriale : l’écriture avec Paul Allen, en un temps record, d’un interpréteur BASIC destiné à l’Altair 8800 de MITS (basé sur le CPU 8080 d’Intel).

Il a dans le même temps publié, pour la première fois, le code source de ce fameux interpréteur, le premier produit commercial vendu par les deux fondateurs de Microsoft : 150 pages de sorties d’imprimante scannées, qui révèlent (PDF) un code dûment commenté, écrit en seulement trente jours (et trente nuits) au printemps 1975.

« Avant Office, Windows 95, la Xbox ou l’IA, il y avait Altair BASIC », attaque joliment Bill Gates, avant de retracer plus en détail le déroulé des faits. D’abord, la découverte de cette nouvelle machine, l’Altair 8800, affichée en couverture du magazine Popular Electronics, qui augurait l’avènement d’une informatique personnelle. Puis cette idée en forme de défi, vendue sur papier à MITS, le fabricant de l’Altair : développer un interpréteur BASIC, capable d’offrir une alternative au langage assembleur de base de la machine. Sans accès direct à cette dernière, Gates et Allen durent utiliser un simulateur.

« Enfin, après de nombreuses nuits blanches, nous fûmes prêts à montrer notre interpréteur BASIC à Ed Roberts, le président de MITS. La démonstration se révéla un succès, et MITS accepta de nous acheter le logiciel. Ce fut un moment pivot pour Paul et moi. Altair BASIC devint le premier produit de notre nouvelle société, que nous avions décidé d’appeler Micro-soft (nous avons abandonné plus tard le tiret) », écrit Bill Gates.

  •  

☕️ Qualcomm veut aussi sa part du gâteau de l’IA générative et rachète MovianAI

Qualcomm vient d’annoncer le rachat de MovianAI Artificial Intelligence Application and Research JSC (alias MovianAI), l’ancienne division d’IA générative du conglomérat privé vietnamien Vingroup. Cette branche était dirigée par Hung Bui (il en était également le fondateur), un ancien de chez Google DeepMind où il a passé 16 mois comme chercheur.

« Cette acquisition souligne notre engagement à consacrer les ressources nécessaires à la R&D, ce qui fait de nous la force motrice de la prochaine vague d’innovation en matière d’IA », explique Jilei Hou, vice-président sénior de l’ingénierie chez Qualcomm.

Le montant de la transaction n’est pas précisé. Qualcomm ajoute que Hung Bui rejoindra ses effectifs, sans en dire davantage sur son poste. « Nous sommes prêts à contribuer à la mission de Qualcomm qui consiste à réaliser des avancées majeures dans la recherche fondamentale en intelligence artificielle et à les déployer dans tous les secteurs, notamment les smartphones, les ordinateurs, les véhicules assistés par informatique, etc. », explique-t-il.

Puce Snapdragon X Plus
  •  

☕️ Nintendo lancera la Switch 2 le 5 juin, à partir de 470 euros

Nintendo a dévoilé mercredi, lors d’une conférence diffusée en direct, les grandes lignes et les premiers jeux de sa future console hybride (mi portable, mi console de salon), la Switch 2. Son lancement est désormais officiellement programmé au 5 juin prochain, avec un prix de départ fixé à 469,99 euros et des précommandes ouvertes à partir du 8 avril.

Sur le plan matériel, Nintendo valide ou précise la plupart des éléments déjà évoqués en janvier, lors de la première confirmation officielle de la console. La Switch 2 conserve le même schéma de fonctionnement que celui du modèle originel (un écran central autonome, des manettes amovibles sur le côté, une station d’accueil pour relier l’ensemble à une TV).

Le fabricant japonais livre quelques premiers détails techniques : la Switch 2 s’articule autour d’un écran LCD (et non OLED) de 7,9 pouces, délivrant 1920 x 1080 pixels avec une fréquence d’affichage variable pouvant monter à 120 Hz et prise en charge du HDR10.

Une fois connectée en USB-C à son dock, ce dernier autorise, via HDMI, un affichage 3840 x 2160 (4K) à 60 images par seconde (fps). Pour aller chercher les 120 fps, il faudra basculer sur une résolution inférieure (1920 x 1080 ou 2560 x 1440).

Huit ans après la Switch première du nom, qui utilisait un dérivé de la puce Tegra, Nintendo reste fidèle à NVIDIA. La Switch 2 exploite une nouvelle fois un design personnalisé, dont les caractéristiques n’ont pas encore été dévoilées. La console bascule pour le reste sur 256 Go de stockage (contre 32 Go sur la première Switch et 64 Go sur sa variante OLED), avec Bluetooth et Wi-Fi 6, ou liaison réseau filaire via un port LAN quand elle est rangée sur son dock.

Nintendo évoque deux ports USB type-C (l’un sert à la connexion au dock, l’autre aux accessoires, les deux permettent la recharge) et un emplacement pour cartes microSD Express, format auquel seront distribués les jeux, jusqu’à 2 To. La console, qui pèse 401 grammes sans ses manettes et présente 13,9 mm d’épaisseur, dispose d’une batterie de 5 520 mAh qui autorise une autonomie théorique comprise entre « 2 et 6,5 heures ».

Les manettes Joy-Con, connectées en Bluetooth 3.0 et désormais dotées d’une attache magnétique, prennent un peu d’embonpoint. Elles inaugurent un capteur optique, permettant de les utiliser comme une souris d’ordinateur. Elles gagnent également un bouton C, dédié aux nouvelles fonctionnalités de discussion en jeu implémentées par Nintendo dans son environnement logiciel, baptisées GameChat. Entre autres accessoires, une caméra sera proposée en option, avec la promesse d’interactions au sein de certains jeux.

Du côté des jeux justement, c’est la grande offensive. Nintendo mise en premier lieu sur ses propres licences, à commencer par un nouvel épisode de Mario Kart, qui sera proposé avec la console en bundle au lancement, ou Donkey Kong Bananza, attendu pour mi-juillet. Entre nouveautés et rééditions, la firme convoque sans surprise ses licences les plus iconiques.

Elle y ajoute une forte dimension rétrocompatibilité, avec la prise en charge annoncée de la plupart des jeux Switch et l’ajout de jeux Gamecube au sein de l’abonnement Nintendo Switch Online.

Enfin, Nintendo promet pléthore de titres émanant d’éditeurs tiers, incluant de nombreux titres de premier plan (AAA), même et y compris popularisés par des plateformes concurrentes, PC ou consoles. Dans le lot figurent des jeux tels que Elden Ring, Cyberpunk 2077, Final Fantasy 7 Remake, Star Wars Outlaws, Fortnite, Hogwarts Legacy, EA Sports FC, etc. FromSoftware signera par ailleurs une exclusivité dédiée à la Switch 2, attendue pour 2026 : un jeu d’action ambiance vampire en monde ouvert avec dimension multijoueurs baptisé The Duskbloods.

Bref, un programme musclé, pour une console qui aura la lourde tâche de succéder à une Switch, première du nom, vendue à plus de 150 millions d’exemplaires dans le monde depuis son lancement en 2017.

  •  

Avec Thunderbird Pro, Mozilla veut partir à l’assaut de Gmail et Microsoft 365

👀
Avec Thunderbird Pro, Mozilla veut partir à l’assaut de Gmail et Microsoft 365

Si le client Thunderbird pour la gestion des e-mails est en perte de vitesse, l’équipe qui en a la charge a de grandes ambitions. Ainsi, une initiative nommée « Thunderbird Pro » évoque la création d’un bouquet de services, pour se battre plus frontalement avec des offres comme Gmail et Microsoft 365.

Depuis que le projet Thunderbird est revenu sous l‘égide de Mozilla, l’ancien client e-mail a rattrapé une partie de son retard. En plus des fonctions ajoutées, son interface a été modernisée via le projet Supernova, même si le logiciel garde une apparence « datée » pour une partie des utilisateurs. Thunderbird se prépare également pour les environnements mobiles, sur Android d’abord via le rachat de K-9. iOS est également concerné, mais le travail sera plus long, car l’équipe de développement ne dispose d’aucune base de départ.

Les webmails plus attractifs

Malgré ces efforts, Thunderbird est en perte de vitesse. « Thunderbird perd chaque jour des utilisateurs au profit d’écosystèmes riches qui sont à la fois des clients et des services, tels que Gmail et Office 365 », indique Ryan Sipes dans un message sur le groupe de planification de Thunderbird.

Pourquoi une telle perte ? On pourrait évoquer les offres plus complètes, les nombreux liens entre services, la possibilité de tout faire au même endroit, la pression des pairs, ou encore la vision très intégrée. De fait, Sipes évoque deux types de verrouillages : « durs », quand ils touchent des problèmes techniques (comme l’interopérabilité avec les clients tiers) et « doux » quand il s’agit de commodités et d’intégration.

Et pour cause, un compte Google ou Microsoft donne accès d’une traite à de nombreux services « gratuits ». En outre, le compte synchronisé permet de s’assurer que l’on verra la même chose sur tous les appareils. Thunderbird, en revanche, fait partie de la vieille école : il faut configurer le logiciel sur chaque ordinateur et ces réglages ne peuvent pas suivre les utilisateurs sur les plateformes mobiles.

La solution ? Un bouquet de services réunis sous la bannière « Thunderbird Pro ».

Le client Thunderbird actuellement

Thunderbird aura son propre bouquet de services

La vision présentée par Ryan Sipes est celle d’une offre de services en ligne rattachée à Thunderbird et portant l’étendard « Pro ». Pour l’instant, on en compte quatre.

Appointment est ainsi un outil de planification permettant d’envoyer des invitations. Les réponses données sont directement reprises et intégrées au calendrier. Le service est développé depuis environ un an et est actuellement disponible sous forme de bêta depuis son dépôt GitHub, même s’il n’est pas exploitable directement. Les personnes intéressées peuvent cependant l’installer sur un serveur, notamment via Docker.

Vient ensuite Thunderbird Send, qui est la « renaissance » de Firefox Send, de l’aveu même de l’équipe. Il s’agit donc d’un service permettant l’envoi de fichiers, reprenant le même principe, mais dont le code a profondément changé pour être modernisé. Le dépôt GitHub attenant a été ouvert la semaine dernière, avec là encore la possibilité d’aller examiner le code.

Assist sera un assistant IA. Ryan Sipes trace directement un parallèle avec la vision d’Apple. Ainsi, les requêtes seront idéalement traitées en local pour les appareils assez puissants. Dans le cas contraire, les développeurs veulent se servir de la fonction Confidential Computing de NVIDIA pour créer des instances temporaires et anonymes de calculs. Une approche retenue par Apple avec son Private Cloud, même si l’entreprise se sert de Mac pour l’instant et non de GPU NVIDIA. Assist serait purement optionnel et n’a pas encore de dépôt.

Thundermail, le webmail maison

Dernier service, et sans doute le plus important : Thundermail. Il sera le webmail accompagnant l’offre, le pendant en ligne de Thunderbird. Et pour répondre à la question qui vient immanquablement aux lèvres : oui, cela signifiera la création de comptes e-mails.

Selon Sipes, l’équipe expérimente la question « depuis un certain temps », sur la base d’un serveur e-mail existant nommé Stalwart. Ce dernier, en plus de gérer IMAP et POP3, a la particularité de supporter JMAP (JSON Meta Application Protocol). Ce dernier a été pensé pour prendre la relève d’IMAP, mais sa prise en charge reste relativement rare. JMAP est ouvert et normalisé, se veut plus rapide et sécurisé, et propose une approche modernisée capable de donner le change aux technologies propriétaires. On le trouve notamment dans les produits de Fastmail.

« Avec Thundermail, notre objectif est de créer une expérience de messagerie de nouvelle génération qui soit complètement, 100 % open source et construite par nous tous, nos contributeurs et la communauté plus large des contributeurs », affirme ainsi Ryan Sipes. Il ajoute cependant qu’il n’y aura pas de dépôt unique pour concentrer les travaux sur Thundermail. En revanche, certains pans de développement donneront lieu à des partages.

Si le travail a été lancé, le domaine n’a pas encore été choisi. Il s’agira probablement de thundermail.com ou de tb.pro. L’équipe a ouvert une page pour s’inscrire sur liste d’attente et participer à la bêta, bien qu’aucune date n’ait été indiquée.

Comment se différencier ?

Dans le descriptif, les notions d’ouverture et de valeur reviennent régulièrement. Dans un monde largement dominé par les offres de Google et Microsoft, il n’est pas certain en effet qu’un Thunderbird Pro soit réellement visible. D’autant que le projet Thunderbird a besoin d’argent et vit de dons. Mozilla ne lui en donne pas directement, même si la fondation aide le projet par ses infrastructures et autres ressources indirectes.

En conséquence, l’offre Thunderbird Pro sera payante. Dans un premier temps, elle sera offerte aux personnes ayant contribué régulièrement à Thunderbird. Puis des offres payantes seront proposées, même si aucun détail n’est donné. Il n’y a donc pas de fourchette de prix, et on ne sait pas non plus si Mozilla lancera une offre unique comprenant tous les services, ou si ces derniers pourront être choisis à la carte. Si le nombre d’abonnés est suffisant, une offre gratuite verra le jour avec des limitations, comme un espace moindre pour Send (notamment pour éviter les abus).

Pour Ryan Sipes, l’annonce de Thunderbird Pro est la « réalisation d’un rêve ». Il se dit « convaincu que tout cela aurait dû faire partie de l’univers Thunderbird il y a une dizaine d’années », mais qu’il « vaut mieux tard que jamais ». Il exprime des regrets, notamment sur l’importance que l’équipe accorde « aux logiciels libres, aux normes ouvertes, à la protection de la vie privée et au respect [des] utilisateurs », et que l’on ne retrouve pourtant pas dans les services en ligne. À cause de cette carence, Sipes estime que les internautes sont obligés de faire des compromis.

L’orientation générale serait donc le respect de la vie privée, les services étant prévus pour n’effectuer aucun traitement sur les données autres que ceux découlant des tâches déclenchées par les internautes. Des produits développés sur la base de technologies et normes ouvertes, pour combler le fossé avec les offres propriétaires.

Rien de décidé sur le chiffrement et l’emplacement des données

The Register s’est entretenu avec Ryan Sipes au sujet de Thunderbird Pro. Plusieurs informations intéressantes ont ainsi été données, notamment sur le chiffrement. La question est d’autant plus importante que Microsoft et plus récemment Google ont annoncé des simplifications en ce sens, mais il s’agit encore une fois de technologies propriétaires.

Selon Sipes, rien n’est encore décidé. Dans les tests, le chiffrement de bout en bout serait simple, mais se heurterait à la nécessité de fournir un système suffisamment simple et compréhensible aux internautes pour en assurer le succès. « Nous avons quelques idées, mais nous allons demander à notre communauté ce qu’elle pense être la meilleure approche », a ajouté Sipes.

Dans une optique de protéger au mieux les données, la question du stockage est encore ouverte. Elle est étudiée « très sérieusement ». À l’heure actuelle, l’infrastructure de test se situe dans l’Union européenne, mais ce choix ne préfigure pas du produit final. L’équipe réfléchit également à permettre de sélectionner soi-même la région dans laquelle entreposer ses données, à la manière de ce que proposent aux entreprises les grands acteurs du cloud.

  •  

Michael Waltz utiliserait Gmail dans ses activités de conseiller à la sécurité de Trump

Ils avaient dit "don't be evil"
Michael Waltz utiliserait Gmail dans ses activités de conseiller à la sécurité de Trump

Quelques jours après le « SignalGate », une enquête du Washington Post révèle que Michael Waltz, conseiller à la sécurité nationale de la Maison blanche, aurait utilisé son adresse Gmail pour orchestrer certaines de ses activités professionnelles. Il avait déjà été épinglé quelques jours plus tôt pour avoir laissé en accès public la liste de ses contacts sur l’application de paiement Venmo.

La Maison-Blanche n’en a manifestement pas tout à fait fini avec ses problématiques de shadow IT. Une enquête du Washington Post, publiée mardi 1er avril, affirme en effet que Michael Waltz, conseiller à la sécurité nationale du Président, a utilisé une messagerie commerciale, en l’occurrence un compte Gmail, pour échanger avec des membres de son équipe et d’autres représentants de l’administration Trump.

Des échanges liés à la sécurité nationale sur Gmail

Cette fois, il n’est pas question de préparatifs liés à une action militaire imminente, mais les échanges diffusés sur cette adresse personnelle présentent toutefois un réel enjeu de confidentialité, estime le Washington Post. « Un assistant senior de Waltz a utilisé [Gmail] pour des conversations hautement techniques avec des collègues d’autres agences gouvernementales impliquant des positions militaires sensibles et des systèmes d’armes de premier plan liés à un conflit en cours », écrit ainsi le quotidien américain.

Il affirme avoir eu accès à des captures d’écran illustrant cette utilisation de Gmail par ou au nom de Waltz. Le recours à une messagerie personnelle aurait également été confirmé par trois officiels de l’administration Trump, non cités. Le header des courriers envoyés au nom de Waltz révèle que ses destinataires utilisent, eux, des comptes de messagerie fournis par l’administration, note encore le Washington Post.

Négligence ou contournement délibéré ?

Dans le contexte de la Maison blanche, cette utilisation de Gmail soulèverait deux problèmes principaux, à commencer, bien sûr, par la question de la sécurité, puisque la messagerie ne garantit pas, par défaut, un chiffrement de bout en bout des échanges (Google vient d’ailleurs précisément d’annoncer l’introduction prochaine d’un chiffrement bout en bout simplifié à destination de sa clientèle entreprise).

Le second relève d’une exigence réglementaire : les officiels de l’administration états-unienne doivent utiliser les outils internes pour leur correspondance de façon à ce que cette dernière puisse être archivée, en vertu du Freedom of Information Act (FOIA). Brian Hughes, porte-parole de la sécurité nationale à la Maison-Blanche, récuse auprès du Washington Post l’hypothèse d’un contournement intentionnel de cette exigence, formulée par certains commentateurs sur les réseaux sociaux après l’épisode du SignalGate.

L’approche quelque peu laxiste de Waltz quant aux outils de communication commence toutefois à soulever des questions au sein du Bureau ovale, remarque par ailleurs le Wall Street Journal. Le quotidien économique rapporte ainsi, dans un article daté du 30 mars, que l’intéressé n’en serait pas à sa première boucle Signal. Il en aurait ainsi créé et animé plusieurs, autour de sujets aussi explosifs que le règlement du conflit entre l’Ukraine et la Russie, ou d’autres opérations militaires (non précisées).

Le précédent Venmo

Quelques jours plus tôt, Michael Waltz s’était déjà vu épingler par Wired. Le magazine explique comment il a découvert le compte Venmo (un service d’envoi d’argent en ligne appartenant à Paypal) du conseiller de Donald Trump, avec photo et liste de contacts accessibles publiquement. Le compte en question aurait été basculé en privé peu de temps après que les journalistes de Wired ont contacté la Maison blanche pour une demande de réaction.

Que Waltz utilise Venmo pour partager l’addition d’un restaurant avec ses amis n’est pas problématique en soi, mais Wired explique comment l’analyse des contacts directs du conseiller, puis l’étude de leurs propres réseaux, permet d’identifier des profils stratégiques ou d’établir des connexions entre personnalités de premier plan.

La découverte se révèle d’autant plus croustillante qu’il ne s’agit pas d’une première. En août 2024, Wired avait ainsi déjà découvert, et analysé, le réseau de contacts Venmo associé au compte de J. D. Vance, devenu depuis vice-président des États-Unis. L’exercice avait permis de révéler l’identité de certains des architectes du projet stratégique de Donald Trump et des artisans de sa campagne de réélection.

Cette nouvelle charge contre Michael Waltz intervient quelques jours après l’épisode du SignalGate, qui a défrayé la chronique fin mars. Un journaliste de The Atlantic avait alors révélé avoir été invité dans une conversation Signal réunissant la garde rapprochée de Donald Trump et dédiée aux préparatifs d’une attaque militaire au Yémen contre les Houthis. Les officiels concernés, de la Défense à la CIA, avaient ensuite cherché à minimiser la portée de l’incident, en déclarant notamment que les informations diffusées sur ce canal ne relevaient pas du secret défense. En réaction, le magazine américain a pris le parti de publier l’intégralité des échanges.

  •