Après avoir débauché des ingénieurs chez Apple, Google et OpenAI, Mark Zuckerberg continue ses tentatives d’embauches pour doter son Meta Superintelligence Lab.
Cette fois-ci, c’est le Thinking Machines Lab, start-up d’une cinquantaine de personnes fondée en 2024 par Mira Murati, l’ancienne directrice technique d’OpenAI, qui a été visé par le patron de Meta.
Plus d’une dizaine de personnes auraient ainsi été approchées, et l’une d’entre elles se serait vu proposer plus d’un milliard de dollars sur une période de plusieurs années pour rejoindre le nouveau laboratoire de Meta, d’après Wired.
La plupart des autres offres varieraient entre 200 et 500 millions de dollars sur quatre ans.
À l’heure actuelle, aucune des personnes approchées chez Thinking Machines Lab n’a saisi la perche.
La start-up est, après tout, elle-même bien dotée : elle vient de conclure le plus gros tour de financement de lancement (seed) de l’histoire, collectant 2 milliards de dollars.
Dans un effort de recentrage sur ses produits principaux, Dropbox annonce que son gestionnaire de mots de passe sera bientôt déconnecté.
Le calendrier présenté est assez serré. Le 28 août, Dropbox Passwords passera ainsi en lecture seule, que ce soit pour l’application mobile ou l’extension de navigateur. Il sera donc toujours possible d’utiliser le service, mais pas d’y ajouter de nouvelles données. Ensuite, le 11 septembre, l’application mobile cessera de fonctionner. Enfin, le 28 octobre, ce sera au tour de l’extension de navigateur. À compter de cette date, Dropbox Passwords ne pourra plus être utilisé.
L’éditeur indique qu’à la même date, toutes les données des clients « seront supprimées de manière permanente et sécurisée » de ses serveurs. La fonction de surveillance du dark web sera également coupée. Elle était notamment utilisée pour envoyer des notifications quand des identifiants étaient repérés dans des jeux de données.
Il est conseillé par l’entreprise d’exporter ses données vers un autre gestionnaire de mots de passe, via un fichier CSV, avant le 28 octobre. La marche à suivre est indiquée dans l’annonce.
Opera vient d’attaquer Microsoft en justice au Brésil. Pour l’entreprise, le géant de Redmond abuse de sa position pour imposer Edge, notamment à travers des tactiques qualifiées de « dark patterns ».
La plainte a été déposée devant le Conseil Administratif de Défense Économique. Opera affirme que la pré-installation d’Edge au sein de Windows est un problème. Les contrats de Microsoft avec les fabricants OEM permettraient de pousser Edge comme navigateur par défaut et de verrouiller le marché, ne laissant pas de place aux autres navigateurs.
Pré-installation et dark patterns
Cette pré-installation exclusive s’accompagnerait de tactiques visant à faire utiliser Edge coûte que coûte. De nombreux mécanismes dans Windows 11 envoient par défaut vers Edge, même quand un autre navigateur est installé. L’ouverture de documents PDF par exemple, les liens dans Outlook et Teams, les informations dans les widgets, les liens dans la recherche, etc.
Dans sa plainte, consultée par The Verge, Opera évoque également « des bannières et des messages intrusifs décourageant les utilisateurs de télécharger des navigateurs alternatifs au moment même où ils recherchent ces navigateurs sur Edge ».
« Microsoft contrecarre la concurrence des navigateurs sur Windows à chaque tournant. Tout d’abord, les navigateurs comme Opera sont bloqués pour d’importantes possibilités de pré-installation. Et puis Microsoft frustre la capacité des utilisateurs à télécharger et à utiliser des navigateurs alternatifs », a indiqué Aaron McParlan, avocat général d’Opera, à Reuters. En conséquence, Opera demande l’ouverture d’une enquête officielle contre Microsoft et des exigences de concurrence loyale.
Du Brésil à l’Europe
Pourquoi une plainte au Brésil ? Parce qu’Opera y a une présence nettement plus importante que dans les autres marchés. Selon StatCounter, la part d’Opera y est ainsi de 6,78 %, contre 11,52 % pour Edge et 75 % pour Chrome, très loin devant.
En Europe, Opera s’était insurgé contre le refus de la Commission européenne de nommer Edge dans sa liste des contrôleurs d’accès (gatekeepers), dans le cadre du DMA (Digital Markets Act). Même sans cela, Microsoft a introduit sur le Vieux continent de nombreux changements dans Windows, notamment en lien avec Edge, car le système est en revanche sur la liste de surveillance. Par exemple, les fonctions internes du système, comme la recherche et les widgets, renvoient vers le navigateur par défaut. Ce comportement n’est cependant pas répercuté dans la plupart des marchés.
Opera n’en a toutefois pas fini avec l’Europe : « Nous pensons que le comportement de Microsoft, y compris les changements qu’il a annoncés en Europe, est insuffisant pour atteindre une conformité effective avec le DMA, a déclaré Aaron McParlan. Dans ce contexte, et dans le cadre de ses efforts mondiaux pour garantir un choix libre et effectif aux consommateurs, Opera a fait appel devant les tribunaux de l’UE de la décision de la Commission européenne de ne pas désigner Edge comme un service de « contrôleur d’accès » en vertu du DMA. »
L’Australie continue sa campagne de régulation des réseaux sociaux : après avoir planché sur un texte limitant l’accès aux réseaux sociaux comme X, TikTok ou Facebook aux moins de 16 ans, son gouvernement s’intéresse désormais à YouTube.
En l’occurrence, la ministre de la communication Anika Wells indique que le gouvernement australien compte interdire l’accès à YouTube aux moins de 16 ans pour les protéger des « algorithmes prédateurs ».
« Il y a une place pour les réseaux sociaux, mais il n’y a pas de place pour les algorithmes prédateurs ciblant les enfants », indique-t-elle dans un communiqué, où elle souligne que deux enfants sur cinq déclarent avoir vu des contenus inappropriés sur la plateforme d’Alphabet.
Le projet constitue une évolution de doctrine, dans la mesure où YouTube ne devait pas être concerné par la régulation australienne sur les réseaux sociaux.
À l’origine, le gouvernement avait estimé que la plateforme, très utilisée dans les écoles, ne devait pas faire partie du lot des services dont l’accès serait limité aux mineurs.
Poussé par un nombre croissant de gouvernements à améliorer la protection de ses internautes mineurs, YouTube commence ces jours-ci à tester un outil de machine learning pour vérifier l’âge de certains utilisateurs et utilisatrices.
D’après Engadget, ce test reste pour le moment cantonné à une sous-section de ses usagers états-uniens.
Visé par une cyberattaque le 16 juillet 2025, Allianz Life indique à TechCrunch que les données personnelles d’une « majorité » de ses clients états-uniens ont fuité.
L’attaque a été opérée par l’intermédiaire d’un système de gestion client (CRM) tiers.
D’après un représentant de l’entreprise, elle a permis, « par des techniques d’ingénierie sociale », d’obtenir l’accès à des informations personnelles de clients particuliers, financiers et professionnels d’Allianz Life, ainsi que de certains employés de l’assureur.
La filiale nord-américaine de l’assureur allemand compte 1,4 million de clients – Allianz en compte 125 millions à travers la planète.
La société est la dernière d’une liste croissante d’acteurs de l’assurance visés ces derniers mois par des cyberattaques. D’après des chercheurs de Google en juin, plusieurs de ces opérations portent les marques du collectif de hacker Scattered Spider.
Forte d’un succès fulgurant aux États-Unis, l’application Tea a été victime d’un double piratage.
Le projet a été créé avec une promesse apparemment simple : permettre aux femmes hétérosexuelles de faire des rencontres « en toute sécurité », selon la communication de l’application, en s’échangeant des informations sur les hommes qu’elles ont rencontrés ou s’apprêtent à rencontrer.
Si l’application a bientôt deux ans, elle s’est félicitée fin juillet d’avoir dépassé les quatre millions d’utilisatrices (aux États-Unis : Tea n’est pas disponible en France). Et s’est attirée au passage la colère de nombreux hommes en ligne, peu ravis de se voir accolés des « red flags » (drapeaux rouges, signe de danger) ou des « green flags » (drapeaux verts) sur une application à laquelle ils n’avaient pas accès.
La controverse aurait pu s’arrêter là, sur fond de débat post-#MeToo sur les attentes de femmes et des hommes lorsqu’elles et ils recourent à des applications de rencontre et les risques que chacun encourt. Sauf que Tea a été victime d’un double piratage, dans lesquels 72 000 images, dont une large proportion servait à l’identification des utilisatrices, et des messages privés, ont fuité. Une faille de sécurité susceptible de mettre certaines internautes en danger.
Échanger des informations sur de potentiels partenaires
Créée en 2023 par l’entrepreneur états-unien et ancien employé de Salesforce Sean Cook, le projet affiché de Tea est de fournir aux femmes un outil qui leur permette « de faire des rencontres en toute sécurité dans un monde qui oublie généralement de se préoccuper de leur protection ». Sean Cook affirme en avoir eu l’idée après avoir suivi les déboires de sa mère, victime d’arnaques et qui aurait rencontré des hommes aux casiers judiciaires remplis.
Pour s’inscrire à Tea, l’application – réservée aux femmes – demande à ses utilisatrices de lui fournir un selfie. Une fois leurs accès créés, ces dernières peuvent s’échanger des informations sur les hommes qu’elles ont rencontrés, ou qu’elles s’apprêtent à rejoindre. En pratique, chacune peut poster les photos d’un homme pour partager ses informations sur lui – a-t-il un passé judiciaire ? Est-il marié ? Fréquente-t-il plusieurs femmes à la fois ? – ou en demander aux autres internautes.
Une fois la photo en ligne, chacune peut ajouter ses commentaires, un drapeau rouge ou un drapeau vert. Autre fonctionnalité : Tea permet aux utilisatrices de repérer les « catfishers », ou arnaqueurs, qui s’approprient les photos d’autres hommes et se font passer pour eux.
Double piratage
Fin juillet, aux États-Unis, le nombre d’usagères de Tea s’est envolé, entraîné par une polémique sur son fonctionnement et l’alimentant. Sur Reddit, des internautes s’alertent sur le fait que Tea puisse être utilisé pour diffuser de fausses informations, et appellent à la suppression de l’application. En parallèle, l’application se hisse au sommet des applications gratuites les plus téléchargées sur l’App Store d’Apple aux États-Unis.
Surtout, Tea est visée par un double piratage. 72 000 images stockées dans l’application en ont été exfiltrées avant d’être postées sur 4chan, rapporte 404 media. Dans le lot, 13 000 selfies et images de cartes d’identité d’utilisatrices, toutes inscrites avant février 2024, d’après Tea. L’entreprise a précisé que ces images ne pouvaient « en aucun cas être liées à des publications dans Tea », théoriquement publiées anonymement.
Problème : 404 media rapporte une deuxième faille, grâce à laquelle les hackers auraient pu accéder aux conversations privées. En jeu : des discussions relatives à des avortements – interdits dans plusieurs États américains –, le fait de tromper son partenaire, ou encore des échanges de numéros de téléphone en clair.
D’après les informations collectées par le chercheur indépendant Kasra Rahjerdi, plus de 1,1 million de messages publiés jusqu’à la semaine passée ont ainsi été accessibles. D’après 404 media, ces éléments sont suffisamment précis pour rendre leurs autrices – dont certaines découvrent qu’elles fréquentent le même homme, ou d’autres se signalent la présence d’un époux ou d’une épouse sur la plateforme – très simplement identifiables.
En préparation depuis des mois, le mode Copilot est désormais disponible dans la version stable du navigateur, sous forme expérimentale d’abord. Optionnelle, la fonction doit permettre de mieux lutter contre une concurrence qui s’intensifie dans le domaine des navigateurs.
Microsoft doit avancer rapidement sur le terrain de la navigation, car les concurrents s’organisent. On savait que l’éditeur préparait depuis des mois un mode Copilot plus intégré dans son navigateur Edge. Il fallait bien que l’entreprise réagisse, face à un Google qui va faire de même dans Chrome avec Gemini, avec la force de frappe qu’on imagine. Perplexity prépare également son Comet, actuellement en bêta privée.
Une fonction optionnelle et classique dans sa forme
Depuis hier soir, Copilot est ainsi disponible sous forme expérimentale dans tous les canaux de distribution d’Edge, dont la version stable, mais uniquement sur Windows et Mac pour l’instant. On peut soit se rendre sur une page dédiée pour activer la fonction et suivre une courte présentation des possibilités, soit aller dans les options du navigateur, puis dans la section « Innovations de d’IA » (sic). Le mode Copilot est présenté comme une « fonctionnalité entièrement opt-in », Microsoft ayant été échaudé par certaines affaires, dont Recall.
Que peut-on faire avec ce mode ? À peu près tout ce que l’on attend de ce type de fonction. On peut ainsi poser des questions sur l’onglet en cours, sur un groupe d’onglets et jusqu’à l’intégralité des pages ouvertes (si l’autorisation est donnée). On peut ainsi demander des comparaisons, des synthèses d’informations, des recommandations basées sur différentes actions, etc. L’éternel exemple de l’organisation d’un voyage est de retour. On note que tout n’est pas encore prêt pour les autres langues que l’anglais, une partie des informations n’étant pas traduite dans l’interface et la présentation.
Un mode vocal est présent, mais nous n’avons pas réussi à le faire fonctionner. De même, une fois activé, le mode Copilot est censé afficher un bouton d’accès à gauche de la barre d’adresse. Une zone plus pratique que ce qui a été tenté jusqu’à présent, et dont l’action ouvre un panneau flottant, plus discret que les gros panneaux latéraux ancrés que Microsoft avait proposés. Dans notre cas, ce bouton n’est pas apparu.
Bientôt un accès optionnel à l’historique
La fonction devrait rapidement s’enrichir, selon Microsoft. On pourra donner ainsi l’autorisation à Copilot d’accéder à des données supplémentaires si besoin, dont l’historique et les informations d’identification. À la clé, des actions « plus avancées et plus transparentes, comme réserver des places ou gérer des courses en votre nom ».
L’entreprise donne l’exemple d’une personne cherchant à faire du paddle proche de son lieu de travail. Copilot tâche alors de trouver la meilleure option, vérifie la météo, peut gérer la réservation, suggère de la crème solaire et cherche des tutos vidéo pour préparer la session. Du moins en théorie, selon Microsoft.
Toujours dans les développements prévus, la fonction devrait bientôt tenir davantage compte du contexte sur des périodes plus prolongées, pour aider à reprendre là où les internautes se sont arrêtés. Microsoft insiste largement sur la dimension confidentialité, répétant notamment que certaines fonctions ne pourront donner des résultats que si l’accès à l’historique de navigation est accordé. Accès qui peut être coupé quand on le souhaite, réitère l’entreprise.
Des données traitées à distance
En revanche, sur la manipulation des données, il n’y a pas de mystère : elles sont traitées sur les serveurs de l’entreprise. Au vu des fonctions fournies, on se doutait bien que le traitement n’était pas local, d’autant qu’une telle opération aurait probablement été réservée aux PC Copilot+, avec la garantie de disposant d’un NPU assez puissant. Pas le temps d’attendre que ces machines se démocratisent de toute façon : la réponse aux concurrents ne peut pas être circonscrite à un nombre limité de machines.
Microsoft devrait procéder à d’autres annonces dans les prochains mois, la disponibilité de l’IA dans le navigateur étant le prochain grand champ de bataille, avec l’arrivée progressive des agents autonomes.
Anthropic dit avoir enregistré une croissance significative dans l’utilisation de ses modèles Claude, tout particulièrement à travers Claude Code, son assistant d’aide au développement. Certains utilisateurs abuseraient cependant de leurs abonnements. Une personne aurait ainsi utilisé sa formule Max (200 dollars par mois) pour faire fonctionner Code durant des centaines de milliers d’heures.
La société affirme que ces comportements ont un impact sur la qualité de service pour l’ensemble des utilisateurs. En conséquence, elle introduit de nouvelles limites hebdomadaires, qui entreront en application le 28 août et viendront s’ajouter à l’actuelle limite de 5 heures par jour :
Abonnement Pro (18 euros par mois) : de 40 à 80 heures d’utilisation avec Claude Sonnet 4
Abonnement Max (90 euros par mois) : de 140 à 280 heures d’utilisation avec Sonnet 4 et de 15 à 35 heures avec Opus 4
Abonnement Max (180 euros par mois) : de 240 à 480 heures d’utilisation avec Sonnet 5 et 24 à 40 heures avec Opus 4
Anthropic assure que l’immense majorité des personnes abonnées ne verront aucune différence dans leur utilisation quotidienne. Ce changement serait destiné uniquement à contrer certains comportements abusifs, comme les partages de comptes et les utilisations continues 24/7. Selon l’entreprise, moins de 5 % des abonnés seraient affectés par ces changements.
Il est difficile cependant de se rendre compte de ce que ces limites impliquent vraiment, car la société communiquait surtout sur une base de jetons jusqu’à présent. La formule Max à 180 euros par mois est sensée par exemple permettre 20 fois plus d’utilisation que l’abonnement Pro. Mais si on ramène la comparaison sur les heures annoncées, le facteur n’est plus que de 6.
Anthropic contacte actuellement toutes les personnes ayant un abonnement pour les avertir du changement. L’entreprise se dit prête à recevoir les retours sur ce dernier.
Après Signal, d’autres outils ont décidé de bloquer par défaut la fonction de Microsoft, citant des questions de confidentialité des données. Bien que les navigateurs aient certaines latitudes, la situation souligne l’absence d’une API centralisée pour manipuler Recall.
La fonction Recall de Microsoft n’a pas fini de faire parler d’elle. Elle sera normalement déployée dès cet automne en version finale sur l’ensemble des ordinateurs compatibles. Liste qui se limite aux machines estampillées Copilot+ et disposant donc d’un NPU suffisamment puissant.
Si Recall provoque autant de réactions, c’est qu’elle prend régulièrement des captures d’écran pour analyser leur contenu. Objectif : permettre de retrouver à peu près tout et n’importe quoi, comme un gigantesque historique de tout ce que l’on a fait sur un PC.
Signal, premier à dégainer
Rapidement, de nombreuses critiques s’étaient élevées pour dénoncer le cauchemar que représentait Recall pour la vie privée. Au point que Microsoft était reparti sur sa planche à dessin et avait profondément revu son fonctionnement, chiffrant tout le contenu, réclamant une authentification pour l’accès et faisant de Recall une fonction opt-in, désactivée par défaut.
En mai, la fondation Signal annonçait que le client Windows de son service de messagerie bloquait désormais par défaut Recall. Ces derniers jours, d’autres ont fait de même.
Brave et AdGuard s’y mettent
Le navigateur tout d’abord, qui a annoncé lui aussi un blocage par défaut le 22 juillet. À ceci près que dans son cas, le changement était beaucoup plus simple. Le mécanisme de Microsoft se coupe automatiquement quand une fenêtre de navigation privée d’un navigateur est affichée. Là où Signal avait dû « bricoler » une solution complète, allant jusqu’à couper complètement la possibilité de prendre des captures, Brave a modifié son navigateur pour que toutes les fenêtres soient considérées comme privées.
L’éditeur ne cherche d’ailleurs pas à s’en cacher, indiquant avoir été « partiellement inspiré » par le travail réalisé par Signal.
AdGuard, qui fait du blocage de certaines fonctions peu vertueuses sur la vie privée son fonds de commerce, a également annoncé du neuf pour Recall. Dans la dernière révision de l’outil, une option a été ajoutée pour bloquer la fonction. Un ajout étrange cependant, puisque Recall n’est pas actif à moins d’avoir été spécifiquement été autorisé (Windows pose la question dans son assistant de première configuration sur les machines compatibles).
Optionnelle et désinstallable, mais sans vraie API
Rappelons que dans la version que Microsoft s’apprête à distribuer plus largement, Recall est une application dédiée qui peut être désinstallée. Pour les personnes intéressées, des options ont été ajoutées pour interdire son fonctionnement quand certains sites ou des applications spécifiques apparaissent à l’écran.
Il faudrait cependant que Microsoft propose une API complète permettant de manipuler les réglages de Recall depuis les applications, avec consentement auprès de l’utilisateur.
Pour la première fois, le magazine Vogue a publié une publicité dans laquelle la model n’était pas humaine, mais correspondait à des standards tout à fait classiques : grande, blonde aux yeux bleus, bronzée.
La marque Guess a recouru à l’IA pour générer le corps et le visage – littéralement irréels – destinés à mettre en valeur ses vêtements. La campagne a été créée par l’agence Seraphinne Vallora, qui s’est fendue d’une publication sur Instagram afin de se féliciter pour son travail.
Auprès de la BBC, la top modèle grande taille Felicity Hayward s’inquiète de la tendance que cette publicité pourrait lancer.
Depuis une dizaine d’années, les standards de plusieurs marques avaient évolué pour tenter d’intégrer un peu plus de diversité dans les représentations de corps et d’habillements dans les magazines et publicité de mode.
Plusieurs modèles avaient aussi pris position contre l’édition et la retouche abusive des photos de mode. Si les modèles générées par IA se généralise, s’inquiète Felicity Hayward et des représentantes d’associations de lutte contre les troubles de l’alimentation, le public pourrait chercher à atteindre des standards de beauté littéralement inatteignables, dans la mesure où les corps représentés n’existent pas.
Le problème est d’autant plus important que du côté des réseaux sociaux, le succès des filtres générés par IA pousse déjà de nombreux jeunes à recourir à la chirurgie esthétique pour faire ressembler leur visage aux reflets modifiés que leur renvoient leurs applications.
Après neuf mois d’enquête, la Commission européenne conclut à titre préliminaire que Temu enfreint le DSA et risque une amende pouvant atteindre 6 % de son chiffre d’affaires annuel mondial. La balle est maintenant dans le camp de la plateforme chinoise qui peut répondre avant que le couperet ne tombe.
La Commission européenne a commencé à s’intéresser à la plateforme d’e-commerce chinoise Temu en octobre dernier, avec une demande d’information formelle (RFI) dans un premier temps. L’Europe voulait avoir des précisions sur plusieurs points, notamment les mesures prises pour limiter la présence et la réapparition de produits illégaux sur sa plateforme.
L’attente fut de courte durée puisque, fin octobre, la Commission européenne ouvrait une « procédure formelle à l’encontre de Temu au titre de la législation sur les services numériques », le fameux DSA. Temu est pour rappel identifié comme une très grande plateforme en ligne (VLOP) depuis le 31 mai 2024.
« Un risque élevé pour les consommateurs »
Les premières conclusions de l’enquête sont tombées : « la Commission a conclu à titre préliminaire que Temu avait manqué à l’obligation qui lui incombe en vertu de la législation sur les services numériques (DSA) d’évaluer correctement les risques de diffusion de produits illicites sur son marché ».
Dans son communiqué, la Commission affirme que des preuves montrent « qu’il existe un risque élevé pour les consommateurs de l’UE de rencontrer des produits illégaux sur la plateforme », notamment des « jouets pour bébés et des petits appareils électroniques ».
La Commission affirme aussi que l’évaluation des risques de Temu d’octobre 2024 « était inexacte et reposait sur des informations générales du secteur plutôt que sur des détails spécifiques concernant son propre marché ». La plateforme avait pourtant assuré prendre « des mesures importantes » et « affiner » ses pratiques, rappelle l’AFP.
Jusqu’à 6 % du chiffre d’affaires annuel mondial
Face à ces conclusions préliminaires, la plateforme a maintenant la possibilité d’examiner le dossier d’enquête de la Commission et d’y répondre.
Si les conclusions préliminaires devaient être confirmées, une décision de non-respect de l’article 34 du DSA serait adoptée : « Une telle décision pourrait entraîner des amendes pouvant aller jusqu’à 6 % du chiffre d’affaires annuel mondial total du fournisseur et lui ordonner de prendre des mesures pour remédier à l’infraction ».
Selon Euractiv, « la plateforme chinoise dispose de quelques semaines pour réagir », mais « Bruxelles n’a toutefois fixé aucune date butoir précise pour la réponse de Temu ». « Nous continuerons à coopérer pleinement avec la Commission européenne », s’est contenté d’indiquer un porte-parole de Temu par email à nos confrères.
L’enquête officielle se poursuit, car le Vieux continent a d’autres griefs à reprocher à Temu : « l’efficacité de ses mesures d’atténuation, l’utilisation de caractéristiques de conception addictives, la transparence de ses systèmes de recommandation et son accès aux données pour les chercheurs ».
Temu qualifié de « point d’entrée pour des produits illégaux »
La Commission européenne n’est pas la seule entité à être montée au créneau. En février, le BEUC dénonçait rien moins que « des trous béants dans la sécurité des produits vendus sur Temu ». Les griefs étaient nombreux là aussi : risque de suffocation à cause de petites pièces de jouets et de produits pour bébés trop facilement détachables, listes d’ingrédients incorrects dans les cosmétiques, radiateurs électriques extrêmement dangereux, etc.
Agustín Reyna, directeur général du BEUC, ne mâchait pas ses mots : Temu est « un point d’entrée pour des produits illégaux qui n’ont pas leur place sur nos marchés ». Le Bureau demandait donc à la Commission de terminer son enquête au plus vite et de prendre des mesures dissuasives et efficaces contre Temu.
Selon l’AFP, Temu est « extrêmement populaire dans l’UE malgré une arrivée récente sur le marché en 2023, Temu compte 93,7 millions d’utilisateurs actifs mensuels en moyenne dans les 27 États membres ».
Des milliards de petits colis provenant de Chine
Au niveau européen, la Commission prépare la mise en place de droits de douane spécifiques pour les milliards de petits colis qui arrivent chaque année (ils seraient 4,6 milliards d’une valeur déclarée inférieure à 150 euros, majoritairement provenant de Chine).
« Nous parlons de deux euros par colis, payés par les plateformes et pour les services offerts par les entrepôts, ce serait plus modeste, à 50 cents », expliquait le commissaire européen au Commerce, Maroš Šefčovič.
Pour la Commission, l’enjeu est important : « L’augmentation constante du volume de produits vendus en ligne dans l’UE s’accompagne d’une augmentation du nombre de produits dangereux, contrefaits ou non conformes, qui pourraient nuire à la santé et à la sécurité des consommateurs, à l’environnement et à une concurrence loyale au sein du marché unique numérique ».
Une autre plateforme chinoise est sous le coup de plusieurs enquêtes au niveau français et européen : Shein. Elle a accepté de payer 40 millions d’euros en France suite à une enquête de la Répression des fraudes qui avait conclu que l’entreprise avait mis en place des pratiques commerciales trompeuses. Une amende de 1,1 million d’euros est tombée dans la foulée pour « information défaillante sur la qualité environnementale des produits ».
Alors que les tensions grimpent autour des licences VMware, l’Open Infrastructure Foundation rejoint officiellement la Linux Foundation. Cette « fusion » permet à OpenStack de rejoindre un large écosystème d’autres solutions, avec lesquelles les synergies seront d’autant mieux travaillées.
En mars dernier, les deux fondations signaient un accord important. L’Open Infrastructure Foundation – anciennement OpenStack Foundation – rejoignait la Linux Foundation, probablement la structure la plus importante de ce type dans le monde du logiciel libre. Elle chapeaute en effet de nombreux projets et coordonne de vastes efforts. Elle se définit d’ailleurs elle-même comme une « fondation de fondations ».
Si cette fusion est intéressante, c’est parce qu’OpenStack a largement gagné en visibilité ces dernières années, et tout particulièrement depuis un an et demi. Suite au rachat de VMware par Broadcom pour la somme gargantuesque de 61 milliards de dollars, de fortes tensions sont apparues autour des licences de produits. Broadcom a supprimé nombre d’entre elles, préférant des formules sur abonnement souvent plus onéreuses, car regroupant de nombreux produits, y compris quand on en souhaite qu’un ou deux.
En mars dernier, on apprenait que les conseils d’administration de l’Open Infrastructure Foundation et de la Linux Foundation avaient approuvé à l’unanimité l’incorporation de la première au sein de la seconde. La signature a été un signal fort, annonçant que des synergies plus fortes allaient naître entre OpenStack et d’autres projets, en particulier avec Kubernetes.
Depuis le 23 juillet, OpenStack et ses projets attenants sont officiellement gérés par la Linux Foundation. On y retrouve donc d’autres produits comme Kata Containers, Zuul, StarlingX et Airship. Leur gouvernance technique passe donc entre les mains de la Linux Foundation même si, dans la pratique, la plupart des personnes impliquées sont toujours là.
L’objectif d’OpenStack – créer une infrastructure cloud ouverte – est parfaitement aligné avec ceux de la Linux Foundation (et du libre en général). Tous les projets gérés jusqu’ici par l’Open Infrastructure Foundation (OpenStack Foundation initialement en 2012) héritent donc des ressources de la Linux Foundation, dont les outils, le pilotage, le support juridique, tout ce qui touche à la gouvernance et à l’organisation, ainsi que les opportunités de rapprochement avec des centaines d’autres projets.
Rapprochement avec Kubernetes
Canonical se réjouit particulièrement de cette fusion. L’éditeur aime à rappeler qu’il a fait partie des premiers contributeurs d’OpenStack à sa création en 2010 (issu d’un partenariat entre la NASA et Rackspace). L’entreprise dit avoir été rapidement « profondément impressionnée » par la vision et la mission du projet et est aujourd’hui son troisième plus gros contributeur, avec 25 000 commits jusqu’à présent.
Canonical note que l’évolution d’OpenStack s’est faite en parallèle d’un autre avènement : celui de Kubernetes. Dans son sillage, la manière de déployer et d’exécuter des applications s’est largement transformée, signant l’explosion des solutions basées sur des conteneurs logiciels. Or, selon Canonical, si Kubernetes excellait à gérer des applications, il « manquait de capacités de gestion de l’infrastructure ». De ce constat sont nées les premières idées de convergence avec OpenStack. Un esprit de collaboration qui aurait d’abord rencontré « quelques frictions initiales », mais les deux communautés auraient assez vite reconnu « la valeur de l’alignement de leurs efforts ».
Plus concrètement, OpenStack continuera d’être géré comme un projet autonome, « mais désormais dans le cadre d’un écosystème unifié qui inclut également Kubernetes ». Les deux sont considérés comme des technologies complémentaires.
Rappelons que Kubernetes n’est pas directement géré par Linux Foundation, mais par la Cloud Native Computing Foundation (CNCF), qui en est une émanation. La CNCF est une fondation spécialisée dans les technologies « cloud-native » (conteneurs, orchestration, microservices…)
Momentum
On ne sait pas si les discussions ayant entrainé cette fusion de deux fondations est une conséquence du rachat de VMware par Broadcom, mais il est probable que l’opération ait joué au moins un rôle de catalyseur. Sur le blog d’OpenStack, on peut lire un billet datant du 18 juin revenant sur le sujet.
Les éléments sont désormais connus : la suppression de produits, les changements radicaux dans les licences, l’incertitude chez les entreprises clients et les questionnements sur les solutions logicielles à apporter. Dans ce contexte, un produit libre et gratuit attire les regards.
Rapidement, la question de la complexité a été de toutes les conversations : les approches très différentes rendaient les projets de migration complexes et couteux. OpenStack en profitait d’ailleurs pour publier très officiellement son guide de migration depuis VMware. En octobre 2024, quand a été lancée la 30ᵉ version d’OpenStack, la simplification des migrations figurait également partie les nouveautés principales.
Encore à l’état de prototype, le projet européen d’application de vérification d’âge intègre pour le moment un système d’authentification développé par Google.
Le 14 juillet, la Commission européenne dévoilait les détails de son projet de protection des mineurs en ligne, prototype d’application de vérification de l’âge inclus. Dans les prochains mois, la France, qui soutenait le projet depuis plusieurs années, le Danemark, l’Italie, l’Espagne et la Grèce pourront intégrer l’outil à leurs propres applications nationales d’identification, ou choisir de créer une application indépendante.
Mais il y a un hic. Sur Github et sur Reddit, plusieurs internautes critiquent la direction prise par le prototype open source, à la fois pour des raisons techniques et d’autonomie stratégique. En effet, le projet d’application repose pour le moment sur l’API Play Integrity de Google pour la vérification des applications et des appareils.
Le rôle de Play Integrity est de vérifier que le système d’exploitation est sous licence Google, et que l’application que vous téléchargez l’est depuis le Play Store, rappelle Neowin. Autrement dit, si vous décidiez de télécharger les applications nationales recourant à l’outil de vérification d’âge de la Commission européenne depuis un système Android qui n’est pas sous licence Google, alors celle-ci ne fonctionnerait pas.
Par ailleurs, la présence même d’un acteur états-unien comme Google hérisse plus d’un internaute. Sur le fil Reddit « BuyFromEu » (achetez européen), un internaute précise : « bien qu’il soit utile de vérifier la sécurité de l’appareil », le recours à cette solution précise « lie fortement l’application à de nombreux services et propriétés de Google, car ces vérifications ne passeront pas avec un système d’exploitation Android alternatif, pas même avec ceux qui améliorent considérablement la sécurité comme GrapheneOS (…). Cela signifie également que même si vous pouvez compiler l’application, vous ne pourrez pas l’utiliser car elle ne proviendra pas du Play Store et le service de vérification l’âge la rejettera. »
Recourir à des services européens ?
Sur Reddit, plusieurs internautes soulignent que des problématiques similaires existent avec des applications nationales de vérification d’identité (MitID au Danemark, BankID en Norvège). Les solutions qu’ils indiquent pouvoir utiliser – tout en redoutant que cela ne dure pas sur le long terme – consistent généralement à passer par une clé physique.
Pour parer la problématique spécifique au projet d’outil de vérification d’âge, certains internautes recommandent des outils européens, parmi lesquels l’application hollandaise Yivi, déjà dédiée à de la vérification d’âge. À l’heure actuelle, les développeurs du projet européen n’ont pas fait de commentaire sur le sujet.
Ce bug de l’an 2038 est similaire à celui de l’an 2000 : à cause d’un codage de la date dans un espace trop petit, le compteur risque de revenir à zéro une fois la limite atteinte. Pour le 1er janvier 2000, le risque était ainsi de voir la date revenir à 00, soit 1900.
Le problème réside cette fois dans le « timestamp Unix ». Il compte les secondes écoulées depuis le 1er janvier 1970 à minuit, heure UTC. Pour stocker cette valeur, les systèmes Unix et Linux se servent d’une valeur de type « signed 32-bit integer », dont la valeur positive maximale est de « + 2 147 483 647 ».
Dans la situation qui nous occupe à présent, cette valeur sera atteinte le 19 janvier 2038 à 03:14:07 UTC très précisément. La seconde suivante, le dépassement entrainera un retour à la valeur négative minimale de l’entier 32 bits, soit « - 2 147 483 64 », ce qui correspond à 1901.
Photo de Anirudh sur Unsplash
Face à un entier 32 bits limité, la solution est évidente : passer au 64 bits. Ce mouvement est en cours depuis un moment déjà, mais pas partout. Chez Debian, dont la distribution sert de socle à Ubuntu et donc à de très nombreux autres systèmes, ce changement sera officialisé dans la version 13, nommée Trixie.
Comme l’équipe l’indique, le travail n’a pas été de tout repos. Il ne suffit pas en effet de changer le codage de la valeur pour que tout s’enchaine : tous les paquets y faisant référence doivent être modifiés. Dans le cas présent, pas moins de 6 429 paquets ont été identifiés comme utilisant au moins une fois la variable.
Debian 13 et tous ces paquets repérés utiliseront donc le format time_t 64 bits, même sur les architectures 32 bits. Pour les systèmes existants, le time_t 32 bits sera laissé en place pour ne pas casser la compatibilité sur les anciennes architectures. Sur le matériel 64 bits (très largement majoritaire), la bascule sera automatique.
Ce changement dans le codage de la valeur intervient 12 ans et demi avant la manifestation du problème. Quant au 64 bits, il fait disparaitre « définitivement » le problème, puisque la limite ne sera atteinte que dans… 292 milliards d’années.
Dans de nombreux États américains, la hausse de la demande en énergie des centres de données se répercute sur les factures des citoyens.
Que se passe-t-il avec le prix de l’électricité aux États-Unis ? À Trenton, dans le New Jersey, la facture moyenne a augmenté de 26 dollars, raconte le Washington Post. À Philadelphie, en Pennsylvanie, elle a grimpé de 17 dollars. Et à Columbus, dans l’Ohio, de 27 dollars.
En cause : l’explosion du nombre de centres de données qui, en consommant toujours plus d’électricité, participent à l’augmentation des factures d’électricité de millions de personnes – y compris celles qui n’utilisent ni services de cloud, ni technologies d’intelligence artificielle.
Qualité du service altérée et prix augmentés
Dans l’Ohio, la demande de sociétés comme Google, Meta, Microsoft ou Amazon a ainsi directement participé à l’augmentation moyenne de 20 dollars mensuel des factures d’électricité des résidents. Sur l’année, cela représente une hausse de 240 dollars, que plusieurs habitants qualifient d’ « injuste », dans la mesure où elle permet de soutenir des sociétés dont les profits se chiffrent en milliards de dollars.
La tendance n’est pas neuve, et ne se traduit pas que financièrement. Fin 2024, de nettes altérations du courant électrique étaient ainsi constatées dans de nombreux foyers installés dans un rayon de moins de 80 km de centres de données, en particulier dans la région de la « data center alley ». C’est dans cette zone de Virginie du Nord que l’essentiel des centres de données états-uniens sont installés.
Ailleurs dans le monde, la consommation d’énergie des centres de données a déjà eu pour conséquence la suspension de projets de construction de logements, faute de pouvoir les alimenter en énergie, ou au contraire de bloquer la construction de nouveaux data center, pour s’assurer que la répartition d’électricité puisse être maintenue.
Là où, comme en France, la production d’énergie est excédentaire, la multiplication des centres de donnée pose néanmoins des enjeux en termes d’infrastructure et de capacité de raccordement.
Aux États-Unis, un rapport mené par Data Center Watch entre mars 2024 et mars 2025 constate que l’équivalent de 64 milliards de dollars de projets de data center sont actuellement bloqués ou retardés à travers le pays. En cause : ces questions d’accès à l’énergie, celle d’accès à l’eau pour refroidir les serveurs, mais aussi les pollutions spécifiques à ce type d’établissement, notamment en termes sonores.
Outre les communautés locales, les représentants politiques font partie intégrante de l’opposition qui se dessine. En Ohio, les régulateurs de l’énergie viennent par exemple de décréter que les opérateurs de centres de données doivent augmenter leur participation financière pour mettre à niveau le réseau électrique – une décision que le groupement industriel Data Center Coalition a qualifié de « très décevante » auprès du Washington Post.
L’opération avait été annoncée il y a tout juste un an, pour un montant de plus de 8 milliards de dollars. Cet accord du régulateur américain arrive après « des changements de ligne éditoriale au sein de la chaîne CBS [propriété de Paramount, ndlr], une condition très atypique », explique Le Monde :
Dans le communiqué de la FCC, le premier point mis en avant concerne justement CBS : « Skydance s’engage en faveur de la diversité des points de vue, de la non-discrimination » et de reportages locaux. Brendan Carr, président de la FCC en ajoute une couche :
« Skydance s’est notamment engagée par écrit à ce que la programmation de la nouvelle société reflète la diversité des points de vue, issus de tous les horizons politiques et idéologiques. Skydance adoptera également des mesures visant à éliminer les préjugés qui ont miné la confiance dans les médias nationaux ».
Comme le rappellent nos confrères, « Donald Trump a régulièrement critiqué CBS, l’accusant d’être « hors de contrôle » ». Le feu vert de la FCC arrive « au terme d’une séquence qui aura vu Paramount solder [pour 16 millions de dollars, ndlr], début juillet, un contentieux judiciaire avec Donald Trump, puis annoncer la fin de l’émission « The Late Show », dont l’animateur, Stephen Colbert, est très critique du président américain ».
Avec cette transaction à 16 millions de dollars, certains accusent Paramount « d’acheter les faveurs du président pour obtenir le feu vert de la FCC », toujours selon Le Monde. Pour Stephen Colbert (présentateur du Late Show) cela ne fait aucun doute : c’est un « bon gros pot-de-vin ».
« L’Amérique mérite de savoir si son émission a été annulée pour des raisons politiques », ajoute Elizabeth Warren, sénatrice démocrate du Massachusetts, comme le précise l’AFP.
La nouvelle mouture du noyau Linux est sortie ce dimanche 27 juillet. Une version assez attendue, car contenant de nombreuses améliorations pour le matériel, que l’on parle de support ou de performances. On trouve bon nombre d’apports pour Intel, AMD et NVIDIA notamment.
SEV chez AMD, TDX chez Intel
Chez AMD par exemple, avec d’importants changements dans le pilote et sous-système AMD-SBI, avec à la clé une meilleure surveillance de la puissance et de la température. La Secure Encrypted Virtualization (SEV) est enfin supportée, pour renforcer la sécurité des machines virtuelles chiffrées (sur serveurs utilisant des processeurs AMD). Le nouveau noyau identifie en outre plus facilement les plantages et causes de réinitialisation sur l’ensemble des processeurs Zen.
Côté Intel, on trouve aussi des améliorations pour la sécurité des machines virtuelles, avec le support de l’hôte Trust Domain Extensions (TDX) pour KVM pour renforcer l’isolation. La surveillance du matériel est là aussi renforcée, notamment la température, permettant notamment l’apparition de garde-fous pour l’overclocking.
Le noyau 6.16 introduit également une nouvelle option de compilation X86_NATIVE_CPU. Comme son nom l’indique, elle permet aux personnes compilant elles-mêmes leur noyau de forcer une optimisation sur les capacités spécifiques du processeur utilisé. L’option devrait améliorer les performances sur le matériel récent, pour mieux tirer parti des jeux d’instructions.
Blackwell et Hopper de NVIDIA
Côté GPU, la prise en charge des architectures Blackwell et Hopper de NVIDIA a été ajoutée au pilote « Nouveau ». Les puces Intel reçoivent plusieurs améliorations, dont le support de la fonction Link-Off Between Frames (LOBF) pour les ordinateurs portables, pour économiser l’énergie. Outre des correctifs, le pilote Intel Xe sait maintenant indiquer la vitesse des ventilateurs.
Parmi les autres améliorations, on en trouve beaucoup pour le système de fichiers bcachefs, surtout sur les performances. Cependant, comme le notait It’s FOSS News fin juin, l’avenir de ce support dans le noyau est incertain, Linus Torvalds n’ayant pas apprécié les derniers échanges avec le mainteneur principal du projet. Signalons aussi des améliorations de performances pour Btrfs, le support de l’écriture atomique dans XFS ou encore le support d’Intel QAT dans EROFS.
Comme toujours, l’installation de nouveau noyau dépend de la distribution Linux utilisée. Souvent, sur les systèmes dits classiques, le noyau ne change vraiment qu’avec la version majeure suivante. Sur les distributions de type rolling release, comme Arch Linux et openSUSE Tumbleweed, le noyau devrait être très rapidement proposé, si ce n’est déjà fait. Dans tous les cas, il existe des mécanismes pour forcer l’installation d’un nouveau noyau, mais la manipulation n’est pas recommandée, à moins de savoir ce que vous faites.
Samsung fournira Tesla en puces nécessaires au développement de technologies d’intelligence artificielle pendant les huit prochaines années.
D’un montant de 16,5 milliards de dollars, le contrat est le plus gros que le département dédié aux puces électroniques de Samsung n’ait jamais signé avec un unique client.
Dans ce cadre, l’entreprise sud-coréenne aura pour mission de construire des puces AI6 dans son usine installée au Texas. Ces dernières doivent servir aux fonctionnalités de conduite autonome de Tesla ainsi qu’à ses technologies de robots humanoïdes.
Hanna Barakat & Archival Images of AI + AIxDESIGN / Better Images of AI
Musk souhaiterait aussi les voir utilisées dans ses centres de données pour booster l’entrainement de modèles d’IA sur des contenus vidéos, d’après le Financial Times.
Elon Musk rappelle que Samsung fabrique déjà les AI4, tandis que c’est TSMC qui est aux manettes pour les AI5. Ce contrat est une réelle victoire pour Samsung, qui peine à se démarquer de son rival et leader du secteur, Taiwan Semiconductor Manufacturing Company (TSMC).
Au CERN (Organisation européenne pour la recherche nucléaire) les publications ne prennent pas de vacances. Les chercheurs annoncent « la mise en évidence du premier bit quantique d’antimatière […] pourrait permettre d’améliorer considérablement les tests sur les symétries fondamentales de la nature ».
Ils ont ainsi fait « osciller un antiproton – l’alter ego du proton dans l’antimatière – entre deux états quantiques pendant près d’une minute alors qu’il était piégé ». Ces travaux font l’objet d’une publication scientifique dans Nature.
Les scientifiques pourront ainsi « tester avec une grande précision les lois fondamentales de la nature, notamment la symétrie charge-parité-temps. Selon cette symétrie, la matière et l’antimatière se comportent de manière identique, ce qui semble contredire l’observation selon laquelle la matière l’emporte largement sur l’antimatière dans l’Univers ».
Le CERN ajoute que ce « bit quantique d’antimatière, ou qubit, […] ouvre la voie à des progrès importants dans la comparaison des propriétés de la matière et de l’antimatière ». Cependant, il « n’aura probablement pas d’applications immédiates en dehors de la physique fondamentale ». En clair, il ne viendra pas remplacer les qubits des machines quantiques.
Il y a quelques jours, on apprenait que des pirates avaient réussi à exploiter d’une autre manière deux failles auparavant corrigées par Microsoft dans plusieurs versions de SharePoint sur site. Les attaques ont commencé durant le week-end du 19 - 20 juillet.
Depuis, la campagne a pris de l’ampleur. Alors qu’aucun signe particulier ne pointait en direction d’une attaque coordonnée, on peut en effet parler de campagne. Selon les informations fournies par Microsoft et Eye Security, l’exploitation des failles est utilisée depuis plusieurs jours pour automatiser l’installation de rançongiciels. Contrairement aux attaques observées au départ, il ne s’agit donc plus de dérober des informations, mais de bloquer leur accès, à moins de payer une somme d’argent, sous forme le plus souvent de cryptoactifs.
Selon Eye Security, cité par Reuters, le chiffre serait désormais d’au moins 400 victimes. Un nombre sous-estimé selon la société de sécurité, car une partie des attaques ne laisse visiblement pas de traces exploitables, selon les vecteurs utilisés.
On sait également que le profil des cibles est devenu plus élevé. Toujours selon Reuters, qui cite le Washington Post, un représentant du National Institutes of Health américain a confirmé qu’au moins un des serveurs de l’organisme avait été compromis, et que d’autres avaient été « isolés par précaution ». Selon NextGov, le ministère américain de la Sécurité intérieure (DHS) a été touché, ainsi que cinq à douze autres agences gouvernementales. Une information qu’appuie Politico.
Selon Microsoft, une partie des attaques serait directement imputable à plusieurs groupes étatiques de pirates chinois : Linen Typhoon, Violet Typhoon et Storm-2603. L’objectif serait toujours le même, déployer le rançongiciel Warlock.
Les solutions proposées sont les mêmes que dans notre article originel : appliquer les correctifs aussi rapidement que possible et procéder au renouvellement des clés sur les serveurs, ainsi qu’un redémarrage. Microsoft avait fourni également une méthode pour automatiser la recherche des traces de compromission.
Lip-Bu Tan, CEO d’Intel, a précisé jeudi les contours du plan de restructuration lancé par l’entreprise. Il prévoit une nouvelle vague de départ concernant environ 15 % des salariés du groupe d’ici la fin de l’année, ce qui devrait porter les effectifs globaux à 75 000 personnes, contre 101 000 fin juin. Il annonce dans le même temps l’abandon des projets d’usine en Allemagne et en Pologne.
Les deux pieds sur la pédale de frein, mais des efforts qui vont « dans la bonne direction ». Lip-Bu Tan, patron d’Intel, a réaffirmé jeudi la nécessité de restructurer en profondeur l’ex-numéro un mondial des semi-conducteurs.
Dans la foulée des messages qu’il martèle depuis son entrée en fonctions, en mars dernier, il a livré jeudi 24 juillet un objectif chiffré : entre les départs déjà programmés, l’attrition naturelle et un nouveau tour de vis portant sur 15 % des équipes du groupe dans le monde, Intel devrait terminer l’année avec un effectif de l’ordre de 75 000 employés.
Nouveau tour de vis sur les effectifs
D’après le CEO, Intel a déjà réussi, au cours du deuxième trimestre, à réduire d’environ 50 % le « nombre de niveaux hiérarchiques » au sein de l’entreprise. « Nous sommes également en bonne voie pour mettre en œuvre notre politique de retour au bureau en septembre, les sites ayant finalisé les améliorations nécessaires pour fonctionner à pleine capacité », précise Lip-Bu Tan dans un message adressé aux collaborateurs et publié sur le site du groupe :
« Tout cela vise à optimiser l’efficacité organisationnelle et à transformer notre culture. Nous deviendrons une entreprise plus rapide, plus agile et plus dynamique. Nous éliminerons la bureaucratie et donnerons aux ingénieurs les moyens d’innover plus rapidement et plus efficacement. Nous réduirons également nos coûts pour investir dans la croissance future. Ce sont les fondements d’un nouvel Intel ; nous avons franchi des étapes importantes dans la bonne direction au deuxième trimestre. »
Ces investissements « dans la croissance future » connaissent pour l’instant un coup de rabot significatif : Lip-Bu Tan annonce en effet l’abandon des projets de création d’usine engagés par Intel en Allemagne et en Pologne.
Abandon des créations d’usine en Europe
Outre-Rhin, Intel prévoyait pour mémoire de construire deux usines à Magdebourg, dans le land de Saxe-Anhalt. L’enveloppe globale du projet, rendu public en 2023, était de l’ordre de 30 milliards d’euros, dont un tiers environ devait être apporté par l’État allemand sous forme de subventions.
En Pologne, il était question de créer « une installation d’assemblage et de test » proche de Wrocław, au prix d’un investissement chiffré, là encore en 2023, à 4,6 milliards d’euros.
Les deux sites étaient déjà sur la sellette : le précédent CEO d’Intel, Pat Gelsinger, avait en effet annoncé un décalage d’au moins deux ans à l’occasion d’une première vague de restructuration centrée sur l’activité de production de semi-conducteurs du groupe, Intel Foundry.
Son successeur, Lip-Bu Tan, signe leur deuil. Il annonce dans le même temps que même si Intel ne quitte pas le pays, ses activités au Costa Rica seront « consolidées » avec les sites industriels de capacité supérieure dont dispose le groupe au Vietnam et en Malaisie.
En ces temps marqués par la politique de Donald Trump, le CEO d’Intel prend soin de préciser que le groupe reste pleinement engagé dans sa politique d’investissement aux États-Unis. Mais il révèle là encore une mesure de rationalisation, avec un rythme revu à la baisse pour les deux usines que le groupe s’était engagé à construire dans l’Ohio, au prix d’un investissement de 20 milliards de dollars. Là aussi, la nouvelle était attendue : Intel avait déjà laissé entendre en mars dernier que le projet aurait du retard.
Intel 14A en ligne de mire
Ces éléments de restructuration n’auraient pas d’impact sur la feuille de route d’Intel côté fonderie. La priorité numéro un du groupe serait à ce niveau d’atteindre un rythme de croisière sur la production de puces faisant appel au procédé Intel 18A, à commencer par les processeurs Panther Lake programmés pour la deuxième moitié de l’année. Intel se dit à ce niveau confiant dans sa capacité à vendre le procédé à des constructeurs tiers.
Le futur se veut quant à lui incarné par le procédé Intel 14A, annoncé début 2024 et réaffirmé depuis comme le nœud grâce auquel le fondeur va rattraper son retard sur la concurrence taïwanaise, incarnée par TSMC, et donc potentiellement retrouver une posture de leader technologique sur le marché.
Les puces Intel 14A seront les premières à profiter d’une gravure EUV High-NA
x86 et IA comme chevaux de bataille
Sur le volet produits, pas de grande surprise : Lip-Bu Tan place ses espoirs sur le lancement commercial de Panther Lake et promet que son successeur, Nova Lake, attendu pour fin 2026, sera de nature à « combler les lacunes dans le desktop haut de gamme ». Côté datacenter, il annonce le retour prochain de l’hyperthreading (simultaneous multi-threading, ou SMT), dont l’abandon aurait finalement constitué un handicap sur le plan concurrentiel.
Le CEO s’engage personnellement sur la validation des futurs produits : « J’ai demandé à nos équipes de définir des gammes de produits de nouvelle génération avec des architectures claires et simples, de meilleures structures de coûts et des gammes produit simplifiées. De plus, j’ai instauré une politique selon laquelle chaque conception de puce majeure est examinée et approuvée par mes soins avant sa commercialisation ».
Impossible enfin de ne pas aborder l’IA, alors que les analystes financiers répètent à l’envi que c’est en raison d’un virage mal anticipé qu’Intel connait actuellement des difficultés face à des concurrents comme AMD ou NVIDIA. Le CEO ne donne ici aucun détail spécifique, mais avance l’idée d’une stratégie cohérente entre design des puces, produits finaux et couche logicielle, en opposition avec une logique précédente présentée comme centrée sur le design des puces.
« Dans le cadre de cette transition, nous concentrerons nos efforts sur les domaines où nous pouvons révolutionner et nous différencier, comme l’inférence et l’IA agentique. Nous commencerons par les charges de travail d’IA émergentes, puis nous travaillerons à rebours pour concevoir des logiciels, des systèmes et des circuits intégrés qui offrent les meilleurs résultats pour nos clients », esquisse Lip-Bu Tan.
Ces annonces intervenaient en parallèle de la publication des résultats financiers d’Intel pour le deuxième trimestre 2025. L’entreprise a fait état d’un chiffre d’affaires de 12,9 milliards de dollars, stable sur un an mais assorti de pertes nettes de l’ordre de 2,9 milliards de dollars, imputables en partie au plan de restructuration en cours.
Le FAI par satellites d’Elon Musk a subi une panne cette nuit qui a touché l’intégralité de son réseau pendant 2h30. L’entreprise semble avoir résolu le problème.
Les dizaines de milliers de clients de Starlink ont perdu l’accès à Internet en même temps cette nuit. Le fournisseur d’accès à Internet par satellites a connu sa panne la plus importante ce jeudi alors que tous ses clients étaient touchés.
Selon Downdetector, qui permet de signaler les pannes de manière collaborative, les utilisateurs de Starlink ont commencé à subir cette panne vers 21 h (heure française, 19 h UTC). Au plus fort de la crise, près de 60 000 utilisateurs signalaient sur l’outil ne pas y avoir accès. Dans un tweet publié une heure après, l’entreprise confirmait : « Starlink subit actuellement une panne de réseau et nous travaillons activement à la mise en place d’une solution ».
Une panne qui a duré 2h30
Elon Musk a publié ensuite un tweet affirmant : « Le service sera rétabli sous peu. Nous vous prions de nous excuser pour cette interruption. SpaceX remédiera à la cause profonde du problème afin de s’assurer qu’il ne se reproduise plus ».
L’entreprise semble avoir résolu le problème dans la nuit. « Starlink s’est désormais presque entièrement remis de la panne réseau qui a duré environ 2 heures et demie », affirmait Michael Nicolls, vice-président de l’ingénierie chez Starlink à 00h23. Il a expliqué que « cette panne était due à une défaillance des principaux services logiciels internes qui exploitent le réseau central ».
Le responsable a présenté les excuses de l’entreprise et ajouté : « Nous nous engageons pleinement à fournir un réseau hautement fiable et nous allons analyser en profondeur les causes de ce problème afin de nous assurer qu’il ne se reproduise plus ».
« Il s’agit probablement de la plus longue interruption de service jamais enregistrée pour Starlink, du moins depuis qu’il est devenu un fournisseur de services majeur », a affirmé au Guardian Doug Madory, expert de l’entreprise Kentik qui observe le trafic réseau sur Internet.
Les militaires ukrainiens aussi touchés par la panne
Comme le soulignent nos confrères britanniques, il est difficile de savoir si d’autres services satellitaires de SpaceX – dont dépend Starlink, comme sa division militaire Starshield – ont été touchés.
Mais le média ukrainien Kyiv Independent relève que la panne a aussi touché les militaires du pays, qui ont témoigné sur Telegram que les terminaux Starlink étaient hors service et que la connectivité était perdue sur la ligne de front.
Le média ukrainien rappelle que « des centaines de milliers de personnes en Ukraine dépendent des satellites Starlink, qui ont remplacé les réseaux Internet endommagés pendant la guerre ». Les hôpitaux et les écoles en dépendent aussi.
Le 19 juin dernier, Donald Trump avait une nouvelle fois donné un sursis de 90 jours à TikTok, en attendant de trouver l’accord qui satisferait toutes les parties concernées.
Ce jeudi 24 juillet, le secrétaire au Commerce des États-Unis Howard Lutnick a envisagé la fermeture de l’application aux États-Unis en cas de refus par la Chine de l’accord proposé par Donald Trump : « Si cet accord est approuvé par les Chinois, alors il sera conclu », a affirmé Howard Lutnick sur CNBC. « S’ils ne l’approuvent pas, TikTok disparaîtra, et ces décisions seront prises très prochainement », a-t-il ajouté.
Selon lui, dans l’accord proposé par la Maison-Blanche, « la Chine peut posséder une petite partie ou bien ByteDance peut conserver une petite partie. Mais simplement, ce sont les Américains qui en auront le contrôle. Les Américains seront propriétaires de la technologie et contrôleront l’algorithme ».
Selon ArsTechnica, ByteDance pourrait être réticent à signer cet accord car, justement, l’algorithme de TikTok est une part importante de la propriété intellectuelle de l’entreprise.
Les personnes équipées en appareils Apple et prêtes pour un peu d’aventure peuvent installer les bêtas publiques des nouveaux systèmes depuis hier soir. Elles correspondent aux bêtas 4 pour les développeurs.
La grande affaire, cette année, est le renouvellement d’interface Liquid Glass. Le parti pris d’Apple sur l’utilisation du verre a fait beaucoup parler de lui. Il suffit par exemple de lire les commentaires sur les actualités liées chez nos confrères de MacGeneration/iGeneration pour voir que Liquid Glass ne laisse pas indifférent. Apple ne semble d’ailleurs pas sûre d’elle, l’entreprise ayant déjà procédé à de nombreux changements depuis la présentation en grande pompe.
En dehors de ce redesign, commun à toutes les nouvelles plateformes, les nouveautés restent assez conséquentes. Sur iOS, on trouve notamment des applications remaniées pour Téléphone et Appareil photo, de nouvelles applications pour Aperçu et Jeux, ou encore des fonctions de traduction en direct pour Messages, FaceTime et Téléphone, via Apple Intelligence (en local).
iPadOS 26 reprend ces nouveautés et y ajoute une gestion des fenêtres entièrement repensée, très proche de macOS : boutons tricolores, redimensionnement, barre de menu, déplacement libre, fonctionnement en arrière-plan, etc.
Sur macOS, on note l’arrivée des applications Téléphone (en lieu et place de FaceTime) et Journal. Mais ce qui a concentré les attentions, c’est bien la refonte complète de Spotlight. Le moteur de recherche devient un lanceur complet, avec de nouvelles catégories et des résultats mieux rangés, la possibilité de chercher avec davantage de critères, etc.
Surtout, Spotlight peut créer des automatisations, qui seront suggérées avec le temps quand macOS repère des tâches courantes. On peut également affecter de petites séquences de lettres pour lancer des actions prédéfinies. macOS Tahoe embarque également l’API Metal 4 pour tout ce qui touche aux GPU intégrés.
Attention avec les bêtas
En dehors des trois systèmes, les nouveautés sont plus discrètes. watchOS 26 récupère par exemple Liquid Glass, l’application Notes, la traduction en direct, l’ajout d’un geste pour rejeter des notifications (brève rotation rapide du poignet), un remaniement d’Exercice et l’arrivée d’une application Workout Buddy, un coach vocal qui doit encourager pendant l’exercice et les résultats (uniquement en anglais pour l’instant).
Rappelons que l’installation de bêtas n’est jamais sans risque. Il semble que le cycle actuel, assez majeur dans les changements, nécessite encore beaucoup de travail. C’est surtout sur Liquid Glass, dont les effets de transparence notamment sont modifiés à chaque bêta. Sur iOS, le système entraine pour l’instant une chauffe des appareils, certains ralentissements et une perte d’autonomie.
L’installation des bêtas est simple, car il suffit de changer le profil dans la section « Mise à jour logicielle » de chaque plateforme. Mais gardez en tête qu’il s’agit de préversions et que les problèmes peuvent être plus ou moins nombreux.
Elsa, l’IA de la Food and Drugs Administration (FDA), devait « améliorer et optimiser les performances et le potentiel de chaque employé » de l’agence. Si elle permet de générer des documents de travail, elle ne manque pas d’ « halluciner » des études scientifiques ou de déformer des recherches, selon une enquête de CNN.
L’IA mise en place au sein de la Food and Drugs Administration (FDA) ne serait pas l’outil améliorant les performances tant vantée par son responsable Marty Makary, nommé le 1er avril dernier.
La très reconnue agence de sécurité alimentaire et du médicament avait publié début juin un communiqué de presse sur cette IA, qu’elle a nommé Elsa. « Cet outil innovant modernise les fonctions de l’agence et exploite les capacités de l’IA pour mieux servir la population américaine », expliquait la FDA.
Dans un extrait d’une interview donnée à Tucker Carlson et repérée par Gizmodo, le secrétaire à la Santé et aux Services sociaux des États-Unis, Robert F. Kennedy Jr., affirmait que « Nous sommes à la pointe de l’IA » :
« Nous la mettons en œuvre dans tous nos départements. À la FDA, nous accélérons les autorisations de mise sur le marché [AMM] des médicaments afin de ne plus avoir besoin d’utiliser des primates ou même des modèles animaux. Grâce à l’IA, vous pouvez obtenir très, très rapidement les autorisations de mise sur le marché des médicaments. »
« À la suite d’un programme pilote très réussi mené avec les évaluateurs scientifiques de la FDA, j’ai fixé un calendrier ambitieux pour déployer l’IA dans toute l’agence d’ici le 30 juin », assurait Marty Makary dans le communiqué de l’agence : « Le lancement d’Elsa aujourd’hui est en avance sur son calendrier et en dessous du budget prévu, grâce à la collaboration de nos experts internes dans tous les centres ».
Pas d’analyse des autorisations de mise sur le marché pour l’instant
Moins d’un mois après cette date de déploiement, les dents grincent en interne, selon CNN. Comme une bonne partie des IA génératives mises en place dans les bureaux, celle de la FDA peut être utile pour générer des notes, des résumés de réunion, des mails et des communiqués.
Mais contrairement à ce qui a été annoncé, elle ne permettrait pas d’analyser les autorisations de mise sur le marché, puisqu’elle n’a pas accès aux documents des dossiers des industriels, expliquent les sources du média étasunien.
Des hallucinations, comme les autres IA génératives
Et, comme les autres IA génératives, Elsa « hallucine ». Selon plusieurs sources de CNN, ainsi que des documents qu’a pu consulter le média, elle a généré des références à des études inexistantes et déformé les contenus de véritables études. Ces problèmes concernant des informations scientifiques discréditent l’outil aux yeux des sources de CNN.
« Tout ce que vous n’avez pas le temps de vérifier deux fois n’est pas fiable. Elle hallucine en toute confiance », affirme l’une d’entre elles. Si ce problème est connu et doit être pris au sérieux à chaque fois qu’on utilise une IA générative, les responsables de la FDA qui ont annoncé la mise en place d’Elsa promettaient une plus grande efficacité des employés de l’agence grâce à cette IA.
« L’IA est censée nous faire gagner du temps, mais je peux vous garantir que je perds beaucoup de temps supplémentaire simplement à cause de la vigilance accrue dont je dois faire preuve pour vérifier les études fausses ou trompeuses », explique à CNN un autre agent de la FDA.
Le genre de travail effectué par l’agence demande une précision importante. « Si Elsa résume en un paragraphe un travail de recherche sur un nouveau médicament qui tient en 20 pages de recherche, il n’y a aucun moyen de savoir si cela déforme ou omet quelque chose qu’un évaluateur humain aurait considéré comme important », souligne l’un des employés interrogés par CNN.
Près de 30 millions de dollars pour le cabinet de conseil Deloitte
Dès l’annonce de juin, des employés de la FDA expliquaient au média Stat que la mise en place d’Elsa était « précipitée ». Notre consœur, spécialisée dans les technologies de la santé, donnait un peu plus de précisions sur le projet. Elsa serait basée sur le modèle Claude d’Anthropic et développée par le cabinet de conseil Deloitte (entreprise qui finançait déjà l’investiture de Donald Trump en 2017), comme le rapporte ArsTechnica.
Selon Stat, Deloitte a reçu 13,8 millions de dollars depuis 2020 pour développer une base de données de documents de la FDA qui a servi à fine-tuner Claude, et ainsi obtenir le modèle utilisé par Elsa. L’entreprise a obtenu un nouveau contrat de 14,7 millions de dollars en avril dernier pour le déploiement d’Elsa dans toute l’agence.
Interrogé par CNN, Jeremy Walsh, responsable IA de l’agence admet ces critiques : « Elsa n’est pas différente de nombreux [grands modèles de langage] et de l’ IA générative, ils peuvent halluciner ».
De plus, il affirme que les utilisateurs pourront dans les prochaines semaines ajouter des documents pour que cette IA puisse répondre en fonction de données spécifiques.
Le gouvernement britannique a décidé de se reposer sur des outils d’intelligence artificielle pour déterminer l’âge des migrants qui se déclarent mineurs, rapporte Infomigrants.
« Lorsque les personnes impliquées dans le processus d’évaluation de l’âge ne sont pas certaines de l’âge d’une personne, ou n’acceptent pas l’âge qu’elle prétend avoir, l’estimation de l’âge facial offre un moyen potentiellement rapide et simple de confronter leurs jugements aux estimations produites par la technologie », a expliqué la ministre britannique de la Sécurité des frontières et de l’Asile au Parlement.
Un projet pilote a été lancé, en vue de déployer ce type d’outils courant 2026.
Une coalition de près de 100 ONG britanniques alertait récemment contre le fait que plus de 250 enfants demandeurs d’asile aient été placés à tort en détention ou dans des logements destinés à des adultes au premier semestre 2024, ce qui les expose à un danger accru de harcèlement ou d’abus.
Cela dit, comme dans d’autres contextes sociaux, les technologies de reconnaissance faciale ne sont pas exemptes de biais et de résultats faussés lorsqu’il s’agit de détecter l’âge des visages qui leur sont présentés.
Partout sur la planète, les populations migrantes sont par ailleurs surexposées aux technologies invasives de surveillance, et généralement dans des positions trop vulnérables pour pouvoir s’opposer à leur usage.
L’an passé, plusieurs ONG, dont Privacy International, avait déjà tiré la sonnette d’alarme au sujet d’IPIC (pour « Identification et Priorisation des Affaires d’Immigration »), un algorithme d’IA utilisé par le gouvernement britannique pour départager les demandes d’asile.
En moins de deux semaines, la pétition contre la loi Duplomb a dépassé 1,8 million de signatures, devenant la deuxième mobilisation de ce type la plus soutenue en France.
Le 8 juillet 2025, la très critiquée loi Duplomb était votée par l’Assemblée nationale grâce aux voix d’une large partie du bloc présidentiel, de la droite et de l’extrême-droite. Entre autres dispositions, le texte prévoit la ré-autorisation de l’acétamipride, un néonicotinoïde dangereux pour la biodiversité et la santé humaine, la facilitation des projets de mégabassines ou encore celle des élevages intensifs.
Deux jours plus tard, l’étudiante de 23 ans Éléonore Pattery créait une pétition sur le site de l’Assemblée nationale. Elle y qualifiait la loi Duplomb d’ « aberration scientifique, éthique, environnementale et sanitaire » et d’« attaque frontale contre la santé publique, la biodiversité, la cohérence des politiques climatiques, la sécurité alimentaire, et le bon sens ».
En quelques jours, les compteurs s’affolent : la pétition dépasse les 100 000 puis les 200 000 signatures. Repérée par des comptes influents dans les sphères écologistes, dont celui du média Bonpote créé par Thomas Wagner, l’initiative se répand sur les réseaux sociaux, appelant les internautes à signer. En jeu : dépasser la barre des 500 000 signatures, au-delà de laquelle la conférence des présidents peut décider de mettre un débat sur le sujet à l’ordre du jour (quoiqu’ils n’y soient pas obligés, et que le débat soit dédié à rester sans vote).
En ligne, un nombre croissant de personnalités influentes et d’internautes se sont lancés dans la promotion de la pétition, jusqu’à lui faire dépasser plusieurs records de nombre de signatures.
Plus de 1,8 million de signatures
En moins de deux semaines, la pétition a réuni plus de 1,8 million de signatures. Son initiatrice n’a pourtant rien d’une influenceuse : dans le texte de la pétition, elle indique être actuellement en Master qualité, sécurité, environnement et responsabilité sociétale des entreprises. « Je ne suis pas indispensable à ce débat : l’opinion publique, les voix qui s’élèvent partout dans le pays me représentent déjà très bien », déclare-t-elle sur son compte LinkedIn. Elle y encourage régulièrement les signataires mais demande à ce que les médias ne la contactent pas.
Plusieurs personnalités plus habituées à la diffusion à grande échelle prennent rapidement le relais, raconte Politico. Ainsi du fondateur de Bon Pote, média de vulgarisation des enjeux environnementaux, de créateurs de contenus engagés dans les questions environnementales, comme Hugo Clément et Camille Étienne, ou encore des ONG et militants écologistes.
Rapidement, leurs messages, doublés d’appels directs à des vidéastes comme Squeezie, Lena Situations ou Tibo InShape, décuplent la vitalité des appels à signer la pétition. Grâce à ces interpellations en dehors de leurs sphères déjà sensibilisées, ils et elles obtiennent bientôt le soutien des créatrices de contenu EnjoyPhoenix et Jujufitcats ou de l’acteur Pierre Niney. Pour le sénateur Laurent Duplomb (Les Républicains), interrogé sur RMC, il s’agit d’une « instrumentalisation par l’extrême-gauche et par les écologistes ».
Mais avant la rédaction de la pétition par Éléonore Pattery, les effets de la ré-autorisation de l’acétamipride inquiétaient déjà le grand public. Au moment du vote de la loi, le cri de la fondatrice du collectif Cancer Colère, Fleur Breteau, avait déjà fait le tour des réseaux sociaux. « Vous êtes les alliés du cancer et nous le ferons savoir ! », avait lancé à l’adresse des députés de la droite et de l’extrême-droite de l’Assemblée celle qui se bat contre son deuxième cancer du sein en quatre ans. Elle donnait alors un visage à une inquiétude croissante sur les effets cancérigènes des pesticides dont la loi Duplomb doit permettre à nouveau l’usage.
Devant la pétition des Gilets jaunes, derrière celle de l’Affaire du siècle
Forte de ce contexte et de ces soutiens, la pétition contre la loi Duplomb a réussi en quelques semaines à se hisser à un nombre de signatures record. Elle fait mieux que celle de Priscillia Ludosky, protestant en 2018 sur change.org contre la hausse du prix des carburants. Viral, déjà, ce texte signé par 1,29 million de personnes avait signé le coup d’envoi du mouvement des gilets jaunes. Elle dépasse aussi les scores de la pétition « Loi Travail : non, merci ! », qui avait récolté 1,35 million de signatures – le texte a été adopté en août 2016.
La seule mobilisation numérique plus importante, à l’heure actuelle, est celle portée en 2018 par la Fondation pour la nature et l’homme, Greenpeace France, Notre affaire à tous et Oxfam France pour faire reconnaître « l’inaction climatique de l’État français et son obligation à agir ». Elle avait récolté plus de 2,3 millions de signatures. À l’époque, sa médiatisation avait été aidée par des personnalités culturelles, parmi lesquelles les actrices Juliette Binoche et Marion Cotillard, l’humoriste Élie Semoun et les youtubeurs McFly et Carlito.
Trois ans plus tard, le tribunal de Paris avait effectivement reconnu l’État responsable de manquements dans la lutte contre le réchauffement climatique – un jugement qui résonne avec celui de la Cour internationale de justice, qui a jugé le 23 juillet l’inaction climatique des États « illicite ».
Après avoir adopté la loi Duplomb sans débat – en adoptant une motion de rejet et en la renvoyant en commission mixte paritaire –, les législateurs semblent néanmoins surpris par le succès de la pétition contre la loi Duplomb. La présidente de l’Assemblée nationale, Yaël Braun-Pivet, s’est déclarée favorable à l’ouverture d’un débat, mais cela n’a pas empêché la ministre de l’Agriculture Annie Genevard de déclarer que le texte serait « de toute façon promulgué ». Le Conseil constitutionnel doit se prononcer sur le recours déposé par les élus écologistes d’ici le 10 août.
Proton vient de lancer son tout premier assistant IA. Nommé Lumo, il veut faire la différence sur le terrain de la confidentialité et de la vie privée. La société suisse va également investir 100 millions d’euros pour ses activités d’intelligence artificielle. Le projet sera développé en Allemagne plutôt qu’en Suisse, un choix politique.
Sans trop de surprise, la position de Proton (entreprise dont l’actionnaire majoritaire est maintenant la fondation du même nom) sur l’IA est composite : « L’intelligence artificielle a le pouvoir de relever les défis de l’humanité, petits et grands, de la planification de réunions à la modélisation de molécules. Mais pour améliorer véritablement notre façon de vivre et de travailler, nous avons besoin d’un assistant IA construit de manière responsable, en donnant la priorité aux personnes et à la protection de la vie privée ».
Le nouvel assistant, Lumo, doit répondre à cette dualité : « les avantages de l’IA sont trop importants pour être négligés et que les risques sont trop graves pour être ignorés ». Proton affiche ses certitudes sur l’IA, qui est là pour rester, « que cela nous plaise ou non ».
Il est disponible dès à présent en version web, ainsi qu’à travers des applications mobiles dédiées pour Android et iOS. On peut l’utiliser sans compte Proton, mais connecter son compte déverrouille des fonctions supplémentaires.
Cap sur la vie privée
Proton précise d’emblée que sa technologie est alimentée par des modèles open source et qu’elle n’utilise pas les données des utilisateurs. Le contraire aurait été étonnant : les données en question sont protégées par le chiffrement de bout en bout, la société suisse n’ayant accès qu’à certaines métadonnées. Lumo est constitué de plusieurs modèles, la requête étant acheminée vers le plus adapté, selon Proton.
Consciente qu’elle arrive bien après les grands ténors américains armés de dizaines de milliards de dollars, la société suisse met l’accent sur l’Europe. « Lumo est basé sur des modèles linguistiques open-source et fonctionne à partir des centres de données européens de Proton. Vous bénéficiez ainsi d’une plus grande transparence sur le fonctionnement de Lumo que sur celui de tout autre assistant d’IA majeur. Contrairement à Apple Intelligence et à d’autres, Lumo n’est pas un partenariat avec OpenAI ou d’autres sociétés d’IA américaines ou chinoises, et vos requêtes ne sont jamais envoyées à des tiers », déclare ainsi Proton. La comparaison avec Apple est cependant assez hasardeuse : la firme a bien un partenariat avec OpenAI, mais il ne constitue pas le cœur de son infrastructure, axée sur la vie privée elle aussi.
Proton donne plusieurs points forts pour différencier son offre. Lumo ne crée ainsi pas de journaux pour sauvegarder tous les échanges. On retrouve le classique chiffrement de bout en bout et en accès zéro disponible sur les autres produits de l’éditeur, la promesse de ne jamais partager de données avec des tiers (la société indique d’ailleurs ne pas en avoir à cause de son architecture), ou encore un siège européen lui garantissant une imperméabilité à la « juridiction américaine ».
Proton dans la course
Ce n’est pas la première fois que Proton se lance dans l’IA. L’année dernière, l’entreprise a lancé un assistant d’écriture pour son service Mail. Lumo est cependant la première tentative de chatbot complet à usage général. On peut lui demander d’effectuer des recherches sur le web, de résumer des documents et autres fonctions aujourd’hui classiques. Si l’on connecte son compte Proton Drive, on peut également poser des questions sur les fichiers stockés. On peut aussi envoyer des fichiers manuellement à Lumo.
La question se pose de ses performances et de ses évolutions. Contrairement à des sociétés comme OpenAI, Anthropic, Meta ou Google, Proton n’est pas assise sur un immense trésor de données. Des sommes très importantes sont investies dans l’acquisition de données, alors que Proton ne peut utiliser celles de ses clients. Une partie de la réponse se trouve dans la présentation de Lumo : « Lumo peut rechercher sur le web des informations nouvelles ou récentes pour compléter ses connaissances existantes ».
Proton met surtout en avant la vie privée. Crédits : Proton
Il ne faut pas attendre Lumo comme un concurrent de ChatGPT ou de Claude, mais comme un assistant conçu pour la galaxie des services maison. Proton met d’ailleurs surtout en avant son respect de la vie privée, notamment avec le mode Fantôme, qui permet de ne pas enregistrer l’échange dans l’historique. Ce dernier est quoi qu’il en soit chiffré de bout en bout. Noter que cet historique n’est sauvegardé que si un compte Proton est connecté.
Comme de nombreux assistants, Lumo repose sur un modèle freemium : son utilisation basique est gratuite, mais limitée en requêtes et en fonctions. Pour déverrouiller le reste, il faudra passer par un abonnement Lumo Plus proposé à partir de 12,99 euros par mois, avec une promotion en cours à 9,99 euros. La formule autorise un nombre illimité de requêtes, la recherche sur le web, un nombre illimité de favoris, l’envoi et les requêtes sur de multiples fichiers volumineux, un accès à des modèles plus avancés et une assistance prioritaire. L’abonnement n’est pas intégré dans l’offre Unlimited.
Déménagement militant
En marge de son annonce, Proton annonce également avoir déménagé ses installations en Allemagne : « En raison de l’incertitude juridique entourant les propositions du gouvernement suisse d’introduire une surveillance de masse – propositions qui ont été interdites dans l’UE – Proton déménage la majeure partie de son infrastructure physique hors de Suisse. Lumo sera le premier produit à être transféré ». Un transfert politique, pour protester contre ce que l’entreprise juge comme une dérive.
Selon Le Temps, Proton investira également jusqu’à un milliard de francs suisses (1,07 milliard d’euros) en Allemagne et en Norvège afin de développer et renforcer ses infrastructures, notamment pour Lumo. Plus précisément, 100 millions seront investis très prochainement, les 900 millions restants devant être injectés avant 2030. « J’aimerais pouvoir réinvestir les 900 millions restants ici, à Genève. Le canton nous soutient fermement. Le problème est au niveau fédéral, à Berne », a déclaré Andy Yen, CEO de Proton, au journal.
Proton réaffirme également son désir d’investir dans une Europe numérique souveraine.
Donald Trump a signé trois décrets visant à assurer la « domination mondiale » des États-Unis sur l’IA. Ces textes s’érigent contre la diversité, l’équité et l’inclusion dans les modèles utilisés par les administrations fédérales, les restrictions environnementales des entreprises d’IA et pour un effort massif d’export des technologies étasuniennes d’intelligence artificielle dans le monde.
La Maison-Blanche a publié ce mercredi 23 juillet trois décrets concernant l’IA et les grands modèles de langage qui devraient plaire aux milliardaires du numérique qui ont soutenu activement sa candidature.
Ces trois textes ont vocation à soutenir, d’une part, très activement leur export jusqu’à une « domination mondiale », en supprimant notamment les régulations environnementales et géopolitiques mises en place auparavant notamment par Joe Biden.
Donald Trump, d’autre part, impose aux entreprises d’IA de conformer leurs modèles à son idéologie, sous peine de perdre les marchés publics fédéraux concernant les outils d’IA générative.
Des décrets sur l’IA signés lors d’un show sponsorisé
Le Président des États-Unis a présenté pendant une heure, hier, sa vision dans une « keynote » lors du Sommet « Winning the AI Race », organisé et diffusé par le podcast All‑In géré par les responsables d’entreprises de capital risque Chamath Palihapitiya, Jason Calacanis, David Friedberg et David Sacks.
Rappelons que ce dernier, cofondateur de Palantir et ancien de PayPal, a été nommé « tsar » de la crypto et de l’IA à la Maison-Blanche par Donald Trump. Ce dernier a signé les décrets en direct à la fin de ce show sponsorisé par la Bourse de New York et Visa.
Financements publics fédéraux à foison
Dans un premier décret, Donald Trump facilite la création d’infrastructures de centres de données aux États-Unis en supprimant certaines normes en place jusqu’alors dans le pays. Il prévoit que les différentes agences fédérales subventionnent, fassent des prêts, mettent en place des incitations fiscales et signent des accords avec des projets déjà soutenus à hauteur de 500 millions de dollars, qui demandent une puissance de plus de 100 MW ou qui « protègent la sécurité nationale ».
Il révoque aussi les règles mises en place comme un baroud d’honneur par Joe Biden en début d’année afin de restreindre les exportations de GPU pour l’IA. Enfin, il assouplit considérablement les règles environnementales que devaient respecter les constructeurs de data centers.
Dans son explication de texte, la Maison-Blanche affirme qu’ « en simplifiant les procédures d’autorisation et en apportant un soutien financier, les États-Unis accéléreront le développement des centres de données et renforceront leur domination mondiale dans le domaine de l’IA, ce qui permettra de créer des emplois et d’améliorer la sécurité nationale ».
Vers une « domination mondiale »
Le deuxième texte signé par Donald Trump ce mercredi 23 juillet concernant l’IA affirme que « les États-Unis doivent non seulement être à la pointe du développement des capacités générales et de pointe en matière d’IA, mais aussi veiller à ce que les technologies, les normes et les modèles de gouvernance américains en matière d’IA soient adoptés dans le monde entier afin de renforcer les relations avec nos alliés et de garantir le maintien de notre domination technologique ».
Il appelle l’ensemble de l’industrie de l’IA étasunienne à répondre à un appel d’offre public pour un « programme américain d’exportation de l’IA afin de soutenir le développement et le déploiement de paquets d’exportation de l’IA étasunienne « full-stack » ».
Un alignement idéologique sur les idées de Trump sinon pas de subventions
Enfin, dans un troisième texte, Donald Trump impose à toute l’industrie de l’IA étasunienne qui voudrait bénéficier des financements fédéraux que ses modèles soient contre les politiques soutenant la diversité, l’équité et l’inclusion, qu’il qualifie d’ « une des idéologies les plus répandues et les plus destructrices ».
Rappelons que, récemment, la version Heavy de Grok 4 a déclaré s’appeler Hitler, que l’IA de xAI inclus dans X a fait l’éloge du dictateur allemand, généré des réponses antisémites et tourné en boucle sur un pseudo-génocide blanc en Afrique du Sud.
Mais le président des États-Unis préfère lutter contre ce qu’il appelle l’ « IA Woke » (terme employé dans le titre du décret). Sans le nommer, Donald Trump vise notamment le modèle de Google Gemini en prenant pour exemple « un modèle d’IA majeur [qui] a modifié la race ou le sexe de personnages historiques, notamment le pape, les pères fondateurs et les Vikings », oubliant au passage que le modèle générait aussi des SS noirs ou asiatiques et que ceci a eu lieu en février 2024.
L’ensemble des trois décrets aura sans doute un impact sur les entreprises d’IA qui, comme l’explique TechCrunch, pourront se sentir contraintes d’aligner les résultats de leurs modèles et leurs jeux de données d’entrainement sur la vision de Donald Trump pour obtenir des fonds fédéraux alors qu’elles amassent beaucoup de chiffres d’affaires, mais sont toujours déficitaires.
Au numérique s’ajoute désormais officiellement l’intelligence artificielle : Clara Chappaz a procédé mercredi soir à l’installation officielle du « Conseil national de l’intelligence artificielle et du numérique », l’instance indépendante qui a vocation à éclairer les décisions du gouvernement sur ses domaines de prédilection.
Ce nouveau Conseil, dit CIAN, annoncé en juin dernier (PDF), prend la place du Conseil national du numérique (souvent abrégé en CNNum), créé au printemps 2011 sous la présidence de Nicolas Sarkozy.
Dans sa nouvelle configuration, le CIAN, composé de quinze membres et de deux co-présidents, reprend les missions de principe de son prédécesseur avec un périmètre étendu à l’IA, à savoir informer et conseiller le Gouvernement, éclairer le débat public, contribuer à l’élaboration des positions de la France sur ces sujets et formuler « en toute indépendance » des avis et recommandations.
« Que des numéros 10 », s’est réjouie jeudi matin la ministre déléguée chargée de l’IA et du numérique. « Plusieurs enjeux de société au cœur de l’action de mon Ministère pourront nourrir les réflexions et ses travaux dans les mois à venir : usages de l’IA, soutenabilité numérique, souveraineté technologique, protection des enfants en ligne », esquisse-t-elle dans un dossier de présentation (PDF).
La coprésidence du CIAN sera assurée par Anne Bouverot, présidente du conseil d’administration de l’ENS, et Guillaume Poupard, ex patron de l’ANSSI aujourd’hui directeur général adjoint de Docaposte, tous deux nommés par Bercy.
Ils sont entourés de quinze membres, dont trois personnalités issues d’autres instances, huit profils « qualifiés » issus de la société civile, et quatre élus respectivement désignés par la présidence de l’Assemblée nationale et du Sénat.
Parmi les personnalités qualifiées figurent notamment Antonin Bergeaud, professeur d’économie à HEC Paris, Marie Cohen-Skalli, codirectrice d’Emmaüs Connect, Etienne Grass, responsable de l’IA chez Capgemini Invent, Guillemette Picard, senior vice-présidente chez Ubisoft, Sébastien Soriano, directeur général de l’IGN (ex-Arcep), ou Serena Villata, directrice de recherche au CNRS.
Deux co-présidents et quinze membres composent le nouveau CIAN
L’indépendance a un prix (Next en sait quelque chose), s’apprête à rappeler Mastodon à ses utilisateurs. L’équipe vient en effet d’indiquer dans un billet de blog qu’elle lancerait très prochainement une campagne d’appel aux dons sur les deux instances qu’elle opère (mastodon.social et mastodon.online).
« Gérer un serveur, modérer le contenu et développer le logiciel qui alimente ce réseau nécessitent des ressources. Nous souhaitons permettre à ceux qui apprécient Mastodon de faire des dons directement, de « renverser la situation » des entreprises financées par le capitalisme de surveillance et de bénéficier d’un soutien durable, alimenté par de nombreux petits dons. Lorsque les utilisateurs de la plateforme sont ses principaux contributeurs, leur fidélité à la plateforme leur est indéfectible », explique Mastodon.
Le projet Mastodon est déjà principalement financé grâce aux dons de particuliers et au mécénat de certaines entreprises, mais l’équipe n’a jamais, jusqu’ici, orchestré de véritable campagne de sensibilisation auprès de ses utilisateurs, comme sait par exemple le faire l’encyclopédie en ligne Wikipédia.
Pour cette première campagne, Mastodon prévoit d’afficher une bannière au sein des clients iOS et Android, uniquement pour les utilisateurs connectés à un compte créé sur l’une des deux instances mentionnées précédemment depuis au moins quatre semaines. « Pour l’instant, cette fonctionnalité n’apparaîtra que sur nos applications mobiles. Lors d’une prochaine campagne, nous espérons l’étendre également au web. La bannière est distincte du bouton « Faire un don » existant, présent dans les paramètres de l’application pour les utilisateurs de nos instances ».
Outre le recueil de dons, l’objectif affiché est aussi de mesurer les réactions de la communauté face à cette première. « Si cela fonctionne bien, nous souhaiterions rendre cette option de collecte de fonds accessible à toutes les autres instances Mastodon. Cela permettrait aux administrateurs de serveur de bénéficier d’un soutien direct de leurs utilisateurs. Chaque instance pourrait alors choisir d’activer ou non cette fonctionnalité, ce qui lui donnerait un outil supplémentaire pour assurer sa pérennité », envisage encore l’équipe.
Mastodon a pour mémoire engagé, en début d’année, un chantier de refonte de sa gouvernance, qui vise à lui donner les statuts et les moyens nécessaires à la pérennité du projet, mais aussi la capacité à se développer plus rapidement, tout en restant indépendant des logiques économiques basées sur l’attention ou l’exploitation des contenus publiés par les utilisateurs.
« De notre point de vue, un réseau social qui repose sur des incitations monétaires finira forcément par mal tourner. Il y a des investisseurs à contenter, donc il faut faire de l’argent. Pour faire de l’argent, il faut monétiser, donc mettre en place des pratiques hostiles aux utilisatrices et aux utilisateurs, que ce soit de la pub, de la vente de données, le fait de choisir les contenus que l’on veut exposer ou favoriser », expliquait à Next Renaud Chaput, directeur technique du projet.
Emmanuel et Brigitte Macron ont déposé plainte contre l’influenceuse Candace Owens devant un tribunal du Delaware, aux États-Unis.
Depuis le début de l’année 2025, cette dernière a donné un écho mondial à la thèse selon laquelle Brigitte Macron serait née homme en propulsant l’ouvrage Becoming Brigitte (« Devenir Brigitte »), écrit par le Français Xavier Poussard.
Dans la plainte, les avocats du couple présidentiel indiquent que Candace Owens est parfaitement au courant de la fausseté de ses affirmations, mais qu’elle refuse toute demande d’amendement.
Le document souligne aussi son audience importante : plus de 6,9 millions d’abonnés sur X et 4,9 millions sur YouTube.
Les deux femmes françaises à l’origine de cette théorie, Natacha Rey et Amandine Roy, ont été condamnées par la justice hexagonale en septembre 2024. Elles ont été relaxées en appel le 10 juillet 2025.
Brigitte Macron et son frère se sont pourvus en cassation
Donald Trump a présenté au congrès étasunien un budget de la NASA amputé de 25 % par rapport aux années précédentes. Plusieurs milliers d’employés vont quitter l’agence spatiale. En réaction, certains ont signé la « Voyager Declaration », qui dénonce les attaques du gouvernement Trump contre la NASA.
Comme annoncé en mai [PDF], le régime de Donald Trump a prévu de couper drastiquement dans le budget de la NASA. L’agence étasunienne verrait son budget passer de 24,9 milliards de dollars en 2025 à 18,8 milliards de dollars en 2026. Le pouvoir en place prévoit de reconduire ce même budget jusqu’en 2030. Cette coupe de 25 % s’accompagnerait du départ prévu de 5 000 employés, comme l’explique Politico.
Près de 3 000 départs déjà actés
Selon nos confrères, 2 694 employés de la NASA auraient déjà accepté de partir, dont au moins 2 145 cadres supérieurs de l’agence, avec une concentration particulière au haut niveau de la hiérarchie.
« Vous perdez l’expertise managériale et technique fondamentale de l’agence », a déploré Casey Dreier, le responsable de la politique spatiale à la Planetary Society (association très connue dans le milieu de l’astrophysique et regroupant plus de 60 000 membres), cité par Politico : « Quelle est la stratégie et qu’espérons-nous accomplir ici ? ».
Comme ses anciens collègues, l’ancien numéro 3 de la NASA, Kartik Sheth, viré par Donald Trump en mars, cherche un endroit où atterrir. Il affirme à nos confrères de La Provence : « Je veux travailler à Marseille ».
Makenzie Lystrup, la responsable du Goddard, sur le départ
Dans ces près de 3 000 départs déjà actés, il y a celui de Makenzie Lystrup, a appris ArsTechnica. Elle était jusque-là responsable du principal centre scientifique de la NASA, le Goddard Space Flight Center, depuis avril 2023. Ce centre rassemble plus de 8 000 fonctionnaires avec un budget d’environ 4,7 milliards de dollars. Il gère, par exemple, les télescopes James Webb et Hubble, ainsi que l’assemblage du télescope Nancy Grace Roman, dont le lancement était prévu pour mai 2027.
Ce départ est acté alors que le budget scientifique de la NASA est particulièrement visé par les coupes prévues par Donald Trump. Comme signalé déjà en mars, il devrait être réduit de moitié, passant de 7,3 milliards à 3,9 milliards de dollars, une baisse qui entraînerait l’annulation de dizaines de missions de la NASA en cours dans l’espace ou en phase de développement, comme l’explique ArsTechnica.
Comme le soulignent nos confrères, les commissions responsables de ces budgets au Congrès et au Sénat étasunien ont proposé de rétablir le budget de la NASA au niveau de cette année, mais aucun vote sur le sujet n’a encore eu lieu, et Donald Trump devra ensuite le signer. ArsTechnica souligne que le président peut contourner ces votes et imposer des coupes durables dans le budget de la NASA.
« Voyager Declaration », plusieurs centaines de salariés de la NASA signent une lettre ouverte
Quelques heures avant l’annonce du départ de Makenzie Lystrup, une lettre ouverte a été adressée à Sean Duffy, le secrétaire des transports de l’administration Trump, nommé administrateur intérimaire de l’agence le 9 juillet. Le président des États-Unis l’a finalement préféré à Jared Isaacman, qui avait les faveurs d’Elon Musk.
Dans cette lettre ouverte, des salariés de la NASA dénoncent « les politiques récentes qui ont gaspillé ou menacent de gaspiller les ressources publiques, compromettent la sécurité humaine, affaiblissent la sécurité nationale et sapent la mission fondamentale de la NASA ».
Ils y expliquent que « les changements programmatiques majeurs à la NASA doivent être mis en œuvre de manière stratégique afin que les risques soient gérés avec prudence ». Mais ils constatent qu’ « au lieu de cela, les six derniers mois ont été marqués par des changements rapides et inutiles qui ont compromis [leur] mission et eu des conséquences catastrophiques sur le personnel de la NASA ».
Ils implorent le nouveau responsable de l’agence : « Nous vous exhortons à ne pas mettre en œuvre les coupes budgétaires préjudiciables proposées par cette administration, car elles ne sont pas dans l’intérêt de la NASA. Nous souhaitons préserver la mission vitale de la NASA telle qu’elle a été autorisée et approuvée par le Congrès ».
Avec mes grandes oreilles, au loin j'entends les abeilles
Amazon se prépare à conclure l’acquisition de la startup californienne, inventrice d’un bracelet connecté à un système d’IA générative et capable d’écouter l’ensemble des conversations de celui qui le porte. Baptisé Bee, ce bracelet dans lequel a investi Xavier Niel est l’une des incarnations de cette nouvelle famille d’objets connectés censés servir d’assistants quotidiens.
Promis, Bee va améliorer votre vie quotidienne… pour peu que vous ayez beaucoup d’interactions vocales avec d’autres humains ! Ce bracelet, affiché en précommande à 49 dollars et livré, pour l’instant, exclusivement aux États-Unis, se propose en effet d’écouter l’ensemble de vos conversations du jour à l’aide d’un micro embarqué.
L’objectif est de pouvoir ensuite les passer au crible d’une intelligence artificielle générative, et ainsi vous permettre de consulter la synthèse d’une réunion, rechercher une information précise évoquée par un interlocuteur, ou tout simplement vous souvenir des « moments importants » de votre vie.
Un micro au poignet branché sur un service d’IA
D’après la startup Bee AI, qui envisage d’associer son bracelet à un abonnement payant, facturé 12 dollars par mois, les modèles d’IA distribués au travers de sa plateforme pourront apprendre des conversations et des habitudes de son utilisateur pour gagner, au fur et à mesure, en pertinence. Au point de passer progressivement d’une écoute passive à des fonctionnalités plus interactives, comme la suggestion de tâches, le rappel de rendez-vous, etc.
« Pour nous servir pleinement, l’IA doit vivre à nos côtés, s’inspirant non seulement des commandes, mais aussi de la texture de nos vies : nos relations, nos émotions et nos aspirations. Ce n’est qu’en s’immergeant dans nos vies que l’IA peut véritablement comprendre qui nous sommes et ce qui compte le plus », précise la startup sur son site.
La promesse vous parait orwellienne ? Bee, fondée en 2022 par deux anciens d’une application de chat vidéo, Squad, rachetée par Twitter, y voit les prémices d’un service capable aussi d’interagir avec votre boîte mail, votre agenda ou votre carnet d’adresses. Bref, un majordome IA, caché dans un bracelet qui, pour l’instant, fait surtout penser visuellement aux trackers d’activités premier prix.
L’appareil, dépourvu d’écran, embarque deux microphones, dispose d’un dispositif de filtration de bruit pour améliorer la capture des voix, et dispose d’un simple bouton qui permet de déclencher ou d’interrompre les enregistrements. Doté d’un simple connecteur USB type-C, il offrirait jusqu’à sept jours ou 160 heures d’autonomie. Bee AI prévoit par ailleurs de déployer son service sur Apple Watch via une application dédiée, et propose déjà une avant-première de sa future application Android.
Pour l’instant, Bee indique à Wired exploiter une combinaison de modèles sur étagère, dont ChatGPT et Gemini, avec une inférence réalisée à distance, dans le cloud, les capacités du bracelet ne permettant pas à ce stade un traitement local.
Sur son site, Bee AI revendique le soutien financier de trois investisseurs : le fonds Exor de la famille Agnelli (Fiat), la société de capital-risque américaine Greycroft et un certain Xavier Niel, cité nommément bien que la participation ait vraisemblablement été réalisée via son fonds Kima Ventures.
Bee bientôt reconfiguré aux couleurs d’Alexa ?
Bee AI n’a pas réellement fait sa preuve de marché, mais la startup a déjà attiré l’intention d’un poids lourd. Maria de Lourdes Zollo, cofondatrice de Bee AI, a en effet annoncé mardi 22 juillet que son entreprise allait passer dans le giron d’Amazon :
« Lorsque nous avons lancé Bee, nous imaginions un monde où l’IA serait véritablement personnelle, où votre vie serait comprise et enrichie par une technologie qui apprend avec vous. Ce qui a commencé comme un rêve avec une équipe et une communauté incroyables trouve désormais un nouveau foyer chez Amazon. »
Le géant du e-commerce n’a de son côté pas communiqué officiellement, mais une porte-parole de l’entreprise confirme le rachat à The Verge, et en profite pour rassurer : « Nous concevons nos produits pour protéger la confidentialité et la sécurité de nos clients et pour leur permettre de contrôler facilement leur expérience — et cette approche s’applique bien sûr à Bee ».
Qu’adviendra-t-il de Bee chez Amazon ? La marque risque logiquement de disparaître, puisqu’Amazon englobe ses produits et travaux liés à l’IA générative sous l’ombrelle Alexa. En février dernier, la firme de Jeff Bezos avait présenté la dernière version en date de son IA, baptisée Alexa+ :
« Elle vous divertit, vous aide à apprendre, vous permet de rester organisé, résume des sujets complexes et peut discuter de pratiquement tout. Alexa+ peut gérer et protéger votre maison, effectuer des réservations, vous aider à suivre, découvrir et apprécier de nouveaux artistes. Alexa+ peut également vous aider à rechercher, trouver ou acheter presque n’importe quel article en ligne, ainsi que vous faire des suggestions utiles en fonction de vos intérêts. »
Déjà distribuée sur les appareils Amazon (tablettes, applications mobiles, enceintes domestiques, etc.), Alexa+ pourrait logiquement trouver son chemin vers le bracelet conçu par Bee AI.
Un design que n’auraient pas renié Fitbit et consorts vers 2016
Des grandes oreilles encore bien imparfaites
Le lancement en Europe d’un tel appareil serait probablement scruté de près par les défenseurs d’un respect strict de la vie privée, au regard notamment de textes comme le RGPD. En attendant, le bracelet de Bee AI livre des résultats contrastés, témoignent outre-Atlantique plusieurs journalistes de la presse tech, qui ont eu l’occasion de le tester pendant quelques semaines. Soit parce que l’appareil ne distingue pas toujours bien les voix, cherche à résumer la radio ou la TV qui tourne en fond, et produit un certain nombre de contre sens ou d’approximations. Soit parce qu’il résume des moments personnels, et élabore des suggestions qui n’ont pas toujours lieu d’être…
Dans son retour d’expérience, The Verge note toutefois que le bracelet Bee est de loin le plus abordable des appareils qui surfent sur cette idée d’une écoute permanente destinée à nourrir une IA personnelle. Ce point n’a probablement pas échappé à Amazon, qui envisage souvent ses appareils hardware comme des leviers d’acquisition pour ses services sur abonnement.
Reste à savoir si le marché est prêt ? Jusqu’ici, plusieurs startups se sont positionnées sur le segment des appareils connectés dopés à l’IA, avec parfois des échecs retentissants. L’AI Pin, sorte de broche connectée censée remplacer à terme le smartphone de l’utilisateur, a par exemple atteint des records de valorisation, avant que ses actifs ne soient finalement rachetés par HP pour une fraction des fonds levés suite à un lancement calamiteux. D’autres creusent ce filon d’un appareil connecté à une IA, mais avec une approche plus spécialisée, comme Plaud AI qui commercialise des accessoires dédiés à la prise de notes.
Alors que la remontée des droits de douanes décidée par les États-Unis s’approche à grands pas, Washington accentue la pression pour que ses partenaires commerciaux évitent un maximum les taxes ou régulations de ses géants numériques.
La guerre commerciale des États-Unis, outil de la préservation des bastions technologiques d’outre-Atlantique ? C’est en tout cas la stratégie qu’applique Washington.
Fin juin, Donald Trump a brutalement tordu la main au Canada, annonçant suspendre les discussions commerciales dans la mesure où le pays maintenait son projet de taxe sur les services numériques. Dans les deux jours qui ont suivi, le gouvernement canadien a annoncé suspendre la taxe en question.
Alors que les nouveaux droits de douanes imposés par les États-Unis doivent être appliqués au plus grand nombre de ses partenaires à partir du 1er août 2025, le pays cherche encore à lever divers projets de réglementations et de taxes visant spécifiquement la tech. Le Brésil, la Corée du Sud et l’Union européenne, sont particulièrement dans le viseur du gouvernement Trump, détaille le Wall Street Journal.
Bras armé de l’industrie technologique
En l’occurrence, la nouvelle administration états-unienne se plie parfaitement aux requêtes exprimées par ses géants numériques.
Celles-ci sont audibles dans le champ de l’IA depuis plusieurs années, où l’on a vu Sam Altman plaider à la fois pour plus de régulation dans son propre pays, dans l’espoir de s’allier les législateurs locaux, et pour une approche dérégulée ailleurs. Dans le reste de l’industrie, une partie des dirigeants ont directement participé à la réélection du candidat Trump, toujours avec le même but : éviter la moindre régulation.
Si lui-même les a régulièrement attaqués dans le champ domestique – Meta n’a d’ailleurs pas réussi à éviter le procès pour pratique anti-concurrentielles –, Donald Trump considère toute tentative de taxation ou de régulation à l’extérieur comme une ponction de profits destinés aux États-Unis.
C’est dans ce contexte que le chef d’État avait, lors de son premier mandat, qualifié Margrethe Vestager de « tax lady » qui « détesterait les États-Unis ».
Alors qu’un nombre croissant de pays cherchent à limiter la désinformation, protéger les internautes, renforcer leurs dispositifs de lutte contre les pratiques anticoncurrentielles, voire simplement toucher une plus grande part des bénéfices des sociétés numériques qui agissent sur leur territoire, le directeur exécutif de la Computer & Communications Industry Association se félicite auprès du Wall Street Journal que le gouvernement actuel ait « enfin reconnu qu’il y avait un incendie que nous devions éteindre ».
Auprès du journal états-unien, le Brésil a indiqué être focalisé sur la réouverture des discussions commerciales plutôt que sur des mesures de rétorsion. La Commission européenne n’a, de son côté, pas souhaité commenter. Elle déclarait cependant au début du mois être prête à assouplir ses positions si cela lui permet d’obtenir un accord commercial. À l’inverse, ce 22 juillet, la France appelait Bruxelles à faire preuve d’une plus grande fermeté.
Le parquet de Paris signale mercredi l’arrestation, en Ukraine, de l’administrateur du forum majoritairement russophone XSS.is, connu comme un lieu d’échanges et de transactions liées au vol de données et à la distribution d’outils spécialisés.
« Actif depuis 2013, ce forum était l’un des principaux lieux de la cybercriminalité mondiale. Il permettait la vente de malwares, d’accès à des systèmes compromis, de données dérobées et de services liés aux ransomwares. Le forum était doublé d’un serveur Jabber de messagerie chiffrée, facilitant les échanges anonymes entre cybercriminels », décrit la procureure Laure Beccuau, dans un communiqué (PDF) partagé par le Parquet de Paris sur LinkedIn.
C’est ce serveur Jabber, thesecure.biz, qui aurait permis à l’enquête, ouverte dans le cadre d’un dossier d’information judiciaire ouvert par le parquet de Paris en 2021, d’aboutir grâce à la « mise en place de captations judiciaires ».
« Les messages interceptés ont révélé de nombreuses activités illicites en lien avec la cybercriminalité et les ransomwares, et permis d’établir qu’elles avaient engendré au moins 7 millions de dollars de bénéfice », avance encore la procureure.
Une seconde captation a permis de mener à l’arrestation, mardi 22 juillet en Ukraine, de celui que le parquet présente comme l’administrateur du forum. L’opération a été réalisée par les autorités ukrainiennes, en présence de la police française et d’Europol.
Le site s’était précédemment fait connaître sous le nom DaMaGeLaB, avant que l’arrestation d’un de ses administrateurs, n’entraîne la création d’une nouvelle identité. XSS.is tire son nom de la vulnérabilité dite cross-site scripting, abrégée en XSS dans le jargon informatique.
Alors que les entreprises d’IA génératives donnent de moins en moins d’information sur l’impact environnemental de leurs modèles, Mistral a travaillé avec l’agence Carbone 4 et l’ADEME sur celui de son modèle Large 2. L’entreprise explique notamment que l’entrainement de ce modèle a émis l’équivalent de 20 400 tonnes de CO₂.
Il est difficile de connaître l’impact environnemental des modèles de langage puisque jusque-là, les entreprises qui les créent étaient peu bavardes sur le sujet. Les chercheuses de Hugging Face, Sasha Luccioni, Bruna Trevelin et Margaret Mitchell ont bien tenté de le mesurer, mais elles déploraient, en septembre 2024, qu’ « il existe actuellement peu de transparence sur les demandes énergétiques des applications spécifiques de l’IA ».
Dans un article mis en ligne en juin dernier sur la plateforme de preprints arXiv, Sasha Luccioni, avec Boris Gamazaychikov de Salesforce, Theo Alves da Costa de Ekimetrics et Emma Strubel de l’Université Carnegie Mellon, déploraient encore une « désinformation par omission » sur le sujet.
Ils écrivaient que « la tendance actuelle à la réduction de la transparence concernant l’impact environnemental de l’IA contribue à la désinformation et entrave la prise de décisions éclairées à tous les niveaux, des chercheurs et développeurs individuels aux organisations et décideurs politiques ». Ils ajoutaient que « cette baisse de transparence est particulièrement préoccupante compte tenu de l’impact environnemental croissant de l’IA dans un contexte de préoccupations climatiques mondiales et de limites planétaires imminentes ».
Dans cet article, ils expliquaient que « les données de mai 2025 indiquent que parmi les 20 modèles les plus utilisés, un seul (Meta Llama 3.3 70B) a directement publié des données environnementales et trois (DeepSeek R1, DeepSeek V3, Mistral Nemo) les ont publiées indirectement (en partageant des données de calcul telles que le type de GPU et la durée de formation, ainsi qu’en publiant les poids de leurs modèles afin de permettre une analyse de l’efficacité) ».
Mistral ouvre le capot de Large 2
En cette mi-juillet, Mistral ouvre (un peu) le capot de son modèle Large 2 concernant son impact environnemental. Dans un billet de blog, l’entreprise explique avoir travaillé avec l’agence Carbone 4 et l’ADEME sur « l’analyse du cycle de vie d’un modèle d’IA ». Sans donner les chiffres bruts ni publier, à ce stade, l’étude qu’elle a faite, l’entreprise livre divers chiffres sur la consommation de son modèle et assure que son étude a été examinée par deux autres agences (Resilio et hubblo). Elle ajoute que cette étude suit le référentiel général pour l’IA frugale développé par l’AFNOR et est conforme aux normes internationales, notamment la norme Green House Gas (GHG) Protocol Product Standard et la norme ISO 14040/44.
Ainsi, elle confirme d’abord que l’entrainement et l’inférence (qu’elle mélange dans l’infographie ci-dessous) sont les parties qui émettent le plus d’émissions de gaz à effet de serre (85,5 %) pour le modèle Large 2 de Mistral.
Mistral résume ses conclusions dans une infographie
Néanmoins, concernant ce point, l’entreprise rappelle que la fabrication et la gestion de la fin de vie du matériel utilisé ne sont pas à négliger puisqu’elles représentent 11 % des émissions du modèle.
L’entreprise rappelle que la localisation des datacenters est un facteur clé de son impact environnemental puisque de celle-ci va dépendre de la nature de l’énergie qu’ils vont dépenser. Ainsi, en entrainant son modèle en France, avec de l’énergie provenant notamment de centrales nucléaires et un climat encore relativement tempéré, Mistral émet moins de CO2 et consomme moins d’eau que dans beaucoup d’autres régions du monde.
20 400 tonnes de CO₂ et 281 000 m³ d’eau
L’entreprise donne des chiffres plus précis sur l’impact environnemental de l’entrainement de son modèle Large 2. Ainsi, elle explique qu’en janvier 2025, après 18 mois d’utilisation, Large 2 a émis l’équivalent de 20 400 tonnes de CO₂ (tCO₂e), consommé 281 000 m³ d’eau et l’équivalent de 660 kg d’antimoine en ressources matérielles (660 kg sb eq, une unité de mesure de la consommation de ressources matérielles qui se base sur la consommation de l’élément chimique antimoine, sb).
Mistral précise, concernant l’inférence, qu’une réponse de son assistant « Le Chat » utilisant ce modèle avec 400 tokens consomme l’équivalent de 1,14 g de CO₂, 45 mL d’eau et l’équivalent de 0,16 mg d’antimoine. Elle qualifie ces impacts de l’inférence de « marginaux ».
Mistral précise que « ces chiffres reflètent l’ampleur des calculs impliqués dans l’IA générique, qui nécessite de nombreux processeurs graphiques, souvent dans des régions où l’électricité est très polluante et où il y a parfois des problèmes d’approvisionnement en eau ». Elle ajoute qu’ « ils incluent également les « émissions en amont », c’est-à-dire les impacts liés à la fabrication des serveurs, par exemple, et pas seulement à la consommation d’énergie ».
Dans leur article de juin, Sasha Luccioni et ses collègues rappelaient que Google avait estimé en octobre 2024 [PDF] que l’entrainement de sa famille de modèles Gemma avait consommé l’équivalent de 1 247,61 tonnes CO2 et que, de son côté, Meta avait estimé la consommation de l’entrainement de sa famille Llama 3 à l’équivalent de 11 390 tonnes de CO2.
Plaidoyer pour une transparence accrue dans le milieu
« Notre étude montre également une forte corrélation entre la taille d’un modèle et son empreinte », explique Mistral. L’entreprise précise que « les benchmarks ont montré que les impacts sont à peu près proportionnels à la taille du modèle : un modèle 10 fois plus grand générera des impacts d’un ordre de grandeur supérieur à ceux d’un modèle plus petit pour la même quantité de jetons générés. Cela souligne l’importance de choisir le bon modèle pour le bon cas d’utilisation ».
Elle ajoute que cette étude est « une première approximation compte tenu de la difficulté à effectuer des calculs précis dans le cadre d’un tel exercice en l’absence de normes relatives à la responsabilité environnementale des environnements LLM et de facteurs d’impact accessibles au public ». Elle fait remarquer, par exemple, qu’ « aucun inventaire fiable du cycle de vie des GPU n’a encore été réalisé ». Ainsi leurs impacts intrinsèques « ont dû être estimés, mais ils représentent une part importante des impacts totaux ».
Mistral propose que les futurs audits sur le sujet dans le secteur prennent exemple sur son étude qui a « utilisé une approche basée sur la localisation des émissions liées à l’électricité et à inclure tous les impacts significatifs en amont, c’est-à-dire non seulement ceux liés à la consommation électrique des GPU, mais aussi toutes les autres consommations électriques (CPU, dispositifs de refroidissement, etc.) et la fabrication du matériel ».
L’entreprise s’engage à mettre à jour ses rapports sur l’impact environnemental et à participer aux discussions sur des normes industrielles internationales sur le sujet, plaidant pour une plus grande transparence « tout au long de la chaine de production de l’IA ». Elle ajoute qu’elle va partager les résultats sur la base de données « Base Empreinte » de l’ADEME « établissant une nouvelle norme de référence pour la transparence dans le secteur de l’IA ». On attend avec impatience la publication de ces données dans cette base pour que la transparence soit encore un peu plus complète.
PayPal annonce le lancement de PayPal World, « vers la fin de l’année 2025 », une plateforme destinée à faciliter les paiements commerciaux transfrontaliers… et à toucher plus de deux milliards d’internautes sur la planète.
Pour y parvenir, l’entreprise et son service Venmo s’associent à TenPay Global (branche du chinois Tencent), qui gère l’écosystème de paiement de WeChat, à la National Payments Corporation of India (NPCI), qui gère le système de paiement mobile indien UPI (Unified Payments Interface), ou encore à Mercado Pago, une fintech qui propose carte bancaire et paiements mobiles en Amérique latine.
Les partenaires cités touchent effectivement des masses importantes d’usagers, rappelle TechCrunch : en volume, Mercado Pago a traité 58,3 milliards de dollars de transaction au premier trimestre 2025 et UPI 238 milliards de dollars sur le seul mois de juin.
La plateforme permettra aux détenteurs de comptes PayPal ou Venmo d’envoyer de l’argent n’importe où sur le globe, y compris vers des internautes qui n’ont pas de compte chez les deux entreprises.
De même, elle permettra à des utilisateurs indiens de l’UPI de payer aux États-Unis sans s’être créé de compte chez un fournisseur local de moyen de paiement.
France Travail a alerté par email certains de ses usagers d’un incident de cybersécurité survenu au niveau d’un service dédié au suivi des formations. Il est susceptible d’avoir conduit à l’exposition des données personnelles de 340 000 inscrits.
France Travail a envoyé, mardi 22 juillet au soir, un courrier d’information à certains des usagers inscrits à son service, alertant d’un acte de cyber malveillance susceptible d’avoir entrainé la consultation illégitime de leurs données personnelles. Dans son email, que Next reproduit ci-dessous, l’ex Pole Emploi indique que la fuite est survenue au niveau « du portail emploi destiné à [ses] partenaires ».
Nom, prénom, adresses, téléphone et statut France Travail
L’agence affirme par ailleurs avoir immédiatement fermé le service concerné, lancé des analyses pour déterminer l’origine de l’attaque, et rempli ses obligations de signalement en informant la CNIL dès le 13 juillet, date de la découverte de cet incident.
« Les données compromises sont vos nom, prénom, adresses postale et électronique, numéro de téléphone, identifiant France Travail et statut (inscrit, radié). Vos données bancaires ou vos mots de passe ne sont pas concernés par cet incident », informe France Travail.
Comme toujours en de telles circonstances, l’agence invite les utilisateurs concernés à la prudence, notamment vis à vis des risques de phishing (hameçonnage).
Cet email a été adressé par France Travail à certains inscrits mardi 22 juillet en fin de journée
Une application de suivi des formations mise en cause
Contactée par Next, la direction de France Travail apporte quelques précisions sur la nature de l’incident et surtout sur son périmètre. L’alerte est d’abord partie du CERT-FR de l’ANSSI, le 12 juillet. Son traitement a permis aux équipes internes de France Travail d’identifier le service par lequel est intervenue la fuite.
« Il s’agit de l’application Kairos permettant aux organismes de formation d’agir sur le suivi des formations des demandeurs d’emploi. Le service a été immédiatement fermé ainsi que tous les autres services hébergés sur le portail Emploidestiné à nos partenaires », explique France Travail. La fuite aurait été rendue possible grâce à la compromission, via un malware de type infostealer (logiciel spécialisé dans le vol d’informations personnelles) d’un compte utilisateur rattaché à un organisme de formation basé dans l’Isère.
340 000 demandeurs d’emploi concernés
Outre le signalement à la CNIL, France Travail indique avoir déposé plainte auprès des autorités, en parallèle de la procédure obligatoire d’information des personnes concernées. « Les données de 340 000 demandeurs d’emploi ont été consultéeset seraient donc susceptibles d’être divulguées et exploitées de manière illégale », révèle à ce niveau l’agence.
Les services concernés par cette fermeture préventive devraient être réactivés jeudi. France Travail affirme en parallèle avoir intensifié ses mesures de protection, et accéléré le déploiement d’une authentification double facteur dédiée à Kairos, initialement programmée pour octobre prochain.
« Face à la menace croissante de cyber attaques, nous renforçons en continu nos dispositifs de protection, procédures et consignes et appelons nos partenaires utilisateurs de nos services et appli à la plus grande vigilance concernant la robustesseet la confidentialitéde leurs mots de passe », promet encore France Travail.
Rappelons que le service dédié aux demandeurs d’emploi a été victime, début 2024, d’une fuite de données massive qui avait conduit à l’exposition des informations relatives à quelque 43 millions d’inscrits. La portée réelle de l’intrusion avait toutefois été relativisée par la suite.
Aux États-Unis, l’agence en charge de gérer et maintenir les caches d’armes nucléaires du pays fait partie des entités victimes de l’exploitation des failles récemment découvertes dans Microsoft SharePoint.
Aucune information sensible ou classifiée n’aurait été compromise, d’après une source de Bloomberg à la National Nuclear Security Administration (NNSA), la branche du ministère de l’Énergie chargée de la production et du démantèlement des armes atomiques.
D’autres parties du ministère ont été victimes de la même attaque.
Outre le ministère de l’Énergie, les pirates ont atteint des systèmes du ministère de l’Éducation et des administrations d’États. L’Europe et le Moyen-Orient sont également concernés.
Microsoft accuse des pirates soutenus par l’État chinois, spécifiquement les groupes LInen Typhoon et Violet Typhoon, d’être à l’origine de ces attaques.
Le gouvernement anglais exige d’Apple qu’elle perce son propre chiffrement pour donner accès aux données hébergées dans le cadre de certaines enquêtes. La société refuse catégoriquement, faisant monter le ton aussi bien au Royaume-Uni qu’aux États-Unis. La Maison-Blanche n’a pas hésité à comparer les demandes britanniques à des tactiques chinoises.
En février, Apple coupait sa Protection avancée des données pour l’iPhone au Royaume-Uni. Comme nous l’indiquions récemment dans notre dossier consacré à la sécurité du smartphone, ce mécanisme optionnel élargit le chiffrement de bout en bout sur la quasi-totalité des services en ligne proposés par l’entreprise, ne laissant plus que la sécurité par défaut sur les comptes iCloud.
Apple avait décidé de cette coupure en réponse à une demande du gouvernement anglais à laquelle l’entreprise ne comptait pas obtempérer. En vertu de l’Investigatory Powers Act, le pays peut en effet réclamer à des entreprises des « mesures techniques ». Or, tout portait à croire qu’Apple avait reçu pour instruction d’introduire une porte dérobée dans son chiffrement de bout en bout. En outre, la loi anglaise interdit aux entreprises d’évoquer publiquement ces demandes.
Tensions entre Downing Street et la Maison-Blanche
Selon le Financial Times, cette situation crée de puissantes ondes de choc entre le cabinet du Premier ministre anglais et la Maison-Blanche, plus particulièrement JD Vance, vice-président des États-Unis. Selon un fonctionnaire (anonyme) du ministère britannique de la Technologie, le vice-président « est très mécontent de cette situation, qui doit être résolue ».
On sait que la Maison-Blanche a une idée très claire des règles auxquelles les entreprises américaines doivent obéir : les siennes. Donald Trump a évoqué plusieurs fois le racket que représentent pour lui les amendes infligées par la Commission européenne sur les grandes entreprises. Quand les récentes amendes contre Apple et Meta ont été prononcées, la Maison-Blanche a fait savoir que le DMA et le DSA seraient examinés de près, de même que toutes les lois qui viendraient influer sur le fonctionnement des entreprises américaines. L’Investigatory Powers Act semble l’une d’elles.
C’est ce qu’indique l’un des fonctionnaires interrogés par le Financial Times : « L’un des défis pour les partenariats technologiques sur lesquels nous travaillons est la question du chiffrement. Il s’agit d’une ligne rouge importante pour les États-Unis, qui ne veulent pas que nous nous mêlions de leurs entreprises technologiques ».
Pour un autre haut fonctionnaire, lui aussi sous couvert d’anonymat, le ministère britannique de l’Intérieur a très mal géré la question du chiffrement d’Apple. Il chercherait aujourd’hui à se dépêtrer d’une situation tendue. Et pour cause : le Royaume-Uni tient à ce que ses lois soient appliquées et gouterait peu l’idée de devoir reculer face au courroux américain.
Échos multiples
Si l’affaire cristallise actuellement une partie des tensions entre les États-Unis et l’Europe, c’est qu’elle se situe au croisement de plusieurs problématiques. Il y a bien sûr le chiffrement de bout en bout lui-même, souvent attaqué, comme ce fut le cas en France cette année. Les tentatives reviennent régulièrement et les acteurs impliqués réagissent à chaque fois de la même manière. À l’instar de la fondation Signal, dont la présidente Meredith Whittaker a dit et répété qu’elle quitterait tout pays se dotant d’une législation anti-chiffrement.
Ces tensions rappellent l’opposition farouche d’Apple au FBI en 2015, après l’attentat de San Bernardino, quand les autorités fédérales avaient exigé de l’entreprise qu’elle perce ses propres défenses. Le FBI s’en était finalement sorti en achetant une faille de sécurité, qui lui avait permis d’accéder aux informations – lesquelles n’avaient d’ailleurs rien révélé. Cependant, le rôle du FBI est ici tenu par une puissance étrangère et la Maison-Blanche se montre particulièrement jalouse des grandes entreprises nationales.
La tension intervient en outre à une période charnière, où les États-Unis doivent négocier d’importants accords avec l’Europe et le Royaume-Uni. Et la portée de la loi britannique agace nettement outre-Atlantique, puisque les forces de l’ordre anglaises seraient en capacité de récupérer des données de citoyens américains si Apple obtempérait. Une ordonnance qualifiée de « violation flagrante » de la vie privée des personnes concernées, selon la directrice du renseignement national des États-Unis, Tulsi Gabbard.
Équilibrisme
La situation actuelle est complexe. Interrogée par le Financial Times, Apple a répondu, comme d’habitude dans ce genre d’affaire : « Nous n’avons jamais construit de porte dérobée ou de clé principale pour aucun de nos produits, et nous ne le ferons jamais ».
Selon les fonctionnaires britanniques interrogés, le gouvernement anglais chercherait désormais une échappatoire, mais n’a pour l’instant pas reculé sur ses demandes. Downing Street sait à quoi s’en tenir, puisque dès février, Donald Trump s’était entretenu avec le Premier ministre travailliste, Keir Starmer. « Vous ne pouvez pas faire ça », avait déclaré le président américain, ajoutant que ce type de demande était « quelque chose… dont on entend parler avec la Chine ». Les États-Unis ne sont pourtant pas en reste sur la portée extraterritoriale de certaines lois, comme le Cloud Act et le FISA.
Bien que la procédure soit toujours en cours, Apple finira sans doute par emporter la manche, pas parce qu’elle aura combattu l’ordonnance devant l’Investigatory Powers Tribunal, mais parce que le ministère anglais de l’Intérieur aura trouvé une échappatoire. En dépit d’un réchauffement diplomatique entre les chefs d’États américain et anglais, la pression exercée par la Maison-Blanche va vraisemblablement mettre un coup d’arrêt à la procédure.
Le projet Stargate d’OpenAI annoncé en grande pompe par Donald Trump prévoyait 500 milliards de dollars sur quatre ans dont 100 milliards devaient être investis « immédiatement ». Le projet est revu à la baisse avec, pour l’instant, un seul data center qui devrait être implanté dans l’Ohio à la fin de l’année.
Dès le lendemain de son investiture, Donald Trump annonçait en grande pompe le projet Stargate. Il promettait des centaines de milliards de dollars sur quatre ans pour cette « porte des étoiles » avec comme principaux partenaires financiers SoftBank, OpenAI, Oracle et MGX.
Mais la création « presque immédiatement » de « 100 000 emplois », selon le nouveau président, et même les « centaines de milliers d’emplois » promis par OpenAI se font attendre aux États-Unis. Selon le Wall Street Journal, six mois après, la coentreprise créée pour l’occasion n’a pas encore signé un seul contrat pour la création d’un data center.
Difficulté à sceller l’accord entre SoftBank et OpenAI
Selon les sources du média financier étasunien, les deux entreprises qui dirigent le projet, SoftBank et OpenAI, ne sont toujours pas tombées d’accord sur certains enjeux cruciaux du projet, notamment les sites sur lesquels les data centers devraient être construits.
Pour l’instant, un seul petit datacenter est dans les tuyaux. Il s’appuierait sur une « nouvelle conception moins coûteuse » que les projets habituellement prévus par ce genre d’entreprises. Ce projet ne s’accompagne néanmoins d’aucun chiffre de la puissance nécessaire pour le faire fonctionner. Puissance utilisée depuis quelque temps pour afficher la taille importante des projets de data centers.
En soi, ce n’est pas un mal que le premier data center de cette « porte des étoiles » se fasse en s’appuyant sur une réflexion sur les coûts, au contraire. Mais cela tranche avec le gigantisme et la quasi-immédiateté de l’annonce faite en janvier dernier.
Le Wall Street Journal qualifie ce retard de « lancement léthargique de Stargate » et affirme que celui-ci est un « revers pour les ambitions importantes » du CEO de SoftBank, Masayoshi Son « qui, malgré des milliards de dollars dépensés au fil des années, essaye toujours de rattraper son retard dans le secteur de l’IA, qui évolue rapidement ».
Si SoftBank a du mal à ouvrir la porte des étoiles de l’IA, elle n’a pas abandonné l’idée d’épauler les investissements d’OpenAI. En février, les deux entreprises s’alliaient pour conquérir à la fois le marché entreprises et le Japon. Et l’entreprise de Sam Altman annonçait, en avril, un nouveau tour de table mené par SoftBank. La holding japonaise avait donné son accord pour remettre au pot 10 milliards de dollars à la mi-avril et 30 milliards de dollars supplémentaires en décembre 2025.
Mais de nouveaux projets pour OpenAI avec d’autres
L’inertie de l’accord entre SoftBank et OpenAI sur Stargate ne reflète pas forcément l’état de tous les partenariats annoncés récemment autour de nouveaux data centers. Par exemple, OpenAI et Oracle (qui fait aussi partie de l’accord Stargate) ont récemment conclu un accord pour un data center demandant une puissance de 4,5 gigawatts, explique Reuters. Selon le Wall Street Journal, OpenAI va verser, dans ce cadre, 30 milliards de dollars par an à Oracle pour plusieurs centres de données qui doivent être implantés aux États-Unis, sans plus de précision.
En ajoutant un autre accord plus petit avec CoreWeave, le journal financier étasunien remarque même qu’OpenAI arrive même à la promesse [.PDF] de 100 milliards de dollars investis dans des data centers pour une puissance de 5 gigawatts, cette année.
Rappelons, par contre, que si l’entreprise de Sam Altman revendiquait en juin dernier 10 milliards de dollars d’activité, en octobre 2024, elle ne prévoyait déjà pas d’être rentable avant 2029.
Récemment, l’entreprise affichait ses velléités de s’affranchir de Microsoft en menaçant même de procès pour abus de position dominante concernant certaines clauses de leur contrat.
Ces difficultés entre OpenAI et SoftBank pourraient toutefois remettre en question le modèle d’accord rapidement copié en France avec une annonce du même ordre par Emmanuel Macron un mois après son homologue étasunien. Le président français avait indiqué « 109 milliards d’euros » d’investissements « dans les prochaines années ».
La nouvelle mouture de Firefox ne brillera pas par ses nouveautés visibles, la plupart des améliorations étant situées sous le capot. Sous Linux, le navigateur utilise ainsi un peu moins de mémoire vive et ne requiert plus un redémarrage forcé après sa mise à jour par un gestionnaire de paquets.
L’autre « grande » nouveauté de Firefox 141, c’est la prise en charge de WebGPU, d’abord dans la version Windows. Les moutures Mac et Linux seront concernées dans les mois qui viennent, comme l’indiquait récemment Mozilla. WebGPU est pour rappel l’API héritière de WebGL et exploite les API de plus bas niveau sur les systèmes hôtes pour aller plus loin dans l’utilisation de la carte graphique.
Parmi les autres nouveautés, Firefox 141 propose d’utiliser l’IA (locale) pour « suggérer des onglets et des noms pour les groupes d’onglets ». Le navigateur peut ainsi pointer visuellement plusieurs onglets pour proposer de les regrouper et de nommer le tout. Cette fonction est cependant déployée progressivement et n’est donc pas disponible partout. Activée par défaut, elle peut être coupée dans les paramètres du navigateur.
Si vous utilisez les onglets verticaux, vous pouvez désormais modifier la taille de la zone réservée aux outils, située en bas à gauche. Sous Windows, on note la reprise des icônes de polices fournies par le système pour augmenter la cohérence graphique. Le nouveau Firefox permet également d’utiliser la barre d’adresses pour convertir les unités. Quant au remplissage automatique des adresses, il est désormais disponible au Brésil, en Espagne et au Japon.
Côté développeurs, Firefox 141 signe surtout le retour du support de CHIPS (Cookies Having Independent Partitioned State).
Microsoft poursuit son opération de séduction en Europe avec l’annonce de deux initiatives. D’abord, un travail spécifique sur les langues européennes pour augmenter leur représentativité dans les modèles d’IA générative. Ensuite, une numérisation complète de la cathédrale Notre-Dame de Paris, dans le cadre de son programme Culture AI.
Face aux tensions géopolitiques, aux étincelles provoquées par les DMA et DSA ou encore aux questions de souveraineté, Microsoft applique une méthode de « bon élève pragmatique ». La société américaine tâche de ne pas faire de vagues et d’appliquer le cadre juridique sans trop contester. Elle a par exemple rationalisé son offre cloud pour proposer le même type d’infrastructure que pour Bleu (la coentreprise Capgemini-Orange), a priori non soumis à l’extraterritorialité des lois américaines.
D’après Microsoft, la domination actuelle de l’anglais dans les contenus en ligne peut créer un problème de représentativité linguistique. « Une grande partie de ce contenu reflète une perspective américaine », indique Microsoft. Le problème serait particulièrement visible en Europe, le Vieux continent comptant plus de 200 langues. « L’IA qui ne comprend pas les langues, l’histoire et les valeurs de l’Europe ne peut pas servir pleinement ses citoyens, ses entreprises ou son avenir », affirme l’entreprise.
« L’Union européenne compte 24 langues officielles, auxquelles s’ajoutent des dizaines d’autres reconnues au niveau national ou régional. Pourtant, nombre de ces langues – même celles qui font partie des 24 langues officielles, comme le danois, le finnois, le suédois et le grec – représentent moins de 0,6 % du contenu du web. D’autres, comme le maltais, l’irlandais, l’estonien, le letton et le slovène, sont à peine visibles en ligne. Alors que seulement 5 % de la population mondiale parlent l’anglais comme première langue, les textes en anglais représentent la moitié du contenu des sites web et dominent les données utilisées pour former les modèles d’intelligence artificielle »
Pour illustrer le problème, Microsoft dégaine les résultats sur le modèle open source Llama 3.1 de Meta. Particulièrement à l’aise avec l’anglais, les performances du modèle deviennent moyennes en grec, voire franchement mauvaises en letton.
Source : Microsoft
Données librement accessibles
La solution proposée ? Utiliser ses centres de recherche à Strasbourg et ses employés pour constituer des réserves linguistiques associées à chaque langue parlée en Europe, afin de créer un socle d’entrainement pour les modèles. Microsoft déploie ici tout son charme, faisant miroiter l’explosion des possibilités face à l’élimination des barrières linguistiques, des IA plus en phase avec les spécificités de chaque pays, ou encore la préservation de langues classées comme en danger par l’UNESCO, comme le breton, l’occitan et le romanche.
Microsoft indique qu’elle va collaborer avec des partenaires dans toute l’Europe (entreprises, universités, dont celle de Strasbourg) et mettre à disposition les ressources de son Open Innovation Center (MOIC) et de son AI for Good Lab à Strasbourg. Viendra s’y ajouter une équipe de « 70 ingénieurs, scientifiques des données et professionnels de la politique de Microsoft ».
Tout ce petit monde commencera par exploiter le stock de données multilingues de Microsoft, pour le rendre accessible librement en Europe, y compris aux développeurs de logiciels libres, promet l’entreprise. Ces données seront notamment disponibles sur Hugging Face. Un partenariat avec Common Crawl permettra de financer des travaux chez ce dernier, dont la participation de locuteurs natifs pour « pour annoter et ensemencer des données en langues européennes dans l’ensemble de données Common Crawl accessible au public ».
Une opération qui devrait certes aider à augmenter la représentativité des langues européennes, mais qui contribuera également à fournir des données fraiches à Microsoft pour l’entrainement de ses modèles. L’éditeur promet cependant que toutes ces données seront accessibles publiquement. Elles pourront servir, en théorie, à l’entrainement d’autres modèles de la concurrence.
Un jumeau numérique de Notre-Dame
Microsoft, qui se pose en champion de la culture en Europe, a également annoncé une extension de son programme Culture AI. Dans le cadre de ce dernier, un jumeau numérique de la cathédrale Notre-Dame de Paris va être réalisé en « haute fidélité ».
L’entreprise ne se lance pas seule dans ce projet. Elle s’est associée au ministère français de la Culture et à la société Iconem, spécialisée dans ce domaine. À noter que le programme Culture AI de Microsoft ne s’occupe jamais directement de la création de ces jumeaux numériques. Il finance des opérations conjointes pour le patrimoine historique. Ces projets ont débouché notamment sur des jumeaux de l’ancienne Olympie en Grèce, du mont Saint-Michel, de la basilique Saint-Pierre de Rome ou encore de certains lieux emblématiques du débarquement des alliés en Normandie.
Microsoft promet que ce jumeau « préservera en permanence sous forme numérique chaque détail de Notre-Dame, garantissant ainsi que sa structure, son histoire et son symbolisme seront protégés et accessibles pour les générations à venir ». La copie sera donnée à l’État français et exploitée notamment dans le futur musée Notre-Dame de Paris.
Tous azimuts sur la culture
En parallèle, l’entreprise américaine annonce plusieurs autres partenariats. Avec la Bibliothèque nationale de France et Iconem, Microsoft va par exemple numériser 1 500 maquettes cinématographiques provenant de spectacles à l’Opéra National de Paris entre 1800 et 1914. Les données alimenteront des programmes éducatifs et seront mises à disposition de la plateforme Gallica de la BNF. Avec le Musée des Arts Décoratifs, Microsoft va également fournir des descriptions numériques détaillées d’environ 1,5 million d’objets du Moyen-Âge.
Microsoft affirme présenter ces « nouvelles mesures avec humilité et respect ». L’entreprise dit reconnaitre « que la préservation de la diversité linguistique et culturelle de l’Europe est une tâche qui incombe aux Européens et qui doit être menée par les Européens ». Elle se place ainsi dans un rôle de prestataire d’arrière-plan, avec à la clé, peut-être, une hausse de sa cote de popularité.
Des publicités d’appels aux dons pour financer des équipements militaires et le soutien moral à l’armée israélienne circulent sur Facebook, Instagram et Threads, alarme l’association étasunienne Ekō. Ces appels aux dons auraient permis de lever plus de 2 millions de dollars pour des équipements militaires comme des drones.
Sur Facebook, les utilisateurs du réseau social peuvent tomber sur des publicités pour des appels aux dons pour l’armée israélienne.
« Nous sommes l’équipe de snipers de l’unité Shaked, stationnée à Gaza, et nous avons besoin de toute urgence de trépieds de tir pour mener à bien notre mission à Jabalia », affirme l’une d’entre elles, explique le Guardian. Nous avons pu retrouver un message du même auteur avec le même contenu publié le 16 janvier 2025 et qui est encore en ligne.
117 publicités de ce genre depuis mars 2025
La publicité, accompagnée d’une vidéo, renvoie vers une page de campagnes de dons hébergées par thechesedfund.com. Outre l’appel aux dons pour l’unité de snipers de l’armée israélienne, cette page propose de financer de la musique et des barbecues pour les soldats.
L’association étasunienne Ekō en a repéré au moins 117 depuis mars 2025, explique The Guardian. Mais elle avait déjà repéré ce genre de publicité en décembre 2024, comptant à ce moment-là 98 autres publicités renvoyant vers ces appels aux dons. Dans son document [PDF] publié fin 2024, l’association détaillait les publicités qui ciblaient différents pays européens, dont la France.
Des campagnes pour financer des drones modifiables pour larguer des grenades
Elle donnait l’exemple d’une campagne pour « un appel à financer un drone thermique à 8 000 dollars pour un soldat retournant à Gaza ». Celui-ci a pu être diffusée du 1er juillet 2024 au 6 septembre 2024. Facebook indique l’avoir ensuite suspendue « car [sa] technologie ou [ses] équipes ont déterminé qu’il ne respectait pas [ses] règles sur : Publicités portant sur un enjeu social, électoral ou politique ». Entre temps, selon les informations de Facebook, elle a été affichée entre 15 000 et 20 000 fois.
Si Facebook évoque cette règle, sa politique indique aussi que l’entreprise n’autorise pas le contenu qui « tente d’acheter, de vendre ou d’échanger des armes à feu, des pièces d’armes à feu, des munitions, des explosifs ou des améliorations à visée meurtrière » ou qui « tente de faire don d’armes à feu, de pièces d’armes à feu, de munitions, d’explosifs ou d’améliorations à visée meurtrière, ou d’en offrir ».
Elle admet des exceptions pour des « entités physiques légitimes ». Mais, l’un des deux diffuseurs repérés par Ekō, Mayer Malik, se présente comme un musicien basé en Israël. Celui-ci aurait collecté plus de 2,2 millions de dollars de dons pour l’armée israélienne.
L’autre est l’association Vaad Hatzedaka. Celle-ci aurait levé plus de 250 000 dollars sur les 300 000 qu’elle s’était fixée pour fournir, entre autres, des drones, selon la page de dons que le Guardian a consultée.
Comme l’explique le Guardian, il n’est pas établi que ces fonds ont bien été versés aux soldats ou à l’armée israélienne. Mais, selon une enquête des médias + 972 Magazine et Local Call, les soldats israéliens utilisent abondamment de modèles EVO de drones Autel produits en Chine pour une utilisation civile de photographie aérienne. « Grâce à un accessoire militaire connu sous le nom de « boule de fer », une grenade peut être fixée au drone et larguée en appuyant sur un bouton pour exploser au sol », explique + 972.
Dario Amodei, CEO d’Anthropic, aurait admis dans un message publié sur le Slack interne de l’entreprise qu’il n’était pas fermé à accueillir des fonds venus des Émirats arabes unis ou du Qatar, même si le fait d’accepter ces investissements risquait de contribuer, à terme, à enrichir des « dictateurs ».
« C’est un véritable inconvénient et je n’en suis pas ravi », aurait précisé Dario Amodei, avant d’ajouter : « malheureusement, je pense qu’on ne peut pas gérer une entreprise en appliquant le principe du « aucune mauvaise personne ne devrait bénéficier de notre succès » ».
Ce propos daté du dimanche 20 juillet, qui n’avait a priori pas vocation à être rendu public, a été révélé par Wired dans un article publié lundi.
D’après la description qu’en fait le magazine, Dario Amodei profitait de ce mémo pour peser le pour et le contre au sujet d’une ouverture du capital d’Anthropic aux structures d’investissement des États du Moyen-Orient.
Anthropic
Dario Amodei affirmait en octobre dernier dans un essai que les IA les plus puissantes devaient rester l’apanage des démocraties, pour éviter que des régimes autoritaires en prennent le contrôle. Quelques mois plus tôt, il avait, selon CNBC, fermé la porte au fonds souverain d’Arabie saoudite, qui se portait candidat pour acquérir les actions Anthropic détenues par la société FTX avant l’effondrement de cette dernière.
La donne aurait donc changé. « Si nous voulons rester à la pointe de la technologie, l’accès à ce capital est un atout majeur », évoquant un fonds disposant d’une enveloppe de l’ordre de 100 milliards de dollars.
S’agit-il de MGX, le fonds souverain émirati qui participe déjà aux 500 milliards de dollars prévisionnels d’investissement programmés par OpenAI ? Dario Amodei ne le précise pas, mais il explique que refuser d’aller au Moyen-Orient ou manquer l’opportunité que constituent les perspectives d’investissement dans des infrastructures locales mettrait la société dans une situation concurrentielle complexe.
« En fait, cela pourrait avoir des avantages importants pour le monde, notamment en améliorant la santé humaine, en contribuant au développement économique, etc. », veut-il encore croire.
Dans la foulée du voyage organisé par Donald Trump au Moyen-Orient pour renforcer les liens commerciaux avec la région, OpenAI s’est engagée à participer à un partenariat commercial plus large entre les États-Unis et les Émirats arabes unis, signé le 15 mai dernier, qui prévoit, entre autres, que l’administration Trump soutienne la création de 5 GW d’infrastructures dédiées à l’IA hébergées par les sept émirats.
La prochaine version majeure 25H2 de Windows 11 se dessine progressivement. Microsoft vise un plus faible nombre de nouveautés qu’avec la 24H2, mais promet des travaux sur les performances et la fiabilité, notamment des pilotes tiers.
Windows 11 a pour l’instant eu du mal à s’imposer face à son grand frère Windows 10, même si le temps finit par lui donner les parts de marché tant désirées. Alors que la fin du support technique de Windows 10 se rapproche (14 octobre 2025), Microsoft peine toujours à convaincre des avantages de son dernier système. C’est tout particulièrement vrai sur les terrains des performances et de la fiabilité.
De nouveaux journaux de performances pour les testeurs
Pour les performances, Microsoft est à la recherche d’informations supplémentaires. Dans les dernières préversions du système (canaux Dev et Beta) apparues il y a quelques jours, l’éditeur a ajouté un mécanisme pouvant créer de nouveaux journaux quand le PC affiche de mauvaises performances et semble « paresseux ».
La création de ces journaux n’implique cependant pas leur envoi. Les testeurs inscrits au programme Insider sont invités à se rendre sur l’application Hub de commentaires (Feedback Hub) et à donner un maximum d’informations sur la situation qui a provoqué cette chute de performances. Les journaux seront alors collectés et envoyés à la validation du signalement.
« Utilisez la catégorie Desktop > System Sluggishness lorsque vous faites part de vos commentaires pour permettre à Feedback Hub de collecter automatiquement ces journaux. Ces journaux sont stockés localement (dossier %systemRoot%\Temp\DiagOutputDir\Whesvc) et ne sont envoyés à Microsoft via Feedback Hub que lorsque des commentaires sont soumis », explique l’entreprise.
Analyse statique renforcée pour les nouveaux pilotes
La mise à jour 25H2, attendue cet automne, entrainera également des changements pour les pilotes, particulièrement avec ceux disposant d’un composant en espace noyau. Autrement dit, les pilotes graphiques.
La certification des pilotes se passe habituellement en deux temps. D’abord, une analyse statique, pour examiner le code à froid, avant son exécution. Puis vient l’analyse dynamique, qui examine le comportement du code exécuté. Dans un billet publié le 16 juillet, Microsoft a ainsi annoncé un renforcement du test statique, qui doit désormais utiliser la dernière version de CodeQL. Le pilote doit ainsi passer avec succès le Static Tools Logo Test pour espérer recevoir la certification Hardware Compatibility Program (WHCP).
CodeQL est un moteur d’analyse statique développé par GitHub et dont Microsoft se sert depuis quelques années. Comme le rappelle Neowin notamment, CodeQL a vu son utilisation renforcée depuis la grande proclamation de la Secure Future Initiative, le chambardement interne chez Microsoft décidé après la grande panne CrowdStrike. Il est ainsi prévu que CodeQL finisse par être utilisé sur la totalité de ses produits commerciaux.
Pour les sociétés tierces impliquées, cela signifie pour l’instant utiliser la version 2.22.1 au moins de CodeQL CLI et la mouture 1.6.0 du Windows Drivers CodeQL Query Pack.
Rappelons que les pilotes tiers jouent un grand rôle dans la stabilité de Windows. Depuis Windows 7 notamment, Microsoft impose des règles strictes, dont l’interdiction de l’espace noyau. Seules quelques rares exceptions sont possibles, comme les pilotes graphiques. Le mois dernier, on apprenait ainsi que l’éditeur allait lancer un grand coup de balai dans Windows Update pour se débarrasser des plus vieux pilotes.
Sous le feu d’une enquête formelle de la Commission européenne pour abus de position dominante, le fabricant américain Corning, spécialisé dans les verres durcis à destination, notamment, de la téléphonie mobile, a réussi à éviter l’amende. Dans un communiqué daté du 18 juillet, Bruxelles indique avoir accepté les engagements formulés par Corning, mais prévient toutefois : un manquement pourrait être sanctionné à hauteur de 10 % du chiffre d’affaires annuel de l’entreprise, ou une astreinte à hauteur de 5 % de ce même chiffre d’affaires par jour de non-conformité.
L’accord prévoit principalement que le fabricant des verres Gorilla Glass mette un terme à toutes les clauses d’exclusivité négociées avec des constructeurs (marques commerciales ou OEM) et s’engage « à ne pas utiliser de telles clauses ou des clauses similaires ayant le même effet dans des accords futurs ». L’entreprise se dit également prête à ne plus exiger de ses clients qu’ils se fournissent obligatoirement à plus de 50 % auprès d’elle.
Gorilla Glass est la marque la plus connue du groupe Corning
À ces engagements pris pour le monde entier, Corning ajoute une promesse liée plus spécifiquement au marché européen : l’entreprise accepte ainsi de ne plus subordonner la vente de ses verres les plus haut de gamme à des engagements de volumes minimums. En cas de litige relatif à sa propriété intellectuelle, Corning indique également accepter de « fonder ses revendications uniquement sur la violation de brevet, et non sur une rupture de contrat ».
Ces propositions tolèrent toutefois une exception, et non des moindres : les verres de protection développés spécifiquement par Corning pour Apple. Considérés comme une commande ad hoc, ils ne rentreraient pas dans le champ des produits pour lesquels cette proposition d’accord se révèle pertinente.
La Commission s’est dite satisfaite de ces engagements, et « a donc décidé de les rendre juridiquement contraignants pour Corning », pour une durée de neuf ans et avec une application dans le monde entier.
En 2024, les activités liées à l’affichage et aux verres de protection représentaient 3,8 milliards de dollars, sur un total de 13,12 milliards de dollars de chiffre d’affaires annuel pour le groupe Corning.