↩ Accueil

Vue normale

☕️ TikTok déclare refuser le chiffrement de bout en bout pour protéger ses utilisateurs

4 mars 2026 à 11:48

Dans la bataille pour la confidentialité des échanges privés en ligne, une voix discordante se fait entendre parmi les plateformes : TikTok a déclaré à la BBC refuser de déployer le chiffrement de bout en bout (end-to-end encryption, E2EE) sur ses communications au motif que cela mettrait ses utilisateurs en danger. 
Ce faisant, le réseau social renverse l’argumentaire désormais avancé par tous ses concurrents – et de nombreux défenseurs des droits numériques –, selon lesquels l’E2EE est essentiel à la protection de la vie privée en ligne.

Au fil du temps, X et les plateformes de Meta WhatsApp, Facebook, Instagram et Messenger ont déployé la fonctionnalité.

Notamment redoublée du chiffrement des métadonnées, celle-ci est aussi au cœur des arguments du service de messagerie Signal, qui se présente comme le service grand public le mieux sécurisé.

La solution technique est en revanche régulièrement critiquée par les forces de l’ordre de multiples pays comme par certains (autres) défenseurs des libertés numériques, notamment des mineurs, comme une fonctionnalité qui empêche d’enrayer la circulation de contenus dangereux en ligne.


Ceux-ci argumentent notamment que l’E2EE, en empêchant les forces de l’ordre ou les entreprises technologiques elles-mêmes d’accéder au contenu des échanges, freine la modération de contenus allant de la promotion du terrorisme à diverses formes de pédocriminalité (ce dernier sujet étant notamment l’un des motifs du controversé projet de règlement CSAR, renommé ChatControl par ses opposants).

TikTok

Le cas de TikTok a ceci de spécifique que sa maison mère ByteDance est régulièrement critiquée pour ses potentiels liens avec le pouvoir chinois, ce qui créerait un risque d’exposition des données des utilisateurs et utilisatrices. Si ByteDance nie ce type de lien, les États-Unis ont obtenu que les activités locales de l’entreprise soient séparées du reste de ses activités internationales.

Auprès de la BBC, l’entreprise déclare que son positionnement est délibéré, c’est-à-dire une manière parmi d’autres de se différencier de ses concurrents.

Elle ajoute que les messages directs restent sécurisés via des systèmes de chiffrement standards, similaires à ceux présents sur un service comme Gmail.

Au Royaume-Uni, des acteurs comme l’Internet Watch Foundation ou la National Society for the Prevention of Cruelty to Children ont salué le positionnement du réseau social.

L’UNSS admet une fuite comprenant les photos d’identité de collégiens et lycéens

4 mars 2026 à 11:20
L'UNSS, ses cross boueux et ses fuites de données...
L’UNSS admet une fuite comprenant les photos d’identité de collégiens et lycéens

Déjà victime d’un piratage en 2025, l’Union nationale du sport scolaire (UNSS) a reconnu mardi avoir fait l’objet d’un vol de données issues de son outil de gestion de la relation avec les licenciés. Quelques jours plus tôt, le groupe Dumpsec affirmait être en possession de 890 000 photos émanant de l’UNSS.

L’Union nationale du sport scolaire (UNSS) a reconnu mardi 3 mars avoir été victime d’une fuite de données qu’elle présente comme « issues de son outil de gestion OPUSS ». L’intrusion dont elle découle remonterait à plusieurs mois.

« Ces données avaient fait l’objet d’une exfiltration dispersée en novembre 2025, pour laquelle l’UNSS avait immédiatement alerté son prestataire technique. La mise en vente récente de ces données a conduit à une nouvelle mobilisation des équipes et à l’activation des procédures prévues en matière de cybersécurité », affirme l’organisation.

890 000 photos exposées ?

Son message fait suite à la publication, le 28 février dernier, d’un post de forum signé Dumpsec annonçant la mise en vente de deux fichiers issus de l’UNSS : un jeu de 7 millions d’enregistrements et un ensemble de 889 000 photos des collégiens et lycéens qui constituent la base des licenciés de l’organisation. Cette annonce a été relayée le jour même sur les réseaux sociaux, et c’est probablement ce qui a conduit l’UNSS à finalement réagir mardi.

L’Union ne commente pas le volume de données évoqué par l’auteur du post en question, mais elle confirme en revanche que des données personnelles et des photos d’adhérents ont été compromises :

« À ce stade des investigations, les données susceptibles d’être concernées comprennent des informations d’identification liées aux licences UNSS (nom, prénom, genre, date de naissance, établissement scolaire, classe, date d’inscription, URL de photographie d’identité). Les premières analyses indiquent que les données financières (RIB, mandats de prélèvement SEPA) ainsi que les données relatives au handicap ne seraient pas concernées par cet incident. »

Elle ajoute une précision qui appuie l’une des allégations des auteurs de l’annonce : « Les liens permettant d’accéder aux images ont été rendus inopérants ». Dans le post initial annonçant la fuite, ces derniers illustraient en effet leur promesse avec un lien pointant directement vers un répertoire du sous-domaine dédié à l’outil OPUSS sur le site de l’UNSS.

Le retour d’un prestataire déjà auréolé de nombreuses fuites

En réponse à cette fuite manifeste, l’UNSS indique avoir, « dès confirmation des faits », notifié l’incident aux autorités ainsi qu’à la Cnil, saisi l’ANSSI et engagé, avec son prestataire technique, une analyse approfondie des journaux de connexion afin d’identifier précisément l’origine et le périmètre de l’incident. Sur ce point, elle affirme que le « compte utilisateur identifié comme point d’entrée a été immédiatement neutralisé », mais ne donne aucune autre précision sur les modalités de cet accès.

L’UNSS n’indique nulle part sur son site la qualité du prestataire technique en question, et le lien censé pointer les mentions légales de la partie publique de l’intranet OPUSS est inopérant. En 2022, un certain Exalto se réjouissait toutefois de désormais compter l’UNSS parmi les clients de sa solution E-licence, destinée précisément au secteur des associations et fédérations sportives.

Or le procédé mis en œuvre (accès à un compte utilisateur avec probable élévation des privilèges via une faille de sécurité) rappelle précisément le mode opératoire impliquant E-licence et Exalto, révélé par Next début 2025 au cœur de la vague d’intrusions qui avait frappé plusieurs dizaines de fédérations sportives. Le code source de la page d’accès à OPUSS confirme que le portail exploite bien E-licence.

En attendant que l’UNSS (qui organise pour mémoire les fameux cross et bon nombre de rencontres sportives scolaires) demande des comptes à son prestataire, elle diffuse avec un bel enthousiasme les photos vers l’édition 2026 de son cross national sous forme de dossiers hébergés sur Google Drive.

En juin 2025, de jeunes pirates affirmaient déjà avoir mis la main sur 7 millions d’enregistrements issus de la base de données de l’UNSS.

☕️ X oblige l’étiquetage des vidéos de conflits générées par IA sous peine de démonétisation

4 mars 2026 à 10:56

En temps de paix, les deepfakes pornographiques et autres contenus générés par intelligence artificielle (IA), notamment par des créateurs rémunérés, sont acceptables sur X. En « temps de guerre », en revanche, la plateforme oblige désormais ses usagers qui monétisent leurs publications à étiqueter les contenus produits grâce à de l’IA lorsque ceux-ci représentent des images de conflit armé.

C’est du moins l’image que dessine l’évolution des conditions d’utilisation du réseau social annoncée ce 3 mars (sur X) par le directeur produit Nikita Bier. « En temps de guerre, écrit ce dernier, l’accès de la population à de l’information authentique du terrain est critique. Avec les technologies d’IA actuelles, il est devenu trivial de créer du contenu qui trompe la population. »

La nouvelle politique se cantonne à un type de contenu précis : ceux représentant des conflits armés. Si des internautes décident de publier des vidéos générées par IA représentant ce type de violence, sans les étiqueter, ils risquent une suspension du programme de monétisation de 90 jours. Des violations supplémentaires de la nouvelle mesure « aboutiront à une suspension permanente du programme ».

Pour repérer les contenus en question, X s’appuiera sur les Notes de communautés et des outils d’IA génératives, « si le contenu contient des métadonnées (ou d’autres signaux) », indique Nikita Bier. Les comptes ne monétisant pas leurs publications, eux, ne sont pas concernés par la nouvelle mesure.

Formellement, les États-Unis n’ont pas déclaré la guerre à l’Iran : selon la Constitution locale, seul le Congrès en a le pouvoir.

Pour autant, les faux contenus représentant des conflits armés sont un enjeu de désinformation depuis des années. Alors que le jeu Arma 3 est sorti en 2013, des extraits en sont par exemple régulièrement détournés pour illustrer (faussement) des conflits en cours sur les réseaux sociaux. Comme pour d’autres domaines de l’espace informationnel, la facilité d’usage des outils d’IA générative crée cela dit un risque de prolifération accélérée de faux contenus.

Si X appose déjà des watermarks sur les images et vidéos générées grâce à Grok, l’entreprise n’obligeait pas ses usagers à faire connaître explicitement leur recours à l’IA jusqu’ici. D’après Social Media Today, X est actuellement en train de tester une fonctionnalité de labellisation des contenus générés par IA.

Logiciels espions : huit ans de prison pour quatre prestataires du « Watergate grec »

4 mars 2026 à 09:40
Co-intel pros
Logiciels espions : huit ans de prison pour quatre prestataires du « Watergate grec »

Plus de 90 politiciens d’opposition, ministres du gouvernement, employés des services de renseignement, procureurs, journalistes et hommes d’affaires avaient été espionnés entre 2020 et 2022. En 2024, la Cour suprême grecque avait innocenté le service de renseignement national et le gouvernement. Les quatre principaux prestataires viennent quant à eux d’être condamnés.

Quatre personnes liées au marchand de logiciels espions Intellexa ont été condamnées par un tribunal grec à des peines d’emprisonnement cumulées totalisant 126 ans et huit mois, mais dont seulement huit devront être purgés, précise eKathimerini, pour avoir espionné des dizaines de responsables politiques, hommes d’affaires, responsables militaires et journalistes.

L’affaire, surnommée « Predatorgate » ou « Watergate grec », avait éclaté en 2022 lorsque Nikos Androulakis, chef du principal parti d’opposition PASOK et membre du Parlement européen, avait découvert qu’un logiciel espion illégal appelé Predator, l’un des principaux concurrents du logiciel espion Pegasus de la société israélienne NSO, avait été installé sur son téléphone, rappelle Politico.

Reuters précise qu’un procureur avait également ouvert une enquête suite à la découverte, par un journaliste financier de CNN, Thanasis Koukakis, que son téléphone avait été infecté par le logiciel espion Predator de la société Cytrox, qui faisait partie du consortium Intellexa.

Des traces de Predator avaient ensuite été retrouvées dans les téléphones de plus de 90 Grecs, politiciens d’opposition, ministres du gouvernement, employés des services de renseignement, procureurs et hommes d’affaires, rappelle The Record.

L’exécution de leurs peines est suspendue à la procédure en appel

Cette affaire avait ébranlé le gouvernement de centre droit, entraînant le limogeage du chef du service national de renseignement (EYP) et du chef de cabinet du Premier ministre. L’administration, qui a nié toute malversation ou écoute téléphonique délibérée, avait néanmoins survécu à un vote de défiance en 2023, relève Reuters.

En 2024, la Cour suprême grecque avait innocenté l’EYP et les responsables politiques de tout acte répréhensible, et renvoyé les quatre accusés devant le tribunal correctionnel. Nikos Androulakis a depuis fait appel devant la Cour européenne des droits de l’homme.

Lors du procès, les quatre prévenus, Tal Dilian (ancien officier militaire israélien et fondateur d’Intellexa), sa partenaire commerciale Sara Aleksandra Fayssal Hamou, Felix Bitzios (ancien administrateur adjoint et actionnaire d’Intellexa) et Yiannis Lavranos (dont la société Krikel a acheté le logiciel espion), ont nié avoir commis des actes répréhensibles.

Jeudi 27 février, le tribunal les a néanmoins déclarés coupables d’« atteinte à la confidentialité des communications téléphoniques », d’« altération répétée d’un système d’archivage de données à caractère personnel » et d’« accès illégal à un système d’information ou à des données ». L’exécution de leurs peines est suspendue dans l’attente de l’examen de la procédure en appel.

Intellexa, toujours en activité, en partie sanctionné aux États-Unis

« Ce fut une bonne journée pour la démocratie et l’État de droit en Grèce », a déclaré Thanasis Koukakis à l’AFP devant le tribunal, ajoutant que le verdict « ouvrait la voie » à d’autres poursuites contre des suspects dans la même affaire. D’autant que « la moitié du cabinet et des généraux de haut rang étaient sous surveillance de l’agence nationale de sécurité et du logiciel espion Predator ».

Le 18 février, Amnesty International avait cela dit révélé que Predator avait infecté le téléphone d’un éminent défenseur de la liberté de la presse en Angola en 2024, note The Record. En décembre, les chercheurs d’Amnesty avaient quant à eux découvert qu’un avocat pakistanais spécialisé dans les droits humains avait également été pris pour cible par Predator au cours de l’été 2025.

Le département du Commerce américain avait ajouté Intellexa et sa filiale Cytrox à sa liste noire en 2023. Les dirigeants et consultants d’Intellexa, dont Dilian et Hamou, avaient été sanctionnés par l’administration Biden en 2024. Mais l’administration Trump a annulé les sanctions contre Hamou et deux autres dirigeants d’Intellexa en décembre dernier, bien que Dilian figure toujours sur la liste noire.

Nexa (ex-Amesys), le sulfureux partenaire français d’Intellexa

En 2023, Amnesty International a également découvert que Predator avait été vendu à 25 pays, dont plusieurs régimes autoritaires, par un consortium d’entreprises européennes qui a contourné les règlements européens et internationaux via la filiale dubaïote de Nexa Technologies (ex-Amesys), le partenaire français d’Intellexa.

Les responsables de Nexa avaient été mis en examen en 2021 pour « complicité de tortures » et « disparitions forcées » en Libye, puis « pour complicité de torture et de disparitions forcées » en Égypte, avant d’être placés en 2022 « sous le statut plus favorable de témoin assisté, éloignant ainsi la menace d’un procès à leur encontre ». 

Nexa s’est depuis retirée du marché de la surveillance et du consortium Intellexa, et a été rachetée par Chapsvision, le nouveau champion français de la cybersurveillance, dont le modèle économique vise d’après ses dires à aider les handicapés mentaux à communiquer, comme nous l’avions relaté.

☕️ GPT-5.3 Instant : OpenAI promet un ChatGPT moins moralisateur, plus direct et naturel

4 mars 2026 à 09:03

Depuis quelques jours, Anthropic et son IA Claude ont le vent en poupe, face à OpenAI et son ChatGPT dont les désinstallations de l’application ont explosé ces derniers jours. C’est la conjonction de deux événements liés. L’interdiction faite par Donald Trump d’utiliser les modèles d’Anthropic dans les armées et administrations américaines pour commencer. Ensuite, le fait que Sam Altman s’empresse de signer un contrat avec le Pentagone.

Alors qu’Anthropic surfe sur une vague de popularité, l’entreprise a décidé de permettre à tous les comptes, même les gratuits, d’utiliser la fonction Import Memory (pour faciliter une transition de ChatGPT à Claude, par exemple), OpenAI revient sur le devant de la scène avec encore un nouveau modèle, ou plutôt une mise à jour : GPT-5.3 Instant.

Lors du lancement de GPT-5.2 en décembre dernier, il était annoncé dans trois formats : Instant, Thinking et Pro. En février, c’était au tour de GPT-5.3-Codex de débarquer (à quelques minutes d’écart, Anthropic annonçait Claude Opus 4.6). Comme son nom l’indique – Codex –, c’est un modèle pensé pour le code informatique. OpenAI annonce aujourd’hui un modèle plus grand public : GPT‑5.3 Instant. Thinking et Pro suivront, mais plus tard.

Il promet « des conversations plus fluides et plus utiles au quotidien ». Nous avons droit au lot habituel de promesses : « réponses plus précises, résultats plus riches et mieux contextualisés lors des recherches sur le web, moins d’impasses inutiles, d’avertissements et de formulations trop affirmatives qui peuvent interrompre le fil de la conversation ».

OpenAI indique avoir reçu des retours d’utilisateurs indiquant que « GPT‑5.2 Instant refusait parfois de répondre à des questions auxquelles il devrait pouvoir répondre en toute sécurité, ou adoptait un ton trop prudent ou moralisateur, en particulier sur des sujets sensibles ». GPT‑5.3 Instant « réduit nettement les refus inutiles, tout en atténuant les préambules trop défensifs ou moralisateurs avant de répondre à la question ».

Concernant les informations glanées en ligne, GPT-5.3 Instant « équilibre plus efficacement […] avec ses propres connaissances et son raisonnement. Par exemple, il s’appuie sur sa compréhension existante pour contextualiser l’actualité récente plutôt que de simplement résumer les résultats de recherche ». Le Web ne sera plus survalorisé, promet OpenAI.

Enfin, l’entreprise de Sam Altman reconnait que « le ton de GPT‑5.2 Instant pouvait parfois mettre mal à l’aise, perçu comme envahissant ou faisant des suppositions injustifiées sur l’intention ou les émotions de l’utilisateur ». Avec GPT-5.3 Instant, le style devrait être plus naturel. Des exemples sont disponibles sur cette page.

GPT‑5.3 Instant est disponible dès maintenant, pour tous les utilisateurs de ChatGPT. Les mises à jour des modèles Thinking et Pro « suivront bientôt ». Enfin, GPT‑5.2 Instant restera disponible pendant trois mois pour les clients payants (il sera retiré le 3 juin 2026).

Après un contrat « opportuniste et bâclé » avec l’armée US, OpenAI essaye de se rattraper

4 mars 2026 à 08:41
Too Quick and too dirty?
Après un contrat « opportuniste et bâclé » avec l’armée US, OpenAI essaye de se rattraper

L’annonce par OpenAI d’un contrat avec l’armée états-unienne alors que son concurrent Anthropic refusait de céder aux pressions de l’administration Trump a écorné l’image publique de l’entreprise de Sam Altman. Celui-ci essaye de rattraper les conséquences d’une communication trop rapide.

Alors qu’Anthropic a refusé de céder aux pressions du Pentagone pour utiliser Claude sans restriction, OpenAI a signé dans la foulée un contrat avec le département de la Défense des États-Unis.

Si cette signature fait sans aucun doute rentrer de l’argent dans les caisses de l’entreprise de Sam Altman, il n’avait sans doute pas prévu qu’elle fasse fuir autant d’utilisateurs.

Il vient d’annoncer qu’OpenAI et le Pentagone reprenaient le contrat pour le modifier sur le sujet de la surveillance de masse aux États-Unis, un des enjeux qu’Anthropic avait justement soulevé.

Dans un message d’abord envoyé en interne que s’est procuré Axios et que Sam Altman a ensuite diffusé sur X, le CEO d’OpenAI reconnait s’être précipité et avoir signé un accord qui « paraissait opportuniste et bâclé ».

« Une chose que je pense avoir mal faite : nous n’aurions pas dû nous précipiter pour publier cela vendredi », ajoute-t-il, semblant vouloir faire amende honorable.

Des utilisateurs américains ont abandonné ChatGPT en masse

Et effectivement, de nombreux utilisateurs semblent penser qu’il a fait une erreur et lui reprochent peut-être un peu plus que de la simple précipitation. Trois fois plus d’utilisateurs de ChatGPT que d’habitude ont désinstallé, aux États-Unis, l’application dans la journée du samedi 28 février, selon des chiffres de Sensor Tower cités par TechCrunch. Et les téléchargements de l’application baissent aussi.

En parallèle, l’application Claude d’Anthropic a vu ses téléchargements augmenter pour devenir l’application la plus téléchargée de l’App Store d’Apple aux États-Unis. La chanteuse Katy Perry a montré l’exemple en postant, sur X, une capture d’écran de l’offre d’Anthropic entourée d’un cœur. L’éditeur de Claude a par ailleurs annoncé de façon opportune l’ouverture à tous les utilisateurs de sa fonction d’import de données contextuelles, une invitation directe aux utilisateurs de ChatGPT.

Sam Altman explique donc dans son message qu’OpenAI et le Pentagone sont en train d’amender leur contrat pour prendre en compte noir sur blanc les différentes lois qui interdisent la surveillance domestique : « le système d’IA ne doit pas être utilisé intentionnellement à des fins de surveillance nationale des personnes et des ressortissants américains ».

Un changement qui n’aborde pas directement la question des armes autonomes

Si son message est long, Sam Altman ne parle pas directement de l’autre condition sur laquelle Anthropic n’a pas voulu céder : l’utilisation de son outil pour les armes totalement autonomes.

Il affirme par contre qu « il y a beaucoup de choses pour lesquelles la technologie n’est tout simplement pas encore prête, et beaucoup de domaines dans lesquels nous ne comprenons pas encore les compromis nécessaires pour garantir la sécurité ».

C’était justement l’argument invoqué par le CEO d’Anthropic, Dario Amodei, pour mettre de côté, pour l’instant, l’utilisation dans des armes totalement autonomes.

Essayant de ménager la chèvre et le chou, Sam Altman ajoute : « Nous allons y travailler, lentement, avec le ministère de la Défense, à l’aide de mesures de protection techniques et d’autres méthodes ».

Les critiques contre ce contrat ne se retrouvent pas que chez les utilisateurs. Ainsi, le Financial Times explique que des employés d’OpenAI ont fait part de leurs inquiétudes en interne. Ceux qui travaillent dans les locaux de San Francisco ont pu également y voir un tag affichant « NON À LA SURVEILLANCE DE MASSE » et les exhortant à « faire ce qui est juste ! ».

Une rupture avec Anthropic plus sur la forme que sur le fond

Mais si le Département de la Défense des États-Unis n’a pas signé avec Anthropic, le contrat aurait avant tout capoté en raison de tensions entre les négociateurs, selon le New York Times. En effet, le journal raconte qu’Emil Michael, le CTO du côté administration, n’aurait pas apprécié la façon dont le CEO d’Anthropic, Dario Amodei, se comportait. Une position reprise ensuite publiquement par Pete Hegseth quand il a déclaré que « les soldats américains ne seront jamais pris en otage par les caprices idéologiques des géants de la tech ».

Lors des négociations, Emil Michael a accusé Dario Amodei d’être un « menteur » atteint d’un « complexe de Dieu », alors que le CEO d’Anthropic aurait refusé de participer à une réunion avec lui pour régler des questions de formulation parce qu’il était déjà dans une autre réunion avec son équipe dirigeante.

Si Donald Trump a ordonné le week-end dernier à toutes les administrations des États-Unis de rompre avec Anthropic, l’entreprise n’a pas dit son dernier mot et a déjà annoncé qu’elle ira en justice. Elle s’appuiera notamment sur le fait que la décision a été justifiée par le département de la Défense mais aussi par le dirigeant des États-Unis en affirmant que l’entreprise était un « risque pour la chaîne d’approvisionnement », qualificatif utilisé pour signifier qu’une entreprise est une menace pour la sécurité nationale mais qui n’a jamais été utilisé contre une entreprise américaine.

☕️ Seagate Mozaic 4+ : les expéditions en volume de HDD de 44 To ont commencé

4 mars 2026 à 08:18

La gamme de disques durs Mozaic de Seagate débute à la série « 3 + », avec des HDD de 30 To et plus exploitant la technologie HAMR (Heat Assisted Magnetic Recording, avec un faisceau laser). L’année dernière, Seagate passait à 36 To, aujourd’hui il est question de 44 To.

Le constructeur explique que « sa plateforme Mozaic 4 + […] est désormais qualifiée et en production chez deux fournisseurs cloud hyperscale de premier plan », mais sans les nommer.

De plus, les « disques durs Mozaic 4 + avec des capacités allant jusqu’à 44 To sont désormais expédiés en volume vers deux principaux fournisseurs cloud hyperscale ». La densité augmente puisque, en juin dernier, John Morris (CTO de Seagate) affirmait avoir « livré à ses clients de premiers échantillons à 40 To ».

La disponibilité plus large des disques durs Mozaic 4 + est prévue « à mesure que la production continue d’augmenter », sans plus de détails. Avoir des disques durs toujours plus gros permet d’augmenter la densité du stockage dans les datacenters, mais aussi d’utiliser moins de HDD pour une capacité donnée, et donc de réduire la consommation électrique.

Seagate prévoit toujours d’atteindre 10 To par plateau, soit 100 To avec 10 plateaux dans un disque dur classique de 3,5 pouces. En laboratoire, le fabricant a atteint 6,9 To par plateau fin 2025, pour rappel. Il faudrait encore attendre six ans selon l’entreprise pour avoir 100 To. En attendant, le passage par Mozaic 5 (50 To et plus) est prévu aux alentours de 2028.

Apple renouvelle ses MacBook Pro et Air, puces M5 Pro et Max avec des « super-cœurs » CPU

3 mars 2026 à 17:26
Fusiiiionnnnnn !
Apple renouvelle ses MacBook Pro et Air, puces M5 Pro et Max avec des « super-cœurs » CPU

Deux nouvelles puces arrivent chez Apple : les M5 Pro et Max, avec des « super cœurs » pour la partie CPU. On les retrouve dans les nouveaux MacBook Pro de 14 et 16 pouces. Apple met aussi à jour son MacBook Air qui passe à la puce M5 pour l’occasion.

MacBook Air 13 et 15 pouces en M5, à partir de 1 199 euros

Après les iPhone 17e et l’iPad Air avec une puce M4, Apple continue sur sa lancée avec deux nouvelles annonces ce jour. Commençons par le MacBook Air avec une puce M5, dont les caractéristiques techniques peuvent changer suivant la taille de la diagonale de l’écran.

« Tous les modèles 15 pouces sont équipés de la puce M5 avec CPU 10 cœurs et GPU 10 cœurs », explique Apple. De son côté, le modèle de 13 pouces intègre 8 ou 10 cœurs GPU suivant les configurations, mais 10 cœurs CPU dans tous les cas. 16, 24 ou 32 Go de mémoire unifiée (partagés entre CPU et GPU) sont de la partie.

« Le MacBook Air dispose désormais d’un stockage de base deux fois plus important, porté à 512 Go, et d’une technologie SSD plus rapide », affirme Apple. Côté connectivité, c’est la puce maison N1 qui est aux commandes pour le Wi-Fi 7 et le Bluetooth 6. La connectique comprend deux ports Thunderbolt 4 (connecteur USB).

Niveau performances, Apple annonce que le MacBook Air M5 offre des performances « jusqu’à 4 fois plus rapides pour les tâches d’IA que son prédécesseur équipé de la puce M4, et jusqu’à 9,5 fois plus rapides que le MacBook Air avec puce M1 ».

Le MacBook Air 13 pouces M5 est proposé à partir de 1 199 euros avec 16 Go de mémoire et 512 Go de stockage (ajoutez 125 euros pour avec 10 cœurs GPU à la place de 8). De son côté, le MacBook Air 15 pouces M5 est vendu à partir de de 1 499 euros. Augmenter la mémoire vive vous coûtera 250 euros pour 8 Go de plus (24 Go au total) et 500 euros passer de 16 à 32 Go. 32 Go est toujours le maximum.

Les MacBook Pro de 14 et 16 pouces passent aux M5 Pro et Max

Passons aux MacBook Pro, avec de nouvelles puces M5 Pro et Max. Apple, comme toujours, n’est pas avare en superlatifs concernant ces deux nouveaux SoC : « nouveau CPU avec le cœur de CPU le plus rapide au monde, GPU nouvelle génération avec Neural Accelerator dans chaque cœur et bande passante mémoire unifiée plus élevée ». Elle passe de 153 Go/s sur la puce M5 à 307 Go/s sur la Pro et 614 Go/s sur la Max avec 40 cœurs GPU, mais « seulement » 460 Go/s pour le M5 Max avec 32 cœurs GPU.

Comme sur le MacBook Air, Apple vante le SSD des nouveaux MacBook Pro qui est « jusqu’à deux fois plus performant », avec 14,5 Go/s au maximum. Le stockage de base passe à 1 To pour le MacBook Pro en M5 ou M5 Pro et à 2 To pour le modèle M5 Max, au lieu de 512 Go sur le modèle d’octobre dernier en M5.

Pour la connectivité, la puce N1 est de nouveau présente, tandis que les ports USB Type-C prennent désormais en charge Thunderbolt 5. Un MacBook Pro avec une puce M5 Pro prend en charge deux écrans externes, contre quatre pour la version M5 Max.

Côté tarif, le MacBook Pro M5 avec 1 To débute à 1 899 euros (1 799 euros avec 512 Go auparavant), tandis que l’addition passe à 2 499 euros minimum pour un SoC M5 Pro… et encore ajoutez 200 euros de plus pour la version « complète » du SoC avec 18 cœurs CPU et 20 cœurs GPU (au lieu de 15 et 16 respectivement).

Pour le MacBook Pro M5 Max, le tarif débute à 4 199 euros avec 18 cœurs CPU et 32 cœurs GPU, puis il faut ajouter 375 euros pour avoir les 40 cœurs GPU. Ce sont les tarifs pour la version de 14 pouces, en 16 pouces comptez 2 999 euros en M5 Pro (il n’est pas disponible en M5) et 4 499 euros pour pour la puce M5 Max.

Du M1 au M5 Max, toutes les caractéristiques des puces Apple Silicon

Revenons aux deux nouvelles puces M5 Pro et Max, avec la mise a jour de notre grand tableau comparatif pour commencer :

Comme avec la M5 de « base », chaque cœur GPU dispose d’un « accélérateur neuronal ». Apple affirme que « les puces M5 Pro et M5 Max assurent un traitement des prompts LLM jusqu’à quatre fois plus rapide que les M4 Pro et M4 Max, et une génération d’images par IA jusqu’à huit fois plus rapide que les M1 Pro et M1 Max ».

Les précommandes des nouveaux MacBook Air et Pro ouvriront le 4 mars, les livraisons sont prévues à partir du 11 mars.

Des puces « pensées de A à Z pour l’IA » avec des 5 ou 6 « super-cœurs »

Les M5 Pro et M5 Max « intègrent un nouveau CPU de 18 cœurs, dont 6 super-cœurs, le cœur de CPU le plus rapide au monde, et 12 tout nouveaux cœurs de performance, optimisés pour des performances multithreads économes en énergie ». Pour la version 15 cœurs CPU du M5 Pro, il y a 5 super-cœurs et donc 10 efficaces. Apple ne parle pas de cœurs efficaces, mais « performance ». Les puces M5 Pro et Max ont donc un mélange de « super cœurs » et de « cœurs de performance ».

Auparavant, les puces M4 Pro et Max avaient entre 8 et 12 cœurs « performances », avec 4 cœurs « haute efficacité énergétique » (efficaces). Même chose sur la puce M5, les « super cœurs » n’existaient pas encore et les cœurs efficaces étaient toujours présents. À voir maintenant les résultats dans les tests.

Apple affirme que « la nouvelle architecture du processeur du M5 Pro améliore considérablement les performances multithread jusqu’à 30 % pour les charges de travail professionnelles ». Mais cette comparaison est faite entre des MacBook Pro M4 Pro avec 14 cœurs et M5 Pro avec 18 cœurs, soit… 30 % de cœurs en plus. La répartition entre les cœurs n’est pas non plus la même pour rappel.

Le fabricant ne s’en cache pas : il mise tout sur l’IA : « Les puces M5 Pro et M5 Max reposent sur la nouvelle architecture Fusion signée Apple et sont pensées de A à Z pour l’IA. Cette conception innovante combine deux puces en un seul système pour un gain de performances considérable ».

La version Max du M5 intègre deux encodeurs vidéo et deux encodeurs/décodeurs ProRes. Un comparatif de MacBook Pro 14 avec des puces M5, M5 Pro et M5 Max est disponible par ici.

Claude attaque la rétention de ChatGPT avec sa fonction d’import de la « mémoire »

3 mars 2026 à 16:47
Come to me
Claude attaque la rétention de ChatGPT avec sa fonction d’import de la « mémoire »

Alors que ses modèles connaissent une soudaine vague de popularité suite aux démêlés d’Anthropic avec l’administration Trump, l’entreprise éditrice de Claude vient d’ouvrir à tous les comptes, même gratuits, la fonction qui permet d’importer la « mémoire » de l’utilisateur d’une autre IA. Un levier malin pour encourager les migrations, qui illustre à la fois l’enjeu économique de rétention… et la valeur potentielle de cet historique.

En prononçant vendredi 27 février l’interdiction d’utiliser les modèles d’Anthropic au sein des armées et administrations américaines, Donald Trump a donné un coup de projecteur sur Anthropic et son CEO, Dario Amodei. Et Sam Altman, qui s’est empressé d’annoncer la signature d’un accord entre le Pentagone et son entreprise OpenAI, n’a rien fait pour limiter cet effet Streisand, au contraire.

Résultat des courses, la popularité de Claude a explosé sur les kiosques de téléchargement d’Apple et d’Android, jusqu’à devenir et rester encore aujourd’hui l’application gratuite la plus demandée du moment.

Claude est l’application gratuite numéro un du classement de l’App Store d’Apple, devant ses concurrentes ChatGPT et Gemini – capture d’écran Next

Import en deux clics

Anthropic a saisi cette balle séduisante au bond lundi, en ouvrant les vannes et en simplifiant l’accès à sa fonction Import Memory. Lancée à l’automne 2025, celle-ci était jusqu’ici réservée aux souscripteurs d’un abonnement payant. Elle permet d’injecter, dans Claude, l’historique et les informations contextuelles que l’utilisateur a pu accumuler en utilisant un modèle concurrent comme ChatGPT, Gemini, Le Chat et consorts.

Ce faisant, l’internaute peut conserver à la fois l’historique de ses conversations, projets, requêtes, etc., ainsi que les éventuels éléments personnels qu’il aurait enseignés au modèle pour adapter les sorties à ses attentes.

La fonction d’import est désormais accessible en un clic via l’onglet Capacités des paramètres du site Claude.ai. Anthropic fournit un prompt prêt à l’emploi (rédigé en anglais) qu’il suffit de copier dans le modèle que l’on quitte, puis une fenêtre destinée à l’import des résultats obtenus.

La fonction d’import propose une invite (prompt) prête à l’emploi – capture d’écran Next

Pour que la requête soit efficace, il faut bien entendu que l’internaute ait au préalable utilisé un modèle concurrent, et que les options de mémoire de ce dernier aient été pleinement activées, ce qui n’est par exemple pas le cas par défaut sur un compte ChatGPT gratuit. Dans ce scénario, l’utilisateur peut bien visualiser un historique de ses conversations avec le chatbot, mais ce dernier n’établit pas de lien entre les différents fils de discussion, même si les réglages correspondants sont activés dans les paramètres. Sur un compte gratuit pour lequel aucun élément de personnalisation n’a été rempli, ChatGPT répond donc par un fichier vide au prompt proposé par Anthropic.

La donne change avec un abonnement payant, comme nous avons pu en faire l’expérience. La sortie proposée par ChatGPT reprend les infos personnalisées qui ont été renseignées, et propose ensuite une sorte de digest des différents fils de discussion initiés par l’utilisateur. La sortie est globalement fidèle à la réalité des échanges passés, mais elle ignore certains projets ou thèmes abordés, et témoigne parfois d’une interprétation hasardeuse de la finalité initiale de la demande.

Dans la lignée de nos précédentes expérimentations, notre rapide test montre par ailleurs que la sortie n’est pas constante dans le temps : il ne s’agit donc pas d’un export (au sens accès à l’intégralité des données brutes par exemple), mais bel et bien du résultat de la requête transmise à un modèle probabiliste. ChatGPT (et les autres) proposent heureusement une fonction d’archivage qui permet quant à elle de récupérer la totalité de son historique, mais le fichier qui en découle n’est évidemment pas prévu pour être injecté en un clic dans Claude.

De la difficulté de retenir les utilisateurs ?

Est-ce de toute façon vraiment l’efficacité de cette fonction qui prime dans le contexte actuel ? Plusieurs spécialistes de la mesure d’audience affirment que le regain de popularité de l’application Claude s’est accompagné d’une vague de désinstallation de l’application ChatGPT. Autrement dit, les gens ne se seraient pas simplement intéressés à Claude : ils auraient vraiment décidé de changer de crèmerie.

Et c’est précisément pour étayer l’idée selon laquelle il est facile de passer, sans perte, d’une IA à une autre, qu’Anthropic a ouvert les vannes de sa fonction d’import : elle montre qu’au-delà de simplement essayer Claude pour voir, on peut très vite y transférer sa « mémoire ».

Dans la course aux financements que se livrent les géants de l’IA, il y a nécessairement une prime à celui qui réunit le plus grand nombre d’utilisateurs, et c’est encore plus vrai pour Anthropic et OpenAI qui ne peuvent pas, comme Microsoft ou Google, s’appuyer sur une base conséquente d’utilisateurs captifs via d’autres produits déjà très répandus (Windows, Office, Android, Chrome, etc.). Cette problématique de rétention est d’ailleurs l’un des arguments qui motive la course aux agents IA : il est plus difficile de se départir d’un outil auquel on a délégué des tâches concrètes de son quotidien…

Hackerbot-claw : un bot exploite GitHub Actions et vide le dépôt de Trivy

3 mars 2026 à 14:47
L’attaque des bots
Hackerbot-claw : un bot exploite GitHub Actions et vide le dépôt de Trivy

Un bot alimenté a utilisé les GitHub Actions pour compromettre des dépôts GitHub. Ironie du sort, il a piraté un scanner de sécurité (vulnérabilité, mauvaises configurations…), publié une extension VS Code malveillante et renommé le dépôt (en privé).

Il y a maintenant plus de sept ans que GitHub propose ses « Actions » pour automatiser des tâches, dont la mise en production automatique de code. On parle souvent de CI/CD avec CI pour Continuous Integration (intégration continue) et CD pour Continuous Deployment (déploiement continu).

La semaine dernière, un bot baptisé hackerbot-claw a utilisé l’intelligence artificielle générative (Claude Opus 4.5 selon sa propre présentation) pour exploiter activement la fonctionnalité GitHub Actions afin de faire des dégâts dans des dépôts GitHub.

Du code exécuté à distance sur au moins quatre cibles

StepSecurity (entreprise spécialisée dans la sécurité de l’automatisation de la livraison de code) a publié une analyse détaillée. De même pour Stéphane Robert, ingénieur DevOps et architecte cloud chez 3DS Outscale, sur son blog en se concentrant davantage sur une des attaques, contre le scanner de vulnérabilités open source Trivy. Il dresse un portrait au vitriol : « Un bot IA autonome qui compromet un scanner de sécurité, publie une extension VS Code malveillante, et renomme le dépôt en privé — le tout en quelques heures. On est clairement entrés dans une nouvelle ère ».

Durant plusieurs jours, une campagne d’attaques automatisées (avec cinq techniques différentes) a donc été lancée via GitHub Actions, « réussissant à exécuter du code à distance dans au moins 4 cibles sur 7 » selon le billet de blog de StepSecurity. Les cibles étaient prestigieuses : microsoft/ai-discovery-agent‍, DataDog/datadog-iac-scanner‍, avelino/awesome-go, ambient-code/platform, project-akri/akri, aquasecurity/trivy et RustPython/RustPython.

Dans un des cas, le bot a pu « exfiltrer un jeton GitHub d’un dépôt populaire, avec des autorisations d’écriture ». Pour d’autres, le bot a aussi mis en place une injection de script en ajoutant une charge malveillante dans un fichier version.sh, a modifié des noms de branches pour y ajouter du code, caché des commandes shell (en Base64) dans les noms de fichiers, injecté des prompts IA, etc.

Le dépôt hackerbot-claw a été fermé dans la journée d’hier. Il précisait auparavant être « un agent autonome qui analyse les dépôts publics à la recherche de workflows CI/CD mal configurés. Je les trouve. Je les vérifie. Je laisse un mot. Je n’exfiltre pas, je ne détruis pas, je ne persiste pas », affirmait la présentation, qui voulait donc le présenter comme un chevalier blanc.

Trivy, le scanner de vulnérabilités, se fait détrousser

L’attaque la plus médiatisée est celle contre Trivy, dont le dépôt officiel (24 000 étoiles) a été vidé. « Trivy est l’un des scanners de vulnérabilités open source les plus utilisés dans l’écosystème cloud native. Il scanne les images de conteneurs, les fichiers IaC (Terraform, Kubernetes), les dépôts de code, les SBOM… C’est un outil incontournable dans toute chaîne DevSecOps sérieuse », explique Stéphane Robert sur son blog.

Hormis le dépôt vide, le site officiel est toujours en place, comme la documentation de la version 0.69 et « la page d’installation référence même la version 0.69.1 dans ses exemples ». Le problème ne concerne que GitHub a priori, mais aussi par ricochet toutes les applications s’appuyant sur ce dépôt.

L’éditeur de Trivy, Aqua Security, explique de son côté que « le dépôt a été rendu privé et renommé (en private-trivy). Un dépôt vide a été poussé à la place du dépôt public. Les versions GitHub entre 0.27.0 et 0.69.1 ont été supprimées, y compris les discussions et ressources GitHub associées pour ces versions ».

Autre problème et pas des moindres : « Un artefact malveillant a été créé pour l’extension VScode de Trivy, puis poussé vers la marketplace Open VSIX (une alternative à la marketplace officielle de VSCode). Nous avons supprimé cet artefact et révoqué le jeton utilisé pour le publier ». L’équipe n’a pas trouvé d’autres « impacts » suite à cette attaque et se concentre sur un retour à la normale de l’ensemble des services.

Depuis, une nouvelle version 0.69.2 a été mise en ligne, la seule « considérée comme propre » par Stéphane Robert. « Si vous avez installé Trivy entre le 21 et le 28 février – vérifiez l’intégrité de votre binaire. En cas de doute, supprimez et réinstallez la v0.69.2 », ajoute-t-il.

Attaques CI/CD : « Vous ne pourrez plus dire “je ne savais pas” »

Pour StepSecurity, cette attaque de « Hackerbot-Claw démontre que les attaques CI/CD ne sont plus simplement théoriques. Des bots autonomes recherchent et exploitent activement les erreurs de configuration des flux de travail en production ».

Stéphane Robert lance lui aussi un avertissement sur LinkedIn : « Alors messieurs les RSSI, mesdames les responsables sécurité : l’attaque sur Trivy n’est pas un cas isolé. C’est un rappel. Vos pipelines sont une surface d’attaque. Ils ont des permissions d’écriture sur vos repos, accèdent à des secrets, et s’exécutent à chaque push. Vous ne pourrez plus dire “je ne savais pas” ».

Lunettes connectées : des scènes d’intimité envoyées aux sous-traitants kényans de Meta

3 mars 2026 à 14:26
Oh wait...
Lunettes connectées : des scènes d’intimité envoyées aux sous-traitants kényans de Meta

Alors que Meta travaille toujours à l’intégration de la reconnaissance faciale pour ses lunettes connectées, des dataworkers kényans témoignent de visions de scènes intimes de porteurs de ces appareils : personnes nues sortant de la salle de bain, scènes de sexe ou informations bancaires… Un député suédois soulève devant la Commission européenne des questions d’incompatibilité avec le RGPD.

On sait que l’entreprise Sama fait partie des quelques sous-traitants africains des entreprises de la Silicon Valley depuis plusieurs années. Une enquête de deux médias suédois montre que des données des lunettes connectées Meta Ray-Ban sont aussi envoyées pour analyse aux dataworkers kényans de l’entreprise.

La question de l’utilisation des données sensibles par Meta est d’autant plus prégnante qu’on apprenait mi-février que l’entreprise avait toujours dans les cartons le projet d’ajouter à ses lunettes de la reconnaissance faciale via une fonction nommée « Name Tag ».

Svenska Gagbladet et Göteborgs-Posten sont allés à Nairobi rencontrer quelques-uns d’entre eux, qui ont témoigné sous anonymat. Leur rôle : annoter des données, ce qui veut dire, entre autres, encadrer des objets comme des lampes, des voitures ou des gens se trouvant sur l’image ; les étiqueter et décrire l’image globalement. Travail que nous avions déjà décrit en 2022 et qui ne disparait pas alors que les entreprises d’IA génératives décrivent leurs modèles comme toujours plus puissants.

L’intimité de l’entourage des utilisateurs révélée

S’il n’a pas disparu, il a évolué. Ici, les data workers décrivent l’intimité des utilisateurs des lunettes dans laquelle ils sont parfois plongés pendant leur travail. « J’ai vu une vidéo où un homme pose ses lunettes sur la table de chevet et quitte la pièce. Peu après, sa femme entre et change de vêtements », explique l’un d’entre eux à nos confrères et consœurs. Un autre décrit des scènes où les lunettes avaient filmé une personne nue dans ou sortant d’une salle de bain. Certains témoignent avoir vu des informations bancaires.

« Il y a aussi des scènes sexuelles filmées avec les lunettes connectées – quelqu’un les porte pendant qu’il fait l’amour. C’est pourquoi c’est un sujet extrêmement sensible. Il y a des caméras partout dans notre bureau, et il est interdit d’apporter son propre téléphone ou tout autre appareil capable d’enregistrer », ajoute l’un d’entre eux.

Des retranscriptions de discussions privées avec l’appareil

Les data workers expliquent aussi qu’ils ont à lire des transcriptions de discussions entre l’utilisateur et l’appareil pour vérifier que l’assistant IA de Meta répond correctement à ses questions. Ainsi, ils font parfois face à des interactions parlant de crimes, de manifestations ou bien de discussions intimes.

Selon d’anciens employés de Meta contactés par Svenska Gagbladet et Göteborgs-Posten, les données qui sont envoyées pour annotation doivent être floutées automatiquement. Mais des data workers expliquent que les systèmes d’anonymisation de Meta ne fonctionnent pas toujours et que les visages peuvent parfois être visibles.

Les conditions d’utilisation de Meta AI demandent de ne pas partager d’informations sensibles

Les deux médias suédois rappellent que, s’il est possible théoriquement d’allumer les lunettes connectées de Meta sans envoyer de données, tous les assistants d’IA (qui font tout leur intérêt) ne peuvent être utilisés qu’en envoyant des données.

Les conditions de service relatives à Meta AI (UE), qui s’appliquent pour ces lunettes connectées, expliquent que « dans certains cas, Meta examinera vos interactions avec les IA, y compris le contenu de vos conversations avec les IA ou des messages adressés aux IA, de façon automatisée ou manuelle (par un examinateur humain) ». Meta y ajoute : « Ne partagez pas d’informations que vous ne voulez pas que les IA utilisent et conservent, telles que des informations sur des sujets sensibles ».

Meta n’a pas répondu directement aux questions de nos confrères et consœurs, notamment sur la compatibilité de l’envoi de données très sensibles à des sous-traitants comme Sama au Kenya. L’entreprise a seulement expliqué comment les données étaient transférées des lunettes à l’application et les a renvoyés vers ses conditions d’utilisation et sa politique de confidentialité relatives à l’IA. Sama n’a pas répondu.

Sous anonymat, un responsable de Meta Europe leur a souligné que l’endroit où sont traitées les données est peu important tant que le pays a des règles équivalentes à celles appliquées en Europe. L’Union européenne a entamé en 2024 des discussions pour reconnaitre le système juridique kényan comme équivalent sur ces questions. Mais elles n’ont pas encore abouti.

Bientôt une enquête de la Commission européenne ?

Suite à cette enquête, le député européen du Parti social-démocrate suédois Adnan Dibrani a soulevé des questions concernant le sujet devant la Commission européenne, a appris Euractiv. En effet, il pose la question de la compatibilité des lunettes connectées de Meta avec le RGPD concernant « la licéité du traitement, le consentement, la transparence et les transferts de données à caractère personnel vers des pays tiers ». Et il demande à la commission ce qu’elle fait concrètement pour assurer que Meta respecte le règlement européen sur le sujet, poussant l’institution à ouvrir une enquête.

Adnan Dibrani en profite pour pointer les dangers des assouplissements du RGPD et des mesures de protection de la vie privée prévus dans l’Omnibus numérique.

À Euractiv, Meta affirme que les données sont « d’abord filtrées afin de protéger la vie privée des personnes » et qu’elle prend « très au sérieux » la protection des données personnelles et « perfectionne en permanence ses efforts et ses outils dans ce domaine ».

En attendant, les personnes en contact avec des porteurs de lunettes Meta peuvent installer Nearby Glasses. Cette application disponible sur Google Play ou sur GitHub avertit si des personnes à proximité portent des lunettes connectées. Elle fonctionne en scannant les signatures bluetooth des lunettes et envoie une notification lorsqu’elle en détecte. « Je considère cela comme une infime partie de la résistance contre les technologies de surveillance », explique à 404 Media son concepteur Yves Jeanrenaud. Mais il ajoute qu’ « il s’agit d’une solution technologique à un problème social exacerbé par la technologie. Je ne souhaite pas promouvoir le techno-solutionnisme ni donner aux gens un faux sentiment de sécurité. Cette solution reste imparfaite ».

Amazon promet 18 milliards d’euros d’investissements supplémentaires en Espagne

3 mars 2026 à 11:15
El ingenioso hidalgo
Amazon promet 18 milliards d’euros d’investissements supplémentaires en Espagne

Déjà très présent en Espagne, Amazon a annoncé lundi une nouvelle salve de projets qui représentent, en cumulé, 18 milliards d’euros d’investissements supplémentaires dans le pays. Dans les grandes plaines semi-désertiques d’Aragon, le géant américain évoque des datacenters, une usine d’assemblage de serveurs et un centre logistique. Un millième de son enveloppe est fléché vers le soutien à l’approvisionnement en eau dans la région.

Amazon double la mise en Espagne. Le géant américain a en effet profité du Mobile World Congress de Barcelone pour annoncer, lundi, une nouvelle salve d’investissements, à hauteur de 18 milliards d’euros, dans le pays. En 2024, Amazon s’était déjà engagé à y déployer 15,7 milliards d’euros sur dix ans. Ce second volet porte donc l’enveloppe totale promise à 33,7 milliards d’euros d’ici 2035.

C’est essentiellement en Aragón, cette communauté autonome du nord-est de la péninsule ibérique qui abrite déjà les datacenters espagnols d’Amazon Web Services (AWS), que devraient se concentrer ces investissements.

Deux usines et trois datacenters

Le groupe américain affirme que cette manne contribuera à hauteur de 31,7 milliards d’euros au PIB espagnol d’ici 2035, et générera l’équivalent de « 29 900 emplois directs, indirects et induits par an », aussi bien dans la construction de ses infrastructures que dans l’économie locale.

Si l’impact réel des datacenters en matière de création d’emploi reste sujet à débat, Amazon indique que la province espagnole d’Aragón a vocation à accueillir des installations industrielles, dédiées à l’assemblage et à la logistique des serveurs qui équipent ses infrastructures dans toute l’Europe.

« Le projet comprendra une usine de fabrication de serveurs pour l’assemblage et les tests, un entrepôt de production et de traitement des commandes, ainsi qu’une installation dédiée à la fabrication et à la réparation de serveurs d’IA et d’apprentissage automatique (ML), un élément clé de la stratégie d’économie circulaire d’Amazon », déclare le groupe dans un communiqué. Ces installations devraient représenter 1 800 emplois directs en vitesse de croisière.

À l’échelle de la région, Amazon affirme que ses projets induiront la création de 13 400 emplois aragonais, dont 4 200 emplois directs au sein de ses propres équipes. Le géant américain affirme que ses investissements devraient contribuer au PIB de l’Aragón à hauteur de 18,5 milliards d’euros d’ici 2035, soit une augmentation de plusieurs points du PIB annuel de la communauté autonome (41,8 milliards d’euros en 2023).

Outre ces usines d’assemblage et de reconditionnement de serveurs, c’est tout de même principalement dans les datacenters que devraient se concentrer les fonds promis. D’après le quotidien local El Heraldo de Aragón, Amazon prévoit en effet d’ajouter trois centres de données aux six que compte déjà la région de Saragosse, capitale de la communauté autonome.

Les projets d’Amazon sont soutenus par le président de la collectivité, le conservateur Jorge Azcón, réélu en février dernier et soutien affirmé du développement des infrastructures numériques, qu’il considère comme un « nouvel horizon économique ». El Mundo indique que l’administration aragonaise accélère les projets d’implantation de datacenters en leur octroyant le statut de projets d’intérêt général (Planes y Proyectos de Interés General de Aragón, ou PIGAS), qui simplifient grandement les formalités administratives associées.

Une contribution positive en eau à horizon 2030 ?

Cette simplification se fait-elle au prix de compromis sur les enjeux environnementaux et climatiques ? C’est la crainte exprimée par l’opposante socialiste Pilar Alegría, qui réclamait pendant sa campagne que les grands noms du numérique qui s’installent dans la communauté autonome soient frappés par une taxe de solidarité destinée aux populations locales, notamment pour compenser les risques soulevés en matière d’approvisionnement en énergie ou en eau.

Sur le volet énergétique, la majorité en place et Amazon rappellent d’une même voix que la province d’Aragón et ses grandes plaines désertiques sont un lieu propice au déploiement d’installations photovoltaïques. Amazon promet en la matière d’investir dans cent projets solaires et éoliens à l’échelle de l’Espagne, dont sept nouvelles fermes photovoltaïques. « En Aragón, les centres de données AWS compensent leur consommation d’électricité par de l’énergie 100 % renouvelable depuis leur ouverture en 2022 », affirme l’entreprise. Rappelons que la péninsule ibérique avait été frappée par une panne de courant de grande ampleur en avril 2025, dont la cause a été attribuée à un défaut des installations chargées de compenser ou réguler la tension sur le réseau.

Reste la question de l’eau, dans une zone où l’irrigation crée déjà des tensions et où les périodes de sécheresse sont parfois ponctuées par quelques épisodes d’inondations à grande échelle. Sur ce point, Amazon ne donne aucune indication précise quant à l’utilisation qui sera faite par ses infrastructures : fonctionneront-elles en circuit fermé (prélèvements marginaux une fois l’approvisionnement initial effectué) ou de façon ouverte, avec des pertes (et donc une consommation continue) à la clé ?

Dans sa communication, le groupe se contente de reprendre ses engagements globaux en matière d’eau, à savoir atteindre une contribution positive d’ici 2030. « Cela signifie que nous restituerons aux communautés et à l’environnement plus d’eau que nous n’en utilisons pour l’exploitation de nos centres de données. En 2024, AWS avait atteint 53 % de son objectif de bilan hydrique positif, contre 41 % en 2023 », explique-t-il.

En Aragón, cette ambition s’exprime par la participation à cinq projets hydriques, initialement annoncés en 2025. Ils concernent respectivement la détection des fuites sur le réseau d’eau potable, le réemploi de l’eau utilisée sur des parcelles agricoles voisines, la création d’un système visant à optimiser la gestion de l’eau à l’échelle de l’agglomération de Saragosse, la mise au point d’une IA destinée à l’irrigation agricole et la modernisation d’une conduite d’eau cruciale de la région. Ces cinq projets sont financés à hauteur de 17,2 millions d’euros, soit un millième de l’enveloppe globale évoquée lundi.

Motorola s’associe à GrapheneOS pour renforcer la sécurité de ses (futurs) smartphones

3 mars 2026 à 10:07
Les Pixels toujours dans la course
Motorola s’associe à GrapheneOS pour renforcer la sécurité de ses (futurs) smartphones

Motorola a été chercher GrapheneOS pour améliorer la sécurité de ses smartphones, mais aussi (et surtout) pour proposer officiellement ce système d’exploitation sécurisé avec certains de ses smartphones. Inutile de courir, aucun modèle n’est actuellement compatible, il faudra attendre 2027.

Pour le MWC de Barcelone, Motorola est « on fire » avec une dizaine de communiqués de presse sur la seule journée d’hier. Il y a évidemment des smartphones avec les Razr Fold et Edge 70 Fusion, des écouteurs sans fil Buds 2, mais surtout un « partenariat à long terme avec GrapheneOS », une alternative à Android de Google.

Motorola et GrapheneOS main dans la main

GrapheneOS mise sur la sécurité et n’était historiquement disponible que sur les smartphones Pixel de Google. La raison ? Ce sont les seuls terminaux laissant l’utilisateur reverrouiller complètement le bootloader avec des clés de chiffrement personnalisées. Depuis plusieurs mois, la rumeur courait d’un partenariat avec un fabricant de smartphones pour intégrer GrapheneOS, c’est donc Motorola.

Pour le moment ce sont seulement des annonces, avec rien de concret à se mettre sous la dent :

« Motorola inaugure une nouvelle ère de la sécurité des smartphones grâce à un partenariat à long terme avec la GrapheneOS Foundation, la principale organisation à but non lucratif spécialisée en sécurité mobile qui développe un système d’exploitation renforcé basé sur le projet Android Open Source. Ensemble, Motorola et GrapheneOS Foundation travailleront à renforcer la sécurité des smartphones et à collaborer sur de futurs appareils conçus avec la compatibilité GrapheneOS ».

De son côté, GrapheneOS se dit ravi de s’associer à Motorola afin de proposer son système d’exploitation « sur leur smartphone de nouvelle génération ». Les développeurs présentent ce partenariat comme une étape importante pour élargir la portée de GrapheneOS. Ils précisent que c’est Motorola qui les a contactés, afin de mettre en place ce partenariat et d’améliorer la sécurité de leurs smartphones.

« Ils vont fournir une prise en charge officielle de GrapheneOS et nous aider activement à assurer le support de leurs téléphones », ajoute le système d’exploitation. GrapheneOS en profite pour faire un appel du pied : « Les autres constructeurs devraient suivre leur exemple ». Les développeurs rappellent que « GrapheneOS étant un logiciel libre, ils n’avaient pas besoin de partenariat pour utiliser notre code ».

Les premiers smartphones Motorola avec GrapheneOS en 2027

Sur les réseaux sociaux, GrapheneOS donne un peu plus de détails sur les terminaux compatibles : « Il s’agira initialement des appareils phares de Motorola, mais cette technologie pourrait s’étendre à d’autres modèles par la suite. Prenons l’exemple des Motorola Signature (2026) et Motorola Razr Fold (2026), qui, pour la génération actuelle, ne répondent pas encore pleinement à nos besoins. Ce seront leurs successeurs ».

De manière générale, les smartphones « actuels, y compris ceux lancés cette année, ne répondent pas aux exigences. Seule la prochaine génération d’appareils est conçue pour répondre à tous nos besoins », affirme GrapheneOS. Un partenariat qui n’a donc pour le moment aucun fruit, il faudra attendre 2027.

GrapheneOS revient sur les différences entre son système d’exploitation et l’Android maison qui sera toujours proposé par Motorola : « Ce sera le même GrapheneOS que sur les Pixel. Il ne contiendra aucun bloatware. C’est un système d’exploitation totalement indépendant de leur propre système. Ils intégreront également certaines fonctionnalités et concepts de GrapheneOS à leur système d’exploitation principal, mais cela restera distinct de GrapheneOS ».

Android sur les Motorola devrait donc se renforcer au niveau sécurité, mais sans plus de précision. Attention, le cœur de l’annonce concerne l’amélioration des smartphones pour « assurer une prise en charge officielle de GrapheneOS ». Les améliorations de la version maison d’Android pour les Motorola font « l’objet d’un projet distinct », explique GrapheneOS sur Bluesky.

Les Pixel toujours supportés, GrapheneOS arrive sur le Pixel 10a

Sur X, le compte officiel de GrapheneOS précise que la prise en charge des terminaux Pixel de Google ne s’arrête pas avec ce partenariat : « Les Pixel répondent à nos exigences de sécurité et continueront d’être pris en charge. La compatibilité avec le Pixel 10a sera ajoutée prochainement ».

Ce n’est pas parce que les Pixels sont supportés que les applications Google sont présentes : « GrapheneOS n’inclura jamais ni les services Google Play ni une autre implémentation de services Google comme microG. Il est possible d’installer les services Play sous forme d’applications en mode bac à sable sans privilèges spéciaux via notre couche de compatibilité Google Play ».

Il y a quelques semaines, un article du Parisien avait, pour rappel, mis le feu aux poudres, accusant le système d’exploitation d’être une « botte secrète » pour les narcotrafiquants. GrapheneOS avait vivement réagi et retirait dans la foulée toutes ses ressources de France.

☕️ L’iPad Air passe à la puce M4, toujours à partir de 669 euros

3 mars 2026 à 08:33

Apple a procédé lundi au renouvellement annuel de sa tablette iPad Air, le modèle censé offrir le meilleur compromis entre portabilité et performances. L’édition 2026, toujours déclinée en versions 11 et 13 pouces, est identique en apparence à celle de l’iPad Air M3 lancée en 2025.

La seule nouveauté se situe sous le capot, avec le passage à une puce M4, déjà vue dans les MacBook Pro et l’iPad Pro l’an dernier. On retrouve donc ici la logique de gamme descendante d’Apple, où les produits phares de l’année N se retrouvent intégrés dans les produits plus abordables en année N+1.

Cette puce M4 devrait donc conférer un surcroît de performances à l’iPad Air, d’autant qu’elle se voit accompagnée de 12 Go de mémoire unifiée, contre 8 Go au sein de la puce M3 de la précédente génération. L’introduction des derniers coprocesseurs Apple (N1 et C1X) permet le passage au Wi-Fi 7 ainsi qu’au Bluetooth 6 et promet une connectivité améliorée sur les versions 5G.

iPad Air M4 – crédit Apple

Pour le reste (voir comparatif des spécifications), pas grand-chose à signaler, si ce n’est bien sûr la fourniture par défaut d’iPad OS 26. La tablette est toujours donnée pour 6,1 mm d’épaisseur dans sa version 11 pouces, pour un poids de 464 grammes (soit 4 grammes de plus que le modèle M3), avec une autonomie se montant, selon Apple, jusqu’à 10 heures « pour naviguer sur le Web en Wi‑Fi ou regarder des vidéos ».

Dotée d’un connecteur USB type-C, la tablette est toujours compatible avec les claviers physiques de la marque, ainsi qu’avec le stylet Apple Pencil Pro.

Côté prix, il faut compter 669 euros pour le modèle 11 pouces en Wi-Fi avec 128 Go de stockage, contre 869 euros pour l’équivalent en version 13 pouces. En versions Wi-Fi + Cellular (avec connectivité 5G donc via e-SIM), le prix passe à 839 euros pour la version 11 pouces 128 Go, et 1 039 euros pour le modèle 13 pouces.

Quatre coloris et quatre capacités sont proposés, jusqu’à 1 To. Dans sa configuration la plus haut de gamme (iPad Air 13 pouces 1 To Wi-Fi + Cellular), l’iPad Air atteint 1 669 euros.

Guerre en Iran : trois datacenters AWS touchés aux Émirats Arabes Unis et à Bahreïn

3 mars 2026 à 08:04
Les contingences physiques du nuage
Guerre en Iran : trois datacenters AWS touchés aux Émirats Arabes Unis et à Bahreïn

Amazon Web Services (AWS) signale que trois de ses datacenters du Moyen-Orient sont affectés par le conflit qui oppose Israël et les États-Unis à l’Iran. Deux de ses infrastructures situées aux Émirats Arabes Unis auraient été directement touchées, tandis qu’un site situé à Bahreïn a subi des dommages indirects. Amazon prévient que l’interruption de service associée est susceptible de se prolonger.

Le géant américain du cloud AWS fait partie des victimes collatérales de la réponse militaire de l’Iran à l’attaque lancée le 28 février dernier par les États-Unis et Israël. Via la page dédiée au statut de ses infrastructures, il a en effet signalé lundi avoir subi les conséquences des bombardements partis d’Iran au niveau de trois de ses sites, aux Émirats Arabes Unis et à Bahreïn.

Deux sites directement touchés, une victime collatérale

Amazon dispose de trois datacenters aux Émirats Arabes Unis. Deux d’entre eux (référencés comme mec1-az2 et mec1-az3 dans la nomenclature AWS) ont été directement touchés par des frappes de drones parties d’Iran, affirme l’entreprise sur la page « statut » de ses infrastructures.

Elle y décrit comment les premières perturbations sont survenues dans la nuit de dimanche à lundi, suite au déclenchement de la riposte iranienne contre les EAU. L’une de ses zones a d’abord été affectée par un problème d’alimentation électrique, avant que l’entreprise ne signale, quatre heures plus tard, avoir constaté que des objets avaient frappé le datacenter, entraînant un départ d’incendie.

« Les pompiers ont coupé l’alimentation électrique du bâtiment et des générateurs pendant l’intervention pour maîtriser l’incendie. Nous attendons toujours l’autorisation de rétablir le courant et, dès que ce sera fait, nous veillerons à rétablir l’alimentation et la connectivité en toute sécurité », décrivait alors AWS.

Quelques heures plus tard, bis repetita : un problème d’alimentation électrique, puis une interruption de service plus large, sont annoncés pour la deuxième zone concernée aux EAU. Dans un nouveau point d’étape, publié mardi 3 mars vers 2 heures du matin (heure de Paris), AWS confirme que les deux sites concernés ont bien été touchés directement par des tirs, et conseille à ses clients qui opèrent des services dans la région de basculer, dans la mesure du possible, vers d’autres infrastructures.

Par ricochet, la troisième zone dont dispose AWS aux EAU souffre en effet de problèmes de disponibilité, et la plupart des services courants sont signalés comme hors service ou fortement dégradés sur toute la « région » correspondant aux Émirats (ME-CENTRAL-1), mais aussi à celle, voisine, de Bahreïn (ME-SOUTH-1). Parmi les trois zones que compte cette dernière, un site a en effet lui aussi subi les conséquences des bombardements, sans avoir été directement visé : « une frappe de drone à proximité de l’une de nos installations a causé des dommages matériels à notre infrastructure », décrit ainsi l’entreprise.

Rétablissement progressif des services

Suite à ces incidents, Amazon décrit un double chantier de remise en état, aussi bien matériel que logiciel, sans pouvoir s’avancer quant à un horizon temporel de retour à la normale :

« Dans les deux régions, les clients constatent une augmentation des taux d’erreur et une disponibilité réduite pour certains services, notamment Amazon EC2, Amazon S3, Amazon DynamoDB, AWS Lambda, Amazon Kinesis, Amazon CloudWatch, Amazon RDS, ainsi que la console de gestion et l’interface de ligne de commande AWS. Nous mettons tout en œuvre pour rétablir la disponibilité complète du service dans les plus brefs délais, mais nous prévoyons que la reprise sera longue compte tenu de l’ampleur des dégâts matériels. »

L’entreprise indique privilégier le rétablissement de services clés tels que S3 ou DynamoDB, qui sous-tendent le fonctionnement de ses infrastructures, et promet ensuite de mettre l’accent sur les outils de migration et d’export, afin que les clients des zones concernées puissent transférer leurs données et leurs charges de travail vers des environnements fonctionnels.

Elle invite par ailleurs ses clients opérant dans la région à anticiper les conséquences potentielles du conflit :

« Nous recommandons aux clients dont les charges de travail s’exécutent au Moyen-Orient d’envisager dès maintenant de sauvegarder leurs données et, le cas échéant, de migrer leurs charges de travail vers d’autres régions AWS. Nous leur conseillons de mettre en œuvre leurs plans de reprise d’activité, de restaurer leurs données à partir de sauvegardes distantes stockées dans d’autres régions et de mettre à jour leurs applications afin de rediriger le trafic hors des régions affectées. »

Neuf zones et trois régions au Moyen-Orient

AWS dispose pour mémoire de trois « régions » au Moyen-Orient, avec une présence sous forme d’infrastructures physiques à Bahreïn depuis 2019, étendue aux Émirats Arabes Unis en 2022 et à Israël en 2023, tandis qu’un lancement a été annoncé pour 2026 en Arabie Saoudite (sans plus de précision). Chacun des trois pays déjà ouverts dispose de trois « zones de disponibilité » (un ou plusieurs centres de données à part entière dotés d’une alimentation redondante et d’une connectivité propre). Aux Émirats Arabes Unis, les trois zones d’AWS se répartissent entre Abu Dhabi et Dubaï.

AWS revendique trois régions et neuf zones au Moyen-Orient, auxquelles doit s’ajouter l’Arabie Saoudite – capture d’écran, source

Derrière la polémique entre Trump et Anthropic, les enjeux de l’usage militaire de l’IA

2 mars 2026 à 17:40
IA tensions
Derrière la polémique entre Trump et Anthropic, les enjeux de l’usage militaire de l’IA

Claude d’Anthropic a été utilisé par l’armée des États-Unis dans son attaque de l’Iran. Alors que le CEO de l’entreprise s’y oppose depuis quelques jours, le moment révèle à la fois le nouveau palier que l’industrie de l’IA a franchi dans le déploiement de ses technologies et la tentative de maîtrise du secteur par le gouvernement des États-Unis.

Ce 28 février, 500 sites iraniens étaient visés par les forces états-uniennes dans leur opération « Epic Fury ». L’attaque s’est notamment soldée par la mort de l’ayatollah Ali Khamenei et son responsable de la sécurité Ali Shamkhani. Pour la mener à bien, l’armée a notamment utilisé le modèle Claude d’Anthropic, selon le Washington Post et Axios.

Un détail qui pourrait paraître anecdotique, à l’heure où les robots conversationnels se déploient dans toutes les sphères de la société, s’il n’avait pas été précédé par une semaine d’échanges houleux et publics entre Dario Amodei, le CEO d’Anthropic, et le Pentagone.

En cause : Anthropic n’a « jamais soulevé d’objections à l’égard d’opérations militaires », indique son patron, mais dans certains cas, notamment la surveillance de masse à l’intérieur du pays et les armes totalement autonomes, la société estime « que l’IA peut nuire aux valeurs démocratiques plutôt que les défendre ». À ce titre, l’entreprise impose des restrictions dans ses conditions d’utilisation, restrictions qui s’imposent notamment à l’un de ses gros clients publics : l’armée.

Claude utilisé depuis 2024

C’est dans ce contexte que Pete Hegseth, secrétaire d’État à la Défense (renommé ministère de la Guerre) des États-Unis, a posé un ultimatum à l’entreprise : elle avait, en date du 25 février, trois jours pour modifier ses conditions d’utilisation. Le débat, en réalité, n’a pas débuté avec l’opération « Epic Fury » – au contraire, les premiers partenariats avec Palantir, AWS, les renseignements et la Défense états-unienne ont été rendus publics dès novembre 2024.

Elle a depuis construit les modèles « Claude gov », dédiés aux agences de renseignement. Plus récemment, l’armée états-unienne a recouru à Claude pour orchestrer la capture du président du Venezuela, Nicolas Maduro, début janvier.

En parallèle, l’entreprise a fait évoluer ses conditions d’utilisations pour y intégrer l’interdiction de « développer ou concevoir des armes », en septembre 2025. Son patron, lui, continuait de se placer comme il l’a fait depuis son départ d’OpenAI pour créer Anthropic : en défenseur d’une intelligence artificielle au service de l’intérêt général et d’un développement veillant à la « sécurité de l’IA ».

Sur son site web, Anthropic est ainsi décrite comme une société de recherche et de sécurité de l’IA, tandis que Dario Amodei a publiquement déclaré que ces technologies devaient rester l’apanage des démocraties (sans pour autant renoncer à d’éventuels financements venus de pays autoritaires), que les siennes resteraient sans publicité, et, donc, que certains usages de l’IA n’étaient pas avisés.

Recours aux LLM dans des systèmes d’aide aux décisions sensibles

Après l’ultimatum du 25 février, le chercheur et entrepreneur a repris ses négociations, en public comme en privé. Jusqu’au dernier moment, l’entreprise a cru pouvoir trouver un accord, rapporte the Atlantic. Et puis Donald Trump a ordonné à toutes ses administrations de cesser de recourir aux outils de la start-up. Pete Hegseth, lui, précisait qu’Anthropic fournirait encore ses services pendant « une période de six mois maximum pour assurer une transition fluide ».

Le lendemain, l’Iran était bombardé, et l’armée utilisait toujours les outils en question. D’après le Washington Post, ces derniers servent notamment à de l’évaluation et de l’identification de cibles et à simuler des scenarios de batailles.

Or, d’après le chercheur Kenneth Payne, qui a testé GPT-5.2, Claude Sonnet 4 et Gemini 3 Flash sur divers jeux de simulation de guerres, ces modèles ont bien plus rapidement tendance à formuler des propositions de recours à des armes nucléaires que ne le font classiquement les humains. Plusieurs spécialistes interviewés par New Scientist soulignent néanmoins que la mesure dans laquelle ces systèmes sont réellement déployés dans les processus militaires reste encore très incertaine.

L’un des enjeux de la séquence, relève néanmoins la directrice scientifique du AI Now Institute, Heidy Klaaf, est la levée d’un nouveau verrou dans l’utilisation de l’IA, que ce soit par les forces militaires ou par l’essentiel des constructeurs de ces technologies : celui de l’usage de grands modèles de langage dans des systèmes d’aides à la décision appuyés sur l’IA.

Que l’on requière, comme Anthropic le fait, plus ou moins de supervision humaine dans le déploiement de ce type de technologies, on se retrouve toujours avec des systèmes intégrés d’office aux outils d’aide à la décision, quand bien même leur propension aux erreurs (dites hallucinations) et aux générations totalement fallacieuses est largement établie. La tendance n’est même pas neuve : ce type d’outils a notamment été entrainé par l’armée israélienne en s’appuyant sur des heures de conversations obtenues par la surveillance de la population palestinienne.

Gouvernement des États-Unis vs « caprices idéologiques des géants de la tech »

À l’échelle des États-Unis, un autre enjeu relève de la tentative de reprise du pouvoir politique états-unien sur ses sociétés numériques. C’est du moins dans ces termes que l’a formulé Pete Hegseth, déclarant que « les soldats américains ne seront jamais pris en otage par les caprices idéologiques des géants de la tech » et menaçant de classer l’entreprise en « fournisseur à risque pour la sécurité nationale ».

Sur Truth, le président Trump dépeignait quant à lui Anthropic en entreprise « woke » et de « gauche radicale », autrement dit en opposant politique. Le 28 février, Dario Amodei a qualifié l’interdiction des outils d’Anthropic de « punitive » et indiqué qu’il la contesterait devant les tribunaux.

Trois heures après l’interdiction de ses outils dans l’administration états-unienne, son concurrent OpenAI déclarait avoir conclu son propre accord avec le ministère de la Défense. Le lendemain, son CEO Sam Altman a déclaré sur X que son entreprise appliquait néanmoins des restrictions similaires à celles d’Anthropic sur l’usage de ses technologies.

Dans le détail, l’entrepreneur indique être en discussion depuis plusieurs mois avec le ministère pour des usages « non classifiés » car les « travaux classifiés sont beaucoup plus complexes ». Anthropic, lui, avait accepté ce type de contrats. Admettant que le timing de sa signature de contrat « n’est pas beau », Sam Altman affirme que le but était de « désamorcer » la situation en proposant des outils d’IA au ministère de la Défense étasunienne.

Se positionnant en défenseur de l’industrie de l’IA comme de sa collaboration avec l’administration, Sam Altman déclare enfin la « tendance actuelle dangereuse pour Anthropic, pour une compétition saine et pour les États-Unis » et rend publique son inquiétude devant la possibilité qu’un de ses concurrents puisse être mis sur liste noire par le gouvernement.

☕️ À Austin, les robotaxis de Tesla enregistrent quatre fois plus d’accidents que les humains


2 mars 2026 à 17:23

Les humains conduisent mieux que les robotaxis de Tesla. C’est du moins ce que le dernier « rapport sur la sécurité des véhicules » soumis par la société aux autorités et obtenu par Electrek suggère. 
Sur le seul mois de janvier, plusieurs de ses véhicules utilisés à Austin ont reculé par erreur dans des objets fixes, heurté des arbres, des poteaux, d’autres véhicules.

Parmi les accidents : une collision à 27 km/h dans un objet fixe, alors que la voiture avançait en ligne droite, une autre avec un bus alors que le véhicule était arrêté, une collision avec un camion à 6 km/h, et deux cas de recul dans un poteau et un arbre à très faible vitesse.

Site de Tesla / Capture d’écran

Alors que toutes les autres marques du marché fournissent des informations sur les accidents constatés, Tesla les enregistre sous le sceau d’« informations commerciales confidentielles », ce qui empêche d’accéder au détail.

Néanmoins, en s’appuyant sur les données relevées à Austin depuis que la société y a lancé ses robotaxis, en juin 2025, et qui permettent de relever un total de 14 accidents, Electrek calcule une moyenne d’un accident tous les 91 000 kilomètres parcourus.

Rapporté aux données publiées par l’entreprise elle-même sur sa page dédiée à vanter son système « Full Self-Driving » (sous supervision), cela suggère que les véhicules semi-autonomes se retrouvent quatre fois plus souvent dans un accident que des voitures conduites par des humains. 


En effet, Tesla indique que le conducteur moyen de Tesla se retrouve dans une collision mineure tous les 368 000 km. Ramené aux distances parcourues par les robotaxis dans la région d’Austin, cela aurait dû se traduire par environ 4 accidents sur les neuf derniers mois.

L’Agence des États-Unis en charge de la sécurité routière (NHTSA) évalue de son côté que la population des États-Unis se retrouve dans un accident en moyenne une fois tous les 800 000 kilomètres. 
Rapporté à ce chiffre, le risque d’accident d’un robotaxi de Tesla serait huit fois plus élevé que celui des conducteurs américains.

À l’inverse, les véhicules totalement autonomes de Waymo déployés sur les routes américaines permettraient de réduire de 80 % les risques de collisions provoquant des blessures, et de 91 % ceux provoquant des blessures graves, selon la communication de l’entreprise.

☕️ Le CPU Intel Xeon 6+ (Clearwater Forest) avec 288 E-cores Darkmont arrivera ce semestre

2 mars 2026 à 16:52

Cela fait maintenant des mois qu’Intel parle de son futur Xeon 6 + avec 288 E-Cores. Il s’agit de cœurs CPU « efficaces » dans le sens efficacité énergétique, et donc moins performants que les P–Cores avec un P comme Performance. Les Xeon 6 actuels (Sierra Forest) ne dépassent pas les 144 cœurs (des E-Cores Crestmont). Une version avec 288 cœurs (une puce, deux dies) était annoncée, mais n’est jamais arrivée.

Quoi qu’il en soit, la relève est dans les starting-blocks avec les processeurs Xeon 6 + Clearwater Forest, qui monteront jusqu’à 288 E-Core Darkmont (et donc toujours autant de threads). Comme le rapporte Videocardz, Intel donne de plus amples détails à l’occasion du MWC de Barcelone.

Si cette annonce est faite durant le salon de Barcelone, c’est parce qu’Intel s’est trouvé un partenaire de choix – Ericsson, comme l’indique Computer Base – et en profite pour mettre en avant ses Xeon 6(+) pour les opérateurs de télécoms : « Basé sur le procédé Intel 18A et conçu pour une efficacité exceptionnelle, le Xeon 6 + offre aux opérateurs une plateforme qui fait évoluer les charges de travail de manière agressive, réduit la consommation d’énergie et permet des services réseau plus intelligents ».

Ils seront gravés avec la technologie maison 18A, celle utilisée pour la première fois sur les processeurs Core Ultra Series 3 (Panther Lake). Le TDP sera de 300 à 500 watts. Le processeur pourra être en configuration 1P ou 2P (un ou deux sockets sur la carte mère, soit jusqu’à 576 cœurs CPU), il prendra en charge 12 canaux de DDR5 à 8 000 MHz, 64 lignes CXL, 96 lignes PCIe, etc.

Au niveau de la conception, le processeur sera composé de douze tuiles, chacune avec six modules et quatre cœurs Darkmont par module, soit 288 cœurs : 4 (cœurs) x 6 (modules) x 12 (tuiles)= 288, le compte est bon.

Chaque module dispose de 4 Mo de mémoire cache L2, soit un total de 288 Mo de cache L2 sur la version 288 E-Cores, auxquels il faut ajouter 576 Mo de cache de dernier niveau (L3 ?). D’autres tuiles sont de la partie : trois de « Base » en Intel 3 (contrôleurs mémoire notamment) et deux autres « I/O » en Intel 7.

Les nouveaux Xeon 6 + sont attendus pour la première moitié de l’année 2026.

Les Ryzen 400 AI d’AMD débarquent sur socket AM5, avec un NPU de 50 TOPS

2 mars 2026 à 16:26
Y’a-t-il un Copilot dans ton PC ?
Les Ryzen 400 AI d’AMD débarquent sur socket AM5, avec un NPU de 50 TOPS

AMD vient d’annoncer trois processeurs, déclinés en douze références, pour les ordinateurs de bureau, avec les Ryzen AI 400 en AM5. Les CPU disposent d’un NPU de 50 TOPS leur permettant de prétendre à la certification Copilot+ PC de Microsoft. Ils seront disponibles à partir du deuxième trimestre 2026.

Au CES de Las Vegas en début d’année, AMD présentait ses « nouveautés », qui ressemblaient davantage à du réchauffé. Il y avait tout d’abord les Ryzen AI 400 pour les ordinateurs portables, mais qui n’étaient finalement que des Ryzen AI 300 avec parfois 100 MHz de plus en boost ou une partie graphique un peu améliorée.

Au MWC, des processeurs pour les ordinateurs de bureau

AMD profite du MWC de Barcelone (avec un M comme Mobile) pour annoncer de nouveaux Ryzen AI 400 pour… les ordinateurs de bureau. Trois processeurs sont disponibles, chacun décliné en quatre versions, soit douze références au total.

Nous avons les Ryzen AI 5 435G, AI 5 440G et AI 7 450G, avec un TDP de 64 watts. Viennent ensuite des versions « GE » avec un TDP de 35 watts. Nous sommes donc à six références. Doublez la mise avec des versions Pro de chaque processeur, nous sommes bien à 12. Comme leur nom l’indique, les déclinaisons « Pro » ont « des fonctions de sécurité et de gestion de niveau professionnel », mais exactement les mêmes caractéristiques techniques pour le reste.

Des cœurs Zen 5 exclusivement, contrairement au Ryzen AI 400 mobile

On pourrait penser que le Ryzen AI 5 435 (version mobile) et le Ryzen AI 5 435G ou 435GE sont très proches avec 6 cœurs et 12 threads dans les deux cas, mais ce n’est pas le cas. Il y a une différence fondamentale dans l’architecture des cœurs.

Le Ryzen AI 5 435 dispose de deux cœurs Zen 5 et de quatre cœurs Zen 5c allégés, tandis que les Ryzen AI 5 435G(E) ont six cœurs Zen 5. C’est la même chose sur le reste de la gamme, les nouveaux Ryzen AI 400 en AM5 proposent exclusivement des cœurs Zen 5. Pour rappel, sur mobile, AMD propose aussi des processeurs exclusivement en Zen 5 avec sa gamme Ryzen AI Max+.

NPU de 50 TOPS, mais iGPU 860M maximum

Quoi qu’il en soit, les nouveaux processeurs Ryzen AI 400 pour les ordinateurs de bureau disposent d’un NPU (architecture XDNA 2) de 50 TOPS, supérieur au seuil de 40 TOPS imposé par Microsoft pour obtenir la certification Copilot+ PC. Sur mobile, la puissance du NPU varie entre 50 et 60 TOPS.

Côté GPU intégré au processeur (iGPU), l’architecture RDNA 3.5 est dans tous les cas aux commandes. AMD assure par contre le service minimum avec une puce Radeon 860M pour le plus haut de gamme des processeurs et une Radeon 840M pour les deux autres. Sur les versions mobiles, AMD monte jusqu’à la Radeon 890M avec 16 cœurs GPU contre 8 pour la Radeon 860M.

AMD en garde certainement sous le pied pour de prochaines références à venir, avec douze cœurs PU par exemple. Selon l’entreprise, les premiers ordinateurs équipés des nouveaux processeurs arriveront au second trimestre de 2026.

Apple lance son iPhone 17e à partir de 719 euros

2 mars 2026 à 16:07
256 is the new 128
Apple lance son iPhone 17e à partir de 719 euros

Apple a ouvert le bal des nombreuses annonces produit attendues cette semaine avec le lancement de l’iPhone 17e, son nouveau modèle d’entrée de gamme, positionné à 719 euros en version 256 Go et 969 euros dans sa déclinaison 512 Go.

Apple n’a finalement pas attendu sa conférence de presse du 4 mars prochain pour dévoiler ses premières nouveautés. Alors que le Mobile World Congress ouvre ses portes à Barcelone, la firme de Cupertino a en effet ouvert lundi les précommandes pour le nouveau smartphone qui constitue désormais son entrée de gamme, l’iPhone 17e.

Les lignes sont similaires à celles de l’iPhone 16e présenté il y a tout juste un an, avec un écran 6,1 pouces (2 532 x 1 170 pixels à 460 ppp), un châssis décliné en trois coloris, et un unique capteur photo sur le dos de l’appareil. Comme sur l’iPhone 17, la face avant est désormais protégée par un revêtement Ceramic Shield 2 qui atténuerait les reflets et offrirait surtout « une résistance aux rayures 3x supé­rieure à celle de l’iPhone 16e ».

Une puce A19 amputée d’un cœur GPU

Doté d’un cadre en aluminium, l’iPhone 17e est animé par une puce A19, similaire donc à celle qui anime l’iPhone 17… à une petite différence près : la partie GPU, dotée de cinq cœurs sur l’A19 de l’iPhone 17, passe ici à seulement quatre cœurs, enrichis d’accélérateurs neuronaux qui complètent l’action du NPU 16 coeurs intégré.

Apple intègre également à son dernier né le modem C1X inauguré avec l’iPhone Air, qui promet des performances « deux fois plus rapides » que celles du modem C1 de l’iPhone 16e. Dans les faits, le nouveau venu (dépourvu de puce UWB) offre le même niveau de prise en charge que son prédécesseur, et reste donc cantonné au Wi-Fi 6 et au Bluetooth 5.3, là où l’iPhone 17 adopte Wi-Fi 7 et Bluetooth 6.

Sur la partie photo, pas de réel changement par rapport au 16e : Apple conserve son capteur principal à 48 mégapixels (avec vidéo jusqu’en 4K à 60 images par seconde), associé à un zoom optique x2, et positionne une caméra TrueDepth 12 mpx en face avant.

Recharge sans fil MagSafe jusqu’à 15W

Toujours compatible Apple Intelligence, l’iPhone 17e inaugure en revanche la recharge sans fil MagSafe jusqu’à 15W, là où le 16e se limitait à la recharge sans fil Qi jusqu’à 7,5W. Apple profite sans surprise de l’occasion pour sortir de nouveaux accessoires dédiés.

Côté mensurations, l’iPhone 17e est donné pour 7,8 mm d’épaisseur, et 170 grammes sur la balance. Des proportions identiques à celles du 16e (qui pèse trois grammes de moins) et légèrement mieux-disantes que celles de l’iPhone 17 (7,95 mm d’épaisseur, 177 grammes). Apple affiche une autonomie de 26 heures en lecture vidéo pour ce 17e.

Apple indique que les précommandes de l’iPhone 17e ouvriront mercredi 4 mars à 15h15, pour une disponibilité en magasin programmée au 11 mars. Trois coloris (rose, blanc, noir) et deux capacités sont proposés. Mise à prix : 719 euros pour la version 256 Go et 969 pour un modèle 512 Go. On pourra consulter la fiche produit, ou le module de comparaison de modèles pour affiner l’étude des caractéristiques.

☕️ [Linux] sudo-rs affiche maintenant des * par défaut quand on tape son mot de passe

2 mars 2026 à 15:12

Jusque-là, la fonction « magique » pour passer en mode super-utilisateur sur de nombreuses distributions Linux (sudo) n’affichait rien quand on tapait son mot de passe. L’utilisateur n’avait donc aucun retour sur le fait que la saisie d’une touche avait été prise en compte ou pas.

Mais les contributeurs qui maintiennent le code de sudo-rs (implémentation reprenant les fonctionnalités sudo et su écrites en Rust et visant à être plus fiable) ont décidé de changer le comportement par défaut de leur outil. Ainsi, depuis la dernière version de sudo-rs (0.2.12), l’option pwfeedback est maintenant activée par défaut et des astérisques s’affichent à chaque fois que l’utilisateur tape un caractère de son mot de passe.

« Cela résout un problème majeur d’UX pour les nouveaux utilisateurs. La sécurité est théoriquement moins bonne, car la longueur des mots de passe est visible par les personnes qui regardent votre écran, mais cet inconvénient est infinitésimal et largement compensé par l’amélioration de l’UX. En dehors de sudo/login, aucune autre interface de saisie de mot de passe n’omet les astérisques (y compris les autres sur Linux) », est-il expliqué dans le commit du changement.

Comme l’a repéré Phoronix, ce changement vient d’une demande d’un utilisateur faite en octobre dernier qui argumentait longuement dans ce sens.

Tous les utilisateurs ne sont pas contents de ce changement et ainsi l’un d’entre eux l’a signalé comme un bug, signalement dont le statut a été classé en « ne sera pas corrigé ».

Des chercheurs alertent sur les dangers de la généralisation de la vérification d’âge

2 mars 2026 à 14:41
Fausse bonne idée
Des chercheurs alertent sur les dangers de la généralisation de la vérification d’âge

Dans une lettre ouverte, 371 chercheuses et chercheurs de 30 pays s’opposent à la généralisation de la vérification d’âge imposée aux différents services en ligne par de nombreuses législations dans le monde sans que les implications sur la sécurité, la vie privée, l’égalité et la liberté aient été prises en compte.

Plusieurs centaines de chercheuses et chercheurs, notamment en informatique, ont signé une lettre ouverte demandant un moratoire sur le déploiement des solutions de vérification d’âge dans le monde numérique. On peut retrouver aussi bien les signatures de la chercheuse en droit du numérique du CNAM Suzanne Vergnolle que celles des cryptologues Ronald Linn Rivest (le « R » de l’algorithme RSA) et Bart Preneel.

Rappelons que, suivant l’Australie de près, la France est l’un des pays qui a pris rapidement la direction d’interdire les réseaux sociaux aux moins de 15 ans. L’Assemblée nationale a voté la loi qui doit maintenant être débattue au Sénat. Next avait évoqué les problèmes que le texte soulève.

Et le gouvernement français semble vouloir se montrer à la pointe du sujet en lançant plusieurs travaux sur les effets des usages de l’IA générative et des jeux vidéo sur les mineurs.

Le Royaume-Uni a lui aussi beaucoup avancé sur le sujet. Depuis l’été 2025, la loi sur « la sécurité en ligne » oblige certains sites à mettre en place un système de vérification d’identité pour leurs utilisateurs, ce qui a inquiété la Fondation Wikimedia. Pour l’instant, Wikipédia reste accessible outre-Manche sans système de ce genre.

Un contrôle allant beaucoup plus loin que ce qu’on connait hors ligne

Dans leur texte, les chercheuses et chercheurs expliquent que ces systèmes ont besoin d’aller beaucoup plus loin que ce qui a déjà été mis en place dans le monde hors ligne pour filtrer l’accès des casinos, de l’alcool ou des contenus pornographiques.

« Les discussions actuelles concernant la nécessité de réglementer les réseaux sociaux, les chatbots IA ou les messageries instantanées exigeraient que tous les utilisateurs, mineurs et adultes, prouvent leur âge pour discuter avec leurs amis et leur famille, lire l’actualité ou rechercher des informations, ce qui va bien au-delà de ce qui s’est jamais produit dans nos vies hors ligne », décrivent-ils dans leur lettre [PDF].

Ils pointent aussi que certaines recherches montrent l’utilité des plateformes en ligne et réseaux sociaux pour que les jeunes puissent s’informer, trouver des conseils et s’appuyer sur des communautés pour casser leur isolement.

Besoin d’un consensus scientifique avant de s’y aventurer

Leur idée n’est pas de s’opposer à toute solution de vérification d’âge. Ainsi, parmi les signataires, on retrouve le chercheur de l’École polytechnique, Olivier Blazy, qui avait collaboré avec la CNIL sur un démonstrateur du mécanisme de vérification de l’âge respectueux de la vie privée. Mais ils demandent qu’elle soit mise en place une fois qu’un consensus scientifique sera établi « sur les avantages et les inconvénients que peuvent apporter les technologies de préservation de la jeunesse, ainsi que sur la faisabilité technique d’un tel déploiement ». Et pour eux, il reste des « questions ouvertes sur la faisabilité d’un déploiement efficace ».

« Mentir sur son âge n’est pas difficile », rappelle la lettre qui mentionne la facilité de contournement des solutions actuellement mises en place via l’utilisation de VPN, l’achat d’identifiants validés ou même la simple fabrication de fausses pièces, comme Next l’a déjà montré.

Les systèmes d’estimation d’âge, trop intrusifs

Mais ils ajoutent que la mise en place de ces outils « peut en réalité nuire à la sécurité en ligne en exposant les utilisateurs à des logiciels malveillants et à des escroqueries lorsqu’ils ont recours à des services alternatifs qui ne mettent pas en œuvre de vérification — et les utilisateurs se tourneront sans aucun doute vers ces sources alternatives ».

Ils écartent dans leur texte les systèmes d’estimation d’âge, comme celui mis en place par OpenAI sur ChatGPT, qui manquent de fiabilité et qui sont « très intrusifs pour la vie privée » : « Ils reposent sur la collecte et le traitement de données sensibles et privées telles que les données biométriques ou les informations comportementales ou contextuelles (par exemple, l’utilisation de la langue). Par conséquent, le déploiement à grande échelle de ces méthodes de vérification de l’âge facilite la collecte et l’exploitation des données (des enfants) ».

Une infrastructure mondiale ?

Ces chercheurs et chercheuses l’assurent : « la mise en place d’une infrastructure mondiale fiable pour la vérification de l’âge n’est pas triviale ». Pour eux, avec les connaissances actuelles, cela demande de fait de s’appuyer sur des projets de vérification d’identité gouvernementaux s’appuyant sur des solutions de chiffrement très robuste pour chaque interrogation du service. « Cela entraînerait un usage difficile et l’exclusion de tous les utilisateurs ne disposant pas de papiers », commentent-ils.

De plus, ils expliquent qu’un tel système s’appuyant sur la vérification d’une preuve d’identité est « non seulement sujette à erreur, mais nécessite l’existence d’une infrastructure de confiance à l’échelle d’Internet », ce qui n’existe pas actuellement pour ça.

« Cela nécessite, entre autres, la mise en place d’émetteurs de confiance capables de fournir des certificats numériques à grande échelle, la mise en place de moyens permettant de fournir aux vérificateurs les clés de l’émetteur afin qu’ils puissent effectuer la vérification, et la mise en place de moyens permettant de révoquer les certificats », expliquent-ils. Pour mettre en place ce genre de chose pour sécuriser le HTTP (et le transformer en HTTPS), ça a mis plusieurs dizaines d’années.

Des dangers sur le contrôle de l’information et de l’expression en ligne

La lettre pointe enfin la problématique du choix des contenus qui sont accessibles sur Internet par certains et pas par d’autres : « Entre de mauvaises mains, comme celles d’un gouvernement autoritaire, cette influence pourrait être utilisée pour censurer des informations et empêcher les utilisateurs d’accéder à certains services, par exemple en bloquant l’accès à des contenus LGBTQ+ ».

☕️ Data centers : le DG d’iliad (Free) veut accélérer les procédures sur les friches industrielles

2 mars 2026 à 14:14

« Refuser de surtransposer le droit européen ; créer une procédure environnementale accélérée pour les projets installés sur des friches industrielles déjà artificialisées ; autoriser la réutilisation des études environnementales déjà réalisées afin d’éviter des redondances inutiles. »

Telles sont les requêtes de Thomas Reynaud, directeur général d’Iliad-Free, qui les formule dans une tribune publiée dans Les Échos. 
Le dirigeant s’indigne du temps que prend l’étude faune-flore (.pdf) à laquelle doit se soumettre tout projet industriel, et ce pendant « plusieurs mois (jusqu’à un an dans le cadre d’une étude dite "4 saisons" », selon la documentation (.pdf) de la Direction générale des Entreprises.

Concrètement, il s’agace de devoir y passer douze mois, alors que le projet de centre de données construit par OpCore (filiale à 50 % d’iliad et 50 % du fonds InfraVia) en Seine-et-Marne doit être construit sur le site de l’ancienne centrale à charbon de Montereau.

En l’espèce, Thomas Reynaud se fait l’écho à des requêtes de simplification de l’implantation de centres de données en France – promues par exemple via le soutien de l’article 15 de la loi de simplification de la vie économique, qui doit encore être votée par les parlementaires –, quoique de manière plus ciblée.

Soulignant que des centres de données sont construits très rapidement aux États-Unis ou en Chine, au prix de « non-sens écologiques », il décrit une France en train de perdre du temps « d’observation d’un sol stérile » alors même qu’elle « dispose d’un des mix électriques les plus décarbonés de la planète et des ingénieurs d’exception qui doivent faire de la France la première terre d’accueil des infrastructures d’IA en Europe et une des premières au monde ».

Et d’appeler à simplifier les procédures pour les fermes de serveurs dédiées à s’implanter sur des friches déjà artificialisées.

❌