↩ Accueil

Vue lecture

« Un empire bâti sur le racket » : YggTorrent ferme, 30 Go de données dans la nature

« Un empire bâti sur le racket » : YggTorrent ferme, 30 Go de données dans la nature

« L’histoire s’arrête ici. » C’est par ces mots que l’équipe de YggTorrent annonce la fin du site. Ce n’est pas son choix. Elle a été victime d’un piratage à grande échelle, qui met au jour 30 Go de données et lève le voile sur le caractère très lucratif de ses activités, ainsi que sur du code source, des mots de passe, des échanges, des bases de données, etc.

YggTorrent était un site dédié au téléchargement illégal et plus particulièrement aux torrents, comme son nom l’indique. Il changeait régulièrement de domaine, pour contrer les ordonnances de blocage dont il était régulièrement la cible. Le site affiche cette fois-ci un message différent : « Fermeture définitive de YggTorrent ».

« Fermeture définitive de YggTorrent »

Dernier épisode d’une série où des pirates s’attaquent aux pirates. L’équipe YggTorrent affirme en effet que, « le 3 mars 2026 au soir, un groupe malveillant a attaqué volontairement notre infrastructure. Un serveur secondaire de préproduction, distinct du système principal, a été compromis. Une escalade de privilèges a permis la suppression puis l’exfiltration de la base de données. Des portefeuilles crypto destinés uniquement au financement des serveurs, représentant plusieurs dizaines de milliers d’euros, ont également été dérobés (un détail que certains choisiront d’ignorer) […] C’était une attaque pensée, préparée et exécutée pour faire disparaître ».

L’attaque est signée et revendiquée par Grolum (parfois Gr0lum). Et au moins les deux « camps » sont raccords sur un point, le seul d’ailleurs : « Toute l’infrastructure de YGG a été compromise : code source, bases de données du tracker, du forum, de la boutique, logs serveur, configurations, mots de passe et cookies, projets en développement, échanges privés, données personnelles », affirme Grolum.

Grolum pas content : « mode "Turbo" de merde pour racketter »

« 6,6 millions d’utilisateurs. Des années de mensonges. Un empire bâti sur le racket. C’est fini. Les serveurs ont été vidés, puis détruits […] Près de 10 millions d’euros de recettes pour 2024 - 2025 ne vous ont pas suffi. Vous avez imposé votre mode « Turbo » de merde pour racketter quiconque voulait télécharger plus de cinq fichiers par jour. En profitant de votre monopole, vous avez pris les gens en otage avec un système de quota ridicule », ajoute-il.

En décembre, YggTorrent changeait de « modèle économique » avec un abonnement payant à la place des ratios (il fallait auparavant partager suffisamment pour pouvoir télécharger). La fronde est rapidement montée dans la communauté, comme nous l’avions alors relaté.

« Beaucoup ont payé, comme le montrent clairement vos chiffres de janvier et février », affirme Grolum. Ceux qui ont pris un « turbo à vie » ou ne serait-ce que pendant plusieurs mois, ne pensaient certainement pas que la vie du site serait aussi éphémère. Dans tous les cas, l’argent est arrivé dans les caisses de « l’équipe de YggTorrent » et selon Grolum les sommes seraient conséquentes. Reste maintenant à savoir qui a l’argent.

Ce tableau diffusé par le pirate détaillerait les revenus générés par YggTorrent – capture d’écran

« L’équipe YggTorrent » affirme que des sauvegardes existent et qu’une « une reconstruction serait techniquement possible », mais ne souhaite pas « continuer dans un climat d’acharnement permanent ».

Grolum aussi parle d’un drôle de climat, mais avec un angle différent : « Alors que vos équipes de modérateurs bossent bénévolement pour faire tourner le site, vous continuez d’amasser une véritable fortune sur leur dos. Francisco depuis le Maroc et Vladimir depuis la France, vous avez exploité la naïveté de personnes qui croyaient en un projet de partage libre, désintéressé et communautaire. Pendant des années, vous avez utilisé des méthodes de crapules : DDoS contre les trackers concurrents, purges d’uploadeurs dès qu’ils ouvraient la bouche, sabotage de votre propre API pour empêcher quiconque d’utiliser des outils tiers ». Ambiance.

Il ajoute que Oracle, celui qui serait à la tête de YggTorrent, aurait enregistré « les 54 776 cartes bancaires [des] membres » et se demande « Pour en faire quoi, exactement ? ». D’autres questions remontent : « Le tracking comportemental de chaque visiteur, c’est pour quel usage ? Et le fingerprinting des wallets crypto, tes utilisateurs sont au courant ? Les scans de CNI volées que tu utilises pour payer les serveurs, tu es à l’aise avec ça ? ».

30 Go de données brutes

Pour joindre la parole aux actes, il propose un lien .torrent pour récupérer des données de 6,6 millions d’utilisateurs, avec en plus des informations sur les coulisses, l’infrastructure, l’organisation, les finances, les projets internes, les données personnelles des admins, etc.

Il explique son choix de publier : « des gens dont c’est le métier vont pouvoir y jeter un œil, collecter des preuves supplémentaires et peut-être engager des poursuites contre les responsables du site, mais aussi contre les hébergeurs ou d’autres tiers identifié ». Reste à savoir si toutes les données sont bien celles de YggTorrent.

Grolum précise avoir fait quelques caviardages : « Aucune information sur les utilisateurs (adresses IP, emails, mots de passe) ne sera accessible ici. Hélas pour l’ARCOM, je garde ça bien au chaud. D’ailleurs Oracle, la moitié des hash sont encore en md5, c’est pas sérieux l’ami », ajoute-t-il. En dépit de cette information selon laquelle les informations personnelles ont été expurgées, il faudra attendre de voir si dans l’immense quantité de données, il n’est pas possible de faire des rapprochements et remonter à des utilisateurs.

À ce sujet, YggTorrent affirme que « les mots de passe présents dans la base étaient hachés et salés, ce qui signifie qu’ils n’étaient pas stockés en clair et qu’ils bénéficiaient d’une protection cryptographique empêchant leur lecture directe », sans préciser la technique utilisée. La fonction de hachage md5 est pour rappel qualifiée d’obsolète par la CNIL. Toujours les mêmes recommandations : si vous avez utilisé le même mot de passe sur YggTorrent et d’autres sites/services, il faut en changer au plus vite.

Le fichier pèse pas moins de 11 Go et se présente sous la forme d’une archive compressée. L’espace total occupé par les fichiers est de 30 Go une fois décompressés, dont 20 Go rien que pour les bases de données et 14 Go dans un seul fichier ygg_tracker_redacted/torrents/data.sql . Autant dire qu’il faudra du temps pour tout analyser.

Dans les données, se trouve notamment un fichier « Reunion201117_fra.json » avec ce qui semble être une transcription d’une réunion audio. Voici quelques extraits :

« La sécurité va s’améliorer parce que je peux vous le dire sincèrement, je vais être 100 % clair et gardez ça pour vous, mais les mots de passe sont z-, sont cryptés médiocres. Euh, le, le, la sécurité en ce moment des utilisateurs est très minime. C’est pour ça que nous, euh, Destroy est venu nous voir et nous a demandé d’avoir une meilleure sécurité. Moi, je suis arrivé avec une entreprise privée pour, pour le, la machine, parce qu’avant, avant, c’était des mecs russes très bizarres qui, qui fouillaient un peu sur la machine, vous voyez le genre ? ».

On trouve aussi des emails et des mots de passe associés à des comptes (rappel, réutiliser le même n’est pas une bonne idée). Certains ne sont plus valides, d’autres demandent un code envoyé par email avant de laisser passer. Certains des comptes semblent bien avoir existé.

Les coulisses de l’attaque, la relève déjà en place

Dans la fin de son billet, Grolum explique de manière détaillée comment il est entré sur le serveur de YggTorrent et comment il a récupéré les données. S’il fallait simplifier à l’extrême voici la chaine d’opération, telle que décrite par le pirate.

Point de départ de l’attaque : le favicon de yggtorrent. « Chaque icône a une empreinte numérique unique. Si on calcule le hash de celle de YGG et qu’on le cherche dans Shodan, l’IP du serveur de pré-prod apparaît ».

Ensuite, un scan de port et découverte d’une entrée non sécurisée : « Le scan de ports a révélé le service SphinxQL sur le port 9306. Sphinx Search est un moteur de recherche full-text qui utilise un protocole compatible MySQL. Sur ce serveur, il est accessible depuis Internet sans aucune authentification […] SphinxQL supporte nativement la lecture de fichiers locaux ».

La suite : « Sur les serveurs Windows déployés automatiquement, le fichier sysprep_unattend.xml contient les paramètres d’installation, y compris, parfois, le mot de passe administrateur. Ce fichier aurait dû être supprimé après le déploiement. Il ne l’a pas été ».

Les pirates ont donc récupéré rien de moins que le mot de passe administrateur du serveur, en clair, « dans un fichier que n’importe qui pouvait lire via SphinxQL ». C’est la voie royale. Le pirate peut accéder en lecture et en écriture à l’ensemble du stockage.

Grolum affirme enfin que « Tous les torrents de YGG ont pu être sauvés grâce à l’aide de l’équipe du projet U2P », ou Utopeer. Sur les cendres de Torrent 411, Cpasbien ou encore Zone-Téléchargement, un nouveau site s’est encore lancé : ygg.gratis. Il propose « une interface de consultation qui permet de parcourir et télécharger les torrents issus de la base de données YggTorrent ayant fuité ».

  •  

Apple lance son MacBook Neo avec une puce d’iPhone, à partir de 699 euros

Le "continuum" Apple à son paroxysme ?
Apple lance son MacBook Neo avec une puce d’iPhone, à partir de 699 euros

Apple a confirmé mercredi le lancement de son premier ordinateur portable équipé d’une puce héritée de l’iPhone. Affiché à 699 euros dans sa version 256 Go, le MacBook Neo constitue donc la nouvelle porte d’entrée vers macOS avec un écran 13 pouces, une puce A18 Pro et jusqu’à 16 heures d’autonomie.

L’annonce ne constitue pas précisément une surprise dans la mesure où les principaux détails avaient déjà fuité, jusqu’au nom de l’appareil : Apple a donc mis à profit son événement du 4 mars pour présenter à la presse son dernier-né, le MacBook Neo : un ordinateur portable au format 13 pouces au tarif nettement plus agressif que le reste de la gamme, qui vient d’être renouvelée.

L’appareil est en effet lancé à 699 euros dans sa version 256 Go. Une seconde version facturée 799 euros permet quant à elle de profiter de 512 Go de stockage mais aussi d’un capteur TouchID au niveau du clavier. Outre la couleur du châssis, la capacité de stockage est la seule option proposée.

Le processeur de l’iPhone 16 Pro aux commandes

Si Apple présente le MacBook Neo comme équipé de la dernière version en date de macOS, l’appareil présente bien entendu un compromis par rapport aux actuels MacBook Pro et MacBook Air : exit les puces M4 ou M5, et place à un composant hérité de l’iPhone. En l’occurrence, il s’agit sur cette première version d’une puce A18 Pro, celle qu’Apple a introduit pour la première fois en septembre 2024 avec l’iPhone 16 Pro.

Dans la version intégrée au MacBook Neo, l’A18 Pro dispose d’une partie CPU à six cœurs (deux orientés performances, quatre centrés sur l’efficacité), accompagnée d’un GPU à cinq cœurs et d’un neural engine à 16 cœurs.

Donné pour 60 Go/s de bande passante mémoire, la puce est accompagnée de 8 Go de mémoire unifiée (LPDDR5). Des caractéristiques identiques à celles revendiquées par Apple pour l’iPhone 16 Pro, ce qui laisse penser que la partie NPU devrait là aussi délivrer 35 TOPS, et que l’appareil profitera de l’USB 3 à 10 Gb/s. Il est par ailleurs compatible Wi-Fi 6E et Bluetooth 6, et dispose d’une webcam 1080p.

Une autonomie et des fonctionnalités de MacBook

La firme de Cupertino annonce la prise en charge des fonctions Apple Intelligence, et promet des performances suffisantes pour tous les usages courants. « Le MacBook Neo est le binôme idéal pour étudier, qu’il s’agisse de réviser pour un examen, de synthétiser des notes de cours avec Apple Intelligence ou d’élaborer des présentations », cible notamment l’entreprise.

La dalle interne, IPS, affiche 2 408 x 1 506 pixels à 219 pixels par pouce, avec une luminosité max de 500 nits. Le châssis est donné pour 1,23 kg, avec une épaisseur de 1,27 cm, des lignes rectangulaires assouplies par une coque arrondie et quatre coloris au choix. L’écran n’est pas tactile, mais on retrouve le Trackpad Multi‑Touch des autres ordinateurs de la marque. De façon inédite, les hauts-parleurs se situent sur la tranche de l’ordinateur. Deux micros les accompagnent.

Doté de deux connecteurs USB format Type-C (un en USB 3 offrant la prise en charge d’un écran externe jusqu’au 4K à 60 Hz et DisplayPort 1.4, l’autre en USB 2), il propose également une prise casque 3,5 mm.

La batterie intégrée de 36,5 Wh offrirait jusqu’à 16 heures d’autonomie, avec une recharge via USB-C exigeant au moins 20W. Rappelons qu’en Europe, Apple ne fournit plus de bloc secteur avec ses ordinateurs portables : l’entreprise se limite à un simple câble de charge USB-C (1,5 m) et vend le chargeur en option.

Le MacBook Neo est dès à présent disponible à la précommande chez Apple, avec une disponibilité fixée au 11 mars, comme les autres produits lancés cette semaine par la marque. Rappelons que l’entreprise a annoncé depuis lundi l’iPhone 17e, l’iPad Air avec une puce M4 et le renouvellement de ses gammes MacBook Pro et MacBook Air.

Comparaison entre MacBook Neo et MacBook Air M5 selon Apple – capture d’écran

  •  

Accenture rachète Ookla, Speedtest et Downdetector pour 1,2 milliard de dollars

Accenture rachète Ookla, Speedtest et Downdetector pour 1,2 milliard de dollars

Accenture a annoncé mardi la conclusion d’un accord portant sur l’activité d’Ookla, la branche des services et solutions « connectivité » du groupe média Ziff Davis, qui réunit notamment Speedtest et Downdetector. La transaction est chiffrée à 1,2 milliard de dollars, en cash.

Pour beaucoup d’internautes, Speedtest et Downdetector font presque office de services en ligne réflexe : le premier pour vérifier que la nouvelle box promue à grands renforts de superlatifs par votre opérateur tient ses promesses… et le second pour essayer de comprendre si vous êtes le seul dans la panade face à cette satanée page Web qui boucle sur une erreur 500…

Accenture veut se renforcer sur la connectivité

Si ces services sont très identifiés du grand public et génèrent des audiences significatives (Speedtest est même disponible via les PowerToys Windows), ils s’intègrent également dans des solutions à la fois plus complexes et plus ambitieuses, destinées cette fois au marché des entreprises.

C’est vraisemblablement ce volet professionnel qui a alimenté la convoitise d’Accenture : le géant américain des services numériques (70 milliards de dollars de chiffre d’affaires sur l’exercice 2025, 779 000 employés à la clôture de ce dernier) vient en effet d’annoncer l’acquisition d’Ookla (430 employés), la maison mère de Speedtest et Downdetector, également éditrice de Ekahau (mesure et optimisation de la performance des réseaux sans fil locaux) et Rootmetrics (mesure de la performance des réseaux mobiles sur le terrain), deux solutions intégrées suite à des croissances externes.

« Grâce à la suite Ookla, nous proposerons des services d’intelligence réseau de bout en bout, essentiels à la transformation numérique par l’IA, déclare Manish Sharma, directeur de la stratégie et des services chez Accenture, dans un communiqué. À l’ère de l’accès omnicanal et automatisé, une connectivité fluide et à faible latence est un atout concurrentiel majeur, et ces outils permettent aux entreprises de créer les environnements haute performance dont elles ont besoin. »

231 millions de dollars de chiffre d’affaires

Accenture ne communique pas le montant de la transaction, qui reste par ailleurs soumise aux habituelles approbations réglementaires, mais Ziff Davis, l’actuel propriétaire, l’évoque de façon explicite.

Le groupe, principalement connu pour ses activités dans les médias (il a par exemple racheté CNET en 2024), annonce une transaction chiffrée à 1,2 milliard de dollars, réalisée en cash, et souligne que l’activité correspondante a généré 231 millions de dollars de chiffre d’affaires en 2025, soit environ 16 % de ses recettes totales.

La publication, fin février, des résultats annuels de Ziff Davis, montre que sa branche « connectivité » a réalisé une croissance de 8 % sur un an. Le groupe ne précise en revanche pas le niveau de marge et la rentabilité associés.

  •  

☕️ TikTok déclare refuser le chiffrement de bout en bout pour protéger ses utilisateurs

Dans la bataille pour la confidentialité des échanges privés en ligne, une voix discordante se fait entendre parmi les plateformes : TikTok a déclaré à la BBC refuser de déployer le chiffrement de bout en bout (end-to-end encryption, E2EE) sur ses communications au motif que cela mettrait ses utilisateurs en danger. 
Ce faisant, le réseau social renverse l’argumentaire désormais avancé par tous ses concurrents – et de nombreux défenseurs des droits numériques –, selon lesquels l’E2EE est essentiel à la protection de la vie privée en ligne.

Au fil du temps, X et les plateformes de Meta WhatsApp, Facebook, Instagram et Messenger ont déployé la fonctionnalité.

Notamment redoublée du chiffrement des métadonnées, celle-ci est aussi au cœur des arguments du service de messagerie Signal, qui se présente comme le service grand public le mieux sécurisé.

La solution technique est en revanche régulièrement critiquée par les forces de l’ordre de multiples pays comme par certains (autres) défenseurs des libertés numériques, notamment des mineurs, comme une fonctionnalité qui empêche d’enrayer la circulation de contenus dangereux en ligne.


Ceux-ci argumentent notamment que l’E2EE, en empêchant les forces de l’ordre ou les entreprises technologiques elles-mêmes d’accéder au contenu des échanges, freine la modération de contenus allant de la promotion du terrorisme à diverses formes de pédocriminalité (ce dernier sujet étant notamment l’un des motifs du controversé projet de règlement CSAR, renommé ChatControl par ses opposants).

TikTok

Le cas de TikTok a ceci de spécifique que sa maison mère ByteDance est régulièrement critiquée pour ses potentiels liens avec le pouvoir chinois, ce qui créerait un risque d’exposition des données des utilisateurs et utilisatrices. Si ByteDance nie ce type de lien, les États-Unis ont obtenu que les activités locales de l’entreprise soient séparées du reste de ses activités internationales.

Auprès de la BBC, l’entreprise déclare que son positionnement est délibéré, c’est-à-dire une manière parmi d’autres de se différencier de ses concurrents.

Elle ajoute que les messages directs restent sécurisés via des systèmes de chiffrement standards, similaires à ceux présents sur un service comme Gmail.

Au Royaume-Uni, des acteurs comme l’Internet Watch Foundation ou la National Society for the Prevention of Cruelty to Children ont salué le positionnement du réseau social.

  •  

L’UNSS admet une fuite comprenant les photos d’identité de collégiens et lycéens

L'UNSS, ses cross boueux et ses fuites de données...
L’UNSS admet une fuite comprenant les photos d’identité de collégiens et lycéens

Déjà victime d’un piratage en 2025, l’Union nationale du sport scolaire (UNSS) a reconnu mardi avoir fait l’objet d’un vol de données issues de son outil de gestion de la relation avec les licenciés. Quelques jours plus tôt, le groupe Dumpsec affirmait être en possession de 890 000 photos émanant de l’UNSS.

L’Union nationale du sport scolaire (UNSS) a reconnu mardi 3 mars avoir été victime d’une fuite de données qu’elle présente comme « issues de son outil de gestion OPUSS ». L’intrusion dont elle découle remonterait à plusieurs mois.

« Ces données avaient fait l’objet d’une exfiltration dispersée en novembre 2025, pour laquelle l’UNSS avait immédiatement alerté son prestataire technique. La mise en vente récente de ces données a conduit à une nouvelle mobilisation des équipes et à l’activation des procédures prévues en matière de cybersécurité », affirme l’organisation.

890 000 photos exposées ?

Son message fait suite à la publication, le 28 février dernier, d’un post de forum signé Dumpsec annonçant la mise en vente de deux fichiers issus de l’UNSS : un jeu de 7 millions d’enregistrements et un ensemble de 889 000 photos des collégiens et lycéens qui constituent la base des licenciés de l’organisation. Cette annonce a été relayée le jour même sur les réseaux sociaux, et c’est probablement ce qui a conduit l’UNSS à finalement réagir mardi.

L’Union ne commente pas le volume de données évoqué par l’auteur du post en question, mais elle confirme en revanche que des données personnelles et des photos d’adhérents ont été compromises :

« À ce stade des investigations, les données susceptibles d’être concernées comprennent des informations d’identification liées aux licences UNSS (nom, prénom, genre, date de naissance, établissement scolaire, classe, date d’inscription, URL de photographie d’identité). Les premières analyses indiquent que les données financières (RIB, mandats de prélèvement SEPA) ainsi que les données relatives au handicap ne seraient pas concernées par cet incident. »

Elle ajoute une précision qui appuie l’une des allégations des auteurs de l’annonce : « Les liens permettant d’accéder aux images ont été rendus inopérants ». Dans le post initial annonçant la fuite, ces derniers illustraient en effet leur promesse avec un lien pointant directement vers un répertoire du sous-domaine dédié à l’outil OPUSS sur le site de l’UNSS.

Le retour d’un prestataire déjà auréolé de nombreuses fuites

En réponse à cette fuite manifeste, l’UNSS indique avoir, « dès confirmation des faits », notifié l’incident aux autorités ainsi qu’à la Cnil, saisi l’ANSSI et engagé, avec son prestataire technique, une analyse approfondie des journaux de connexion afin d’identifier précisément l’origine et le périmètre de l’incident. Sur ce point, elle affirme que le « compte utilisateur identifié comme point d’entrée a été immédiatement neutralisé », mais ne donne aucune autre précision sur les modalités de cet accès.

L’UNSS n’indique nulle part sur son site la qualité du prestataire technique en question, et le lien censé pointer les mentions légales de la partie publique de l’intranet OPUSS est inopérant. En 2022, un certain Exalto se réjouissait toutefois de désormais compter l’UNSS parmi les clients de sa solution E-licence, destinée précisément au secteur des associations et fédérations sportives.

Or le procédé mis en œuvre (accès à un compte utilisateur avec probable élévation des privilèges via une faille de sécurité) rappelle précisément le mode opératoire impliquant E-licence et Exalto, révélé par Next début 2025 au cœur de la vague d’intrusions qui avait frappé plusieurs dizaines de fédérations sportives. Le code source de la page d’accès à OPUSS confirme que le portail exploite bien E-licence.

En attendant que l’UNSS (qui organise pour mémoire les fameux cross et bon nombre de rencontres sportives scolaires) demande des comptes à son prestataire, elle diffuse avec un bel enthousiasme les photos vers l’édition 2026 de son cross national sous forme de dossiers hébergés sur Google Drive.

En juin 2025, de jeunes pirates affirmaient déjà avoir mis la main sur 7 millions d’enregistrements issus de la base de données de l’UNSS.

  •  

☕️ X oblige l’étiquetage des vidéos de conflits générées par IA sous peine de démonétisation

En temps de paix, les deepfakes pornographiques et autres contenus générés par intelligence artificielle (IA), notamment par des créateurs rémunérés, sont acceptables sur X. En « temps de guerre », en revanche, la plateforme oblige désormais ses usagers qui monétisent leurs publications à étiqueter les contenus produits grâce à de l’IA lorsque ceux-ci représentent des images de conflit armé.

C’est du moins l’image que dessine l’évolution des conditions d’utilisation du réseau social annoncée ce 3 mars (sur X) par le directeur produit Nikita Bier. « En temps de guerre, écrit ce dernier, l’accès de la population à de l’information authentique du terrain est critique. Avec les technologies d’IA actuelles, il est devenu trivial de créer du contenu qui trompe la population. »

La nouvelle politique se cantonne à un type de contenu précis : ceux représentant des conflits armés. Si des internautes décident de publier des vidéos générées par IA représentant ce type de violence, sans les étiqueter, ils risquent une suspension du programme de monétisation de 90 jours. Des violations supplémentaires de la nouvelle mesure « aboutiront à une suspension permanente du programme ».

Pour repérer les contenus en question, X s’appuiera sur les Notes de communautés et des outils d’IA génératives, « si le contenu contient des métadonnées (ou d’autres signaux) », indique Nikita Bier. Les comptes ne monétisant pas leurs publications, eux, ne sont pas concernés par la nouvelle mesure.

Formellement, les États-Unis n’ont pas déclaré la guerre à l’Iran : selon la Constitution locale, seul le Congrès en a le pouvoir.

Pour autant, les faux contenus représentant des conflits armés sont un enjeu de désinformation depuis des années. Alors que le jeu Arma 3 est sorti en 2013, des extraits en sont par exemple régulièrement détournés pour illustrer (faussement) des conflits en cours sur les réseaux sociaux. Comme pour d’autres domaines de l’espace informationnel, la facilité d’usage des outils d’IA générative crée cela dit un risque de prolifération accélérée de faux contenus.

Si X appose déjà des watermarks sur les images et vidéos générées grâce à Grok, l’entreprise n’obligeait pas ses usagers à faire connaître explicitement leur recours à l’IA jusqu’ici. D’après Social Media Today, X est actuellement en train de tester une fonctionnalité de labellisation des contenus générés par IA.

  •  

Logiciels espions : huit ans de prison pour quatre prestataires du « Watergate grec »

Co-intel pros
Logiciels espions : huit ans de prison pour quatre prestataires du « Watergate grec »

Plus de 90 politiciens d’opposition, ministres du gouvernement, employés des services de renseignement, procureurs, journalistes et hommes d’affaires avaient été espionnés entre 2020 et 2022. En 2024, la Cour suprême grecque avait innocenté le service de renseignement national et le gouvernement. Les quatre principaux prestataires viennent quant à eux d’être condamnés.

Quatre personnes liées au marchand de logiciels espions Intellexa ont été condamnées par un tribunal grec à des peines d’emprisonnement cumulées totalisant 126 ans et huit mois, mais dont seulement huit devront être purgés, précise eKathimerini, pour avoir espionné des dizaines de responsables politiques, hommes d’affaires, responsables militaires et journalistes.

L’affaire, surnommée « Predatorgate » ou « Watergate grec », avait éclaté en 2022 lorsque Nikos Androulakis, chef du principal parti d’opposition PASOK et membre du Parlement européen, avait découvert qu’un logiciel espion illégal appelé Predator, l’un des principaux concurrents du logiciel espion Pegasus de la société israélienne NSO, avait été installé sur son téléphone, rappelle Politico.

Reuters précise qu’un procureur avait également ouvert une enquête suite à la découverte, par un journaliste financier de CNN, Thanasis Koukakis, que son téléphone avait été infecté par le logiciel espion Predator de la société Cytrox, qui faisait partie du consortium Intellexa.

Des traces de Predator avaient ensuite été retrouvées dans les téléphones de plus de 90 Grecs, politiciens d’opposition, ministres du gouvernement, employés des services de renseignement, procureurs et hommes d’affaires, rappelle The Record.

L’exécution de leurs peines est suspendue à la procédure en appel

Cette affaire avait ébranlé le gouvernement de centre droit, entraînant le limogeage du chef du service national de renseignement (EYP) et du chef de cabinet du Premier ministre. L’administration, qui a nié toute malversation ou écoute téléphonique délibérée, avait néanmoins survécu à un vote de défiance en 2023, relève Reuters.

En 2024, la Cour suprême grecque avait innocenté l’EYP et les responsables politiques de tout acte répréhensible, et renvoyé les quatre accusés devant le tribunal correctionnel. Nikos Androulakis a depuis fait appel devant la Cour européenne des droits de l’homme.

Lors du procès, les quatre prévenus, Tal Dilian (ancien officier militaire israélien et fondateur d’Intellexa), sa partenaire commerciale Sara Aleksandra Fayssal Hamou, Felix Bitzios (ancien administrateur adjoint et actionnaire d’Intellexa) et Yiannis Lavranos (dont la société Krikel a acheté le logiciel espion), ont nié avoir commis des actes répréhensibles.

Jeudi 27 février, le tribunal les a néanmoins déclarés coupables d’« atteinte à la confidentialité des communications téléphoniques », d’« altération répétée d’un système d’archivage de données à caractère personnel » et d’« accès illégal à un système d’information ou à des données ». L’exécution de leurs peines est suspendue dans l’attente de l’examen de la procédure en appel.

Intellexa, toujours en activité, en partie sanctionné aux États-Unis

« Ce fut une bonne journée pour la démocratie et l’État de droit en Grèce », a déclaré Thanasis Koukakis à l’AFP devant le tribunal, ajoutant que le verdict « ouvrait la voie » à d’autres poursuites contre des suspects dans la même affaire. D’autant que « la moitié du cabinet et des généraux de haut rang étaient sous surveillance de l’agence nationale de sécurité et du logiciel espion Predator ».

Le 18 février, Amnesty International avait cela dit révélé que Predator avait infecté le téléphone d’un éminent défenseur de la liberté de la presse en Angola en 2024, note The Record. En décembre, les chercheurs d’Amnesty avaient quant à eux découvert qu’un avocat pakistanais spécialisé dans les droits humains avait également été pris pour cible par Predator au cours de l’été 2025.

Le département du Commerce américain avait ajouté Intellexa et sa filiale Cytrox à sa liste noire en 2023. Les dirigeants et consultants d’Intellexa, dont Dilian et Hamou, avaient été sanctionnés par l’administration Biden en 2024. Mais l’administration Trump a annulé les sanctions contre Hamou et deux autres dirigeants d’Intellexa en décembre dernier, bien que Dilian figure toujours sur la liste noire.

Nexa (ex-Amesys), le sulfureux partenaire français d’Intellexa

En 2023, Amnesty International a également découvert que Predator avait été vendu à 25 pays, dont plusieurs régimes autoritaires, par un consortium d’entreprises européennes qui a contourné les règlements européens et internationaux via la filiale dubaïote de Nexa Technologies (ex-Amesys), le partenaire français d’Intellexa.

Les responsables de Nexa avaient été mis en examen en 2021 pour « complicité de tortures » et « disparitions forcées » en Libye, puis « pour complicité de torture et de disparitions forcées » en Égypte, avant d’être placés en 2022 « sous le statut plus favorable de témoin assisté, éloignant ainsi la menace d’un procès à leur encontre ». 

Nexa s’est depuis retirée du marché de la surveillance et du consortium Intellexa, et a été rachetée par Chapsvision, le nouveau champion français de la cybersurveillance, dont le modèle économique vise d’après ses dires à aider les handicapés mentaux à communiquer, comme nous l’avions relaté.

  •  

☕️ GPT-5.3 Instant : OpenAI promet un ChatGPT moins moralisateur, plus direct et naturel

Depuis quelques jours, Anthropic et son IA Claude ont le vent en poupe, face à OpenAI et son ChatGPT dont les désinstallations de l’application ont explosé ces derniers jours. C’est la conjonction de deux événements liés. L’interdiction faite par Donald Trump d’utiliser les modèles d’Anthropic dans les armées et administrations américaines pour commencer. Ensuite, le fait que Sam Altman s’empresse de signer un contrat avec le Pentagone.

Alors qu’Anthropic surfe sur une vague de popularité, l’entreprise a décidé de permettre à tous les comptes, même les gratuits, d’utiliser la fonction Import Memory (pour faciliter une transition de ChatGPT à Claude, par exemple), OpenAI revient sur le devant de la scène avec encore un nouveau modèle, ou plutôt une mise à jour : GPT-5.3 Instant.

Lors du lancement de GPT-5.2 en décembre dernier, il était annoncé dans trois formats : Instant, Thinking et Pro. En février, c’était au tour de GPT-5.3-Codex de débarquer (à quelques minutes d’écart, Anthropic annonçait Claude Opus 4.6). Comme son nom l’indique – Codex –, c’est un modèle pensé pour le code informatique. OpenAI annonce aujourd’hui un modèle plus grand public : GPT‑5.3 Instant. Thinking et Pro suivront, mais plus tard.

Il promet « des conversations plus fluides et plus utiles au quotidien ». Nous avons droit au lot habituel de promesses : « réponses plus précises, résultats plus riches et mieux contextualisés lors des recherches sur le web, moins d’impasses inutiles, d’avertissements et de formulations trop affirmatives qui peuvent interrompre le fil de la conversation ».

OpenAI indique avoir reçu des retours d’utilisateurs indiquant que « GPT‑5.2 Instant refusait parfois de répondre à des questions auxquelles il devrait pouvoir répondre en toute sécurité, ou adoptait un ton trop prudent ou moralisateur, en particulier sur des sujets sensibles ». GPT‑5.3 Instant « réduit nettement les refus inutiles, tout en atténuant les préambules trop défensifs ou moralisateurs avant de répondre à la question ».

Concernant les informations glanées en ligne, GPT-5.3 Instant « équilibre plus efficacement […] avec ses propres connaissances et son raisonnement. Par exemple, il s’appuie sur sa compréhension existante pour contextualiser l’actualité récente plutôt que de simplement résumer les résultats de recherche ». Le Web ne sera plus survalorisé, promet OpenAI.

Enfin, l’entreprise de Sam Altman reconnait que « le ton de GPT‑5.2 Instant pouvait parfois mettre mal à l’aise, perçu comme envahissant ou faisant des suppositions injustifiées sur l’intention ou les émotions de l’utilisateur ». Avec GPT-5.3 Instant, le style devrait être plus naturel. Des exemples sont disponibles sur cette page.

GPT‑5.3 Instant est disponible dès maintenant, pour tous les utilisateurs de ChatGPT. Les mises à jour des modèles Thinking et Pro « suivront bientôt ». Enfin, GPT‑5.2 Instant restera disponible pendant trois mois pour les clients payants (il sera retiré le 3 juin 2026).

  •  

Après un contrat « opportuniste et bâclé » avec l’armée US, OpenAI essaye de se rattraper

Too Quick and too dirty?
Après un contrat « opportuniste et bâclé » avec l’armée US, OpenAI essaye de se rattraper

L’annonce par OpenAI d’un contrat avec l’armée états-unienne alors que son concurrent Anthropic refusait de céder aux pressions de l’administration Trump a écorné l’image publique de l’entreprise de Sam Altman. Celui-ci essaye de rattraper les conséquences d’une communication trop rapide.

Alors qu’Anthropic a refusé de céder aux pressions du Pentagone pour utiliser Claude sans restriction, OpenAI a signé dans la foulée un contrat avec le département de la Défense des États-Unis.

Si cette signature fait sans aucun doute rentrer de l’argent dans les caisses de l’entreprise de Sam Altman, il n’avait sans doute pas prévu qu’elle fasse fuir autant d’utilisateurs.

Il vient d’annoncer qu’OpenAI et le Pentagone reprenaient le contrat pour le modifier sur le sujet de la surveillance de masse aux États-Unis, un des enjeux qu’Anthropic avait justement soulevé.

Dans un message d’abord envoyé en interne que s’est procuré Axios et que Sam Altman a ensuite diffusé sur X, le CEO d’OpenAI reconnait s’être précipité et avoir signé un accord qui « paraissait opportuniste et bâclé ».

« Une chose que je pense avoir mal faite : nous n’aurions pas dû nous précipiter pour publier cela vendredi », ajoute-t-il, semblant vouloir faire amende honorable.

Des utilisateurs américains ont abandonné ChatGPT en masse

Et effectivement, de nombreux utilisateurs semblent penser qu’il a fait une erreur et lui reprochent peut-être un peu plus que de la simple précipitation. Trois fois plus d’utilisateurs de ChatGPT que d’habitude ont désinstallé, aux États-Unis, l’application dans la journée du samedi 28 février, selon des chiffres de Sensor Tower cités par TechCrunch. Et les téléchargements de l’application baissent aussi.

En parallèle, l’application Claude d’Anthropic a vu ses téléchargements augmenter pour devenir l’application la plus téléchargée de l’App Store d’Apple aux États-Unis. La chanteuse Katy Perry a montré l’exemple en postant, sur X, une capture d’écran de l’offre d’Anthropic entourée d’un cœur. L’éditeur de Claude a par ailleurs annoncé de façon opportune l’ouverture à tous les utilisateurs de sa fonction d’import de données contextuelles, une invitation directe aux utilisateurs de ChatGPT.

Sam Altman explique donc dans son message qu’OpenAI et le Pentagone sont en train d’amender leur contrat pour prendre en compte noir sur blanc les différentes lois qui interdisent la surveillance domestique : « le système d’IA ne doit pas être utilisé intentionnellement à des fins de surveillance nationale des personnes et des ressortissants américains ».

Un changement qui n’aborde pas directement la question des armes autonomes

Si son message est long, Sam Altman ne parle pas directement de l’autre condition sur laquelle Anthropic n’a pas voulu céder : l’utilisation de son outil pour les armes totalement autonomes.

Il affirme par contre qu « il y a beaucoup de choses pour lesquelles la technologie n’est tout simplement pas encore prête, et beaucoup de domaines dans lesquels nous ne comprenons pas encore les compromis nécessaires pour garantir la sécurité ».

C’était justement l’argument invoqué par le CEO d’Anthropic, Dario Amodei, pour mettre de côté, pour l’instant, l’utilisation dans des armes totalement autonomes.

Essayant de ménager la chèvre et le chou, Sam Altman ajoute : « Nous allons y travailler, lentement, avec le ministère de la Défense, à l’aide de mesures de protection techniques et d’autres méthodes ».

Les critiques contre ce contrat ne se retrouvent pas que chez les utilisateurs. Ainsi, le Financial Times explique que des employés d’OpenAI ont fait part de leurs inquiétudes en interne. Ceux qui travaillent dans les locaux de San Francisco ont pu également y voir un tag affichant « NON À LA SURVEILLANCE DE MASSE » et les exhortant à « faire ce qui est juste ! ».

Une rupture avec Anthropic plus sur la forme que sur le fond

Mais si le Département de la Défense des États-Unis n’a pas signé avec Anthropic, le contrat aurait avant tout capoté en raison de tensions entre les négociateurs, selon le New York Times. En effet, le journal raconte qu’Emil Michael, le CTO du côté administration, n’aurait pas apprécié la façon dont le CEO d’Anthropic, Dario Amodei, se comportait. Une position reprise ensuite publiquement par Pete Hegseth quand il a déclaré que « les soldats américains ne seront jamais pris en otage par les caprices idéologiques des géants de la tech ».

Lors des négociations, Emil Michael a accusé Dario Amodei d’être un « menteur » atteint d’un « complexe de Dieu », alors que le CEO d’Anthropic aurait refusé de participer à une réunion avec lui pour régler des questions de formulation parce qu’il était déjà dans une autre réunion avec son équipe dirigeante.

Si Donald Trump a ordonné le week-end dernier à toutes les administrations des États-Unis de rompre avec Anthropic, l’entreprise n’a pas dit son dernier mot et a déjà annoncé qu’elle ira en justice. Elle s’appuiera notamment sur le fait que la décision a été justifiée par le département de la Défense mais aussi par le dirigeant des États-Unis en affirmant que l’entreprise était un « risque pour la chaîne d’approvisionnement », qualificatif utilisé pour signifier qu’une entreprise est une menace pour la sécurité nationale mais qui n’a jamais été utilisé contre une entreprise américaine.

  •  

☕️ Seagate Mozaic 4+ : les expéditions en volume de HDD de 44 To ont commencé

La gamme de disques durs Mozaic de Seagate débute à la série « 3 + », avec des HDD de 30 To et plus exploitant la technologie HAMR (Heat Assisted Magnetic Recording, avec un faisceau laser). L’année dernière, Seagate passait à 36 To, aujourd’hui il est question de 44 To.

Le constructeur explique que « sa plateforme Mozaic 4 + […] est désormais qualifiée et en production chez deux fournisseurs cloud hyperscale de premier plan », mais sans les nommer.

De plus, les « disques durs Mozaic 4 + avec des capacités allant jusqu’à 44 To sont désormais expédiés en volume vers deux principaux fournisseurs cloud hyperscale ». La densité augmente puisque, en juin dernier, John Morris (CTO de Seagate) affirmait avoir « livré à ses clients de premiers échantillons à 40 To ».

La disponibilité plus large des disques durs Mozaic 4 + est prévue « à mesure que la production continue d’augmenter », sans plus de détails. Avoir des disques durs toujours plus gros permet d’augmenter la densité du stockage dans les datacenters, mais aussi d’utiliser moins de HDD pour une capacité donnée, et donc de réduire la consommation électrique.

Seagate prévoit toujours d’atteindre 10 To par plateau, soit 100 To avec 10 plateaux dans un disque dur classique de 3,5 pouces. En laboratoire, le fabricant a atteint 6,9 To par plateau fin 2025, pour rappel. Il faudrait encore attendre six ans selon l’entreprise pour avoir 100 To. En attendant, le passage par Mozaic 5 (50 To et plus) est prévu aux alentours de 2028.

  •  

Apple renouvelle ses MacBook Pro et Air, puces M5 Pro et Max avec des « super-cœurs » CPU

Fusiiiionnnnnn !
Apple renouvelle ses MacBook Pro et Air, puces M5 Pro et Max avec des « super-cœurs » CPU

Deux nouvelles puces arrivent chez Apple : les M5 Pro et Max, avec des « super cœurs » pour la partie CPU. On les retrouve dans les nouveaux MacBook Pro de 14 et 16 pouces. Apple met aussi à jour son MacBook Air qui passe à la puce M5 pour l’occasion.

MacBook Air 13 et 15 pouces en M5, à partir de 1 199 euros

Après les iPhone 17e et l’iPad Air avec une puce M4, Apple continue sur sa lancée avec deux nouvelles annonces ce jour. Commençons par le MacBook Air avec une puce M5, dont les caractéristiques techniques peuvent changer suivant la taille de la diagonale de l’écran.

« Tous les modèles 15 pouces sont équipés de la puce M5 avec CPU 10 cœurs et GPU 10 cœurs », explique Apple. De son côté, le modèle de 13 pouces intègre 8 ou 10 cœurs GPU suivant les configurations, mais 10 cœurs CPU dans tous les cas. 16, 24 ou 32 Go de mémoire unifiée (partagés entre CPU et GPU) sont de la partie.

« Le MacBook Air dispose désormais d’un stockage de base deux fois plus important, porté à 512 Go, et d’une technologie SSD plus rapide », affirme Apple. Côté connectivité, c’est la puce maison N1 qui est aux commandes pour le Wi-Fi 7 et le Bluetooth 6. La connectique comprend deux ports Thunderbolt 4 (connecteur USB).

Niveau performances, Apple annonce que le MacBook Air M5 offre des performances « jusqu’à 4 fois plus rapides pour les tâches d’IA que son prédécesseur équipé de la puce M4, et jusqu’à 9,5 fois plus rapides que le MacBook Air avec puce M1 ».

Le MacBook Air 13 pouces M5 est proposé à partir de 1 199 euros avec 16 Go de mémoire et 512 Go de stockage (ajoutez 125 euros pour avec 10 cœurs GPU à la place de 8). De son côté, le MacBook Air 15 pouces M5 est vendu à partir de de 1 499 euros. Augmenter la mémoire vive vous coûtera 250 euros pour 8 Go de plus (24 Go au total) et 500 euros passer de 16 à 32 Go. 32 Go est toujours le maximum.

Les MacBook Pro de 14 et 16 pouces passent aux M5 Pro et Max

Passons aux MacBook Pro, avec de nouvelles puces M5 Pro et Max. Apple, comme toujours, n’est pas avare en superlatifs concernant ces deux nouveaux SoC : « nouveau CPU avec le cœur de CPU le plus rapide au monde, GPU nouvelle génération avec Neural Accelerator dans chaque cœur et bande passante mémoire unifiée plus élevée ». Elle passe de 153 Go/s sur la puce M5 à 307 Go/s sur la Pro et 614 Go/s sur la Max avec 40 cœurs GPU, mais « seulement » 460 Go/s pour le M5 Max avec 32 cœurs GPU.

Comme sur le MacBook Air, Apple vante le SSD des nouveaux MacBook Pro qui est « jusqu’à deux fois plus performant », avec 14,5 Go/s au maximum. Le stockage de base passe à 1 To pour le MacBook Pro en M5 ou M5 Pro et à 2 To pour le modèle M5 Max, au lieu de 512 Go sur le modèle d’octobre dernier en M5.

Pour la connectivité, la puce N1 est de nouveau présente, tandis que les ports USB Type-C prennent désormais en charge Thunderbolt 5. Un MacBook Pro avec une puce M5 Pro prend en charge deux écrans externes, contre quatre pour la version M5 Max.

Côté tarif, le MacBook Pro M5 avec 1 To débute à 1 899 euros (1 799 euros avec 512 Go auparavant), tandis que l’addition passe à 2 499 euros minimum pour un SoC M5 Pro… et encore ajoutez 200 euros de plus pour la version « complète » du SoC avec 18 cœurs CPU et 20 cœurs GPU (au lieu de 15 et 16 respectivement).

Pour le MacBook Pro M5 Max, le tarif débute à 4 199 euros avec 18 cœurs CPU et 32 cœurs GPU, puis il faut ajouter 375 euros pour avoir les 40 cœurs GPU. Ce sont les tarifs pour la version de 14 pouces, en 16 pouces comptez 2 999 euros en M5 Pro (il n’est pas disponible en M5) et 4 499 euros pour pour la puce M5 Max.

Du M1 au M5 Max, toutes les caractéristiques des puces Apple Silicon

Revenons aux deux nouvelles puces M5 Pro et Max, avec la mise a jour de notre grand tableau comparatif pour commencer :

Comme avec la M5 de « base », chaque cœur GPU dispose d’un « accélérateur neuronal ». Apple affirme que « les puces M5 Pro et M5 Max assurent un traitement des prompts LLM jusqu’à quatre fois plus rapide que les M4 Pro et M4 Max, et une génération d’images par IA jusqu’à huit fois plus rapide que les M1 Pro et M1 Max ».

Les précommandes des nouveaux MacBook Air et Pro ouvriront le 4 mars, les livraisons sont prévues à partir du 11 mars.

Des puces « pensées de A à Z pour l’IA » avec des 5 ou 6 « super-cœurs »

Les M5 Pro et M5 Max « intègrent un nouveau CPU de 18 cœurs, dont 6 super-cœurs, le cœur de CPU le plus rapide au monde, et 12 tout nouveaux cœurs de performance, optimisés pour des performances multithreads économes en énergie ». Pour la version 15 cœurs CPU du M5 Pro, il y a 5 super-cœurs et donc 10 efficaces. Apple ne parle pas de cœurs efficaces, mais « performance ». Les puces M5 Pro et Max ont donc un mélange de « super cœurs » et de « cœurs de performance ».

Auparavant, les puces M4 Pro et Max avaient entre 8 et 12 cœurs « performances », avec 4 cœurs « haute efficacité énergétique » (efficaces). Même chose sur la puce M5, les « super cœurs » n’existaient pas encore et les cœurs efficaces étaient toujours présents. À voir maintenant les résultats dans les tests.

Apple affirme que « la nouvelle architecture du processeur du M5 Pro améliore considérablement les performances multithread jusqu’à 30 % pour les charges de travail professionnelles ». Mais cette comparaison est faite entre des MacBook Pro M4 Pro avec 14 cœurs et M5 Pro avec 18 cœurs, soit… 30 % de cœurs en plus. La répartition entre les cœurs n’est pas non plus la même pour rappel.

Le fabricant ne s’en cache pas : il mise tout sur l’IA : « Les puces M5 Pro et M5 Max reposent sur la nouvelle architecture Fusion signée Apple et sont pensées de A à Z pour l’IA. Cette conception innovante combine deux puces en un seul système pour un gain de performances considérable ».

La version Max du M5 intègre deux encodeurs vidéo et deux encodeurs/décodeurs ProRes. Un comparatif de MacBook Pro 14 avec des puces M5, M5 Pro et M5 Max est disponible par ici.

  •  

Claude attaque la rétention de ChatGPT avec sa fonction d’import de la « mémoire »

Come to me
Claude attaque la rétention de ChatGPT avec sa fonction d’import de la « mémoire »

Alors que ses modèles connaissent une soudaine vague de popularité suite aux démêlés d’Anthropic avec l’administration Trump, l’entreprise éditrice de Claude vient d’ouvrir à tous les comptes, même gratuits, la fonction qui permet d’importer la « mémoire » de l’utilisateur d’une autre IA. Un levier malin pour encourager les migrations, qui illustre à la fois l’enjeu économique de rétention… et la valeur potentielle de cet historique.

En prononçant vendredi 27 février l’interdiction d’utiliser les modèles d’Anthropic au sein des armées et administrations américaines, Donald Trump a donné un coup de projecteur sur Anthropic et son CEO, Dario Amodei. Et Sam Altman, qui s’est empressé d’annoncer la signature d’un accord entre le Pentagone et son entreprise OpenAI, n’a rien fait pour limiter cet effet Streisand, au contraire.

Résultat des courses, la popularité de Claude a explosé sur les kiosques de téléchargement d’Apple et d’Android, jusqu’à devenir et rester encore aujourd’hui l’application gratuite la plus demandée du moment.

Claude est l’application gratuite numéro un du classement de l’App Store d’Apple, devant ses concurrentes ChatGPT et Gemini – capture d’écran Next

Import en deux clics

Anthropic a saisi cette balle séduisante au bond lundi, en ouvrant les vannes et en simplifiant l’accès à sa fonction Import Memory. Lancée à l’automne 2025, celle-ci était jusqu’ici réservée aux souscripteurs d’un abonnement payant. Elle permet d’injecter, dans Claude, l’historique et les informations contextuelles que l’utilisateur a pu accumuler en utilisant un modèle concurrent comme ChatGPT, Gemini, Le Chat et consorts.

Ce faisant, l’internaute peut conserver à la fois l’historique de ses conversations, projets, requêtes, etc., ainsi que les éventuels éléments personnels qu’il aurait enseignés au modèle pour adapter les sorties à ses attentes.

La fonction d’import est désormais accessible en un clic via l’onglet Capacités des paramètres du site Claude.ai. Anthropic fournit un prompt prêt à l’emploi (rédigé en anglais) qu’il suffit de copier dans le modèle que l’on quitte, puis une fenêtre destinée à l’import des résultats obtenus.

La fonction d’import propose une invite (prompt) prête à l’emploi – capture d’écran Next

Pour que la requête soit efficace, il faut bien entendu que l’internaute ait au préalable utilisé un modèle concurrent, et que les options de mémoire de ce dernier aient été pleinement activées, ce qui n’est par exemple pas le cas par défaut sur un compte ChatGPT gratuit. Dans ce scénario, l’utilisateur peut bien visualiser un historique de ses conversations avec le chatbot, mais ce dernier n’établit pas de lien entre les différents fils de discussion, même si les réglages correspondants sont activés dans les paramètres. Sur un compte gratuit pour lequel aucun élément de personnalisation n’a été rempli, ChatGPT répond donc par un fichier vide au prompt proposé par Anthropic.

La donne change avec un abonnement payant, comme nous avons pu en faire l’expérience. La sortie proposée par ChatGPT reprend les infos personnalisées qui ont été renseignées, et propose ensuite une sorte de digest des différents fils de discussion initiés par l’utilisateur. La sortie est globalement fidèle à la réalité des échanges passés, mais elle ignore certains projets ou thèmes abordés, et témoigne parfois d’une interprétation hasardeuse de la finalité initiale de la demande.

Dans la lignée de nos précédentes expérimentations, notre rapide test montre par ailleurs que la sortie n’est pas constante dans le temps : il ne s’agit donc pas d’un export (au sens accès à l’intégralité des données brutes par exemple), mais bel et bien du résultat de la requête transmise à un modèle probabiliste. ChatGPT (et les autres) proposent heureusement une fonction d’archivage qui permet quant à elle de récupérer la totalité de son historique, mais le fichier qui en découle n’est évidemment pas prévu pour être injecté en un clic dans Claude.

De la difficulté de retenir les utilisateurs ?

Est-ce de toute façon vraiment l’efficacité de cette fonction qui prime dans le contexte actuel ? Plusieurs spécialistes de la mesure d’audience affirment que le regain de popularité de l’application Claude s’est accompagné d’une vague de désinstallation de l’application ChatGPT. Autrement dit, les gens ne se seraient pas simplement intéressés à Claude : ils auraient vraiment décidé de changer de crèmerie.

Et c’est précisément pour étayer l’idée selon laquelle il est facile de passer, sans perte, d’une IA à une autre, qu’Anthropic a ouvert les vannes de sa fonction d’import : elle montre qu’au-delà de simplement essayer Claude pour voir, on peut très vite y transférer sa « mémoire ».

Dans la course aux financements que se livrent les géants de l’IA, il y a nécessairement une prime à celui qui réunit le plus grand nombre d’utilisateurs, et c’est encore plus vrai pour Anthropic et OpenAI qui ne peuvent pas, comme Microsoft ou Google, s’appuyer sur une base conséquente d’utilisateurs captifs via d’autres produits déjà très répandus (Windows, Office, Android, Chrome, etc.). Cette problématique de rétention est d’ailleurs l’un des arguments qui motive la course aux agents IA : il est plus difficile de se départir d’un outil auquel on a délégué des tâches concrètes de son quotidien…

  •  

Hackerbot-claw : un bot exploite GitHub Actions et vide le dépôt de Trivy

L’attaque des bots
Hackerbot-claw : un bot exploite GitHub Actions et vide le dépôt de Trivy

Un bot alimenté a utilisé les GitHub Actions pour compromettre des dépôts GitHub. Ironie du sort, il a piraté un scanner de sécurité (vulnérabilité, mauvaises configurations…), publié une extension VS Code malveillante et renommé le dépôt (en privé).

Il y a maintenant plus de sept ans que GitHub propose ses « Actions » pour automatiser des tâches, dont la mise en production automatique de code. On parle souvent de CI/CD avec CI pour Continuous Integration (intégration continue) et CD pour Continuous Deployment (déploiement continu).

La semaine dernière, un bot baptisé hackerbot-claw a utilisé l’intelligence artificielle générative (Claude Opus 4.5 selon sa propre présentation) pour exploiter activement la fonctionnalité GitHub Actions afin de faire des dégâts dans des dépôts GitHub.

Du code exécuté à distance sur au moins quatre cibles

StepSecurity (entreprise spécialisée dans la sécurité de l’automatisation de la livraison de code) a publié une analyse détaillée. De même pour Stéphane Robert, ingénieur DevOps et architecte cloud chez 3DS Outscale, sur son blog en se concentrant davantage sur une des attaques, contre le scanner de vulnérabilités open source Trivy. Il dresse un portrait au vitriol : « Un bot IA autonome qui compromet un scanner de sécurité, publie une extension VS Code malveillante, et renomme le dépôt en privé — le tout en quelques heures. On est clairement entrés dans une nouvelle ère ».

Durant plusieurs jours, une campagne d’attaques automatisées (avec cinq techniques différentes) a donc été lancée via GitHub Actions, « réussissant à exécuter du code à distance dans au moins 4 cibles sur 7 » selon le billet de blog de StepSecurity. Les cibles étaient prestigieuses : microsoft/ai-discovery-agent‍, DataDog/datadog-iac-scanner‍, avelino/awesome-go, ambient-code/platform, project-akri/akri, aquasecurity/trivy et RustPython/RustPython.

Dans un des cas, le bot a pu « exfiltrer un jeton GitHub d’un dépôt populaire, avec des autorisations d’écriture ». Pour d’autres, le bot a aussi mis en place une injection de script en ajoutant une charge malveillante dans un fichier version.sh, a modifié des noms de branches pour y ajouter du code, caché des commandes shell (en Base64) dans les noms de fichiers, injecté des prompts IA, etc.

Le dépôt hackerbot-claw a été fermé dans la journée d’hier. Il précisait auparavant être « un agent autonome qui analyse les dépôts publics à la recherche de workflows CI/CD mal configurés. Je les trouve. Je les vérifie. Je laisse un mot. Je n’exfiltre pas, je ne détruis pas, je ne persiste pas », affirmait la présentation, qui voulait donc le présenter comme un chevalier blanc.

Trivy, le scanner de vulnérabilités, se fait détrousser

L’attaque la plus médiatisée est celle contre Trivy, dont le dépôt officiel (24 000 étoiles) a été vidé. « Trivy est l’un des scanners de vulnérabilités open source les plus utilisés dans l’écosystème cloud native. Il scanne les images de conteneurs, les fichiers IaC (Terraform, Kubernetes), les dépôts de code, les SBOM… C’est un outil incontournable dans toute chaîne DevSecOps sérieuse », explique Stéphane Robert sur son blog.

Hormis le dépôt vide, le site officiel est toujours en place, comme la documentation de la version 0.69 et « la page d’installation référence même la version 0.69.1 dans ses exemples ». Le problème ne concerne que GitHub a priori, mais aussi par ricochet toutes les applications s’appuyant sur ce dépôt.

L’éditeur de Trivy, Aqua Security, explique de son côté que « le dépôt a été rendu privé et renommé (en private-trivy). Un dépôt vide a été poussé à la place du dépôt public. Les versions GitHub entre 0.27.0 et 0.69.1 ont été supprimées, y compris les discussions et ressources GitHub associées pour ces versions ».

Autre problème et pas des moindres : « Un artefact malveillant a été créé pour l’extension VScode de Trivy, puis poussé vers la marketplace Open VSIX (une alternative à la marketplace officielle de VSCode). Nous avons supprimé cet artefact et révoqué le jeton utilisé pour le publier ». L’équipe n’a pas trouvé d’autres « impacts » suite à cette attaque et se concentre sur un retour à la normale de l’ensemble des services.

Depuis, une nouvelle version 0.69.2 a été mise en ligne, la seule « considérée comme propre » par Stéphane Robert. « Si vous avez installé Trivy entre le 21 et le 28 février – vérifiez l’intégrité de votre binaire. En cas de doute, supprimez et réinstallez la v0.69.2 », ajoute-t-il.

Attaques CI/CD : « Vous ne pourrez plus dire “je ne savais pas” »

Pour StepSecurity, cette attaque de « Hackerbot-Claw démontre que les attaques CI/CD ne sont plus simplement théoriques. Des bots autonomes recherchent et exploitent activement les erreurs de configuration des flux de travail en production ».

Stéphane Robert lance lui aussi un avertissement sur LinkedIn : « Alors messieurs les RSSI, mesdames les responsables sécurité : l’attaque sur Trivy n’est pas un cas isolé. C’est un rappel. Vos pipelines sont une surface d’attaque. Ils ont des permissions d’écriture sur vos repos, accèdent à des secrets, et s’exécutent à chaque push. Vous ne pourrez plus dire “je ne savais pas” ».

  •  

Lunettes connectées : des scènes d’intimité envoyées aux sous-traitants kényans de Meta

Oh wait...
Lunettes connectées : des scènes d’intimité envoyées aux sous-traitants kényans de Meta

Alors que Meta travaille toujours à l’intégration de la reconnaissance faciale pour ses lunettes connectées, des dataworkers kényans témoignent de visions de scènes intimes de porteurs de ces appareils : personnes nues sortant de la salle de bain, scènes de sexe ou informations bancaires… Un député suédois soulève devant la Commission européenne des questions d’incompatibilité avec le RGPD.

On sait que l’entreprise Sama fait partie des quelques sous-traitants africains des entreprises de la Silicon Valley depuis plusieurs années. Une enquête de deux médias suédois montre que des données des lunettes connectées Meta Ray-Ban sont aussi envoyées pour analyse aux dataworkers kényans de l’entreprise.

La question de l’utilisation des données sensibles par Meta est d’autant plus prégnante qu’on apprenait mi-février que l’entreprise avait toujours dans les cartons le projet d’ajouter à ses lunettes de la reconnaissance faciale via une fonction nommée « Name Tag ».

Svenska Gagbladet et Göteborgs-Posten sont allés à Nairobi rencontrer quelques-uns d’entre eux, qui ont témoigné sous anonymat. Leur rôle : annoter des données, ce qui veut dire, entre autres, encadrer des objets comme des lampes, des voitures ou des gens se trouvant sur l’image ; les étiqueter et décrire l’image globalement. Travail que nous avions déjà décrit en 2022 et qui ne disparait pas alors que les entreprises d’IA génératives décrivent leurs modèles comme toujours plus puissants.

L’intimité de l’entourage des utilisateurs révélée

S’il n’a pas disparu, il a évolué. Ici, les data workers décrivent l’intimité des utilisateurs des lunettes dans laquelle ils sont parfois plongés pendant leur travail. « J’ai vu une vidéo où un homme pose ses lunettes sur la table de chevet et quitte la pièce. Peu après, sa femme entre et change de vêtements », explique l’un d’entre eux à nos confrères et consœurs. Un autre décrit des scènes où les lunettes avaient filmé une personne nue dans ou sortant d’une salle de bain. Certains témoignent avoir vu des informations bancaires.

« Il y a aussi des scènes sexuelles filmées avec les lunettes connectées – quelqu’un les porte pendant qu’il fait l’amour. C’est pourquoi c’est un sujet extrêmement sensible. Il y a des caméras partout dans notre bureau, et il est interdit d’apporter son propre téléphone ou tout autre appareil capable d’enregistrer », ajoute l’un d’entre eux.

Des retranscriptions de discussions privées avec l’appareil

Les data workers expliquent aussi qu’ils ont à lire des transcriptions de discussions entre l’utilisateur et l’appareil pour vérifier que l’assistant IA de Meta répond correctement à ses questions. Ainsi, ils font parfois face à des interactions parlant de crimes, de manifestations ou bien de discussions intimes.

Selon d’anciens employés de Meta contactés par Svenska Gagbladet et Göteborgs-Posten, les données qui sont envoyées pour annotation doivent être floutées automatiquement. Mais des data workers expliquent que les systèmes d’anonymisation de Meta ne fonctionnent pas toujours et que les visages peuvent parfois être visibles.

Les conditions d’utilisation de Meta AI demandent de ne pas partager d’informations sensibles

Les deux médias suédois rappellent que, s’il est possible théoriquement d’allumer les lunettes connectées de Meta sans envoyer de données, tous les assistants d’IA (qui font tout leur intérêt) ne peuvent être utilisés qu’en envoyant des données.

Les conditions de service relatives à Meta AI (UE), qui s’appliquent pour ces lunettes connectées, expliquent que « dans certains cas, Meta examinera vos interactions avec les IA, y compris le contenu de vos conversations avec les IA ou des messages adressés aux IA, de façon automatisée ou manuelle (par un examinateur humain) ». Meta y ajoute : « Ne partagez pas d’informations que vous ne voulez pas que les IA utilisent et conservent, telles que des informations sur des sujets sensibles ».

Meta n’a pas répondu directement aux questions de nos confrères et consœurs, notamment sur la compatibilité de l’envoi de données très sensibles à des sous-traitants comme Sama au Kenya. L’entreprise a seulement expliqué comment les données étaient transférées des lunettes à l’application et les a renvoyés vers ses conditions d’utilisation et sa politique de confidentialité relatives à l’IA. Sama n’a pas répondu.

Sous anonymat, un responsable de Meta Europe leur a souligné que l’endroit où sont traitées les données est peu important tant que le pays a des règles équivalentes à celles appliquées en Europe. L’Union européenne a entamé en 2024 des discussions pour reconnaitre le système juridique kényan comme équivalent sur ces questions. Mais elles n’ont pas encore abouti.

Bientôt une enquête de la Commission européenne ?

Suite à cette enquête, le député européen du Parti social-démocrate suédois Adnan Dibrani a soulevé des questions concernant le sujet devant la Commission européenne, a appris Euractiv. En effet, il pose la question de la compatibilité des lunettes connectées de Meta avec le RGPD concernant « la licéité du traitement, le consentement, la transparence et les transferts de données à caractère personnel vers des pays tiers ». Et il demande à la commission ce qu’elle fait concrètement pour assurer que Meta respecte le règlement européen sur le sujet, poussant l’institution à ouvrir une enquête.

Adnan Dibrani en profite pour pointer les dangers des assouplissements du RGPD et des mesures de protection de la vie privée prévus dans l’Omnibus numérique.

À Euractiv, Meta affirme que les données sont « d’abord filtrées afin de protéger la vie privée des personnes » et qu’elle prend « très au sérieux » la protection des données personnelles et « perfectionne en permanence ses efforts et ses outils dans ce domaine ».

En attendant, les personnes en contact avec des porteurs de lunettes Meta peuvent installer Nearby Glasses. Cette application disponible sur Google Play ou sur GitHub avertit si des personnes à proximité portent des lunettes connectées. Elle fonctionne en scannant les signatures bluetooth des lunettes et envoie une notification lorsqu’elle en détecte. « Je considère cela comme une infime partie de la résistance contre les technologies de surveillance », explique à 404 Media son concepteur Yves Jeanrenaud. Mais il ajoute qu’ « il s’agit d’une solution technologique à un problème social exacerbé par la technologie. Je ne souhaite pas promouvoir le techno-solutionnisme ni donner aux gens un faux sentiment de sécurité. Cette solution reste imparfaite ».

  •  

Amazon promet 18 milliards d’euros d’investissements supplémentaires en Espagne

El ingenioso hidalgo
Amazon promet 18 milliards d’euros d’investissements supplémentaires en Espagne

Déjà très présent en Espagne, Amazon a annoncé lundi une nouvelle salve de projets qui représentent, en cumulé, 18 milliards d’euros d’investissements supplémentaires dans le pays. Dans les grandes plaines semi-désertiques d’Aragon, le géant américain évoque des datacenters, une usine d’assemblage de serveurs et un centre logistique. Un millième de son enveloppe est fléché vers le soutien à l’approvisionnement en eau dans la région.

Amazon double la mise en Espagne. Le géant américain a en effet profité du Mobile World Congress de Barcelone pour annoncer, lundi, une nouvelle salve d’investissements, à hauteur de 18 milliards d’euros, dans le pays. En 2024, Amazon s’était déjà engagé à y déployer 15,7 milliards d’euros sur dix ans. Ce second volet porte donc l’enveloppe totale promise à 33,7 milliards d’euros d’ici 2035.

C’est essentiellement en Aragón, cette communauté autonome du nord-est de la péninsule ibérique qui abrite déjà les datacenters espagnols d’Amazon Web Services (AWS), que devraient se concentrer ces investissements.

Deux usines et trois datacenters

Le groupe américain affirme que cette manne contribuera à hauteur de 31,7 milliards d’euros au PIB espagnol d’ici 2035, et générera l’équivalent de « 29 900 emplois directs, indirects et induits par an », aussi bien dans la construction de ses infrastructures que dans l’économie locale.

Si l’impact réel des datacenters en matière de création d’emploi reste sujet à débat, Amazon indique que la province espagnole d’Aragón a vocation à accueillir des installations industrielles, dédiées à l’assemblage et à la logistique des serveurs qui équipent ses infrastructures dans toute l’Europe.

« Le projet comprendra une usine de fabrication de serveurs pour l’assemblage et les tests, un entrepôt de production et de traitement des commandes, ainsi qu’une installation dédiée à la fabrication et à la réparation de serveurs d’IA et d’apprentissage automatique (ML), un élément clé de la stratégie d’économie circulaire d’Amazon », déclare le groupe dans un communiqué. Ces installations devraient représenter 1 800 emplois directs en vitesse de croisière.

À l’échelle de la région, Amazon affirme que ses projets induiront la création de 13 400 emplois aragonais, dont 4 200 emplois directs au sein de ses propres équipes. Le géant américain affirme que ses investissements devraient contribuer au PIB de l’Aragón à hauteur de 18,5 milliards d’euros d’ici 2035, soit une augmentation de plusieurs points du PIB annuel de la communauté autonome (41,8 milliards d’euros en 2023).

Outre ces usines d’assemblage et de reconditionnement de serveurs, c’est tout de même principalement dans les datacenters que devraient se concentrer les fonds promis. D’après le quotidien local El Heraldo de Aragón, Amazon prévoit en effet d’ajouter trois centres de données aux six que compte déjà la région de Saragosse, capitale de la communauté autonome.

Les projets d’Amazon sont soutenus par le président de la collectivité, le conservateur Jorge Azcón, réélu en février dernier et soutien affirmé du développement des infrastructures numériques, qu’il considère comme un « nouvel horizon économique ». El Mundo indique que l’administration aragonaise accélère les projets d’implantation de datacenters en leur octroyant le statut de projets d’intérêt général (Planes y Proyectos de Interés General de Aragón, ou PIGAS), qui simplifient grandement les formalités administratives associées.

Une contribution positive en eau à horizon 2030 ?

Cette simplification se fait-elle au prix de compromis sur les enjeux environnementaux et climatiques ? C’est la crainte exprimée par l’opposante socialiste Pilar Alegría, qui réclamait pendant sa campagne que les grands noms du numérique qui s’installent dans la communauté autonome soient frappés par une taxe de solidarité destinée aux populations locales, notamment pour compenser les risques soulevés en matière d’approvisionnement en énergie ou en eau.

Sur le volet énergétique, la majorité en place et Amazon rappellent d’une même voix que la province d’Aragón et ses grandes plaines désertiques sont un lieu propice au déploiement d’installations photovoltaïques. Amazon promet en la matière d’investir dans cent projets solaires et éoliens à l’échelle de l’Espagne, dont sept nouvelles fermes photovoltaïques. « En Aragón, les centres de données AWS compensent leur consommation d’électricité par de l’énergie 100 % renouvelable depuis leur ouverture en 2022 », affirme l’entreprise. Rappelons que la péninsule ibérique avait été frappée par une panne de courant de grande ampleur en avril 2025, dont la cause a été attribuée à un défaut des installations chargées de compenser ou réguler la tension sur le réseau.

Reste la question de l’eau, dans une zone où l’irrigation crée déjà des tensions et où les périodes de sécheresse sont parfois ponctuées par quelques épisodes d’inondations à grande échelle. Sur ce point, Amazon ne donne aucune indication précise quant à l’utilisation qui sera faite par ses infrastructures : fonctionneront-elles en circuit fermé (prélèvements marginaux une fois l’approvisionnement initial effectué) ou de façon ouverte, avec des pertes (et donc une consommation continue) à la clé ?

Dans sa communication, le groupe se contente de reprendre ses engagements globaux en matière d’eau, à savoir atteindre une contribution positive d’ici 2030. « Cela signifie que nous restituerons aux communautés et à l’environnement plus d’eau que nous n’en utilisons pour l’exploitation de nos centres de données. En 2024, AWS avait atteint 53 % de son objectif de bilan hydrique positif, contre 41 % en 2023 », explique-t-il.

En Aragón, cette ambition s’exprime par la participation à cinq projets hydriques, initialement annoncés en 2025. Ils concernent respectivement la détection des fuites sur le réseau d’eau potable, le réemploi de l’eau utilisée sur des parcelles agricoles voisines, la création d’un système visant à optimiser la gestion de l’eau à l’échelle de l’agglomération de Saragosse, la mise au point d’une IA destinée à l’irrigation agricole et la modernisation d’une conduite d’eau cruciale de la région. Ces cinq projets sont financés à hauteur de 17,2 millions d’euros, soit un millième de l’enveloppe globale évoquée lundi.

  •  

Motorola s’associe à GrapheneOS pour renforcer la sécurité de ses (futurs) smartphones

Les Pixels toujours dans la course
Motorola s’associe à GrapheneOS pour renforcer la sécurité de ses (futurs) smartphones

Motorola a été chercher GrapheneOS pour améliorer la sécurité de ses smartphones, mais aussi (et surtout) pour proposer officiellement ce système d’exploitation sécurisé avec certains de ses smartphones. Inutile de courir, aucun modèle n’est actuellement compatible, il faudra attendre 2027.

Pour le MWC de Barcelone, Motorola est « on fire » avec une dizaine de communiqués de presse sur la seule journée d’hier. Il y a évidemment des smartphones avec les Razr Fold et Edge 70 Fusion, des écouteurs sans fil Buds 2, mais surtout un « partenariat à long terme avec GrapheneOS », une alternative à Android de Google.

Motorola et GrapheneOS main dans la main

GrapheneOS mise sur la sécurité et n’était historiquement disponible que sur les smartphones Pixel de Google. La raison ? Ce sont les seuls terminaux laissant l’utilisateur reverrouiller complètement le bootloader avec des clés de chiffrement personnalisées. Depuis plusieurs mois, la rumeur courait d’un partenariat avec un fabricant de smartphones pour intégrer GrapheneOS, c’est donc Motorola.

Pour le moment ce sont seulement des annonces, avec rien de concret à se mettre sous la dent :

« Motorola inaugure une nouvelle ère de la sécurité des smartphones grâce à un partenariat à long terme avec la GrapheneOS Foundation, la principale organisation à but non lucratif spécialisée en sécurité mobile qui développe un système d’exploitation renforcé basé sur le projet Android Open Source. Ensemble, Motorola et GrapheneOS Foundation travailleront à renforcer la sécurité des smartphones et à collaborer sur de futurs appareils conçus avec la compatibilité GrapheneOS ».

De son côté, GrapheneOS se dit ravi de s’associer à Motorola afin de proposer son système d’exploitation « sur leur smartphone de nouvelle génération ». Les développeurs présentent ce partenariat comme une étape importante pour élargir la portée de GrapheneOS. Ils précisent que c’est Motorola qui les a contactés, afin de mettre en place ce partenariat et d’améliorer la sécurité de leurs smartphones.

« Ils vont fournir une prise en charge officielle de GrapheneOS et nous aider activement à assurer le support de leurs téléphones », ajoute le système d’exploitation. GrapheneOS en profite pour faire un appel du pied : « Les autres constructeurs devraient suivre leur exemple ». Les développeurs rappellent que « GrapheneOS étant un logiciel libre, ils n’avaient pas besoin de partenariat pour utiliser notre code ».

Les premiers smartphones Motorola avec GrapheneOS en 2027

Sur les réseaux sociaux, GrapheneOS donne un peu plus de détails sur les terminaux compatibles : « Il s’agira initialement des appareils phares de Motorola, mais cette technologie pourrait s’étendre à d’autres modèles par la suite. Prenons l’exemple des Motorola Signature (2026) et Motorola Razr Fold (2026), qui, pour la génération actuelle, ne répondent pas encore pleinement à nos besoins. Ce seront leurs successeurs ».

De manière générale, les smartphones « actuels, y compris ceux lancés cette année, ne répondent pas aux exigences. Seule la prochaine génération d’appareils est conçue pour répondre à tous nos besoins », affirme GrapheneOS. Un partenariat qui n’a donc pour le moment aucun fruit, il faudra attendre 2027.

GrapheneOS revient sur les différences entre son système d’exploitation et l’Android maison qui sera toujours proposé par Motorola : « Ce sera le même GrapheneOS que sur les Pixel. Il ne contiendra aucun bloatware. C’est un système d’exploitation totalement indépendant de leur propre système. Ils intégreront également certaines fonctionnalités et concepts de GrapheneOS à leur système d’exploitation principal, mais cela restera distinct de GrapheneOS ».

Android sur les Motorola devrait donc se renforcer au niveau sécurité, mais sans plus de précision. Attention, le cœur de l’annonce concerne l’amélioration des smartphones pour « assurer une prise en charge officielle de GrapheneOS ». Les améliorations de la version maison d’Android pour les Motorola font « l’objet d’un projet distinct », explique GrapheneOS sur Bluesky.

Les Pixel toujours supportés, GrapheneOS arrive sur le Pixel 10a

Sur X, le compte officiel de GrapheneOS précise que la prise en charge des terminaux Pixel de Google ne s’arrête pas avec ce partenariat : « Les Pixel répondent à nos exigences de sécurité et continueront d’être pris en charge. La compatibilité avec le Pixel 10a sera ajoutée prochainement ».

Ce n’est pas parce que les Pixels sont supportés que les applications Google sont présentes : « GrapheneOS n’inclura jamais ni les services Google Play ni une autre implémentation de services Google comme microG. Il est possible d’installer les services Play sous forme d’applications en mode bac à sable sans privilèges spéciaux via notre couche de compatibilité Google Play ».

Il y a quelques semaines, un article du Parisien avait, pour rappel, mis le feu aux poudres, accusant le système d’exploitation d’être une « botte secrète » pour les narcotrafiquants. GrapheneOS avait vivement réagi et retirait dans la foulée toutes ses ressources de France.

  •  

☕️ L’iPad Air passe à la puce M4, toujours à partir de 669 euros

Apple a procédé lundi au renouvellement annuel de sa tablette iPad Air, le modèle censé offrir le meilleur compromis entre portabilité et performances. L’édition 2026, toujours déclinée en versions 11 et 13 pouces, est identique en apparence à celle de l’iPad Air M3 lancée en 2025.

La seule nouveauté se situe sous le capot, avec le passage à une puce M4, déjà vue dans les MacBook Pro et l’iPad Pro l’an dernier. On retrouve donc ici la logique de gamme descendante d’Apple, où les produits phares de l’année N se retrouvent intégrés dans les produits plus abordables en année N+1.

Cette puce M4 devrait donc conférer un surcroît de performances à l’iPad Air, d’autant qu’elle se voit accompagnée de 12 Go de mémoire unifiée, contre 8 Go au sein de la puce M3 de la précédente génération. L’introduction des derniers coprocesseurs Apple (N1 et C1X) permet le passage au Wi-Fi 7 ainsi qu’au Bluetooth 6 et promet une connectivité améliorée sur les versions 5G.

iPad Air M4 – crédit Apple

Pour le reste (voir comparatif des spécifications), pas grand-chose à signaler, si ce n’est bien sûr la fourniture par défaut d’iPad OS 26. La tablette est toujours donnée pour 6,1 mm d’épaisseur dans sa version 11 pouces, pour un poids de 464 grammes (soit 4 grammes de plus que le modèle M3), avec une autonomie se montant, selon Apple, jusqu’à 10 heures « pour naviguer sur le Web en Wi‑Fi ou regarder des vidéos ».

Dotée d’un connecteur USB type-C, la tablette est toujours compatible avec les claviers physiques de la marque, ainsi qu’avec le stylet Apple Pencil Pro.

Côté prix, il faut compter 669 euros pour le modèle 11 pouces en Wi-Fi avec 128 Go de stockage, contre 869 euros pour l’équivalent en version 13 pouces. En versions Wi-Fi + Cellular (avec connectivité 5G donc via e-SIM), le prix passe à 839 euros pour la version 11 pouces 128 Go, et 1 039 euros pour le modèle 13 pouces.

Quatre coloris et quatre capacités sont proposés, jusqu’à 1 To. Dans sa configuration la plus haut de gamme (iPad Air 13 pouces 1 To Wi-Fi + Cellular), l’iPad Air atteint 1 669 euros.

  •  

Guerre en Iran : trois datacenters AWS touchés aux Émirats Arabes Unis et à Bahreïn

Les contingences physiques du nuage
Guerre en Iran : trois datacenters AWS touchés aux Émirats Arabes Unis et à Bahreïn

Amazon Web Services (AWS) signale que trois de ses datacenters du Moyen-Orient sont affectés par le conflit qui oppose Israël et les États-Unis à l’Iran. Deux de ses infrastructures situées aux Émirats Arabes Unis auraient été directement touchées, tandis qu’un site situé à Bahreïn a subi des dommages indirects. Amazon prévient que l’interruption de service associée est susceptible de se prolonger.

Le géant américain du cloud AWS fait partie des victimes collatérales de la réponse militaire de l’Iran à l’attaque lancée le 28 février dernier par les États-Unis et Israël. Via la page dédiée au statut de ses infrastructures, il a en effet signalé lundi avoir subi les conséquences des bombardements partis d’Iran au niveau de trois de ses sites, aux Émirats Arabes Unis et à Bahreïn.

Deux sites directement touchés, une victime collatérale

Amazon dispose de trois datacenters aux Émirats Arabes Unis. Deux d’entre eux (référencés comme mec1-az2 et mec1-az3 dans la nomenclature AWS) ont été directement touchés par des frappes de drones parties d’Iran, affirme l’entreprise sur la page « statut » de ses infrastructures.

Elle y décrit comment les premières perturbations sont survenues dans la nuit de dimanche à lundi, suite au déclenchement de la riposte iranienne contre les EAU. L’une de ses zones a d’abord été affectée par un problème d’alimentation électrique, avant que l’entreprise ne signale, quatre heures plus tard, avoir constaté que des objets avaient frappé le datacenter, entraînant un départ d’incendie.

« Les pompiers ont coupé l’alimentation électrique du bâtiment et des générateurs pendant l’intervention pour maîtriser l’incendie. Nous attendons toujours l’autorisation de rétablir le courant et, dès que ce sera fait, nous veillerons à rétablir l’alimentation et la connectivité en toute sécurité », décrivait alors AWS.

Quelques heures plus tard, bis repetita : un problème d’alimentation électrique, puis une interruption de service plus large, sont annoncés pour la deuxième zone concernée aux EAU. Dans un nouveau point d’étape, publié mardi 3 mars vers 2 heures du matin (heure de Paris), AWS confirme que les deux sites concernés ont bien été touchés directement par des tirs, et conseille à ses clients qui opèrent des services dans la région de basculer, dans la mesure du possible, vers d’autres infrastructures.

Par ricochet, la troisième zone dont dispose AWS aux EAU souffre en effet de problèmes de disponibilité, et la plupart des services courants sont signalés comme hors service ou fortement dégradés sur toute la « région » correspondant aux Émirats (ME-CENTRAL-1), mais aussi à celle, voisine, de Bahreïn (ME-SOUTH-1). Parmi les trois zones que compte cette dernière, un site a en effet lui aussi subi les conséquences des bombardements, sans avoir été directement visé : « une frappe de drone à proximité de l’une de nos installations a causé des dommages matériels à notre infrastructure », décrit ainsi l’entreprise.

Rétablissement progressif des services

Suite à ces incidents, Amazon décrit un double chantier de remise en état, aussi bien matériel que logiciel, sans pouvoir s’avancer quant à un horizon temporel de retour à la normale :

« Dans les deux régions, les clients constatent une augmentation des taux d’erreur et une disponibilité réduite pour certains services, notamment Amazon EC2, Amazon S3, Amazon DynamoDB, AWS Lambda, Amazon Kinesis, Amazon CloudWatch, Amazon RDS, ainsi que la console de gestion et l’interface de ligne de commande AWS. Nous mettons tout en œuvre pour rétablir la disponibilité complète du service dans les plus brefs délais, mais nous prévoyons que la reprise sera longue compte tenu de l’ampleur des dégâts matériels. »

L’entreprise indique privilégier le rétablissement de services clés tels que S3 ou DynamoDB, qui sous-tendent le fonctionnement de ses infrastructures, et promet ensuite de mettre l’accent sur les outils de migration et d’export, afin que les clients des zones concernées puissent transférer leurs données et leurs charges de travail vers des environnements fonctionnels.

Elle invite par ailleurs ses clients opérant dans la région à anticiper les conséquences potentielles du conflit :

« Nous recommandons aux clients dont les charges de travail s’exécutent au Moyen-Orient d’envisager dès maintenant de sauvegarder leurs données et, le cas échéant, de migrer leurs charges de travail vers d’autres régions AWS. Nous leur conseillons de mettre en œuvre leurs plans de reprise d’activité, de restaurer leurs données à partir de sauvegardes distantes stockées dans d’autres régions et de mettre à jour leurs applications afin de rediriger le trafic hors des régions affectées. »

Neuf zones et trois régions au Moyen-Orient

AWS dispose pour mémoire de trois « régions » au Moyen-Orient, avec une présence sous forme d’infrastructures physiques à Bahreïn depuis 2019, étendue aux Émirats Arabes Unis en 2022 et à Israël en 2023, tandis qu’un lancement a été annoncé pour 2026 en Arabie Saoudite (sans plus de précision). Chacun des trois pays déjà ouverts dispose de trois « zones de disponibilité » (un ou plusieurs centres de données à part entière dotés d’une alimentation redondante et d’une connectivité propre). Aux Émirats Arabes Unis, les trois zones d’AWS se répartissent entre Abu Dhabi et Dubaï.

AWS revendique trois régions et neuf zones au Moyen-Orient, auxquelles doit s’ajouter l’Arabie Saoudite – capture d’écran, source
  •  

Derrière la polémique entre Trump et Anthropic, les enjeux de l’usage militaire de l’IA

IA tensions
Derrière la polémique entre Trump et Anthropic, les enjeux de l’usage militaire de l’IA

Claude d’Anthropic a été utilisé par l’armée des États-Unis dans son attaque de l’Iran. Alors que le CEO de l’entreprise s’y oppose depuis quelques jours, le moment révèle à la fois le nouveau palier que l’industrie de l’IA a franchi dans le déploiement de ses technologies et la tentative de maîtrise du secteur par le gouvernement des États-Unis.

Ce 28 février, 500 sites iraniens étaient visés par les forces états-uniennes dans leur opération « Epic Fury ». L’attaque s’est notamment soldée par la mort de l’ayatollah Ali Khamenei et son responsable de la sécurité Ali Shamkhani. Pour la mener à bien, l’armée a notamment utilisé le modèle Claude d’Anthropic, selon le Washington Post et Axios.

Un détail qui pourrait paraître anecdotique, à l’heure où les robots conversationnels se déploient dans toutes les sphères de la société, s’il n’avait pas été précédé par une semaine d’échanges houleux et publics entre Dario Amodei, le CEO d’Anthropic, et le Pentagone.

En cause : Anthropic n’a « jamais soulevé d’objections à l’égard d’opérations militaires », indique son patron, mais dans certains cas, notamment la surveillance de masse à l’intérieur du pays et les armes totalement autonomes, la société estime « que l’IA peut nuire aux valeurs démocratiques plutôt que les défendre ». À ce titre, l’entreprise impose des restrictions dans ses conditions d’utilisation, restrictions qui s’imposent notamment à l’un de ses gros clients publics : l’armée.

Claude utilisé depuis 2024

C’est dans ce contexte que Pete Hegseth, secrétaire d’État à la Défense (renommé ministère de la Guerre) des États-Unis, a posé un ultimatum à l’entreprise : elle avait, en date du 25 février, trois jours pour modifier ses conditions d’utilisation. Le débat, en réalité, n’a pas débuté avec l’opération « Epic Fury » – au contraire, les premiers partenariats avec Palantir, AWS, les renseignements et la Défense états-unienne ont été rendus publics dès novembre 2024.

Elle a depuis construit les modèles « Claude gov », dédiés aux agences de renseignement. Plus récemment, l’armée états-unienne a recouru à Claude pour orchestrer la capture du président du Venezuela, Nicolas Maduro, début janvier.

En parallèle, l’entreprise a fait évoluer ses conditions d’utilisations pour y intégrer l’interdiction de « développer ou concevoir des armes », en septembre 2025. Son patron, lui, continuait de se placer comme il l’a fait depuis son départ d’OpenAI pour créer Anthropic : en défenseur d’une intelligence artificielle au service de l’intérêt général et d’un développement veillant à la « sécurité de l’IA ».

Sur son site web, Anthropic est ainsi décrite comme une société de recherche et de sécurité de l’IA, tandis que Dario Amodei a publiquement déclaré que ces technologies devaient rester l’apanage des démocraties (sans pour autant renoncer à d’éventuels financements venus de pays autoritaires), que les siennes resteraient sans publicité, et, donc, que certains usages de l’IA n’étaient pas avisés.

Recours aux LLM dans des systèmes d’aide aux décisions sensibles

Après l’ultimatum du 25 février, le chercheur et entrepreneur a repris ses négociations, en public comme en privé. Jusqu’au dernier moment, l’entreprise a cru pouvoir trouver un accord, rapporte the Atlantic. Et puis Donald Trump a ordonné à toutes ses administrations de cesser de recourir aux outils de la start-up. Pete Hegseth, lui, précisait qu’Anthropic fournirait encore ses services pendant « une période de six mois maximum pour assurer une transition fluide ».

Le lendemain, l’Iran était bombardé, et l’armée utilisait toujours les outils en question. D’après le Washington Post, ces derniers servent notamment à de l’évaluation et de l’identification de cibles et à simuler des scenarios de batailles.

Or, d’après le chercheur Kenneth Payne, qui a testé GPT-5.2, Claude Sonnet 4 et Gemini 3 Flash sur divers jeux de simulation de guerres, ces modèles ont bien plus rapidement tendance à formuler des propositions de recours à des armes nucléaires que ne le font classiquement les humains. Plusieurs spécialistes interviewés par New Scientist soulignent néanmoins que la mesure dans laquelle ces systèmes sont réellement déployés dans les processus militaires reste encore très incertaine.

L’un des enjeux de la séquence, relève néanmoins la directrice scientifique du AI Now Institute, Heidy Klaaf, est la levée d’un nouveau verrou dans l’utilisation de l’IA, que ce soit par les forces militaires ou par l’essentiel des constructeurs de ces technologies : celui de l’usage de grands modèles de langage dans des systèmes d’aides à la décision appuyés sur l’IA.

Que l’on requière, comme Anthropic le fait, plus ou moins de supervision humaine dans le déploiement de ce type de technologies, on se retrouve toujours avec des systèmes intégrés d’office aux outils d’aide à la décision, quand bien même leur propension aux erreurs (dites hallucinations) et aux générations totalement fallacieuses est largement établie. La tendance n’est même pas neuve : ce type d’outils a notamment été entrainé par l’armée israélienne en s’appuyant sur des heures de conversations obtenues par la surveillance de la population palestinienne.

Gouvernement des États-Unis vs « caprices idéologiques des géants de la tech »

À l’échelle des États-Unis, un autre enjeu relève de la tentative de reprise du pouvoir politique états-unien sur ses sociétés numériques. C’est du moins dans ces termes que l’a formulé Pete Hegseth, déclarant que « les soldats américains ne seront jamais pris en otage par les caprices idéologiques des géants de la tech » et menaçant de classer l’entreprise en « fournisseur à risque pour la sécurité nationale ».

Sur Truth, le président Trump dépeignait quant à lui Anthropic en entreprise « woke » et de « gauche radicale », autrement dit en opposant politique. Le 28 février, Dario Amodei a qualifié l’interdiction des outils d’Anthropic de « punitive » et indiqué qu’il la contesterait devant les tribunaux.

Trois heures après l’interdiction de ses outils dans l’administration états-unienne, son concurrent OpenAI déclarait avoir conclu son propre accord avec le ministère de la Défense. Le lendemain, son CEO Sam Altman a déclaré sur X que son entreprise appliquait néanmoins des restrictions similaires à celles d’Anthropic sur l’usage de ses technologies.

Dans le détail, l’entrepreneur indique être en discussion depuis plusieurs mois avec le ministère pour des usages « non classifiés » car les « travaux classifiés sont beaucoup plus complexes ». Anthropic, lui, avait accepté ce type de contrats. Admettant que le timing de sa signature de contrat « n’est pas beau », Sam Altman affirme que le but était de « désamorcer » la situation en proposant des outils d’IA au ministère de la Défense étasunienne.

Se positionnant en défenseur de l’industrie de l’IA comme de sa collaboration avec l’administration, Sam Altman déclare enfin la « tendance actuelle dangereuse pour Anthropic, pour une compétition saine et pour les États-Unis » et rend publique son inquiétude devant la possibilité qu’un de ses concurrents puisse être mis sur liste noire par le gouvernement.

  •  

☕️ À Austin, les robotaxis de Tesla enregistrent quatre fois plus d’accidents que les humains


Les humains conduisent mieux que les robotaxis de Tesla. C’est du moins ce que le dernier « rapport sur la sécurité des véhicules » soumis par la société aux autorités et obtenu par Electrek suggère. 
Sur le seul mois de janvier, plusieurs de ses véhicules utilisés à Austin ont reculé par erreur dans des objets fixes, heurté des arbres, des poteaux, d’autres véhicules.

Parmi les accidents : une collision à 27 km/h dans un objet fixe, alors que la voiture avançait en ligne droite, une autre avec un bus alors que le véhicule était arrêté, une collision avec un camion à 6 km/h, et deux cas de recul dans un poteau et un arbre à très faible vitesse.

Site de Tesla / Capture d’écran

Alors que toutes les autres marques du marché fournissent des informations sur les accidents constatés, Tesla les enregistre sous le sceau d’« informations commerciales confidentielles », ce qui empêche d’accéder au détail.

Néanmoins, en s’appuyant sur les données relevées à Austin depuis que la société y a lancé ses robotaxis, en juin 2025, et qui permettent de relever un total de 14 accidents, Electrek calcule une moyenne d’un accident tous les 91 000 kilomètres parcourus.

Rapporté aux données publiées par l’entreprise elle-même sur sa page dédiée à vanter son système « Full Self-Driving » (sous supervision), cela suggère que les véhicules semi-autonomes se retrouvent quatre fois plus souvent dans un accident que des voitures conduites par des humains. 


En effet, Tesla indique que le conducteur moyen de Tesla se retrouve dans une collision mineure tous les 368 000 km. Ramené aux distances parcourues par les robotaxis dans la région d’Austin, cela aurait dû se traduire par environ 4 accidents sur les neuf derniers mois.

L’Agence des États-Unis en charge de la sécurité routière (NHTSA) évalue de son côté que la population des États-Unis se retrouve dans un accident en moyenne une fois tous les 800 000 kilomètres. 
Rapporté à ce chiffre, le risque d’accident d’un robotaxi de Tesla serait huit fois plus élevé que celui des conducteurs américains.

À l’inverse, les véhicules totalement autonomes de Waymo déployés sur les routes américaines permettraient de réduire de 80 % les risques de collisions provoquant des blessures, et de 91 % ceux provoquant des blessures graves, selon la communication de l’entreprise.

  •  

☕️ Le CPU Intel Xeon 6+ (Clearwater Forest) avec 288 E-cores Darkmont arrivera ce semestre

Cela fait maintenant des mois qu’Intel parle de son futur Xeon 6 + avec 288 E-Cores. Il s’agit de cœurs CPU « efficaces » dans le sens efficacité énergétique, et donc moins performants que les P–Cores avec un P comme Performance. Les Xeon 6 actuels (Sierra Forest) ne dépassent pas les 144 cœurs (des E-Cores Crestmont). Une version avec 288 cœurs (une puce, deux dies) était annoncée, mais n’est jamais arrivée.

Quoi qu’il en soit, la relève est dans les starting-blocks avec les processeurs Xeon 6 + Clearwater Forest, qui monteront jusqu’à 288 E-Core Darkmont (et donc toujours autant de threads). Comme le rapporte Videocardz, Intel donne de plus amples détails à l’occasion du MWC de Barcelone.

Si cette annonce est faite durant le salon de Barcelone, c’est parce qu’Intel s’est trouvé un partenaire de choix – Ericsson, comme l’indique Computer Base – et en profite pour mettre en avant ses Xeon 6(+) pour les opérateurs de télécoms : « Basé sur le procédé Intel 18A et conçu pour une efficacité exceptionnelle, le Xeon 6 + offre aux opérateurs une plateforme qui fait évoluer les charges de travail de manière agressive, réduit la consommation d’énergie et permet des services réseau plus intelligents ».

Ils seront gravés avec la technologie maison 18A, celle utilisée pour la première fois sur les processeurs Core Ultra Series 3 (Panther Lake). Le TDP sera de 300 à 500 watts. Le processeur pourra être en configuration 1P ou 2P (un ou deux sockets sur la carte mère, soit jusqu’à 576 cœurs CPU), il prendra en charge 12 canaux de DDR5 à 8 000 MHz, 64 lignes CXL, 96 lignes PCIe, etc.

Au niveau de la conception, le processeur sera composé de douze tuiles, chacune avec six modules et quatre cœurs Darkmont par module, soit 288 cœurs : 4 (cœurs) x 6 (modules) x 12 (tuiles)= 288, le compte est bon.

Chaque module dispose de 4 Mo de mémoire cache L2, soit un total de 288 Mo de cache L2 sur la version 288 E-Cores, auxquels il faut ajouter 576 Mo de cache de dernier niveau (L3 ?). D’autres tuiles sont de la partie : trois de « Base » en Intel 3 (contrôleurs mémoire notamment) et deux autres « I/O » en Intel 7.

Les nouveaux Xeon 6 + sont attendus pour la première moitié de l’année 2026.

  •  

Les Ryzen 400 AI d’AMD débarquent sur socket AM5, avec un NPU de 50 TOPS

Y’a-t-il un Copilot dans ton PC ?
Les Ryzen 400 AI d’AMD débarquent sur socket AM5, avec un NPU de 50 TOPS

AMD vient d’annoncer trois processeurs, déclinés en douze références, pour les ordinateurs de bureau, avec les Ryzen AI 400 en AM5. Les CPU disposent d’un NPU de 50 TOPS leur permettant de prétendre à la certification Copilot+ PC de Microsoft. Ils seront disponibles à partir du deuxième trimestre 2026.

Au CES de Las Vegas en début d’année, AMD présentait ses « nouveautés », qui ressemblaient davantage à du réchauffé. Il y avait tout d’abord les Ryzen AI 400 pour les ordinateurs portables, mais qui n’étaient finalement que des Ryzen AI 300 avec parfois 100 MHz de plus en boost ou une partie graphique un peu améliorée.

Au MWC, des processeurs pour les ordinateurs de bureau

AMD profite du MWC de Barcelone (avec un M comme Mobile) pour annoncer de nouveaux Ryzen AI 400 pour… les ordinateurs de bureau. Trois processeurs sont disponibles, chacun décliné en quatre versions, soit douze références au total.

Nous avons les Ryzen AI 5 435G, AI 5 440G et AI 7 450G, avec un TDP de 64 watts. Viennent ensuite des versions « GE » avec un TDP de 35 watts. Nous sommes donc à six références. Doublez la mise avec des versions Pro de chaque processeur, nous sommes bien à 12. Comme leur nom l’indique, les déclinaisons « Pro » ont « des fonctions de sécurité et de gestion de niveau professionnel », mais exactement les mêmes caractéristiques techniques pour le reste.

Des cœurs Zen 5 exclusivement, contrairement au Ryzen AI 400 mobile

On pourrait penser que le Ryzen AI 5 435 (version mobile) et le Ryzen AI 5 435G ou 435GE sont très proches avec 6 cœurs et 12 threads dans les deux cas, mais ce n’est pas le cas. Il y a une différence fondamentale dans l’architecture des cœurs.

Le Ryzen AI 5 435 dispose de deux cœurs Zen 5 et de quatre cœurs Zen 5c allégés, tandis que les Ryzen AI 5 435G(E) ont six cœurs Zen 5. C’est la même chose sur le reste de la gamme, les nouveaux Ryzen AI 400 en AM5 proposent exclusivement des cœurs Zen 5. Pour rappel, sur mobile, AMD propose aussi des processeurs exclusivement en Zen 5 avec sa gamme Ryzen AI Max+.

NPU de 50 TOPS, mais iGPU 860M maximum

Quoi qu’il en soit, les nouveaux processeurs Ryzen AI 400 pour les ordinateurs de bureau disposent d’un NPU (architecture XDNA 2) de 50 TOPS, supérieur au seuil de 40 TOPS imposé par Microsoft pour obtenir la certification Copilot+ PC. Sur mobile, la puissance du NPU varie entre 50 et 60 TOPS.

Côté GPU intégré au processeur (iGPU), l’architecture RDNA 3.5 est dans tous les cas aux commandes. AMD assure par contre le service minimum avec une puce Radeon 860M pour le plus haut de gamme des processeurs et une Radeon 840M pour les deux autres. Sur les versions mobiles, AMD monte jusqu’à la Radeon 890M avec 16 cœurs GPU contre 8 pour la Radeon 860M.

AMD en garde certainement sous le pied pour de prochaines références à venir, avec douze cœurs PU par exemple. Selon l’entreprise, les premiers ordinateurs équipés des nouveaux processeurs arriveront au second trimestre de 2026.

  •  

Apple lance son iPhone 17e à partir de 719 euros

256 is the new 128
Apple lance son iPhone 17e à partir de 719 euros

Apple a ouvert le bal des nombreuses annonces produit attendues cette semaine avec le lancement de l’iPhone 17e, son nouveau modèle d’entrée de gamme, positionné à 719 euros en version 256 Go et 969 euros dans sa déclinaison 512 Go.

Apple n’a finalement pas attendu sa conférence de presse du 4 mars prochain pour dévoiler ses premières nouveautés. Alors que le Mobile World Congress ouvre ses portes à Barcelone, la firme de Cupertino a en effet ouvert lundi les précommandes pour le nouveau smartphone qui constitue désormais son entrée de gamme, l’iPhone 17e.

Les lignes sont similaires à celles de l’iPhone 16e présenté il y a tout juste un an, avec un écran 6,1 pouces (2 532 x 1 170 pixels à 460 ppp), un châssis décliné en trois coloris, et un unique capteur photo sur le dos de l’appareil. Comme sur l’iPhone 17, la face avant est désormais protégée par un revêtement Ceramic Shield 2 qui atténuerait les reflets et offrirait surtout « une résistance aux rayures 3x supé­rieure à celle de l’iPhone 16e ».

Une puce A19 amputée d’un cœur GPU

Doté d’un cadre en aluminium, l’iPhone 17e est animé par une puce A19, similaire donc à celle qui anime l’iPhone 17… à une petite différence près : la partie GPU, dotée de cinq cœurs sur l’A19 de l’iPhone 17, passe ici à seulement quatre cœurs, enrichis d’accélérateurs neuronaux qui complètent l’action du NPU 16 coeurs intégré.

Apple intègre également à son dernier né le modem C1X inauguré avec l’iPhone Air, qui promet des performances « deux fois plus rapides » que celles du modem C1 de l’iPhone 16e. Dans les faits, le nouveau venu (dépourvu de puce UWB) offre le même niveau de prise en charge que son prédécesseur, et reste donc cantonné au Wi-Fi 6 et au Bluetooth 5.3, là où l’iPhone 17 adopte Wi-Fi 7 et Bluetooth 6.

Sur la partie photo, pas de réel changement par rapport au 16e : Apple conserve son capteur principal à 48 mégapixels (avec vidéo jusqu’en 4K à 60 images par seconde), associé à un zoom optique x2, et positionne une caméra TrueDepth 12 mpx en face avant.

Recharge sans fil MagSafe jusqu’à 15W

Toujours compatible Apple Intelligence, l’iPhone 17e inaugure en revanche la recharge sans fil MagSafe jusqu’à 15W, là où le 16e se limitait à la recharge sans fil Qi jusqu’à 7,5W. Apple profite sans surprise de l’occasion pour sortir de nouveaux accessoires dédiés.

Côté mensurations, l’iPhone 17e est donné pour 7,8 mm d’épaisseur, et 170 grammes sur la balance. Des proportions identiques à celles du 16e (qui pèse trois grammes de moins) et légèrement mieux-disantes que celles de l’iPhone 17 (7,95 mm d’épaisseur, 177 grammes). Apple affiche une autonomie de 26 heures en lecture vidéo pour ce 17e.

Apple indique que les précommandes de l’iPhone 17e ouvriront mercredi 4 mars à 15h15, pour une disponibilité en magasin programmée au 11 mars. Trois coloris (rose, blanc, noir) et deux capacités sont proposés. Mise à prix : 719 euros pour la version 256 Go et 969 pour un modèle 512 Go. On pourra consulter la fiche produit, ou le module de comparaison de modèles pour affiner l’étude des caractéristiques.

  •  
❌