↩ Accueil

Vue lecture

ASUS ROG 20e anniversaire : campagne mondiale avec plus de 20 000 $ de lots

Vidéos, votes et lots premium à la clé, ASUS ROG orchestre une campagne mondiale pour ses 20 ans avec une dotation de plus de 20 000 $, ouverte à tous les fans.

ROG 20e anniversaire : calendrier, niveaux et dotations

La campagne de ce ASUS ROG 20e anniversaire se déroule du 2 mars au 13 avril. Les participants partagent du contenu et accumulent des points Gleam selon quatre profils : Level 1, Level 2, Level 3 et ROG mega fans. Une cagnotte de plus de 20 000 $ (environ 18 400 € à titre indicatif) est en jeu.

ROG mega fans : l’objectif est de publier une vidéo #ForThoseWhoDareROG20 sur le thème Dare-to-ROG. Dix vidéos présélectionnées par ASUS ROG seront soumises au vote communautaire. Les cinq meilleures remportent une carte mère édition spéciale 20e anniversaire. Les deux premières gagnent en plus une visite du HQ ASUS ROG et l’accès au Computex. Votes du 6 au 13 avril 2026. Résultats sur un score combiné : 50 % votes communauté, 50 % comité ROG.

Level 3 : créer une image ou photo pour les 20 ans de ROG, sans contrainte de format (photo avec produit ROG, image générée par IA, dessin du logo), publier sur les réseaux puis soumettre via Gleam pour tenter de gagner des produits.

Level 2 : générer une carte Avatar gamer 20th Anniversary via le filtre IA du site de campagne, partager avec le hashtag #20YearsofROG, puis soumettre sur Gleam.

Level 1 : se connecter ou s’inscrire comme membre ROG Elite depuis le site de campagne pour débloquer un code anniversaire ROG Elite échangeable contre des points ROG Elite.

ASUS ROG 20e anniversaire : Paliers de points Gleam et prix

En cumulant plus de points Gleam, les fans Level 1 à 3 déverrouillent de plus grands pools de prix, y compris le vote pour les vidéos Dare-to-ROG du 6 au 13 avril.

150 points : 5× ROG Raikiri II (manettes Xbox) ; 10× ROG Harpe Ace Mini (souris gaming).

170 points : 5× ROG Falchion Ace 75 HE (claviers).

200 points : 1× ROG Strix XG32UCWMG (moniteur gaming) ; 1× ROG Ally X (2025) RC73XA (console portable).

Un ASUS ROG 20e anniversaire calibré pour l’engagement communautaire

Avec un mix de création UGC, d’outils IA et de récompenses matérielles attractives, ROG maximise la portée sociale et remet les superfans au centre du dispositif. Le timing des votes, calé juste avant le Computex, sert aussi la visibilité des annonces à venir.

Source : TechPowerUp

  •  

DDR5 sous surveillance : des bots frappent les boutiques et checkent les stocks toutes les 6 secondes

La DDR5 attire désormais un nouvel adversaire pour les acheteurs : les bots. Selon DataDome, certains scripts automatisés frappent les pages produits jusqu’à six fois plus souvent que les visiteurs humains. Sur un seul cas, un bot a généré plus de 10 millions de requêtes pour surveiller les stocks avant d’être bloqué.

Bots DDR5, trafic artificiel et stocks sous pression

La pression autour de la mémoire DDR5 ne vient plus seulement de la demande. Selon une analyse de la société de cybersécurité DataDome, certains bots surveillent les fiches produits jusqu’à six fois plus souvent que les visiteurs humains. Sur un cas observé, un seul script automatisé aurait généré plus de 10 millions de requêtes pour suivre l’état des stocks.

Capture d'écran analyse d'intensité de scraping avec statistiques en bleu

Dans un échantillon d’une heure, environ 50 000 requêtes ont visé 91 listings différents, soit plus de 550 consultations par produit. Concrètement, cela correspond à un contrôle de disponibilité toutes les six secondes pour certains kits DDR5. Ce trafic automatisé présente des signatures typiques : absence de navigation classique, aucune interaction avec le panier et des sessions limitées à une seule page.

Le comportement « machine » était évident : paramètres de cache-busting, sessions mono-page, absence de recherche, de panier ou de navigation classique. Lorsqu’un composant cassait, le trafic chutait net, puis reprenait exactement au même niveau.

Graphique en barres vertes montrant l'activité de scraping par intervalle de temps

Au-delà des kits grand public : chaîne DDR5 et connectique visées

Le scraping ne se limite pas aux barrettes pour PC. DataDome cite des cibles dans la chaîne d’approvisionnement : vendeurs de mémoire industrielle et composants DDR5, y compris sockets et connecteurs liés aux formats SO-DIMM et CAMM2.

Cette pression automatisée accentue les tensions sur la visibilité des stocks et la disponibilité, dans un contexte où la demande IA aspire déjà une partie de la production DRAM.

Pour les détaillants et intégrateurs, la combinaison de checks ultra-fréquents et de ciblage de la connectique DDR5 complique la planification d’approvisionnement et favorise les achats opportunistes au détriment des cycles d’achat classiques des joueurs et des pros.

Source: Data DomeTom’s Hardware

  •  

MilimoVideo - Le studio de cinéma IA 100% local

MilimoVideo, c'est un studio de production vidéo boosté à l'IA qui tourne entièrement en local sur votre ordi... pas de cloud, juste votre GPU qui mouline quoi...

Et contrairement à ce que vous pensez (je suis dans vos têtes !! lol), ce n'est pas un énième générateur prompt-to-video à la Sora . Non, il s'agit d'un vrai NLE ... ou plutôt un éditeur non-linéaire pour ceux qui découvre, avec une timeline multi-pistes, du trim au frame près et tout le toutim, sauf que derrière, y'a 4 modèles d'IA qui bossent ensemble main dans la main.

Du côté moteur, on retrouve donc LTX-2, un transformer dual-stream de 19 milliards de paramètres pour la génération vidéo. Text-to-video, image-to-video, interpolation de keyframes... c'est le package complet. Ensuite, pour les images, c'est Flux 2 Klein avec l'IP-Adapter qui maintient la cohérence visuelle de vos personnages d'un plan à l'autre, comme ça, finis les visages de vos acteurs qui changent toutes les 3 secondes.

Et y'a aussi SAM 3 pour la segmentation. Vous cliquez sur un objet dans la vidéo, hop, il le détecte et le suit alors automatiquement d'un bout à l'autre du clip. Et pour finir, Gemma 3 se charge d'améliorer vos prompts pour que les résultats soient plus "cinématiques".

Le truc cool, c'est surtout le système de "Story Elements" je trouve car avec ça, vous pouvez créer des personnages, des lieux, des objets, et vous les invoquez ensuite dans vos prompts avec un @Personnage. Du coup, le studio injecte les bonnes références visuelles pour garder une cohérence sur tout votre projet. Faut voir ça un peu comme des variables de code, mais pour du cinéma.

Et si vos plans dépassent 121 frames, le "Quantum Alignment" découpe la génération en morceaux et raccorde ces segments sans couture visible. Voilà comment les transitions entre bouts générés sont gérées proprement sans que vous ayez à lever le petit doigt. Magique hein ?

Pour voir ce que ça donne en pratique, voilà une démo qui montre le workflow complet :

Côté retouche, y'a aussi de l'inpainting (vous peignez un masque sur la vidéo et Flux 2 remplace la zone) et du tracking d'objets bidirectionnel. C'est carrément pas mal pour un projet open source sous licence Apache 2.0, vous ne trouvez pas ?

Après côté config, faut quand même du matos. Avec une carte NVIDIA, comptez 16 Go de VRAM (recommandés) et sur Apple Silicon, c'est M1 Max ou mieux avec 32 Go de RAM. Oubliez votre PC à 500 balles, quoi car en dessous de ces specs ça ne marchera pas.

L'ensemble s'installe via un git clone classique, le backend tourne sur FastAPI avec SQLite, le frontend sur React 18... et le tout communique en temps réel via SSE. Après, si vous êtes plutôt à la recherche d'un éditeur vidéo classique dans le navigateur , c'est pas le même délire, car là avec MilimoVideo on est dans la génération pure.

Bref, si les workflows ComfyUI à rallonge vous filent des boutons, MilimoVideo mérite donc le coup d'oeil.

Merci à Lorenper pour le partage !

  •  

La chute définitive de YggTorrent ?

Yggtorrent : une chute sur fond de règlement de compte

Yggtorrent, ce géant du téléchargement (illégal) francophone, fonctionnait comme une immense bibliothèque numérique partagée. Vous y trouviez des films, des séries, des jeux et quasiment tout ce qui existe en format numérique. Ce service, basé sur le protocole BitTorrent, utilisait un système de traqueur privé pour coordonner les échanges entre pairs. Les caractéristiques techniques de la plateforme reposent sur une architecture de partage en « P2P », où chaque utilisateur devient un maillon de la chaîne. Bien que l’accès soit initialement gratuit, le maintien d’un ratio positif entre les données envoyées et reçues est obligatoire. Pour faciliter les choses, des jetons « Air » payants permettent d’augmenter artificiellement son crédit de téléchargement, évitant ainsi le bannissement automatique par le système. Le piratage et sabotage du site met en évidence que ce système de jetons était un business très occultes et très lucratif.

Toutes les données publiées par le pirate (sauf les utilisateurs)

Il est crucial de noter les éléments importants entourant cette affaire majeure concernant yggtorrent. Le piratage massif a consisté à pénétrer les serveurs, à récupérer l’intégralité de leur contenu et à finalement les vider de celui-ci pour forcer la fermeture du tracker. La situation reste floue, tandis que les utilisateurs cherchent désespérément des alternatives viables dans un paysage numérique de plus en plus surveillé par les instances de régulation.

Pour conclure, la chute brutale de yggtorrent marque un tournant majeur pour le paysage du piratage francophone. De prime abord, le service était utilisait par un nombre conséquent de personnes mais la sécurité a cruellement fait défaut au moment critique. En deuxième lieu, les risques juridiques et techniques pèsent désormais puisque le pirate a révélé les mécanismes financiers permettant aux propriétaires de YGG d’empocher plusieurs millions d’€ chaque année.

yggtorrent

Le message publié sur le site ce matin :

Fermeture définitive de YggTorrent

Pendant près de neuf ans, YggTorrent a fait partie de votre quotidien. Des films regardés en famille. Des séries lancées tard le soir. Des découvertes inattendues. Derrière chaque pseudo, il y avait des personnes. Des habitudes. Des moments simples. C’est cela qui a toujours donné du sens à cette aventure.

Le 3 mars 2026 au soir, un groupe malveillant a attaqué volontairement notre infrastructure. Un serveur secondaire de préproduction, distinct du système principal, a été compromis. Une escalade de privilèges a permis la suppression puis l’exfiltration de la base de données. Des portefeuilles crypto destinés uniquement au financement des serveurs, représentant plusieurs dizaines de milliers d’euros, ont également été dérobés (un détail que certains choisiront d’ignorer).

Les mots de passe présents dans la base étaient hachés et salés, ce qui signifie qu’ils n’étaient pas stockés en clair et qu’ils bénéficiaient d’une protection cryptographique empêchant leur lecture directe.

Ce n’était pas un malentendu.
Ce n’était pas une alerte éthique.
Ce n’était pas une tentative de dialogue.

C’était une attaque pensée, préparée et exécutée pour faire disparaître.

Certains éviteront de le formuler ainsi.
D’autres parleront d’« incident » ou de « fuite ».
Mais les faits sont là : il s’agit d’un acte volontaire, mené avec l’intention claire de nuire.

Oui, des sauvegardes existent.
Oui, une reconstruction serait techniquement possible.

Mais continuer dans un climat d’acharnement permanent ne correspond plus à l’esprit qui nous animait. Nous refusons de vous entraîner dans une succession d’attaques, de tensions et d’incertitudes. Revenir pour repartir sous la menace constante n’aurait plus de sens.

Cette décision est difficile. Elle marque la fin d’une époque. Mais elle est prise avec lucidité et responsabilité.

Votre sécurité avant tout

Par mesure de précaution, nous vous invitons fortement à :

  • Modifier immédiatement vos mots de passe, surtout si vous les utilisiez sur d’autres services
  • Changer l’adresse email associée à votre compte si elle est encore utilisée ailleurs
  • Activer l’authentification à deux facteurs lorsque cela est possible
  • Rester extrêmement vigilants face aux emails suspects, tentatives de phishing ou messages alarmistes
  • Ne faire confiance à aucun site prétendant être une continuité, une renaissance ou un clone de YggTorrent
  • Garder du recul face à d’éventuelles publications de données présentées comme authentiques, complètes ou « exclusives »

Dans les jours et semaines à venir, certaines personnes tenteront peut-être d’utiliser notre nom. D’autres diffuseront possiblement des informations incomplètes, exagérées ou manipulées. Ne cédez ni à la panique, ni à la précipitation. Protégez-vous avant tout.

Le paysage du divertissement a profondément évolué. L’offre légale est aujourd’hui plus accessible, plus riche et plus stable qu’elle ne l’a jamais été. Elle permet d’éviter les risques que des plateformes non officielles finissent presque toujours par rencontrer.

Une plateforme peut s’arrêter. Une communauté, elle, laisse des traces durables.

Merci pour ces neuf années. Merci pour votre confiance. Merci pour tous ces moments partagés.

L’histoire s’arrête ici.

L’équipe YggTorrent

La chute définitive de YggTorrent ? a lire sur Vonguru.

  •  

Faux repos GitHub - Pourquoi c'est un problème

Vous avez peut-être vu ça passer y'a pas longtemps, les scientifiques ne savent plus démêler le vrai du faux dans leurs propres publications. À NeurIPS 2025 , 100 citations hallucinées ont été retrouvées dans 51 papiers acceptés et à l' ICLR 2026, sur plus de 75 000 reviews analysées, 21% étaient entièrement générées par IA.

Bienvenue dans le monde du doute permanent !

Maintenant, si vous pensez que ça ne concerne que les chercheurs, détrompez-vous car de mon côté, ce que j'observe, c'est que les faux repos GitHub, c'est le même fléau côté tech, et surtout un vrai problème pour tous ceux qui relayent des projets open source comme moi.

Vous avez peut-être vu passer mon article d'hier sur WiFi DensePose , un projet à 25 000 étoiles sur Github qui promettait de détecter les postures humaines via le signal WiFi. Le code Python est détaillé, crédible en surface, il y a des tas d'issues ouvertes avec de vraies questions d'utilisateurs différents, des tas de pull requests parfaitement crédibles, une documentation hyper léchée... et le tout est adossé à un vrai papier de recherche de Carnegie Mellon .

Pour moi, ça avait l'air carrément sérieux ! Donc j'en ai fait un article.

Sauf qu'après coup, différentes personnes ont creusé plus profondément le code (Merci Nicolas), et ont trouvé des choses assez étranges partout dans le code. En fait, le truc générait des données aléatoires en se faisant passer pour du traitement de signal WiFi. C'est du vibe coding à l'état pur et quand des gens ont posé des questions dans les issues... ces dernières ont été vite supprimées. Faut dire que le piège était quasi parfait.

Et c'est tout le problème ! Car pour évaluer si un projet GitHub est légitime, je me base sur plusieurs signaux. Le code, les issues et les PRs, le nombre de stars, la reprise sur Reddit ou Hacker News, les commentaires, les articles dans la presse et quand je peux (et là c'était pas le cas car ça demande pas mal de matos que j'avais pas), je teste évidemment... Mais du coup, quand TOUS ces signaux sont fabriqués de toutes pièces, y'a plus aucun repère !

Parce que figurez-vous que les étoiles Github, ça s'achète (y'a des services entiers dédiés à ça), les issues se génèrent par IA, le code compile, les tests passent, le README est nickel, et le développeur a d'autres projets crédibles sur son profil. Vraiment tout est conçu pour que ça fasse parfaitement illusion.

Et comme ce sont souvent des projets émergents sur des technos de pointe, y'a pas grand monde qui a le matos ni le temps de vérifier par soi-même. Du coup, voilà comment moi et d'autres, on se retrouve à relayer des projets bidon sans le savoir. Et dire que j'étais à 2 doigts d'acheter le matos pour tenter l'aventure...

Les chercheurs se fient au peer review, aux citations, à la réputation du journal et moi c'est pareil avec les stars, les contributions, et le relai médiatique. Sauf que dans les deux cas, l'IA a rendu ces marqueurs de confiance complètement bidons. C'est pour ça que je fais ce parallèle car de mon point de vue, c'est le même combat.

Et le pire, c'est que c'est même pas du code malveillant. Y'a pas de backdoor, pas de malware planqué, pas de minage crypto en douce. C'est juste du code qui donne l'ILLUSION de fonctionner, ou plutôt, qui PRÉTEND fonctionner. Tout ça apparemment pour faire ce qu'on appelle du "portfolio padding"... c'est-à-dire gonfler son CV de développeur avec des faux projets open source à des milliers de stars pour impressionner les recruteurs.

Perso, j'avoue ça me dépasse.

Maintenant, comme c'est nouveau pour tout le monde, il va falloir apprendre à éviter de tomber dans le panneau. J'y ai réfléchi un peu et finalement, ça passe par une analyse plus approfondie du code et de l'historique du projet... On peut par exemple vérifier le git log parce qu'un projet à 25 000 étoiles et 3 commits en 2 semaines, c'est louche, donc méfiance. Et surtout, faut chercher des retours d'utilisation concrets et des issues techniques pointues. Après encore faut-il avoir des compétences techniques assez poussées (par exemple en traitement du signal) pour capter ce qui y est raconté... Pas simple hein ?

Faudrait peut-être que je me fasse un skill un peu poussé pour qu'une IA soit capable de faire ce taf chiant à ma place. Je vais y réfléchir.

Bref, on est tous dans la même galère, à devoir douter de tout ce qui brille sur GitHub et ailleurs et ça c'est bien emmerdant.

  •  

Des sous-traitants de Meta pourraient regarder vos vidéos captées avec les Ray-Ban Meta

Savez-vous que Meta a vendu 7 millions de paires de Ray-Ban Meta l'an dernier ? Le succès commercial est dingue, mais une enquête du quotidien suédois SVD montre que des sous-traitants basés au Kenya visionnent certaines vidéos privées, enregistrées par les lunettes pour entraîner l'IA de Meta. La CNIL a ouvert une enquête.

7 millions de paires en un an

EssilorLuxottica a confirmé le chiffre : plus de 7 millions de lunettes connectées vendues en 2025. C'est trois fois plus que les 2 millions écoulés entre le lancement fin 2023 et début 2025. La gamme s'est élargie avec les Oakley Meta et un modèle haut de gamme à 800 dollars, le Ray-Ban Meta Display, qui ajoute un affichage tête haute. Le marché des lunettes connectées n'est clairement plus un sujet de niche, et Meta domine le segment.

Des sous-traitants qui voient tout ?

Selon l'enquête du quotidien suédois SVD, des milliers d'annotateurs de données basés au Kenya, employés par le sous-traitant Sama pour le compte de Meta, visionnent les vidéos captées par les Ray-Ban Meta pour entraîner ses modèles d'IA. Et ce qu'ils voient n'est pas toujours anodin. Les travailleurs rapportent être tombés sur des scènes de salle de bain, des moments intimes et des cartes bancaires filmées par les utilisateurs. Un employé raconte qu'un utilisateur portait ses lunettes pendant que son partenaire se trouvait dans la salle de bain. Les conditions d'utilisation de Meta précisent que les interactions avec l'IA peuvent être "examinées de façon automatique ou manuelle", mais on doute que les utilisateurs aient bien compris ce que "manuelle" veut dire dans ce contexte.

La CNIL et la LED qui ne sert à rien

Côté protection des personnes filmées, la situation n'est pas mieux. Les Ray-Ban Meta ont une petite LED blanche qui s'allume pendant l'enregistrement, censée prévenir les gens autour. Sauf que certaines bidouilles permettent de la masquer, et la CNIL l'a bien noté. L'autorité française a ouvert une enquête après une plainte et considère que l'intrusion dans la vie privée est "possiblement énorme". Des créateurs de contenu ont d'ailleurs utilisé ces lunettes pour filmer des passants à leur insu, la BBC ayant documenté le cas de pick-up artists filmant des femmes dans des lieux publics. Et puisque filmer dans un espace public reste légal en France, les victimes n'ont quasiment aucun recours. Des étudiants de Harvard ont aussi démontré qu'on pouvait coupler les lunettes à un système de reconnaissance faciale pour identifier des inconnus dans la rue et accéder à leurs données personnelles.

On ne va pas se mentir, j'adore mes Ray-Ban Meta que j'utilise quotidiennement, mais 7 millions de caméras portées sur le nez de gens qui se baladent partout, avec des vidéos qui finissent chez des sous-traitants au Kenya, c'est quand même un problème. La politique de confidentialité de Meta reste volontairement floue sur ce qui est collecté et sur qui regarde ces images. La petite LED de sécurité qui se neutralise facilement n'aide en rien.

Sources : Clubic , UCStrategies

  •  

Le fisc sud-coréen publie carrément ses mots de passe crypto dans un communiqué de presse

Le Service national des impôts sud-coréen a publié par erreur les phrases de récupération de portefeuilles crypto saisis lors d'une opération contre la fraude fiscale. Résultat, un inconnu a siphonné l'équivalent de 4,8 millions de dollars en quelques heures. Les fonds ont finalement été restitués, mais l'affaire fait quand même pas mal jaser.

La photo de trop

Il y a quelques jours, le fisc sud-coréen annonçait avoir mené des perquisitions chez 124 contribuables soupçonnés de fraude fiscale, pour un butin total de 8,1 milliards de wons, soit environ 5,6 millions de dollars en espèces, montres et biens de luxe. Pour communiquer sur l'opération, l'agence a partagé des photos des saisies avec la presse. On y voyait des liasses de billets, des objets de valeur, et plusieurs portefeuilles Ledger posés bien en évidence sur une table.

Sauf que sur au moins deux d'entre eux, la seed phrase, cette suite de mots qui donne le contrôle total d'un portefeuille crypto, était parfaitement lisible. Un inconnu a repéré l'aubaine, déposé un peu d'Ethereum sur le wallet pour couvrir les frais de transaction, puis exécuté trois transferts pour vider les 4 millions de tokens Pre-Retogeum qui s'y trouvaient. Valeur estimée : 4,8 millions de dollars quand même.

Un vol pour rien

Une vingtaine d’heures plus tard, les tokens ont été renvoyés à leur portefeuille d'origine. Pourquoi ? Parce que le Pre-Retogeum est un token quasiment invendable. Le volume de transactions quotidien sur les plateformes décentralisées ne dépassait pas 332 dollars au moment des faits. Concrètement, le voleur s'est retrouvé avec des millions en poche, mais sans aucun acheteur potentiel en face. Et comme toutes les transactions sont enregistrées sur la blockchain, toute tentative de revente aurait été immédiatement grillée.

Pas une première

C'est le deuxième incident du genre en Corée du Sud. En 2021, la police de Séoul avait perdu 22 bitcoins, soit environ 1,5 million de dollars, après les avoir confiés à un prestataire externe. Le vice-Premier ministre a donc ordonné un examen en urgence de la façon dont les administrations gèrent les actifs numériques saisis. Le fisc a présenté ses excuses, expliquant avoir voulu "fournir une information plus vivante au public", et a promis de revoir ses procédures de A à Z. La police a quand même été chargée de retrouver l'auteur du vol.

Franchement, publier la seed phrase d'un portefeuille crypto dans un communiqué de presse, il fallait quand même oser. C'est la deuxième boulette crypto du gouvernement sud-coréen, et visiblement, la gestion des actifs numériques par les administrations publiques est un sujet complexe pour les autorités.

Sources : the register , coindesk

  •  

EA prépare un driver ARM64 pour Javelin Anticheat, en phase avec l’arrivée des NVIDIA N1

EA sécurise ses jeux côté Arm pendant que les puces NVIDIA N1 se rapprochent. Objectif : un anticheat noyau natif sur Windows on Arm, sans traduction x86.

ARM64 Windows, anticheat noyau et bascule vers le jeu sur Arm

EA recrute un « Senior Anti-Cheat Engineer, ARM64 » pour développer un driver natif ARM64 de Javelin Anticheat sous Windows. La fiche précise la gestion multi-cibles avec chargement conditionnel des versions d’anticheat selon le matériel, ainsi que la mise en place de pipelines d’intégration et de validation automatisés sur du hardware Arm.

EA driver ARM64 pour Javelin Anticheat fiche job

Le périmètre inclut une feuille de route vers d’autres OS et matériels, « tels que Linux et Proton ». Pour un composant noyau, cette compatibilité est l’un des verrous techniques majeurs, en particulier pour l’exécution de titres Windows sur des environnements hétérogènes.

Contexte matériel NVIDIA N1 et performances Cortex-X925

Côté silicium, le GB10 « Superchip » est déjà expédié dans le DGX Spark avec un CPU Arm 20 cœurs : 10 Cortex-X925 et 10 Cortex-A725. Une configuration proche, voire identique, est attendue sur la puce client NVIDIA N1.

Chips and Cheese a mesuré le Cortex-X925 tel qu’implémenté dans le GB10 : parité de performance en SPEC CPU2017 entier face à AMD Zen 5 et Intel Lion Cove, avec un avantage de Zen 5 en flottant. Le point bloquant reste toutefois l’émulation x86 pour les jeux Windows, d’où l’intérêt critique d’un anticheat noyau natif en ARM64.

Si les systèmes N1 et N1X arrivent rapidement, le travail ARM64 d’EA sur Javelin pourrait lever un obstacle pratique pour davantage de titres PC EA sur Windows on Arm. Le couplage performances CPU + support natif des composants sensibles au noyau conditionnera l’expérience réelle sur ces machines.

Source: EA JobsChips & Cheese

  •  

RayNeo Air 4 Pro HDR10 : lunettes AR avec édition Batman disponibles dès 27 février

HDR10, audio Bang & Olufsen et variantes Batman/Joker arrivent d’un coup sur des lunettes AR grand public. Conséquence directe : un positionnement média‑personal viewer assumé face aux écrans portables USB‑C.

RayNeo Air 4 Pro HDR10, audio B&O et 2D→3D

Présentées au MWC 2026 et disponibles depuis le 27 février 2026, les RayNeo Air 4 Pro se posent comme un « head‑mounted TV ». L’affichage HDR10, inédit sur des lunettes AR, promet des pics lumineux plus élevés, des noirs plus profonds et plus d’un milliard de couleurs.

Coffrets thématiques Batman avec accessoires et masques stylisés en arrière-plan.

Un SoC personnalisé Vision 4000 pilote l’upscaling HDR et la conversion temps réel des contenus 2D en 3D. Côté audio, quatre haut‑parleurs réglés avec Bang & Olufsen et des « tubes acoustiques » dirigent le son vers l’oreille en limitant les fuites.

Le châssis de 76 g adopte une ergonomie légère avec plaquettes nasales ajustables. La dalle simule un écran de 201 po vu à 6 m. La connexion passe par USB‑C DisplayPort Alt Mode, compatible smartphone, PC et Nintendo Switch 2 pour une utilisation nomade.

Éditions Batman et Joker, disponibilité et prix

La Batman Edition reprend l’intégralité des fonctions du modèle standard avec un design exclusif, un packaging dédié et un light shield spécifique. Ce dernier bloque la lumière ambiante et sert d’accessoire cosplay au quotidien.

Ensemble complet de coffrets Batman avec masques et accessoires sur fond noir.

Deux variantes thématiques sont proposées : Batman Edition et Joker Edition, chacune avec une identité visuelle propre. Les RayNeo Air 4 Pro et la série X3 sont exposées au MWC 2026 (Hall 2, stand 2M30, 2‑5 mars).

Commercialisation mondiale depuis le 27 février 2026 via Amazon et RayNeo.com. Tarifs : Standard Edition à 249 $ en early bird (MSRP 299 $, soit ~275–330 € à titre indicatif hors prix UE officiels), Batman Limited Edition à 269 $ early bird (MSRP 319 $). En Europe : 299 € early bird (MSRP 339 €). Royaume‑Uni : 249 £ early bird (MSRP 289 £). L’early bird s’applique le premier mois après lancement.

En visant la compatibilité USB‑C universelle et un rendu HDR10 assisté par un traitement dédié, RayNeo pousse le format lunettes‑écran vers un usage de remplacement ponctuel d’un moniteur portable. L’appui de Bang & Olufsen sur l’accordage audio crédibilise l’ensemble face aux viewers DP Alt Mode déjà établis, avec un différenciateur clair sur la conversion 2D→3D et les éditions sous licence.

Source : TechPowerUp

  •  

GTC 2026 : NVIDIA déroule sa pile IA complète à San Jose, 16–19 mars

San Jose s’apprête à basculer en campus IA : quatre jours, plus de 30 000 participants et une feuille de route technologique posée publiquement.

GTC 2026 : dates, format et keynote de Jensen Huang

La conférence GTC se tiendra du 16 au 19 mars à San Jose, Californie, avec plus de 30 000 inscrits issus de plus de 190 pays. Le 16 mars à 11 h PT, Jensen Huang donnera la keynote au SAP Center, retransmise en direct et à la demande sur nvidia.com, sans inscription requise.

Le discours couvrira l’empilement complet : calcul accéléré, “AI factories”, modèles ouverts, systèmes agents et “physical AI”, avec un cadrage sur l’année à venir.

Programme technique : 1 000+ sessions, cinq couches et ateliers pratiques

La GTC mettra en scène une approche en cinq couches : énergie, puces, infrastructure, modèles et applications. Plus de 1 000 sessions traiteront des AI factories, de l’inférence à grande échelle, de la robotique, des jumeaux numériques, du calcul scientifique, du quantique et des déploiements IA en entreprise.

Huang animera une discussion sur l’état de l’art des modèles ouverts “frontier” avec A16Z, AI2, AMP Coalition, Black Forest Labs, Cursor, Reflection AI et Thinking Machines Lab. Un préshow en ligne le 16 mars à 8 h PT abordera le computing accéléré au-delà de l’IA et la pile en cinq couches, avec Aravind Srinivas (Perplexity), Harrison Chase (LangChain), Deepak Pathak (Skild AI), Daniel Nadler (OpenEvidence) et Arthur Mensch (Mistral AI).

Le dispositif formation inclut neuf workshops d’une journée, plus de 60 labs pratiques et des certifications sur site. Des cours en autonomie, programmes pour enseignants et sessions 1:1 complètent l’offre.

Écosystème, startups et recherche

Plus de 240 startups NVIDIA Inception présenteront des solutions en physical AI, robotique, IA générative et applications entreprise, avec des sessions dédiées aux investisseurs, un “AI Day” avec des fonds de premier plan et des échanges NVentures.

Les tracks développeurs et recherche proposeront des deep dives techniques, des sessions CUDA et des ateliers d’infrastructure sur l’entraînement massif de modèles, l’optimisation de l’inférence et le déploiement multienvironnements (cloud, edge, souverain). Plus de 150 posters couvriront les innovations de modèles, la robotique, l’architecture systèmes et de nouveaux usages IA.

San Jose sera réparti sur 10 sites avec un Day and Night Market à Cesar Chavez Park. L’All-In Podcast enregistrera des interviews le mercredi 18 mars. La Student and Community Day du jeudi 19 mars ouvrira l’événement à tarif réduit. Une programmation virtuelle adaptée par région sera disponible via le catalogue en ligne.

Parmi les organisations présentes : Adobe, Agile Robots, Agility Robotics, AI2, AMP Coalition, Black Forest Labs, Canva, CodeRabbit, Cohere, Crusoe Energy Systems, Cursor, Dassault Systèmes, Decagon, General Motors, Genspark, Google DeepMind, Hugging Face, IBM Research, idealworks, Inception Labs, Johnson & Johnson, Kimi (Moonshot AI), L’Oréal, Lucid Motors, Magic AI, Meta, Microsoft, OpenAI, Poolside, Physical Intelligence, Reflection AI, Runway, Siemens, Shopify, Snap, Tesla, Together AI, Thinking Machines Lab, Uber Technologies, Universal Robots, le U.S. Department of Energy, Vention et d’autres.

NVIDIA tiendra une séance de Q&A investisseurs et analystes le mardi 17 mars à 9 h PT, en webcast sur investor.nvidia.com.

Pour les acteurs hardware et data center, l’axe “couches énergie/puces/infrastructure” pointe vers une montée en puissance coordonnée des capacités, avec un focus implicite sur l’efficacité énergétique et l’orchestration au niveau des AI factories. Les annonces côté modèles ouverts et systèmes agents donneront le ton pour les charges d’inférence 2026, avec des impacts directs sur le dimensionnement GPU, le réseau et le stockage.

Source : TechPowerUp

  •  

HBM4 NVIDIA : spécifications abaissées pour Vera Rubin VR200, bande passante à 20 TB/s

Objectif revu à la baisse et calendrier sous pression. Les GPU Vera Rubin VR200 ne viseront plus 22 TB/s mais environ 20 TB/s de bande passante HBM4, conséquence directe des limites actuelles chez les fournisseurs.

HBM4 NVIDIA : cibles abaissées et réalités industrielles

Selon des notes institutionnelles relayées par SemiAnalysis, NVIDIA assouplit les spécifications HBM4 pour Rubin. La cible initiale de 22 TB/s pour le système VR200 NVL72 laisserait place à des premiers lots autour de 20 TB/s, soit ~10 Gb/s par pin, SK hynix et Samsung peinant à tenir l’objectif maximal.

Carte mère HBM4 avec double modules de mémoire, tenue par une personne

Historique récent : en mars 2025, la cible système était de 13 TB/s, relevée à 20,5 TB/s en septembre, puis confirmée à 22 TB/s au CES 2026. Face aux 19,6 TB/s de l’Instinct MI455X d’AMD, NVIDIA avait compensé via une DRAM plus rapide et des interconnexions optimisées entre CPU, GPU et le châssis. Les livraisons initiales VR200 devraient néanmoins atterrir à ~20 TB/s pour l’ensemble du système.

Fourniture HBM4 : SK hynix en tête, Samsung en appui

Le split d’approvisionnement HBM4 pour VR200 NVL72 s’orienterait à 70 % pour SK hynix et 30 % pour Samsung. Micron sortirait de l’équation HBM4 et se repositionnerait sur la LPDDR5X des CPU « Vera », jusqu’à 1,5 TB par système, afin de compenser l’absence sur HBM4.

Cette inflexion de spécifications traduit surtout un lissage du ramp-up HBM4 : NVIDIA ancre la plateforme à un palier réaliste de ~20 TB/s à court terme, tout en gardant un headroom vers 22 TB/s lorsque les débits par pin et les rendements packaging HBM4 suivront chez SK hynix et Samsung.

Source : TechPowerUp

  •  

MSI RTX 5090D v2 Lightning : édition Chine 24 Go GDDR7, 575 W, AIO et série limitée

Édition Chinoise, refroidissement AIO et 24 Go de GDDR7 pour un TGP de 575 W. Le tout sur une série limitée qui risque de filer vite.

MSI RTX 5090D v2 Lightning : spécifications et positionnement

Une RTX 5090D v2 Lightning est apparue sur le marché chinois via un utilisateur Bilibili (Hardware Patrick Star). Ce modèle exclusif s’appuie sur le GPU GB202 en architecture Blackwell avec 21 760 cœurs CUDA et un TGP de 575 W, couplé à un AIO pour tenir les fréquences élevées.

Unboxing de la carte graphique MSI RTX 5090D v2 Lightning avec packaging détaillé

La mémoire passe à 24 Go de GDDR7 sur bus 384-bit, contre 32 Go et 512-bit auparavant. MSI évoque une limite de 1 300 unités pour la GeForce RTX 5090D Lightning ; cette variante dédiée à la Chine étant considérée comme une carte distincte, il est plausible qu’elle dispose elle aussi de 1 300 exemplaires. Un exemplaire vu porte le SKU n°909, signe que le reste circule déjà en retail.

Performances attendues et contexte

Sur la RTX 5090 Lightning « classique », nos confrères ont mesuré jusqu’à 1 000 W via un BIOS OC et une moyenne à 3 218 MHz grâce au watercooling. La RTX 5090D v2 Lightning pourrait approcher ces comportements, mais les tests indépendants devraient surtout provenir de la scène chinoise.

EXPreview rapporte des écarts très faibles en jeu entre RTX 5090D et 5090D v2, souvent dans la marge de 1 à 2 %, y compris en 4K. En IA et inférence, la réduction de VRAM entraîne des baisses à un chiffre voire bas double chiffre selon les modèles utilisés, là où la capacité mémoire prime.

La segmentation Chine avec 24 Go et bus 384-bit cible le gaming extrême tout en rognant sur les charges IA lourdes. Pour les joueurs 4K, l’impact restera minime ; pour la création et l’IA locale, les 32 Go conservent un avantage pratique non négligeable.

Source : TechPowerUp

  •  

Seagate Mozaic 4+ : disques durs HAMR jusqu’à 44 To validés chez deux hyperscalers

44 To par disque dur qui partent déjà en volume chez deux géants du cloud, et une trajectoire annoncée vers 10 To par plateau. Le stockage mécanique n’a pas dit son dernier mot.

Seagate Mozaic 4+ : HAMR à l’échelle, jusqu’à 44 To

Seagate valide sa plateforme Mozaic 4+ basée sur le HAMR en production chez deux hyperscalers, avec des capacités jusqu’à 44 To. Des qualifications supplémentaires sont en cours chez d’autres clients, signe d’un déploiement massif en environnements hyperscale.

Disque dur interne Seagate Exos Mozaic avec logo et design noir et vert

La feuille de route annonce une montée de 4+ To par disque aujourd’hui vers 10 To par disque, ce qui ouvre la voie à des disques durs jusqu’à 100 To. La plateforme s’appuie sur une nouvelle suspension et un SoC renforcé pour un enregistrement plus précis à plus haute densité, tout en conservant une fiabilité de niveau entreprise.

Photonique intégrée et gains d’efficacité

Seagate conçoit et fabrique en interne sa technologie laser HAMR, fruit d’années d’ingénierie nanophotonique. Cette intégration verticale vise le contrôle du rendement, de la fiabilité et de la résilience de la supply chain, avec des qualifications plus rapides et une économie de production stabilisée.

Pour les datacenters IA, Mozaic 4+ augmente la capacité par rack et par watt. À échelle exaoctet, Seagate revendique environ 47 % d’efficacité d’infrastructure en plus face à des déploiements 30 To, environ 100 ft² de surface en moins et près de 0,8 M kWh/an économisés.

Disponibilité et perspectives

Les disques Mozaic 4+ jusqu’à 44 To sont expédiés en volume à deux fournisseurs cloud majeurs. Une disponibilité élargie est prévue au fur et à mesure de la montée en production.

La montée en densité sans rupture d’architecture réduit le coût total de possession pour les charges massives d’archivage, de réactivation de données et d’entraînement IA. Si la cible des 10 To par plateau est tenue, la fenêtre vers 100 To mécaniques crédibilise une feuille de route HDD durable face à la pression NAND sur le coût par téraoctet.

Source : TechPowerUp

  •  

NAND Flash : revenus en hausse de 23,8 % au T4 2025, l’IA dope les SSD serveur

Des SSD d’entreprise arrachés par les déploiements IA, des HDD en rupture… et une addition salée pour tout le monde. La chaîne NAND encaisse, les prix montent, les revenus suivent.

NAND Flash : la demande IA fait sauter les compteurs

TrendForce chiffre les revenus consolidés des cinq premiers fournisseurs NAND à 21,17 milliards $ au T4 2025, en hausse de 23,8 % séquentiel. Le moteur principal vient des SSD d’entreprise pour serveurs IA, notamment chez les CSP nord-américains, tandis que la pénurie de HDD et des délais étirés ont détourné des commandes vers le NAND, resserrant davantage l’offre.

Tableau montrant le classement des fournisseurs de NAND Flash par revenus et part de marché.

Pour le T1 2026, TrendForce anticipe une hausse de prix NAND de 85–90 % QoQ, avec un chiffre d’affaires sectoriel encore en expansion. L’aspiration côté data centers crée un déséquilibre persistant qui alimente le pricing power des fournisseurs.

Cartographie fournisseurs et dynamique produits

Samsung reste numéro 1 avec 6,6 milliards $ (+10 % QoQ) et 28 % de part, mais recule en part de marché. Les ASP progressent nettement, alors que les bits expédiés baissent séquentiellement, impactés par un effet de base élevé au trimestre précédent et des pertes liées aux transitions de procédés.

SK Group (SK hynix + Solidigm) signe la plus forte croissance : ~5,21 milliards $ (+47,8 % QoQ) et 22,1 % de part, prenant solidement la 2e place. La demande mobile et les SSD d’entreprise portent les volumes.

Kioxia se classe 3e avec 3,31 milliards $ (+16,5 % QoQ). Chiffre d’affaires et bits expédiés atteignent des pics trimestriels historiques au T4 2025.

Micron occupe la 4e place, tout près des 3,03 milliards $ (+24,8 % QoQ). Le groupe étend la production QLC et accélère les expéditions en G9 NAND, de bon augure pour la croissance de bits en 2026.

Sandisk (Western Digital) ferme le top 5 avec ~3,03 milliards $ (+31,1 % QoQ). Profitant de la tension sur l’offre, le fournisseur pousse agressivement sur le segment serveur, traditionnellement plus faible, et voit son activité data center bondir.

Priorité aux SSD QLC haute capacité pour l’IA

Face à une capacité de production limitée à court terme et une demande IA en forte pente, les fournisseurs accélèrent les migrations technologiques et réorientent les efforts vers des SSD QLC d’entreprise à très forte densité, avec des modèles 122 To et 245 To cités. L’allocation privilégie le serveur, ce qui tend encore l’offre sur les produits grand public.

Si cette trajectoire se prolonge en 2026, les acteurs PC et gaming pourraient subir un renchérissement durable des SSD grand public, le segment data center absorbant l’essentiel des wafers et des nœuds avancés. Les intégrateurs auront tout intérêt à verrouiller tôt leurs approvisionnements, surtout sur les capacités élevées.

Source : TechPowerUp

  •  

HBM4E : Samsung revoit l’alimentation pour -97 % de défauts et -41 % d’IR drop

Des piles HBM plus rapides imposent une alimentation irréprochable, sinon la vitesse se paye en chauffe et en pertes. Samsung pousse le curseur avec HBM4E en retouchant en profondeur son réseau de puissance.

HBM4E : segmentation de la PDN et gains mesurés

Après avoir livré son premier HBM4 commercial à 11,7 Gbps soutenus avec une marge jusqu’à 13 Gbps il y a deux semaines, Samsung prépare HBM4E avec une densité de bumps en hausse : de 13 682 à 14 457 points d’alimentation dans la même emprise. Résultat, la densité de courant et la résistance augmentent, aggravant l’IR drop et l’échauffement en boucle.

Diagramme HBM et C4 avec annotations techniques en coréen.

Le MET4 central du die de base, auparavant organisé en larges mailles proches de l’interposeur, est scindé en quatre blocs plus petits. Les couches supérieures sont à leur tour fragmentées pour réduire la congestion et raccourcir les parcours. Samsung annonce -97 % de défauts métalliques par rapport à HBM4, et une amélioration de 41 % de l’IR drop, offrant plus de marge de tension pour la fréquence et la fiabilité.

Impact sur l’intégration et la tenue en fréquence

À câblage identique, la segmentation réduit les goulets du réseau d’alimentation et l’échauffement local, critique avec des fils plus fins et plus denses. La mécanique est simple : chemins plus courts, résistances moindres, chutes de tension contenues, et moins de défauts métal lors de la fabrication.

Images de dies brûlés avec annotations techniques en coréen.

Séparer HBM et GPU : pistes cuivre et optique

Samsung étudie la séparation physique HBM–GPU. Des interconnexions photoniques à débits de l’ordre du térabit par seconde, environ 1 000× plus rapides que le cuivre, visent à compenser la distance. Le constructeur évoque aussi des progrès de routage substrat pouvant placer HBM et GPU à plus de 5 cm, aidant la gestion thermique des modules denses.

Schéma de réorganisation PDN HBM4E avec comparaisons en coréen.

Si ces liaisons gardent une latence et une efficacité énergétique maîtrisées, l’empilement mémoire pourrait s’affranchir d’un packaging 2.5D/3D ultra contraint, avec des bénéfices directs sur les rendements, la dissipation et le binning des accélérateurs IA.

Comparaison du PDN initial et optimisé HBM4E avec carte IR-drop.
Schéma de connexion GPU et HBM avec distances et annotations en coréen.

Le découplage PDN côté HBM4E est une réponse pragmatique aux limites électriques actuelles, avec des chiffres solides à la clé. La voie d’une désagrégation HBM–GPU par l’optique, si elle passe l’épreuve industrielle, redistribuerait les contraintes de packaging et thermiques des accélérateurs IA de prochaine génération.

A lire : Samsung HBM4e vise 13 Gbps/pin et 3,25 To/s, production attendue fin 2025

Source : TechPowerUp

  •  
❌