↩ Accueil

Vue normale

Reçu aujourd’hui — 4 mars 2026 1.2 🖥️ Tech. Autres sites

Steam Machine en cause : Sony réduirait les ports PC de ses exclusivités en 2026

Par : Wael.K
4 mars 2026 à 12:08

Et si la Steam Machine redevenait une menace sérieuse pour les consoles ? Selon Mike Ybarra, ancien président de Blizzard, Sony pourrait revoir sa stratégie et réduire ses portages PC afin de protéger l’écosystème PlayStation. Avec l’arrivée attendue de machines tierces sous SteamOS capables d’emmener la bibliothèque Steam dans le salon, Valve commencerait à apparaître comme un concurrent direct des consoles traditionnelles.

Pour Sony, limiter la présence de ses exclusivités sur Steam serait alors un moyen simple de préserver l’attractivité de la PlayStation, au moment où Valve tente de transformer Steam en véritable plateforme console.

Steam Machine et pression concurrentielle dans le salon

Des rumeurs indiquent une réduction des portages PC de jeux first-party Sony dès 2026, en particulier pour les titres solo. Mike Ybarra, ex-président de Blizzard Entertainment, a réagi dans un post récent sur X en validant cette orientation possible et en désignant la Steam Machine de Valve comme un facteur clé.

Tweet de Mike Ybarra discutant de Steam Machine et de la concurrence avec Valve

Selon lui, les constructeurs de consoles considèrent désormais Valve comme un concurrent majeur dans le salon, notamment avec l’arrivée attendue de variantes tierces sous SteamOS. Il soutient que Steam, et par extension la Steam Machine, dispose de la base de joueurs et de la ludothèque les plus vastes face aux trois acteurs consoles du salon, rendant cruciale la stratégie d’exclusivités solides.

Ybarra souligne aussi l’indépendance de Valve, société privée, qui lui offrirait davantage de latitude stratégique que Sony, soumis à ses actionnaires. Du point de vue de Sony, réduire les ports PC reviendrait mécaniquement à diminuer l’attractivité du catalogue Steam côté salon, un levier simple pour protéger la plate-forme PlayStation.

Secousses chez Xbox et arbitrage business

L’exécutif évoque également la récente réorganisation chez Xbox comme « dernier clou dans le cercueil », renforçant la pertinence de la posture défensive de Sony. Par ailleurs, les ports PC ne constitueraient pas, à ce stade, un relais de revenus majeur pour Sony, ce qui réduit le risque d’un recentrage sur l’exclusivité console.

Si cette orientation se confirme, l’impact immédiat se verra surtout sur les sorties solo first-party qui n’arriveraient plus, ou plus systématiquement, sur Steam. Côté joueurs PC, l’équation basculerait vers l’achat d’une console PlayStation ou l’attente prolongée d’éventuelles fenêtres tardives.

Pour le marché, l’arrivée de matériels SteamOS tiers dans le salon, adossés à l’inertie de Steam, pousse Sony à verrouiller son contenu. L’efficacité de cette stratégie dépendra de la capacité de Valve à catalyser une offre hardware cohérente et d’un calendrier de blockbusters first-party PlayStation suffisamment denses pour justifier ce resserrement.

Lire : Sony PC ports : vers un retrait des titres solo phares au profit du live-service

Source : TechPowerUp

ASRock corrige les problèmes de démarrage du Ryzen 5 9600X et améliore la stabilité du Ryzen 7 9850X3D avec son nouveau BIOS

4 mars 2026 à 12:16

Le nouveau BIOS d’ASRock intégrant le microcode AGESA 1.3.0.0a d’AMD commence à produire des effets concrets sur la plateforme AM5. Un processeur AMD Ryzen 5 9600X souffrant de problèmes intermittents de démarrage sur certaines cartes mères ASRock retrouve un fonctionnement normal après mise à jour et flashage du BIOS. De son côté, le Ryzen 7 […]

L’article ASRock corrige les problèmes de démarrage du Ryzen 5 9600X et améliore la stabilité du Ryzen 7 9850X3D avec son nouveau BIOS est apparu en premier sur HardwareCooking.

ASUS ROG 20e anniversaire : campagne mondiale avec plus de 20 000 $ de lots

Par : Arnaud.O
4 mars 2026 à 10:40

Vidéos, votes et lots premium à la clé, ASUS ROG orchestre une campagne mondiale pour ses 20 ans avec une dotation de plus de 20 000 $, ouverte à tous les fans.

ROG 20e anniversaire : calendrier, niveaux et dotations

La campagne de ce ASUS ROG 20e anniversaire se déroule du 2 mars au 13 avril. Les participants partagent du contenu et accumulent des points Gleam selon quatre profils : Level 1, Level 2, Level 3 et ROG mega fans. Une cagnotte de plus de 20 000 $ (environ 18 400 € à titre indicatif) est en jeu.

ROG mega fans : l’objectif est de publier une vidéo #ForThoseWhoDareROG20 sur le thème Dare-to-ROG. Dix vidéos présélectionnées par ASUS ROG seront soumises au vote communautaire. Les cinq meilleures remportent une carte mère édition spéciale 20e anniversaire. Les deux premières gagnent en plus une visite du HQ ASUS ROG et l’accès au Computex. Votes du 6 au 13 avril 2026. Résultats sur un score combiné : 50 % votes communauté, 50 % comité ROG.

Level 3 : créer une image ou photo pour les 20 ans de ROG, sans contrainte de format (photo avec produit ROG, image générée par IA, dessin du logo), publier sur les réseaux puis soumettre via Gleam pour tenter de gagner des produits.

Level 2 : générer une carte Avatar gamer 20th Anniversary via le filtre IA du site de campagne, partager avec le hashtag #20YearsofROG, puis soumettre sur Gleam.

Level 1 : se connecter ou s’inscrire comme membre ROG Elite depuis le site de campagne pour débloquer un code anniversaire ROG Elite échangeable contre des points ROG Elite.

ASUS ROG 20e anniversaire : Paliers de points Gleam et prix

En cumulant plus de points Gleam, les fans Level 1 à 3 déverrouillent de plus grands pools de prix, y compris le vote pour les vidéos Dare-to-ROG du 6 au 13 avril.

150 points : 5× ROG Raikiri II (manettes Xbox) ; 10× ROG Harpe Ace Mini (souris gaming).

170 points : 5× ROG Falchion Ace 75 HE (claviers).

200 points : 1× ROG Strix XG32UCWMG (moniteur gaming) ; 1× ROG Ally X (2025) RC73XA (console portable).

Un ASUS ROG 20e anniversaire calibré pour l’engagement communautaire

Avec un mix de création UGC, d’outils IA et de récompenses matérielles attractives, ROG maximise la portée sociale et remet les superfans au centre du dispositif. Le timing des votes, calé juste avant le Computex, sert aussi la visibilité des annonces à venir.

Source : TechPowerUp

DDR5 sous surveillance : des bots frappent les boutiques et checkent les stocks toutes les 6 secondes

Par : Wael.K
4 mars 2026 à 10:31

La DDR5 attire désormais un nouvel adversaire pour les acheteurs : les bots. Selon DataDome, certains scripts automatisés frappent les pages produits jusqu’à six fois plus souvent que les visiteurs humains. Sur un seul cas, un bot a généré plus de 10 millions de requêtes pour surveiller les stocks avant d’être bloqué.

Bots DDR5, trafic artificiel et stocks sous pression

La pression autour de la mémoire DDR5 ne vient plus seulement de la demande. Selon une analyse de la société de cybersécurité DataDome, certains bots surveillent les fiches produits jusqu’à six fois plus souvent que les visiteurs humains. Sur un cas observé, un seul script automatisé aurait généré plus de 10 millions de requêtes pour suivre l’état des stocks.

Capture d'écran analyse d'intensité de scraping avec statistiques en bleu

Dans un échantillon d’une heure, environ 50 000 requêtes ont visé 91 listings différents, soit plus de 550 consultations par produit. Concrètement, cela correspond à un contrôle de disponibilité toutes les six secondes pour certains kits DDR5. Ce trafic automatisé présente des signatures typiques : absence de navigation classique, aucune interaction avec le panier et des sessions limitées à une seule page.

Le comportement « machine » était évident : paramètres de cache-busting, sessions mono-page, absence de recherche, de panier ou de navigation classique. Lorsqu’un composant cassait, le trafic chutait net, puis reprenait exactement au même niveau.

Graphique en barres vertes montrant l'activité de scraping par intervalle de temps

Au-delà des kits grand public : chaîne DDR5 et connectique visées

Le scraping ne se limite pas aux barrettes pour PC. DataDome cite des cibles dans la chaîne d’approvisionnement : vendeurs de mémoire industrielle et composants DDR5, y compris sockets et connecteurs liés aux formats SO-DIMM et CAMM2.

Cette pression automatisée accentue les tensions sur la visibilité des stocks et la disponibilité, dans un contexte où la demande IA aspire déjà une partie de la production DRAM.

Pour les détaillants et intégrateurs, la combinaison de checks ultra-fréquents et de ciblage de la connectique DDR5 complique la planification d’approvisionnement et favorise les achats opportunistes au détriment des cycles d’achat classiques des joueurs et des pros.

Source: Data DomeTom’s Hardware

MilimoVideo - Le studio de cinéma IA 100% local

Par : Korben
4 mars 2026 à 09:38

MilimoVideo, c'est un studio de production vidéo boosté à l'IA qui tourne entièrement en local sur votre ordi... pas de cloud, juste votre GPU qui mouline quoi...

Et contrairement à ce que vous pensez (je suis dans vos têtes !! lol), ce n'est pas un énième générateur prompt-to-video à la Sora . Non, il s'agit d'un vrai NLE ... ou plutôt un éditeur non-linéaire pour ceux qui découvre, avec une timeline multi-pistes, du trim au frame près et tout le toutim, sauf que derrière, y'a 4 modèles d'IA qui bossent ensemble main dans la main.

Du côté moteur, on retrouve donc LTX-2, un transformer dual-stream de 19 milliards de paramètres pour la génération vidéo. Text-to-video, image-to-video, interpolation de keyframes... c'est le package complet. Ensuite, pour les images, c'est Flux 2 Klein avec l'IP-Adapter qui maintient la cohérence visuelle de vos personnages d'un plan à l'autre, comme ça, finis les visages de vos acteurs qui changent toutes les 3 secondes.

Et y'a aussi SAM 3 pour la segmentation. Vous cliquez sur un objet dans la vidéo, hop, il le détecte et le suit alors automatiquement d'un bout à l'autre du clip. Et pour finir, Gemma 3 se charge d'améliorer vos prompts pour que les résultats soient plus "cinématiques".

Le truc cool, c'est surtout le système de "Story Elements" je trouve car avec ça, vous pouvez créer des personnages, des lieux, des objets, et vous les invoquez ensuite dans vos prompts avec un @Personnage. Du coup, le studio injecte les bonnes références visuelles pour garder une cohérence sur tout votre projet. Faut voir ça un peu comme des variables de code, mais pour du cinéma.

Et si vos plans dépassent 121 frames, le "Quantum Alignment" découpe la génération en morceaux et raccorde ces segments sans couture visible. Voilà comment les transitions entre bouts générés sont gérées proprement sans que vous ayez à lever le petit doigt. Magique hein ?

Pour voir ce que ça donne en pratique, voilà une démo qui montre le workflow complet :

Côté retouche, y'a aussi de l'inpainting (vous peignez un masque sur la vidéo et Flux 2 remplace la zone) et du tracking d'objets bidirectionnel. C'est carrément pas mal pour un projet open source sous licence Apache 2.0, vous ne trouvez pas ?

Après côté config, faut quand même du matos. Avec une carte NVIDIA, comptez 16 Go de VRAM (recommandés) et sur Apple Silicon, c'est M1 Max ou mieux avec 32 Go de RAM. Oubliez votre PC à 500 balles, quoi car en dessous de ces specs ça ne marchera pas.

L'ensemble s'installe via un git clone classique, le backend tourne sur FastAPI avec SQLite, le frontend sur React 18... et le tout communique en temps réel via SSE. Après, si vous êtes plutôt à la recherche d'un éditeur vidéo classique dans le navigateur , c'est pas le même délire, car là avec MilimoVideo on est dans la génération pure.

Bref, si les workflows ComfyUI à rallonge vous filent des boutons, MilimoVideo mérite donc le coup d'oeil.

Merci à Lorenper pour le partage !

La chute définitive de YggTorrent ?

Par : Druide
4 mars 2026 à 09:32

Yggtorrent : une chute sur fond de règlement de compte

Yggtorrent, ce géant du téléchargement (illégal) francophone, fonctionnait comme une immense bibliothèque numérique partagée. Vous y trouviez des films, des séries, des jeux et quasiment tout ce qui existe en format numérique. Ce service, basé sur le protocole BitTorrent, utilisait un système de traqueur privé pour coordonner les échanges entre pairs. Les caractéristiques techniques de la plateforme reposent sur une architecture de partage en « P2P », où chaque utilisateur devient un maillon de la chaîne. Bien que l’accès soit initialement gratuit, le maintien d’un ratio positif entre les données envoyées et reçues est obligatoire. Pour faciliter les choses, des jetons « Air » payants permettent d’augmenter artificiellement son crédit de téléchargement, évitant ainsi le bannissement automatique par le système. Le piratage et sabotage du site met en évidence que ce système de jetons était un business très occultes et très lucratif.

Toutes les données publiées par le pirate (sauf les utilisateurs)

Il est crucial de noter les éléments importants entourant cette affaire majeure concernant yggtorrent. Le piratage massif a consisté à pénétrer les serveurs, à récupérer l’intégralité de leur contenu et à finalement les vider de celui-ci pour forcer la fermeture du tracker. La situation reste floue, tandis que les utilisateurs cherchent désespérément des alternatives viables dans un paysage numérique de plus en plus surveillé par les instances de régulation.

Pour conclure, la chute brutale de yggtorrent marque un tournant majeur pour le paysage du piratage francophone. De prime abord, le service était utilisait par un nombre conséquent de personnes mais la sécurité a cruellement fait défaut au moment critique. En deuxième lieu, les risques juridiques et techniques pèsent désormais puisque le pirate a révélé les mécanismes financiers permettant aux propriétaires de YGG d’empocher plusieurs millions d’€ chaque année.

yggtorrent

Le message publié sur le site ce matin :

Fermeture définitive de YggTorrent

Pendant près de neuf ans, YggTorrent a fait partie de votre quotidien. Des films regardés en famille. Des séries lancées tard le soir. Des découvertes inattendues. Derrière chaque pseudo, il y avait des personnes. Des habitudes. Des moments simples. C’est cela qui a toujours donné du sens à cette aventure.

Le 3 mars 2026 au soir, un groupe malveillant a attaqué volontairement notre infrastructure. Un serveur secondaire de préproduction, distinct du système principal, a été compromis. Une escalade de privilèges a permis la suppression puis l’exfiltration de la base de données. Des portefeuilles crypto destinés uniquement au financement des serveurs, représentant plusieurs dizaines de milliers d’euros, ont également été dérobés (un détail que certains choisiront d’ignorer).

Les mots de passe présents dans la base étaient hachés et salés, ce qui signifie qu’ils n’étaient pas stockés en clair et qu’ils bénéficiaient d’une protection cryptographique empêchant leur lecture directe.

Ce n’était pas un malentendu.
Ce n’était pas une alerte éthique.
Ce n’était pas une tentative de dialogue.

C’était une attaque pensée, préparée et exécutée pour faire disparaître.

Certains éviteront de le formuler ainsi.
D’autres parleront d’« incident » ou de « fuite ».
Mais les faits sont là : il s’agit d’un acte volontaire, mené avec l’intention claire de nuire.

Oui, des sauvegardes existent.
Oui, une reconstruction serait techniquement possible.

Mais continuer dans un climat d’acharnement permanent ne correspond plus à l’esprit qui nous animait. Nous refusons de vous entraîner dans une succession d’attaques, de tensions et d’incertitudes. Revenir pour repartir sous la menace constante n’aurait plus de sens.

Cette décision est difficile. Elle marque la fin d’une époque. Mais elle est prise avec lucidité et responsabilité.

Votre sécurité avant tout

Par mesure de précaution, nous vous invitons fortement à :

  • Modifier immédiatement vos mots de passe, surtout si vous les utilisiez sur d’autres services
  • Changer l’adresse email associée à votre compte si elle est encore utilisée ailleurs
  • Activer l’authentification à deux facteurs lorsque cela est possible
  • Rester extrêmement vigilants face aux emails suspects, tentatives de phishing ou messages alarmistes
  • Ne faire confiance à aucun site prétendant être une continuité, une renaissance ou un clone de YggTorrent
  • Garder du recul face à d’éventuelles publications de données présentées comme authentiques, complètes ou « exclusives »

Dans les jours et semaines à venir, certaines personnes tenteront peut-être d’utiliser notre nom. D’autres diffuseront possiblement des informations incomplètes, exagérées ou manipulées. Ne cédez ni à la panique, ni à la précipitation. Protégez-vous avant tout.

Le paysage du divertissement a profondément évolué. L’offre légale est aujourd’hui plus accessible, plus riche et plus stable qu’elle ne l’a jamais été. Elle permet d’éviter les risques que des plateformes non officielles finissent presque toujours par rencontrer.

Une plateforme peut s’arrêter. Une communauté, elle, laisse des traces durables.

Merci pour ces neuf années. Merci pour votre confiance. Merci pour tous ces moments partagés.

L’histoire s’arrête ici.

L’équipe YggTorrent

La chute définitive de YggTorrent ? a lire sur Vonguru.

Faux repos GitHub - Pourquoi c'est un problème

Par : Korben
4 mars 2026 à 09:25

Vous avez peut-être vu ça passer y'a pas longtemps, les scientifiques ne savent plus démêler le vrai du faux dans leurs propres publications. À NeurIPS 2025 , 100 citations hallucinées ont été retrouvées dans 51 papiers acceptés et à l' ICLR 2026, sur plus de 75 000 reviews analysées, 21% étaient entièrement générées par IA.

Bienvenue dans le monde du doute permanent !

Maintenant, si vous pensez que ça ne concerne que les chercheurs, détrompez-vous car de mon côté, ce que j'observe, c'est que les faux repos GitHub, c'est le même fléau côté tech, et surtout un vrai problème pour tous ceux qui relayent des projets open source comme moi.

Vous avez peut-être vu passer mon article d'hier sur WiFi DensePose , un projet à 25 000 étoiles sur Github qui promettait de détecter les postures humaines via le signal WiFi. Le code Python est détaillé, crédible en surface, il y a des tas d'issues ouvertes avec de vraies questions d'utilisateurs différents, des tas de pull requests parfaitement crédibles, une documentation hyper léchée... et le tout est adossé à un vrai papier de recherche de Carnegie Mellon .

Pour moi, ça avait l'air carrément sérieux ! Donc j'en ai fait un article.

Sauf qu'après coup, différentes personnes ont creusé plus profondément le code (Merci Nicolas), et ont trouvé des choses assez étranges partout dans le code. En fait, le truc générait des données aléatoires en se faisant passer pour du traitement de signal WiFi. C'est du vibe coding à l'état pur et quand des gens ont posé des questions dans les issues... ces dernières ont été vite supprimées. Faut dire que le piège était quasi parfait.

Et c'est tout le problème ! Car pour évaluer si un projet GitHub est légitime, je me base sur plusieurs signaux. Le code, les issues et les PRs, le nombre de stars, la reprise sur Reddit ou Hacker News, les commentaires, les articles dans la presse et quand je peux (et là c'était pas le cas car ça demande pas mal de matos que j'avais pas), je teste évidemment... Mais du coup, quand TOUS ces signaux sont fabriqués de toutes pièces, y'a plus aucun repère !

Parce que figurez-vous que les étoiles Github, ça s'achète (y'a des services entiers dédiés à ça), les issues se génèrent par IA, le code compile, les tests passent, le README est nickel, et le développeur a d'autres projets crédibles sur son profil. Vraiment tout est conçu pour que ça fasse parfaitement illusion.

Et comme ce sont souvent des projets émergents sur des technos de pointe, y'a pas grand monde qui a le matos ni le temps de vérifier par soi-même. Du coup, voilà comment moi et d'autres, on se retrouve à relayer des projets bidon sans le savoir. Et dire que j'étais à 2 doigts d'acheter le matos pour tenter l'aventure...

Les chercheurs se fient au peer review, aux citations, à la réputation du journal et moi c'est pareil avec les stars, les contributions, et le relai médiatique. Sauf que dans les deux cas, l'IA a rendu ces marqueurs de confiance complètement bidons. C'est pour ça que je fais ce parallèle car de mon point de vue, c'est le même combat.

Et le pire, c'est que c'est même pas du code malveillant. Y'a pas de backdoor, pas de malware planqué, pas de minage crypto en douce. C'est juste du code qui donne l'ILLUSION de fonctionner, ou plutôt, qui PRÉTEND fonctionner. Tout ça apparemment pour faire ce qu'on appelle du "portfolio padding"... c'est-à-dire gonfler son CV de développeur avec des faux projets open source à des milliers de stars pour impressionner les recruteurs.

Perso, j'avoue ça me dépasse.

Maintenant, comme c'est nouveau pour tout le monde, il va falloir apprendre à éviter de tomber dans le panneau. J'y ai réfléchi un peu et finalement, ça passe par une analyse plus approfondie du code et de l'historique du projet... On peut par exemple vérifier le git log parce qu'un projet à 25 000 étoiles et 3 commits en 2 semaines, c'est louche, donc méfiance. Et surtout, faut chercher des retours d'utilisation concrets et des issues techniques pointues. Après encore faut-il avoir des compétences techniques assez poussées (par exemple en traitement du signal) pour capter ce qui y est raconté... Pas simple hein ?

Faudrait peut-être que je me fasse un skill un peu poussé pour qu'une IA soit capable de faire ce taf chiant à ma place. Je vais y réfléchir.

Bref, on est tous dans la même galère, à devoir douter de tout ce qui brille sur GitHub et ailleurs et ça c'est bien emmerdant.

Des sous-traitants de Meta pourraient regarder vos vidéos captées avec les Ray-Ban Meta

Par : Korben
4 mars 2026 à 09:05

Savez-vous que Meta a vendu 7 millions de paires de Ray-Ban Meta l'an dernier ? Le succès commercial est dingue, mais une enquête du quotidien suédois SVD montre que des sous-traitants basés au Kenya visionnent certaines vidéos privées, enregistrées par les lunettes pour entraîner l'IA de Meta. La CNIL a ouvert une enquête.

7 millions de paires en un an

EssilorLuxottica a confirmé le chiffre : plus de 7 millions de lunettes connectées vendues en 2025. C'est trois fois plus que les 2 millions écoulés entre le lancement fin 2023 et début 2025. La gamme s'est élargie avec les Oakley Meta et un modèle haut de gamme à 800 dollars, le Ray-Ban Meta Display, qui ajoute un affichage tête haute. Le marché des lunettes connectées n'est clairement plus un sujet de niche, et Meta domine le segment.

Des sous-traitants qui voient tout ?

Selon l'enquête du quotidien suédois SVD, des milliers d'annotateurs de données basés au Kenya, employés par le sous-traitant Sama pour le compte de Meta, visionnent les vidéos captées par les Ray-Ban Meta pour entraîner ses modèles d'IA. Et ce qu'ils voient n'est pas toujours anodin. Les travailleurs rapportent être tombés sur des scènes de salle de bain, des moments intimes et des cartes bancaires filmées par les utilisateurs. Un employé raconte qu'un utilisateur portait ses lunettes pendant que son partenaire se trouvait dans la salle de bain. Les conditions d'utilisation de Meta précisent que les interactions avec l'IA peuvent être "examinées de façon automatique ou manuelle", mais on doute que les utilisateurs aient bien compris ce que "manuelle" veut dire dans ce contexte.

La CNIL et la LED qui ne sert à rien

Côté protection des personnes filmées, la situation n'est pas mieux. Les Ray-Ban Meta ont une petite LED blanche qui s'allume pendant l'enregistrement, censée prévenir les gens autour. Sauf que certaines bidouilles permettent de la masquer, et la CNIL l'a bien noté. L'autorité française a ouvert une enquête après une plainte et considère que l'intrusion dans la vie privée est "possiblement énorme". Des créateurs de contenu ont d'ailleurs utilisé ces lunettes pour filmer des passants à leur insu, la BBC ayant documenté le cas de pick-up artists filmant des femmes dans des lieux publics. Et puisque filmer dans un espace public reste légal en France, les victimes n'ont quasiment aucun recours. Des étudiants de Harvard ont aussi démontré qu'on pouvait coupler les lunettes à un système de reconnaissance faciale pour identifier des inconnus dans la rue et accéder à leurs données personnelles.

On ne va pas se mentir, j'adore mes Ray-Ban Meta que j'utilise quotidiennement, mais 7 millions de caméras portées sur le nez de gens qui se baladent partout, avec des vidéos qui finissent chez des sous-traitants au Kenya, c'est quand même un problème. La politique de confidentialité de Meta reste volontairement floue sur ce qui est collecté et sur qui regarde ces images. La petite LED de sécurité qui se neutralise facilement n'aide en rien.

Sources : Clubic , UCStrategies

PrivaZer 4.0.118

4 mars 2026 à 08:36
Utilitaire gratuit, en français et portable permettant de faire du nettoyage dans les données inutiles stockées sur votre ordinateur...

Le fisc sud-coréen publie carrément ses mots de passe crypto dans un communiqué de presse

Par : Korben
4 mars 2026 à 08:24

Le Service national des impôts sud-coréen a publié par erreur les phrases de récupération de portefeuilles crypto saisis lors d'une opération contre la fraude fiscale. Résultat, un inconnu a siphonné l'équivalent de 4,8 millions de dollars en quelques heures. Les fonds ont finalement été restitués, mais l'affaire fait quand même pas mal jaser.

La photo de trop

Il y a quelques jours, le fisc sud-coréen annonçait avoir mené des perquisitions chez 124 contribuables soupçonnés de fraude fiscale, pour un butin total de 8,1 milliards de wons, soit environ 5,6 millions de dollars en espèces, montres et biens de luxe. Pour communiquer sur l'opération, l'agence a partagé des photos des saisies avec la presse. On y voyait des liasses de billets, des objets de valeur, et plusieurs portefeuilles Ledger posés bien en évidence sur une table.

Sauf que sur au moins deux d'entre eux, la seed phrase, cette suite de mots qui donne le contrôle total d'un portefeuille crypto, était parfaitement lisible. Un inconnu a repéré l'aubaine, déposé un peu d'Ethereum sur le wallet pour couvrir les frais de transaction, puis exécuté trois transferts pour vider les 4 millions de tokens Pre-Retogeum qui s'y trouvaient. Valeur estimée : 4,8 millions de dollars quand même.

Un vol pour rien

Une vingtaine d’heures plus tard, les tokens ont été renvoyés à leur portefeuille d'origine. Pourquoi ? Parce que le Pre-Retogeum est un token quasiment invendable. Le volume de transactions quotidien sur les plateformes décentralisées ne dépassait pas 332 dollars au moment des faits. Concrètement, le voleur s'est retrouvé avec des millions en poche, mais sans aucun acheteur potentiel en face. Et comme toutes les transactions sont enregistrées sur la blockchain, toute tentative de revente aurait été immédiatement grillée.

Pas une première

C'est le deuxième incident du genre en Corée du Sud. En 2021, la police de Séoul avait perdu 22 bitcoins, soit environ 1,5 million de dollars, après les avoir confiés à un prestataire externe. Le vice-Premier ministre a donc ordonné un examen en urgence de la façon dont les administrations gèrent les actifs numériques saisis. Le fisc a présenté ses excuses, expliquant avoir voulu "fournir une information plus vivante au public", et a promis de revoir ses procédures de A à Z. La police a quand même été chargée de retrouver l'auteur du vol.

Franchement, publier la seed phrase d'un portefeuille crypto dans un communiqué de presse, il fallait quand même oser. C'est la deuxième boulette crypto du gouvernement sud-coréen, et visiblement, la gestion des actifs numériques par les administrations publiques est un sujet complexe pour les autorités.

Sources : the register , coindesk

EA prépare un driver ARM64 pour Javelin Anticheat, en phase avec l’arrivée des NVIDIA N1

Par : Wael.K
4 mars 2026 à 09:13

EA sécurise ses jeux côté Arm pendant que les puces NVIDIA N1 se rapprochent. Objectif : un anticheat noyau natif sur Windows on Arm, sans traduction x86.

ARM64 Windows, anticheat noyau et bascule vers le jeu sur Arm

EA recrute un « Senior Anti-Cheat Engineer, ARM64 » pour développer un driver natif ARM64 de Javelin Anticheat sous Windows. La fiche précise la gestion multi-cibles avec chargement conditionnel des versions d’anticheat selon le matériel, ainsi que la mise en place de pipelines d’intégration et de validation automatisés sur du hardware Arm.

EA driver ARM64 pour Javelin Anticheat fiche job

Le périmètre inclut une feuille de route vers d’autres OS et matériels, « tels que Linux et Proton ». Pour un composant noyau, cette compatibilité est l’un des verrous techniques majeurs, en particulier pour l’exécution de titres Windows sur des environnements hétérogènes.

Contexte matériel NVIDIA N1 et performances Cortex-X925

Côté silicium, le GB10 « Superchip » est déjà expédié dans le DGX Spark avec un CPU Arm 20 cœurs : 10 Cortex-X925 et 10 Cortex-A725. Une configuration proche, voire identique, est attendue sur la puce client NVIDIA N1.

Chips and Cheese a mesuré le Cortex-X925 tel qu’implémenté dans le GB10 : parité de performance en SPEC CPU2017 entier face à AMD Zen 5 et Intel Lion Cove, avec un avantage de Zen 5 en flottant. Le point bloquant reste toutefois l’émulation x86 pour les jeux Windows, d’où l’intérêt critique d’un anticheat noyau natif en ARM64.

Si les systèmes N1 et N1X arrivent rapidement, le travail ARM64 d’EA sur Javelin pourrait lever un obstacle pratique pour davantage de titres PC EA sur Windows on Arm. Le couplage performances CPU + support natif des composants sensibles au noyau conditionnera l’expérience réelle sur ces machines.

Source: EA JobsChips & Cheese

RayNeo Air 4 Pro HDR10 : lunettes AR avec édition Batman disponibles dès 27 février

Par : Wael.K
4 mars 2026 à 08:57

HDR10, audio Bang & Olufsen et variantes Batman/Joker arrivent d’un coup sur des lunettes AR grand public. Conséquence directe : un positionnement média‑personal viewer assumé face aux écrans portables USB‑C.

RayNeo Air 4 Pro HDR10, audio B&O et 2D→3D

Présentées au MWC 2026 et disponibles depuis le 27 février 2026, les RayNeo Air 4 Pro se posent comme un « head‑mounted TV ». L’affichage HDR10, inédit sur des lunettes AR, promet des pics lumineux plus élevés, des noirs plus profonds et plus d’un milliard de couleurs.

Coffrets thématiques Batman avec accessoires et masques stylisés en arrière-plan.

Un SoC personnalisé Vision 4000 pilote l’upscaling HDR et la conversion temps réel des contenus 2D en 3D. Côté audio, quatre haut‑parleurs réglés avec Bang & Olufsen et des « tubes acoustiques » dirigent le son vers l’oreille en limitant les fuites.

Le châssis de 76 g adopte une ergonomie légère avec plaquettes nasales ajustables. La dalle simule un écran de 201 po vu à 6 m. La connexion passe par USB‑C DisplayPort Alt Mode, compatible smartphone, PC et Nintendo Switch 2 pour une utilisation nomade.

Éditions Batman et Joker, disponibilité et prix

La Batman Edition reprend l’intégralité des fonctions du modèle standard avec un design exclusif, un packaging dédié et un light shield spécifique. Ce dernier bloque la lumière ambiante et sert d’accessoire cosplay au quotidien.

Ensemble complet de coffrets Batman avec masques et accessoires sur fond noir.

Deux variantes thématiques sont proposées : Batman Edition et Joker Edition, chacune avec une identité visuelle propre. Les RayNeo Air 4 Pro et la série X3 sont exposées au MWC 2026 (Hall 2, stand 2M30, 2‑5 mars).

Commercialisation mondiale depuis le 27 février 2026 via Amazon et RayNeo.com. Tarifs : Standard Edition à 249 $ en early bird (MSRP 299 $, soit ~275–330 € à titre indicatif hors prix UE officiels), Batman Limited Edition à 269 $ early bird (MSRP 319 $). En Europe : 299 € early bird (MSRP 339 €). Royaume‑Uni : 249 £ early bird (MSRP 289 £). L’early bird s’applique le premier mois après lancement.

En visant la compatibilité USB‑C universelle et un rendu HDR10 assisté par un traitement dédié, RayNeo pousse le format lunettes‑écran vers un usage de remplacement ponctuel d’un moniteur portable. L’appui de Bang & Olufsen sur l’accordage audio crédibilise l’ensemble face aux viewers DP Alt Mode déjà établis, avec un différenciateur clair sur la conversion 2D→3D et les éditions sous licence.

Source : TechPowerUp

GTC 2026 : NVIDIA déroule sa pile IA complète à San Jose, 16–19 mars

Par : Wael.K
4 mars 2026 à 08:56

San Jose s’apprête à basculer en campus IA : quatre jours, plus de 30 000 participants et une feuille de route technologique posée publiquement.

GTC 2026 : dates, format et keynote de Jensen Huang

La conférence GTC se tiendra du 16 au 19 mars à San Jose, Californie, avec plus de 30 000 inscrits issus de plus de 190 pays. Le 16 mars à 11 h PT, Jensen Huang donnera la keynote au SAP Center, retransmise en direct et à la demande sur nvidia.com, sans inscription requise.

Le discours couvrira l’empilement complet : calcul accéléré, “AI factories”, modèles ouverts, systèmes agents et “physical AI”, avec un cadrage sur l’année à venir.

Programme technique : 1 000+ sessions, cinq couches et ateliers pratiques

La GTC mettra en scène une approche en cinq couches : énergie, puces, infrastructure, modèles et applications. Plus de 1 000 sessions traiteront des AI factories, de l’inférence à grande échelle, de la robotique, des jumeaux numériques, du calcul scientifique, du quantique et des déploiements IA en entreprise.

Huang animera une discussion sur l’état de l’art des modèles ouverts “frontier” avec A16Z, AI2, AMP Coalition, Black Forest Labs, Cursor, Reflection AI et Thinking Machines Lab. Un préshow en ligne le 16 mars à 8 h PT abordera le computing accéléré au-delà de l’IA et la pile en cinq couches, avec Aravind Srinivas (Perplexity), Harrison Chase (LangChain), Deepak Pathak (Skild AI), Daniel Nadler (OpenEvidence) et Arthur Mensch (Mistral AI).

Le dispositif formation inclut neuf workshops d’une journée, plus de 60 labs pratiques et des certifications sur site. Des cours en autonomie, programmes pour enseignants et sessions 1:1 complètent l’offre.

Écosystème, startups et recherche

Plus de 240 startups NVIDIA Inception présenteront des solutions en physical AI, robotique, IA générative et applications entreprise, avec des sessions dédiées aux investisseurs, un “AI Day” avec des fonds de premier plan et des échanges NVentures.

Les tracks développeurs et recherche proposeront des deep dives techniques, des sessions CUDA et des ateliers d’infrastructure sur l’entraînement massif de modèles, l’optimisation de l’inférence et le déploiement multienvironnements (cloud, edge, souverain). Plus de 150 posters couvriront les innovations de modèles, la robotique, l’architecture systèmes et de nouveaux usages IA.

San Jose sera réparti sur 10 sites avec un Day and Night Market à Cesar Chavez Park. L’All-In Podcast enregistrera des interviews le mercredi 18 mars. La Student and Community Day du jeudi 19 mars ouvrira l’événement à tarif réduit. Une programmation virtuelle adaptée par région sera disponible via le catalogue en ligne.

Parmi les organisations présentes : Adobe, Agile Robots, Agility Robotics, AI2, AMP Coalition, Black Forest Labs, Canva, CodeRabbit, Cohere, Crusoe Energy Systems, Cursor, Dassault Systèmes, Decagon, General Motors, Genspark, Google DeepMind, Hugging Face, IBM Research, idealworks, Inception Labs, Johnson & Johnson, Kimi (Moonshot AI), L’Oréal, Lucid Motors, Magic AI, Meta, Microsoft, OpenAI, Poolside, Physical Intelligence, Reflection AI, Runway, Siemens, Shopify, Snap, Tesla, Together AI, Thinking Machines Lab, Uber Technologies, Universal Robots, le U.S. Department of Energy, Vention et d’autres.

NVIDIA tiendra une séance de Q&A investisseurs et analystes le mardi 17 mars à 9 h PT, en webcast sur investor.nvidia.com.

Pour les acteurs hardware et data center, l’axe “couches énergie/puces/infrastructure” pointe vers une montée en puissance coordonnée des capacités, avec un focus implicite sur l’efficacité énergétique et l’orchestration au niveau des AI factories. Les annonces côté modèles ouverts et systèmes agents donneront le ton pour les charges d’inférence 2026, avec des impacts directs sur le dimensionnement GPU, le réseau et le stockage.

Source : TechPowerUp

HBM4 NVIDIA : spécifications abaissées pour Vera Rubin VR200, bande passante à 20 TB/s

Par : Wael.K
4 mars 2026 à 08:55

Objectif revu à la baisse et calendrier sous pression. Les GPU Vera Rubin VR200 ne viseront plus 22 TB/s mais environ 20 TB/s de bande passante HBM4, conséquence directe des limites actuelles chez les fournisseurs.

HBM4 NVIDIA : cibles abaissées et réalités industrielles

Selon des notes institutionnelles relayées par SemiAnalysis, NVIDIA assouplit les spécifications HBM4 pour Rubin. La cible initiale de 22 TB/s pour le système VR200 NVL72 laisserait place à des premiers lots autour de 20 TB/s, soit ~10 Gb/s par pin, SK hynix et Samsung peinant à tenir l’objectif maximal.

Carte mère HBM4 avec double modules de mémoire, tenue par une personne

Historique récent : en mars 2025, la cible système était de 13 TB/s, relevée à 20,5 TB/s en septembre, puis confirmée à 22 TB/s au CES 2026. Face aux 19,6 TB/s de l’Instinct MI455X d’AMD, NVIDIA avait compensé via une DRAM plus rapide et des interconnexions optimisées entre CPU, GPU et le châssis. Les livraisons initiales VR200 devraient néanmoins atterrir à ~20 TB/s pour l’ensemble du système.

Fourniture HBM4 : SK hynix en tête, Samsung en appui

Le split d’approvisionnement HBM4 pour VR200 NVL72 s’orienterait à 70 % pour SK hynix et 30 % pour Samsung. Micron sortirait de l’équation HBM4 et se repositionnerait sur la LPDDR5X des CPU « Vera », jusqu’à 1,5 TB par système, afin de compenser l’absence sur HBM4.

Cette inflexion de spécifications traduit surtout un lissage du ramp-up HBM4 : NVIDIA ancre la plateforme à un palier réaliste de ~20 TB/s à court terme, tout en gardant un headroom vers 22 TB/s lorsque les débits par pin et les rendements packaging HBM4 suivront chez SK hynix et Samsung.

Source : TechPowerUp

❌