Jetpack Cat cartonne, mais son agressivité va être réduite pour relancer sa présence en compétitif. Dans le même temps, Blizzard assume des héros plus atypiques et un rythme soutenu.
Overwatch : cadence d’un héros tous les 2 mois et place aux profils atypiques
Avec le rebranding d’Overwatch 2 en Overwatch, Blizzard a annoncé une série de nouveaux héros dès la première saison de cette nouvelle ère. Alec Dawson, associate director, explique que la popularité de Jetpack Cat et d’autres personnages non conventionnels encourage l’équipe à explorer davantage de héros « oddball ».
Objectif affiché : un nouveau héros chaque saison sur la première année, soit un ajout tous les deux mois, tant que c’est soutenable et hors événements majeurs de gameplay. Ce rythme offre, selon Dawson, plus d’occasions de tenter des approches de gameplay et des rôles différenciants pour élargir l’éventail de styles jouables.
Jetpack Cat : la plus bannie, nerf ciblé à venir
Dans un échange avec PCGamesN, Dawson indique que Jetpack Cat est actuellement la héroïne la plus bannie. Blizzard veut corriger le tir pour la rendre plus jouable en compétitif, en « calmant un peu son agressivité ».
Le nerf visera sa capacité à plonger les backlines, surtout lorsque ses perks Claws Out (mineur) et Territorial (majeur) se cumulent et en font une menace capable de prendre des 1v1. L’équipe va « réduire un peu » cette synergie et observer l’impact. Le système de bans sert de guide pour ajuster l’équilibrage, un point clé avec la cadence d’ajouts accélérée.
Blizzard montre aussi qu’il écoute les retours sur le design des héros, comme l’illustre la révision prévue d’Anran après des critiques sur son aspect jugé trop générique.
Si la cadence bimestrielle tient, l’équilibrage deviendra un chantier continu, soutenu par les données de bans et la réception communautaire. La marge de manœuvre pour des profils « oddball » pourrait dynamiser la méta, à condition de contenir les excès de kits trop polarisants comme celui de Jetpack Cat.
Six mois sans mise à jour, puis un correctif tombe et rebats les cartes pour la ROG Ally. Bonne nouvelle pour les joueurs, mais le signal reste brouillé côté support global.
AMD Ryzen Z1 Extreme : retour des mises à jour sur ROG Ally
ASUS déploie un nouveau package pilote pour sa ROG Ally, alors que la console était figée sur des pilotes SoC datant d’août 2025. Le SoC AMD Ryzen Z1 Extreme, annoncé avec un cTDP configurable de 9 à 30 W, impose des validations OEM spécifiques, ce qui peut allonger les cycles de diffusion.
La situation contrastait avec des signaux défavorables venus d’ailleurs : Lenovo a confirmé en Corée l’arrêt de son plan de mises à jour pour ses machines équipées, laissant les propriétaires de Legion Go sans nouveaux pilotes officiels. Sur ROG Ally, au moins une livraison reprend, mais sans garantie de cadence.
Un support fragmenté entre OEMs et configurations cTDP
La responsabilité de l’irrégularité reste floue entre AMD et les OEMs. Les variantes de configuration liées au cTDP 9–30 W exigent des campagnes de test par modèle avant diffusion publique, ce qui morcelle le calendrier. Pendant ce temps, certains utilisateurs basculent vers Linux pour prolonger la durée de vie logicielle via des pilotes communautaires.
ASUS montre un signe de suivi minimal, là où Lenovo concentre désormais ses ressources sur des SoC plus récents. Pour les possesseurs de ROG Ally, cette reprise peut stabiliser la compatibilité jeu par jeu à court terme. L’absence de visibilité sur la prochaine fenêtre de publication maintient toutefois un risque de stagnation.
Le contraste ASUS/Lenovo illustre un support pilote désormais piloté par les OEMs plutôt que par une filière unifiée. À moyen terme, l’avantage ira aux plateformes avec pipelines de validation courts et intégration logicielle maîtrisée, surtout sur des SoC mobiles à enveloppes TDP variables.
Adobe lance « Quick Cut » dans Firefly, une fonction d’assemblage automatique qui génère un premier cut à partir d’instructions en langage naturel. L’outil sélectionne les plans pertinents, enchaîne les séquences avec des transitions cohérentes et peut insérer des B‑rolls, le tout directement dans l’éditeur vidéo Firefly.
Un premier montage assisté, piloté par texte
Dans l’interface, un champ de prompts permet de définir l’objectif créatif, le format d’image, le tempo des transitions ou d’ajouter des médias complémentaires. Quick Cut s’applique à l’ensemble d’un projet, à une seule timeline ou à un segment précis, selon le besoin.
Adobe précise que la sortie vise un rough cut exploitable, mais pas une version finalisée. Les créateurs restent aux commandes pour l’affinage, la direction artistique et la signature visuelle. Mike Folgner, en charge des produits vidéo et IA, met en avant le gain de temps sur les tâches répétitives au profit du travail de style.
Capacités en hausse sur la suite vidéo Firefly
Quick Cut s’inscrit dans l’évolution récente de Firefly côté montage. En décembre, Adobe a ajouté un éditeur basé sur une timeline avec calques et commandes textuelles pour manipuler des objets (échelle, rotation, etc.). Firefly prend déjà en charge l’édition vidéo par prompts pour ajuster éléments de scène, colorimétrie et angles de caméra, avec une gestion plus claire des frames, de l’audio et des détails via la vue timeline.
Au‑delà de l’effet d’annonce, l’intérêt est pragmatique : accélérer le dérushage et la construction d’un squelette narratif, là où se concentrent les goulots d’étranglement en social, pub et contenus courts. Si la promesse de transitions « intelligentes » et de B‑rolls génératifs tient la route sans artefacts, Adobe consolidera une position déjà forte face aux éditeurs NLE historiques qui ajoutent l’IA par briques plutôt que par flux de travail intégré.
Quelques jours après son arrivée chez OpenAI, Peter Steinberger, connu comme le « père du homard » pour son bot iMessage, livre un entretien dense où il déroule la genèse d’OpenClaw, ses angles morts de sécurité et une manière de travailler avec les agents IA qui tranche avec les habitudes des devs seniors. Ton direct, peu de vernis, et des aveux qui piquent : « la plupart du code est ennuyeux », « on ne peut pas empêcher les abus, seulement éviter la casse ».
De la pause forcée à l’obsession OpenClaw
Après treize ans à piloter PSPDFKit, Steinberger raconte un coup de frein net, puis un électrochoc en testant Claude Code. Il emballe un projet inachevé en Markdown, demande une spec, pipeline d’auto-tests, et voit un prototype passer de zéro à « ça tourne » en une heure, malgré un code « moyen ». La bascule n’est pas la qualité, c’est le débit: tout à coup, ce qui n’était pas faisable devient atteignable à vue humaine.
Les mois suivants, il enchaîne des dizaines d’expériences publiques. Le fil conducteur n’était pas un « masterplan » mais une série de preuves d’usage: lire ses historiques, agir à sa place, manipuler des outils locaux, survivre à des réseaux pourris, traduire des images, pousser des messages pour lui. Un moment charnière: un vocal sans extension traité de bout en bout par l’agent, qui détecte l’encodage Opus, convertit via un outil local, trouve une clé d’environnement et passe en transcription en ligne. Pour Steinberger, c’est la démonstration que l’autonomie émerge dès qu’on donne un trousseau d’outils cohérent à la machine.
À l’automne, il balance un premier OpenClaw « bricolé en une heure », puis itère jusqu’au cinquième nom. Il l’utilise pour se déboguer lui-même, le lâche dans un Discord sans sandbox au départ, observe un agent qui se relance après arrêt via un service auto-restart, et va jusqu’à nommer son Mac Studio « château ». Il place un fichier canari avec valeurs et garde-fous, constate des tentatives de prompt injection, et des refus parfois cinglants du modèle. Depuis, une sandbox a été ajoutée.
Intentions avant le code, et 2 000 PR à filtrer
OpenClaw a déjà absorbé près de 2 000 PR. Steinberger ne fait pas du review ligne par ligne en première intention: il commence par l’intention. Beaucoup de contributions portent une solution locale qui ne s’insère pas au bon endroit de l’architecture. Il préfère clarifier le problème avec le modèle, cadrer s’il s’agit d’un sujet de design, de plateforme ou d’implémentation, puis seulement toucher aux branches et au merge. Même quand il réécrit, il conserve l’attribution: « les idées comptent ».
Sa posture d’auteur a évolué avec les agents: il optimise la base pour qu’un agent y performe, ce qui ne recoupe pas exactement l’ergonomie pour humains. Le code n’a pas à coller à son esthétique, l’orientation prime; si un goulot réel apparaît, on optimise. Et il assume une lecture de code minimale tant que le modèle mental colle à la sortie et que l’UX cible est satisfaite.
Sécurité, mésusages et limites d’un projet « personnel »
Sur la sécurité, le constat est froid: il ne peut pas empêcher les mésusages. Un outil web pensé pour du réseau de confiance s’est retrouvé exposé en clair, malgré les avertissements répétés dans la doc. Dès lors qu’une configuration permet l’exposition, la surface de risque grimpe et les chercheurs ont raison de le pointer. Il a intégré un spécialiste sécu et travaille à compatibiliser ces usages « non prévus » tout en essayant d’empêcher les sorties de route évidentes. Message implicite: « ne jouez pas avec le feu », mais le feu circule déjà.
Côté ergonomie, l’objectif reste paradoxal: que sa mère puisse l’installer, tout en gardant un terrain de jeu pour bidouilleurs. Par défaut, l’agent tourne au plus près du code source, le comprend et peut s’auto-modifier sur demande. Résultat inattendu: des débutants en PR participent via des « demandes d’intention » plutôt que de longues branches, l’agent servant d’exécuteur ou de médiateur technique.
Méthode de travail avec les modèles
Le passage à un environnement type Codex a densifié son activité GitHub: pas seulement grâce au modèle, mais via une intégration plus fluide dans sa routine. Il met en garde contre le « piège des agents » fait de sur-configuration stérile. Sa pratique est frugale: expliquer l’objectif, demander les questions bloquantes, garder la carte mentale globale et découper en modules indépendants pour paralléliser sans collision.
Pour l’écosystème dev, le message est clair: l’avantage compétitif bascule vers ceux qui apprennent à manier ces outils avec rapidité et discernement. Si la cadence d’OpenClaw tient, on pourrait voir se normaliser des workflows où l’intention architecturale, vérifiée par agents, prime sur la micro-police du code, avec un corollaire industriel évident: moins de friction pour prototyper des intégrations locales puissantes, mais une dette sécurité à traiter dès la conception, surtout lorsque l’agent touche aux clés, aux fichiers et aux services personnels.
Nouvelle CEO, nouvelle feuille de route : Microsoft Gaming affiche un retour assumé à l’ADN Xbox, en redonnant à la console et aux licences maison un rôle central. En toile de fond, la prochaine génération de hardware se profile autour de 2028.
Xbox recentre sa stratégie sur la console et ses productions internes
Dans un entretien à Windows Central, Asha Sharma, nouvelle CEO de Microsoft Gaming, fixe un cadre sans ambiguïté : retour à l’ADN Xbox, avec la console comme point de départ et une réduction des barrières entre appareils. Elle insiste sur un investissement accru pour permettre aux développeurs de cibler plusieurs matériels via un seul pipeline de build.
Sharma assume une phase d’audit interne : comprendre le « pourquoi » des décisions passées et piloter à la valeur vie client plutôt qu’à l’efficacité court terme. Elle rappelle un engagement vis-à-vis des fans historiques investis depuis 25 ans dans l’écosystème et ses univers.
Sur l’IA générative, le positionnement reste utilitariste. Outils oui, dérives non. « Je ne noierai pas l’écosystème sous du slop », tranche-t-elle, refusant les contenus bâclés ou dérivatifs.
Next-gen autour de 2028 : vers un hybride PC-console
Les deux dirigeants confirment que la prochaine étape se joue sur le hardware next-gen, avec un lancement évoqué autour de 2028 et une orientation hybride PC-console. Objectif affiché : lisser l’expérience entre types d’appareils et renforcer l’attractivité pour les studios, des choix d’architecture jusqu’aux outils.
Intégration précoce hardware/first-party
Matt Booty, Chief Content Officer, précise que l’organisation est conçue pour le first-party, avec une implication directe dans les décisions matérielles amont. Il cite l’optimisation de titres comme Gears of War pour de nouveaux appareils, citant l’exemple de la Xbox Ally, et réaffirme le rôle de pilier éditeur interne en synergie avec l’équipe plateforme.
Si l’orientation multiplateforme reste présente (« rencontrer les joueurs où ils sont »), le message central est la consolidation de l’offre console, soutenue par des outils unifiés et des builds mutualisés afin de limiter la fragmentation et accélérer les déploiements.
Le repositionnement met la pression sur la feuille de route hardware et sur la qualité du pipeline first-party. S’il est tenu, l’hybride PC-console de 2028 pourrait clarifier la proposition Xbox côté performance, déploiement et support développeurs, à condition d’aligner outils, SDK et calendrier studios.
Un bug de lecture VRAM pouvait fausser les stats. Valve l’a corrigé côté client, avec impact direct sur la fiabilité des prochains relevés.
Steam met à jour le client Beta et corrige la VRAM
Valve a déployé une correction dans le Steam Client Beta daté du 24 février 2026 pour un problème de reporting matériel affectant le Hardware and Software Survey. La VRAM de certaines cartes graphiques était mal remontée, biaisant la distribution publiée.
Le nombre de systèmes touchés n’est pas précisé. Les notes de version confirment toutefois que des valeurs incorrectes pouvaient être enregistrées sur certains GPU, avec un effet direct sur les parts par capacités mémoire affichées.
Sélection du GPU affiché et reporté revue
En configuration multi-adaptateurs, Steam choisit désormais l’adaptateur disposant de la plus grande quantité de VRAM pour l’affichage et le reporting. L’objectif est de limiter les cas où l’iGPU ou un adaptateur secondaire remplace à tort la carte dédiée principale.
Le relevé de janvier 2026 montrait une part importante de systèmes à 8 Go de VRAM. L’ampleur de la distorsion liée au bug reste inconnue, mais l’aveu de Valve indique des entrées mal renseignées avant ce correctif.
Impact attendu sur les prochaines publications
La mise à jour étant cantonnée au client Beta, l’effet sur les résultats de février devrait être limité. Le correctif produira un impact net une fois déployé sur le canal stable, avec un décalage probable d’un cycle de sondage pour que la correction se reflète pleinement dans les données.
Les critiques récurrentes visent souvent des déréférencements côté Radeon en présence d’iGPU et de dGPU. Le nouveau critère “plus de VRAM” devrait réduire ces erreurs sur les configurations modernes mêlant Radeon intégré et GeForce RTX série 50, même si des cas limites peuvent persister selon les drivers et l’ordre d’initialisation.
Si la correction stabilise la sélection d’adaptateur et la capacité mémoire, la photographie du parc PC côté VRAM pourrait évoluer à la marge, notamment sur les segments 6/8/12 Go où l’iGPU biaisait certains relevés. C’est un point de vigilance pour interpréter les courbes de parts dans les prochains mois.
Avec des dies GDDR7 de 24Gb annoncés jusqu’à 36 Gb/s, la mémoire graphique fixe un nouveau plafond théorique. Problème : aucun GPU commercial n’exploite encore ces débits, et l’écosystème grand public reste freiné par les coûts et l’approvisionnement.
Micron formalise la GDDR7 24 Go jusqu’à 36 Gb/s
Micron officialise des dies GDDR7 de 24Gb (3 Go) annoncés jusqu’à 36 Gb/s. Aucun GPU commercial ne tape encore cette vitesse, mais le plafond théorique est posé. Sur un bus 512-bit, on dépasse 2 TB/s de bande passante mémoire, hors limites artificielles côté contrôleur.
La densité 24Gb est déjà en circulation. NVIDIA a adopté des modules 3 Go sur la GeForce RTX 5090 Laptop GPU et la RTX PRO 6000 Blackwell. Si l’on n’a pas vu de GeForce « SUPER » sur desktop au CES, la cause la plus crédible reste un approvisionnement tendu et des prix encore élevés.
GDDR7 front and back facing right on black background
Façonner l’avenir de l’informatique immersive et intelligente. La GDDR7 de Micron ne se limite pas à un simple gain de performances : elle pose les bases technologiques de la prochaine décennie dédiée au calcul graphique et à l’IA. Avec un débit atteignant 36 Gb/s, une densité de 24 Gb et une efficacité énergétique renforcée, la GDDR7 permet aux concepteurs de GPU et de PC orientés IA de proposer des expériences de calcul plus riches, plus fluides et nettement plus intelligentes.
Côté workstation desktop, la plus grosse config GDDR7 publique reste la RTX PRO 6000, avec 96 Go via des puces 3 Go et un débit à 28 Gb/s. La carte affiche 1,8 TB/s de bande passante totale. En passant à 36 Gb/s sur la même interface, on viserait environ 2,3 TB/s, capacité inchangée.
Le bénéfice pour le grand public dépendra surtout des bus 128-bit, 192-bit et 256-bit. Des puces 24Gb autorisent des VRAM plus hautes à largeur de bus constante, ce qui peut stabiliser les coûts PCB tout en relevant le plancher de capacité pour les futures GeForce et Radeon.
Conséquences pour le marché des GPU
À court terme, l’absence de refresh RTX 50 SUPER et la tension prix/disponibilité limitent l’impact côté gaming. À moyen terme, la GDDR7 24Gb ouvre une marge nette sur la bande passante et la capacité, de quoi sécuriser des configurations 12–24 Go sur 192–256-bit et lisser les coûts tout en préparant des fréquences plus agressives lorsque l’écosystème contrôleur et l’offre fonderie s’aligneront.
Un simple déblocage de puissance ne suffit pas à libérer un prototype aussi extrême. À plus de 550 W, cette RTX 3080 Ti ES sature thermiquement, throttle violemment et impose une reconstruction complète du refroidissement, du die jusqu’à la GDDR6X arrière.
RTX 3080 Ti 20 Go : échantillon hybride sous pilotes patchés
Un moddeur détaille les avancées sur une GeForce RTX 3080 Ti Founders Edition de pré-série équipée de 20 Go de GDDR6X. La carte mêle bus 320-bit et modules mémoire arrière façon RTX 3090, et n’opère qu’avec des pilotes patchés non officiels. Il ne s’agit pas d’un SKU commercial, mais d’un échantillon d’ingénierie GA102-250 déjà démonté et benché auparavant, avec des performances proches d’une RTX 3080 sous limite de puissance conservatrice.
Le nouveau travail vise à lever les limites de puissance puis à corriger le refroidissement, source de throttling et d’instabilités une fois la consommation débridée. À stock, la limite relevée tournait autour de 390 W.
Shunt mod à 10 mΩ et pics à 555 W
Le moddeur a empilé des shunts de 10 mΩ sur les rails de détection du 12-pin et du slot PCIe, sans toucher aux sense mémoire et contrôleurs. Après modification, la carte tire environ 480 W en charge, avec des pointes observées à ~555 W en overclocking stable. La température du connecteur a été suivie au thermocouple et une partie de la charge passe par le slot PCIe.
Une fois la barrière de puissance levée, le GPU sature thermiquement et throttle. Solution retenue : métal liquide sur le die, pression de montage accrue via des rondelles de 0,5 mm, et passage de pads thermiques 12 W/mK à 20 W/mK. Résultat annoncé : 31 °C au repos et fin du throttling cœur après ajustement de la pression de contact.
Mémoire arrière à 100–102 °C, stabilisée à 94 °C
Le goulot restant concerne la GDDR6X, du fait d’un refroidisseur de RTX 3080 Ti associé à un PCB avec mémoire arrière. Les jonctions mémoire atteignaient 100–102 °C en charge soutenue avec artefacts. L’ajout de radiateurs externes sur la coque et d’un ventilateur dédié a ramené la mémoire à ~94 °C en ray tracing intensif.
À overclock identique aux essais précédents, les scores 3DMark progressent : Speedway 5492 (contre 5403), Steel Nomad 5338 (contre 5155), Port Royal 14337 (contre 13947). Gain modeste mais réel une fois la limite de puissance et la tenue thermique corrigées.
Au-delà de la curiosité technique, ce prototype illustre les contraintes d’un design hybride 320-bit avec mémoire arrière sur un refroidisseur non adapté : l’enveloppe de 480–555 W exacerbe les deltas de contact et impose une gestion fine de la pression, des interfaces thermiques et du flux d’air ciblé sur la GDDR6X.
L’arrivée d’un module GPU donné pour 600 à 1000 W bouleverse l’équilibre thermique des châssis serveurs. La conséquence est immédiate : pour exploiter pleinement ce niveau de puissance, un apport d’air externe à forte pression devient indispensable.
Akasa vapor chamber pour RTX 5090 et RTX PRO 6000
Akasa prépare un dissipateur serveur mêlant base à chambre à vapeur et empilement d’ailettes haute densité, pensé pour un flux d’air externe. La cible annoncée couvre les GPU NVIDIA GeForce RTX 5090 et NVIDIA RTX PRO 6000, avec une plage de dissipation indiquée entre 600 W et 1000 W TDP selon la configuration.
Le positionnement dépasse les besoins habituels des cartes additionnelles de station de travail. L’approche suggère un module thermique remplaçable, distinct d’un système de refroidissement complet, utilisable dans des châssis offrant un débit élevé et une forte pression statique.
Akasa n’a pas communiqué de dimensions, d’interfaces de montage ni de compatibilité au-delà des classes de cartes mentionnées. L’adaptation à des PCB spécifiques, à des designs « flow-through » multi-cartes, ou à des GPU PCIe de type serveur avec zones d’exclusion standardisées reste à confirmer.
Autres solutions et calendrier
En parallèle, la société présente des ventirads LGA-1700/1851 pour systèmes 1U low-profile, donnés pour des TDP jusqu’à 125 W. Le tout est préparé en amont d’Embedded World 2026 à Nuremberg, Allemagne, prévu du 10 au 12 mars.
Si les capacités annoncées sont confirmées en production, ce module pourrait intéresser les intégrateurs qui cherchent à unifier la gestion thermique de GPU haut de gamme via le châssis plutôt que via des refroidisseurs par carte, simplifiant la maintenance et la flexibilité des configurations.
Une alerte rouge à 124 °C ignorée, un connecteur carbonisé le lendemain. Le cas rapporté sur Overclock.net relance les inquiétudes autour du 12VHPWR sous charges extrêmes.
RTX 5090 : alarme à 124 °C ignorée, connecteur WireView endommagé
Un utilisateur, « Vinz », décrit la dégradation d’un Thermal Grizzly WireView GPU Pro lors de tests intensifs menés avec une **ASUS ROG Astral GeForce RTX 5090 lourdement modifiée : shunt-mod, BIOS XOC et longues sessions de jeu et de benchmarks. Pendant l’effort, le WireView a déclenché à répétition son alarme : le capteur « IN » (côté alimentation vers l’adaptateur) a grimpé jusqu’à 124 °C, tandis que le « OUT » (côté GPU) restait autour de 42 °C. La lecture a été jugée erronée sur le moment, la télémétrie des broches GPU paraissant normale et l’adaptateur tiède au toucher.
Pendant l’utilisation, le WireView a multiplié les alertes de température. Le capteur « IN » (côté alimentation vers WireView) a enregistré 124 °C, quand le « OUT » (côté GPU) restait autour de 42 °C. Le moddeur a considéré la mesure erronée, la télémétrie des pins de la ROG Astral semblant normale et le boîtier de l’adaptateur restant tiède au toucher.
Le lendemain, le verdict est tombé : connecteur WireView brûlé et extraction du câble difficile. Les dommages semblent confinés au connecteur côté WireView ; ni le socket d’alimentation du GPU ni les câbles côté alimentation ne montrent de traces visibles. De retour au pont 4×8-pin → 12VHPWR d’origine, un nouveau test à ~1200 W sur une dizaine de minutes a maintenu les températures dans la plage basse-moyenne des 40 °C. L’utilisateur envisage toutefois le remplacement du WireView, le connecteur présentant une usure manifeste.
Contexte : mod XOC, limites relevées et risques 12VHPWR
Ce type de configuration sort du cadre d’exploitation nominal. Les shunt mods et BIOS tiers ou XOC poussent les power limits bien au-delà du stock et exposent à une perte de garantie côté fabricants et vendeurs. Le risque augmente sur le 12VHPWR si une section de la chaîne présente une résistance accrue, un mauvais emboîtement ou une chauffe soutenue au niveau des contacts.
Thermal Grizzly positionne le WireView GPU Pro comme un outil de monitoring doté de capteurs de température et d’une alarme sonore. L’appareil n’assure toutefois aucune protection contre les dommages si le système reste en charge malgré les alertes, ce qui a été le cas ici, combiné à une carte modifiée hors garantie.
Au-delà du cas isolé, l’écart marqué entre 124 °C côté « IN » et ~42 °C côté « OUT » suggère un point de résistance locale sur la jonction alimentation/adapter. Sur des charges extrêmes, l’élévation thermique à cet endroit suffit à dégrader le polymère et à carboniser les broches, sans forcément impacter le socket GPU ni les câbles PSU si le défaut reste confiné au connecteur intermédiaire.
Monitoring VRM dédié aux cartes Lightning les plus chères du moment, et un stress test NPU qui s’invite dans la boîte à outils Pro. Mise à jour dense pour ceux qui loggent tout, tout le temps.
HWiNFO 8.42 met à jour Nova Lake et muscle le monitoring GPU/PSU
HWiNFO 8.42 arrive avec un support amélioré d’Intel Nova Lake et plusieurs capteurs supplémentaires côté GPU et alimentation.
Le logiciel distingue désormais les processeurs Intel Nova Lake via un ID spécifique et peut exécuter des diagnostics sur des échantillons d’ingénierie Nova Lake-S, alors que le lancement commercial reste à plusieurs trimestres.
Point notable pour les créateurs de contenu et overclockers, les cartes MSI GeForce RTX 5090 Lightning gagnent un monitoring VRM dédié, exposant une télémétrie carte plus fine pour suivre puissances et températures en charge soutenue ou pendant le tuning.
Sur l’alimentation, les blocs MSI MPG Ai1300TS et Ai1600TS sont désormais pris en charge. Commercialisés autour du suivi 12V-2×6 et de fonctions d’alerte, ils remontent leur télémétrie dans la pile de capteurs d’HWiNFO, ce qui unifie les logs PSU/CPU/GPU sans outil séparé.
L’outil ajoute aussi l’affichage des limites de puissance nominales et maximales sur les GPU NVIDIA, améliore le suivi multi-ventilateurs des GPU Intel discrets, intègre EK-Loop Control, et propose une option d’auto-démarrage sous compte utilisateur classique (droits admin requis à l’installation).
NPU Stress Test et nouveaux capteurs IA
HWiNFO 8.42 introduit un NPU Stress Test réservé à la version Pro. Le développeur indique des améliorations d’initialisation WinRT et EP pour ce test, ainsi que l’ajout de capteurs NPU dédiés pour les NPUs AMD et pour les plates-formes Intel Panther Lake et ultérieures.
HWiNFO 8.42 et la télémétrie avancée
À court terme, le combo VRM des MSI RTX 5090 Lightning, PSU 12V-2×6 et limites de puissance NVIDIA fournit une granularité utile pour profiler les transitoires et calibrer les courbes de ventilation. Le NPU Stress Test aligne l’outil sur l’ère accélératrice côté PC grand public, avec des capteurs prêts pour les générations Panther Lake et suivantes.
Un second Ryzen 9 9950X a lâché après quelques mois d’usage sur la même ASRock X870 Steel Legend WiFi. Le dernier BIOS censé corriger les no-boot n’a rien changé.
Pannes répétées sur AM5 malgré AGESA 1.3.0.0a
ASRock a diffusé des BIOS AM5 intégrant AMD AGESA ComboAM5 PI 1.3.0.0a, d’abord en bêta 4.07.AS01 puis en 4.10 stable, pour résoudre des comportements de no-boot intermittents et restaurer un démarrage normal. Les notes signalent aussi des ajustements de compatibilité mémoire et un correctif pour un échec de boot « sur certaines configurations CPU ».
Malgré ces mises à jour, Tech City Yes rapporte une seconde panne d’un Ryzen 9 9950X, après environ 3 à 4 mois, sur la même X870 Steel Legend WiFi et dans un usage similaire. Le CPU ne démarre plus, reste froid au toucher après mise sous tension, et ne boote sur aucune autre carte testée.
Le créateur a tenté la mise à jour BIOS en s’appuyant sur l’annonce d’ASRock selon laquelle certains CPU « morts » seraient en réalité coincés en no-boot. Dans ce cas, l’AGESA 1.3.0.0a n’a pas permis la moindre récupération. Le test croisé a été facilité par l’accès à un large parc de cartes mères et de processeurs.
Au‑delà des X3D, l’hypothèse d’une série de cartes
Contrairement aux nombreux signalements centrés sur des Ryzen X3D dans le megathread ASRock, le cas documenté concerne un Ryzen 9 9950X standard. Les premières rumeurs évoquant un lot de CPU défectueux perdent en crédibilité ici, le second exemplaire provenant d’une autre source.
Tech City Yes penche plutôt vers une éventuelle série problématique de cartes mères ASRock X870 Steel Legend WiFi. De leur côté, d’autres testeurs, dont Hardware Unboxed, n’ont pas reproduit le souci sur leurs plateformes, ce qui laisse penser à un problème non systémique, possiblement lié à des variables de lot ou d’environnement.
Si la piste d’un lot de cartes s’avère, les impacts seraient limités mais concrets pour les intégrateurs et testeurs sur AM5 : procédures de mise à jour et de validation plus strictes, monitoring thermique et électrique renforcé, et RMA ciblés sur les séries affectées en attendant une clarification d’ASRock et d’AMD.
Nouvelle mise à jour côté ASUS, mais la base reste la même. Le ROG Ally Z1 Extreme reçoit un pilote GPU plus récent, sans basculer sur la branche publique la plus avancée d’AMD.
ROG Ally Z1 Extreme : mise à jour GPU, branche inchangée
ASUS déploie le package graphique AMD 32.0.22029.13001 via les canaux classiques du ROG Ally. Le numéro de branche 22029 ne bouge pas, seul l’identifiant final passe à « 13001 ».
Le précédent build fourni par ASUS datait de novembre 2025, en 32.0.22029.1019. La révision actuelle reste donc dans la même famille 22029, et ne migre pas vers une lignée publique plus récente.
Décalage avec la lignée publique AMD
Côté AMD, le canal Windows public est désormais en série 26.x (branche 32.0.23), avec des sorties publiées en février 2026. Les builds OEM suivent un rythme et une nomenclature distincts, mais l’existence d’une branche amont plus récente est claire tandis que le package ROG Ally demeure en 22029.
La mise à jour d’ASUS ne tranche rien sur la cadence OEM ni sur la validation AMD pour les builds Z1 Extreme. Elle atteste simplement que des packages continuent d’arriver, parfois sous forme d’itérations incrémentales sur une branche antérieure. Aucun détail notable n’est mentionné dans le changelog de ce pilote GPU.
Pour les joueurs, rester en 22029 limite potentiellement l’accès rapide aux optimisations et correctifs présents sur 32.0.23 côté public. À court terme, la stabilité OEM prime, mais le décalage de branche peut retarder certains gains de performances ou de compatibilité jeu.
Un exécutable Windows de 64 Ko qui aligne trois niveaux, quatre armes et un boss. QUOD remet la démo‑scene au service d’un FPS jouable, sans assets lourds.
QUOD 64 Ko : un FPS compact et complet
Développé par Daivuk, QUOD tient dans un unique exécutable de 64 Ko. Le jeu rassemble trois niveaux, une arène de boss, quatre armes, quatre types d’ennemis et des power‑ups, l’ensemble stocké dans le même fichier. Un débrief vidéo détaille les arbitrages techniques derrière cette taille minuscule.
Le titre reste exigeant côté machine : pour jouer confortablement, le développeur recommande un CPU de classe Intel Core i5, un GPU GeForce GTX 770 et 8 Go de RAM. Le choix assume une génération de contenus et d’éclairages au chargement plutôt qu’un simple déballage d’actifs.
QUOD évite les textures classiques. Un outil maison assemble les surfaces via des « recettes » compactes : masques, aplats, bruit, biseaux, tiling, modes de fusion, indicateurs d’émissif. Les paramètres sont reconstruits au chargement, remplaçant des images lourdes par des blocs très courts.
Côté rendu, les faces sont stockées de manière agressivement optimisée. Les UV alignés sur les axes et les rectangles fréquents reçoivent un traitement spécifique pour réduire les données par face. L’éclairage est généré à l’ouverture via des probes, sans lightmaps pré‑bake.
Les modèles et animations compressent vertices, UV et influences d’os dans des allocations de bits serrées, avec mirroring pour abaisser la géométrie stockée. L’audio s’appuie sur une synthèse par couches, combinant sources simples et effets pour les SFX, tandis que la musique utilise un mini tracker à canaux limités.
Le clin d’œil est appuyé : Quake fête cette année les 30 ans de son lancement, avec le QTest multijoueur publié le 24 février 1996 par id Software. QUOD capitalise sur cette esthétique tout en poussant l’optimisation à l’extrême sur PC modernes.
Au‑delà de l’exercice de style, ce type de pipeline « tout paramétrique » montre une voie pour réduire l’empreinte disque et mémoire des jeux indépendants, en échange d’un temps de build au chargement et d’une dépendance au GPU pour la reconstruction et l’éclairage. Un compromis pertinent pour des contenus stylisés et modulaires.
Dynamic Island migre sur Mac et s’accompagne d’OLED et d’un véritable support tactile. Apple prépare une refonte matérielle et logicielle qui change l’interface au quotidien.
MacBook Pro 2026 : Dynamic Island et OLED
Apple finalise une mise à jour majeure des MacBook Pro 14 et 16 prévue pour la fin de l’année. Le traditionnel notch disparaît au profit d’une Dynamic Island repensée pour macOS, avec un découpe dédiée à la caméra frontale et des statuts contextuels à l’écran.
Les dalles passent à l’OLED, en remplacement du Mini LED actuel. Le basculement promet des noirs parfaits, un contrôle pixel par pixel et ouvre la porte à une interaction tactile native.
Gestes tactiles intégrés au système
Apple optimise macOS pour de nouveaux gestes où chaque toucher peut invoquer un panneau ou une interface dédiée. L’approche ne copie pas l’iPad : il s’agit d’un complément aux entrées clavier/souris, pas d’un remplacement.
Cette évolution rompt avec la ligne historique anti-tactile de la marque. Les machines, référencées en interne K114 et K116, marquent un virage assumé alors que le marché a largement adopté l’écran tactile sur portable.
Calendrier et périmètre
Pas de lancement en mars malgré un événement Apple programmé. Les nouveaux MacBook Pro arriveront en fin d’année avec une keynote dédiée, selon Mark Gurman (Bloomberg).
La Dynamic Island sur MacBook ne reprendrait pas Face ID : seule la caméra serait intégrée, le reste étant géré par macOS. Le cœur de la nouveauté réside donc dans l’affichage OLED et l’activation du tactile à l’échelle du système.
Si l’implémentation logicielle tient ses promesses, l’OLED tactile pourrait repositionner le MacBook Pro sur les usages pro/créatifs qui exploitent déjà le multi-touch ailleurs, tout en conservant les performances et l’ergonomie du couple clavier/trackpad.
Discord désamorce la tempête en promettant qu’une large majorité n’aura rien à faire, quand Twitch demande aux partenaires de passer par Persona pour être payés. Deux trajectoires opposées, même sujet sensible.
Discord ajuste son cap sur la vérification d’âge
Après avoir détaillé un déploiement mondial de contrôles d’âge liés au mode « teen-by-default », Discord précise via sa FAQ que plus de 90 % des utilisateurs ne seront pas soumis à une vérification active. Raison invoquée : la majorité n’accède pas à des contenus restreints et les systèmes internes pourront estimer l’âge sans action de l’utilisateur.
Son CTO, Stanislav Vishnevskiy, reconnaît une communication mal perçue et indique que le test de biométrie via Persona mené en janvier est abandonné, faute d’une vérification on-device jugée indispensable. Discord conservera toutefois une vérification via k-ID dans des pays où la loi l’impose, dont l’Australie, le Brésil et le Royaume-Uni, et prévoit une nouvelle option de canal « spoiler » pour éviter d’utiliser des salons restreints à l’âge pour gérer les discussions sensibles.
Vérification d’âge Persona : Twitch sous pression
À l’inverse, un post sur Bluesky révèle que Twitch adopte Persona pour vérifier l’âge des Twitch Partners dans le cadre des paiements. Le processus exige une selfie et un document officiel : carte d’identité, passeport ou permis de conduire.
Ce choix intervient alors que Persona a été pointé du doigt après la découverte d’un frontend exposé et d’indices de liens avec l’administration américaine, assimilés par certains à un dispositif de surveillance de masse. Une explication ultérieure évoque une intégration à venir pour identifier des travailleurs fédéraux à distance, sans dissiper totalement les critiques. Sur Twitch, plusieurs créateurs ont formalisé leur opposition via une lettre ouverte dans User Voices. L’ampleur réelle du déploiement reste floue.
Deux plateformes prises dans le même étau réglementaire suivent des voies divergentes : l’une renforce l’estimation interne avec contraintes locales via k-ID, l’autre externalise l’étape critique à Persona pour sécuriser les paiements. Pour les créateurs, le point de friction sera la confiance dans la biométrie et la gestion documentaire, avec un risque de migration si les exigences perçues comme intrusives s’étendent.
Calendrier serré, contraintes fortes ; Sony ouvre pourtant la porte aux premiers retours publics sur son co-op à trois joueurs. Une fenêtre de trois jours, des créneaux limités et un NDA strict cadrent l’essai.
La bêta fermée se tiendra du 27 février au 1er mars sur PS5 et PC via Steam. L’inscription passe par le site officiel de PlayStation, avec sélection par Sony ; la demande ne garantit pas l’accès.
Zones éligibles : USA, Canada et une large partie de l’Europe. Les horaires sont contraints par région : 16 h–19 h PST côté US et 19 h–22 h CET côté Europe.
Contenu jouable et règles d’accès
Le test couvre trois chasses jouables (Axle, Rem, Sun), deux modes (Machine Incursion, Cauldron Descent) et un seul environnement, Colorado Springs. Le jeu se focalise sur la coopération à trois.
Sur PS5, un joueur admis peut inviter deux amis pour compléter l’escouade. Sur PC, chaque testeur potentiel doit candidater individuellement ; aucun pass ami sur Steam.
Contraintes de confidentialité et communication
Le test est soumis à un NDA strict : pas de partage de gameplay, d’avis, de captures ni de streaming en dehors du serveur Discord des testeurs validés par Sony.
Pour un projet révélé récemment, l’ouverture rapide d’une bêta fermée et la restriction des plages de jeu indiquent un calibrage précis des serveurs et de la télémétrie. L’absence de pass ami sur Steam limite volontairement la variabilité des configurations et du matchmaking PC, signe d’un focus qualité sur des scénarios contrôlés avant un élargissement.
Quand on parle d’optimisation pour le jeu en ligne, l’attention se porte généralement sur le matériel : processeur, carte graphique, mémoire ou stockage. Pourtant, en multijoueur, la qualité de la connexion réseau reste un facteur déterminant. Une configuration haut de gamme ne compensera jamais une latence instable, un routage inefficace ou des pertes de paquets.
Les VPN sont souvent présentés comme une solution pour améliorer les performances en ligne. Mais que peuvent-ils réellement apporter aux joueurs ? Entre promesses marketing et réalité technique, il est nécessaire de faire le tri.
VPN et latence : une réalité technique incontournable
D’un point de vue strictement réseau, un VPN ajoute toujours une étape supplémentaire entre votre PC et le serveur de jeu. Sans VPN, le trajet est direct : votre PC communique avec votre fournisseur d’accès à Internet, puis avec le serveur du jeu. Avec un VPN, les données transitent d’abord par un serveur intermédiaire, où elles sont chiffrées puis redirigées.
Cette étape supplémentaire implique presque systématiquement une légère augmentation de la latence, généralement comprise entre quelques millisecondes et plusieurs dizaines selon la qualité du service utilisé. Pour le jeu compétitif, où chaque milliseconde compte, ce point est essentiel : un VPN n’accélère pas une connexion par défaut.
Pourquoi certains joueurs constatent malgré tout un gain
Si les VPN sont parfois associés à une amélioration de l’expérience de jeu, c’est parce qu’ils peuvent aider dans des situations bien spécifiques.
Routage inefficace du FAI
Il arrive que le chemin réseau choisi par un fournisseur d’accès ne soit pas optimal vers certains serveurs de jeu, notamment à l’international. Dans ce cas précis, passer par un serveur VPN disposant de meilleurs accords de peering peut parfois offrir un trajet plus stable, voire légèrement plus court.
Congestion ou saturation intermédiaire
Lorsque certains points du réseau sont saturés aux heures de pointe, un tunnel VPN peut contourner ces nœuds problématiques. Le résultat n’est pas un ping plus bas dans l’absolu, mais une latence plus régulière, avec moins de pics.
Accès à des serveurs géographiquement bloqués
Ce point ne concerne pas directement la performance, mais l’accessibilité. Pour jouer sur des serveurs non disponibles dans votre région, le VPN reste parfois la seule solution. La latence restera élevée, mais l’accès devient possible.
Il est important de rappeler que ces cas restent minoritaires. Sur une connexion fibre correctement routée en France ou en Europe, l’impact positif d’un VPN est souvent nul, voire négatif.
DNS et gaming : remettre les choses en perspective
Changer de serveur DNS peut améliorer la rapidité de certaines opérations, comme la connexion à un launcher, l’accès à un service en ligne ou la résolution initiale d’un serveur. En revanche, une fois la partie lancée, le DNS n’intervient plus dans les échanges de données.
Un DNS plus rapide ne réduit donc pas le ping en jeu, mais peut améliorer la réactivité globale du réseau. C’est une optimisation utile, mais à ne pas confondre avec une amélioration directe des performances in-game.
Tester un VPN de manière rationnelle
Si vous envisagez d’utiliser un VPN pour le gaming, la seule approche valable reste la mesure.
Commencez par établir une base : mesurez votre ping moyen, observez sa stabilité et vérifiez l’absence de perte de paquets, idéalement en connexion Ethernet. Ensuite, testez un VPN en choisissant un serveur situé dans la même région que le serveur de jeu et en utilisant un protocole moderne comme WireGuard afin de limiter la surcharge.
Lorsque cela est possible, le split tunneling permet de faire transiter uniquement le trafic du jeu par le VPN, tandis que le reste du système utilise la connexion classique. Cette approche évite d’alourdir inutilement le trafic global.
Dans les rares situations où un VPN peut réellement apporter un bénéfice en jeu (routage dégradé, accès à des serveurs étrangers, protection contre certaines attaques), il reste préférable de tester un service payant disposant d’une infrastructure réseau solide et de protocoles modernes. À ce titre, certaines périodes promotionnelles comme les offres VPN cyber monday permettent d’évaluer ce type de solution à moindre coût, tout en conservant la possibilité de comparer les résultats avec et sans VPN.
Les erreurs courantes à éviter
L’utilisation d’un VPN gratuit est souvent contre-productive : serveurs saturés, latence élevée et instabilité sont monnaie courante. Choisir un serveur VPN trop éloigné du serveur de jeu annule également tout bénéfice potentiel. Enfin, rester en Wi-Fi instable, télécharger des mises à jour en arrière-plan ou confondre optimisation réseau et optimisation matérielle sont autant d’erreurs fréquentes.
Avant même d’envisager un VPN, les optimisations les plus efficaces restent simples : connexion filaire, fermeture des applications gourmandes en bande passante, configuration correcte du routeur et vérification de la stabilité locale.
Conclusion
Un VPN n’est ni une solution miracle ni un outil indispensable pour le gaming. Dans la majorité des cas, il ajoute de la latence et n’améliore pas les performances. Toutefois, dans des contextes précis liés au routage, à la congestion ou à la sécurité, il peut offrir une connexion plus stable et plus prévisible.
La meilleure approche reste méthodique : tester, mesurer et conserver uniquement les réglages qui apportent un bénéfice réel. En matière de jeu en ligne, la stabilité et la constance priment toujours sur les promesses.
Présenté pour la première fois au Computex 2025 avant d’être réintroduit au CES 2026, le TRYX FLOVA F50 est désormais officiellement disponible en France depuis le 23 février 2026. Un boîtier qui ne laisse pas indifférent, entre façade en tissu assumée et ventilateur tangentiel propriétaire.
Un design lifestyle qui tranche avec le marché
TRYX avait fait sensation au Computex 2025 avec une ligne de produits résolument différente de ce qu’on voit habituellement sur le marché. Parmi les boîtiers exposés, le FLOVA se distinguait déjà par son positionnement clairement lifestyle : là où l’ARCVISION misait sur le futurisme avec son écran AMOLED intégré, le FLOVA choisissait le tissu.
Et pas seulement en façade. Le revêtement textile couvre l’avant du boîtier ainsi qu’une partie basse gauche, conférant une identité premium et singulière que vous ne retrouverez nulle part ailleurs dans cette gamme de prix. Trois coloris sont disponibles au lancement : noir, blanc et rose — ce dernier étant particulièrement rare sur ce segment de marché.
Les finitions sont jugées très soignées à la prise en main, avec une structure en acier d’environ 10 kg qui inspire confiance. Les dimensions s’établissent autour de 50 cm de hauteur, 48 cm de profondeur et 24 cm de largeur, ce qui en fait un moyen tour de gabarit classique.
Le ventilateur tangentiel Cross Flow : l’idée centrale
Le tissu épais en façade pose évidemment un problème : impossible d’aspirer l’air de façon frontale classique comme avec un mesh conventionnel. TRYX l’a parfaitement anticipé en développant une solution maison : le ventilateur Cross Flow.
Ce ventilateur au format atypique mesure 250 mm de hauteur pour seulement 50 mm de diamètre. Positionné derrière un évent vertical en façade, il aspire l’air latéralement et l’injecte directement vers les composants internes, compensant ainsi l’absence totale d’entrée d’air frontale. Des lames orientables permettent d’ajuster la direction du flux selon la configuration.
Trois modes de fonctionnement sont disponibles :
Eco : 1 100 tr/min
Performance : 1 800 tr/min
Over-Drive : 2 500 tr/min
Un ventilateur arrière de 120 mm non ARGB complète la ventilation. Ce dispositif sera à surveiller de près côté acoustique lors des tests, notamment en Over-Drive — c’est justement l’un des points que nous vérifierons dans notre test complet.
Compatibilité et aménagement intérieur
Malgré son approche esthétique forte, le FLOVA F50 ne sacrifie pas la polyvalence. Il accepte les cartes mères Mini-ITX, Micro-ATX et ATX, ainsi que les formats BTF/PZ. Voici les contraintes à retenir pour votre configuration :
Hauteur ventirad CPU : 170 mm maximum
Radiateur watercooling : jusqu’à 360 mm en partie supérieure
Longueur carte graphique : 360 mm avec le Cross Flow installé, 420 mm sans
Longueur alimentation : 200 mm maximum
La présence du ventilateur tangentiel impose donc une légère contrainte sur la longueur des GPU, mais son retrait libère de l’espace pour les cartes haut de gamme les plus volumineuses.
Prix et disponibilité
Le TRYX FLOVA F50 est distribué en Europe par Caseking. Les tarifs conseillés pour la France sont les suivants :
Version noire : 139,90 € TTC
Versions blanche et rose : 149,90 € TTC
À ce positionnement tarifaire, le FLOVA se place comme une alternative design accessible face aux boîtiers mid-tower classiques, en assumant pleinement son parti pris esthétique plutôt qu’en cherchant à tout prix à optimiser les performances thermiques brutes.
Notre avis à chaud
Le TRYX FLOVA F50 est l’un de ces produits qui divise, et c’est précisément ce qui le rend intéressant. La réception communautaire est partagée : certains saluent l’originalité du tissu et l’audace du Cross Flow, d’autres s’interrogent sur la gestion de la poussière à long terme ou sur l’efficacité réelle du ventilateur tangentiel face à une configuration exigeante.
Ce que TRYX réussit ici, c’est d’apporter une vraie identité dans un marché de boîtiers souvent uniforme. Si le PANORAMA représente l’ambition technologique de la marque, le FLOVA incarne son côté lifestyle décomplexé. Les deux approches sont cohérentes avec ce que nous avions observé au Computex 2025.
Sortie calée au 15 septembre 2026, en plein cœur de l’automne promis. Insomniac verrouille l’exclu PS5, sans fenêtre PC ni Xbox.
Marvel’s Wolverine : date, plateformes, contenu
Insomniac Games a confirmé sur X la disponibilité de Marvel’s Wolverine le 15 septembre 2026 sur PS5, au milieu du créneau « fall 2026 » précédemment annoncé. Le PlayStation Store ne mentionne aucune sortie PC ou Xbox, et le trailer de date reste muet sur d’autres plateformes.
Le jeu suit Logan en quête de réponses sur son passé, avec Sabretooth et Mystique au menu. Les séquences montrent des environnements allant de l’Ouest américain à des ruelles japonaises. La fiche du PS Store confirme un titre solo uniquement, jouable hors ligne.
Fenêtre PC incertaine, précédent Spider-Man 2 en référence
Marvel’s Spider-Man 2, aussi développé par Insomniac pour PS5, est sorti en octobre 2023 avant d’arriver sur PC en janvier 2025. Si le même schéma s’appliquait, une arrivée PC ne surviendrait pas avant plus d’un an après le lancement PS5. Aucune indication officielle pour l’instant.
Ce positionnement sécurise un second semestre 2026 fort pour Sony et renforce la stratégie d’exclusivités avant d’éventuels ports tardifs. Pour les joueurs PC, l’absence de fenêtre ferme reporte toute perspective à 2027 au plus tôt, sous réserve d’un alignement interne et d’un calendrier de portage similaire aux précédents titres Insomniac.
Anthropic pousse plus loin son offensive B2B et intègre désormais Claude au cœur des outils de bureau. Le pack « Cowork & Plugins for the Enterprise » permet d’appeler l’assistant directement dans Excel, PowerPoint et Slack, sans copier-coller, avec un contexte préservé entre applications.
L’éditeur positionne Claude comme une couche opérationnelle par défaut dans les workflows. Contrairement aux approches qui cantonnent l’IA à une fenêtre séparée, l’assistant s’insère dans le flux de travail et dans les documents eux-mêmes. Objectif: accélérer l’exécution plutôt que multiplier les allers-retours entre chat et outils métiers.
Le mouvement répond frontalement à Microsoft, qui a déjà infusé M365 Copilot dans Word, Excel, PowerPoint, Outlook et Teams, avec Copilot Studio pour la personnalisation. OpenAI a dévoilé Frontier sur la base de ChatGPT Enterprise, tandis que Google pousse Gemini dans Gmail et Workspace. Amazon avance une offre comparable avec Quick Suite.
Plugins ouverts, connecteurs et gouvernance
Le cœur de la proposition réside dans des plugins personnalisables, orientés postes et métiers (finance, design, opérations, RH). Anthropic promet des modules open source et portables, évitant l’enfermement propriétaire et laissant la main aux équipes IT pour les modifier et les déployer.
Certains plugins sont co-développés avec des partenaires comme FactSet, S&P et Slack. Anthropic ajoute des connecteurs pour Google Drive, Gmail, DocuSign et d’autres sources, de façon à exposer des données d’entreprise en temps réel sous contrôle IT. Les organisations peuvent en parallèle bâtir un store privé et gérer l’accès à l’échelle.
L’Oréal, Deloitte et Thomson Reuters figurent parmi les clients cités, avec des assistants spécialisés dédiés à l’automatisation des processus internes. Anthropic projette l’extension de Claude Code, présenté comme un levier de transformation du développement logiciel en 2025, à l’ensemble des métiers de la connaissance en 2026.
Concurrence frontale avec Microsoft et OpenAI
L’intégration native d’Anthropic dans Excel et PowerPoint vise la même zone de valeur que M365 Copilot, mais mise sur l’ouverture des plugins et leur portabilité pour séduire les DSI réticents au verrouillage écosystème. Dans un marché déjà structuré par les suites bureautiques, la clé sera la qualité des connecteurs, la latence in-app et la granularité des contrôles de sécurité.
Si Anthropic parvient à standardiser des assistants métiers crédibles autour de partenaires data comme FactSet et S&P, tout en gardant une implémentation réellement agnostique, l’équation peut bousculer les modèles captifs de la productivité. À défaut, l’avantage d’intégration de Microsoft restera déterminant dans les grands comptes déjà verrouillés sur M365.
Un agent de trading expérimental conçu par un ingénieur d’OpenAI a vidé par erreur son portefeuille crypto après une simple sollicitation sur X. Créé par Nick Pash pour tester la plateforme OpenClaw, « Lobstar Wild » a transféré l’intégralité de ses jetons Lobstar au lieu d’envoyer 4 dollars demandés par un utilisateur affirmant aider un oncle atteint du tétanos. La transaction a représenté près de 250 000 dollars au moment de l’envoi, avant que la capitalisation éclair du jeton ne propulse la valeur de l’envoi au-delà de 670 000 dollars.
L’agent, doté d’un portefeuille d’environ 50 000 dollars, d’un compte X et d’API pour la recherche web, l’analyse d’images et l’exécution de transactions, disposait d’une autonomie décisionnelle complète. Après le transfert, le destinataire a liquidé au moins 40 000 dollars et revendiqué le lancement d’un nouveau token, posant aussitôt la question d’une arnaque opportuniste plutôt que d’une simple maladresse.
Un bug de validation dans un framework obsolète
Face aux soupçons, Nick Pash a détaillé la chaîne technique et reconnu une « erreur de validation » liée à l’usage d’une ancienne version du framework OpenClaw. Selon lui, un défaut d’interception d’instructions mal formatées a entraîné la décision de transfert total du solde au lieu d’un micro-paiement. Le comportement ultérieur de l’agent sur X, oscillant entre humour noir et auto-justification, n’a fait qu’alimenter le buzz autour du jeton Lobstar.
Sur le plan industriel, l’incident illustre les risques d’agents autonomes reliés à des systèmes transactionnels sans garde-fous robustes: validation stricte des montants, plafonds journaliers, approbation humaine au-delà de seuils, sandboxing des clés, et tests adversariaux sur les formats de requêtes. Dans l’écosystème crypto, où la liquidité et la spéculation amplifient chaque anomalie, un défaut de contrôle dans la chaîne décisionnelle suffit à déclencher des mouvements de marché disproportionnés et difficiles à révoquer.
Selon Axios, le Pentagone a signé avec xAI pour autoriser l’usage de Grok dans des systèmes classifiés. Jusqu’ici, seul Claude d’Anthropic était validé sur les environnements traitant du renseignement « top secret », de la R&D d’armements et des opérations. La fenêtre se referme toutefois pour Anthropic, sous pression du DoD qui exige un accès sans restriction autre que la loi américaine.
Anthropic a refusé de lever ses garde-fous, notamment l’interdiction des usages de surveillance de masse des citoyens américains et du développement d’armes totalement autonomes. À l’inverse, xAI aurait accepté le standard « any lawful use » selon Axios et le New York Times, un alignement perçu comme décisif pour l’accès au segment classifié. xAI n’a pas commenté.
Un haut responsable du DoD évoque un ultimatum adressé mardi à Dario Amodei, PDG d’Anthropic, lors d’une réunion au Pentagone. Si la société ne retire pas ses limitations, elle pourrait être qualifiée de « risque pour la chaîne d’approvisionnement » et exposée à des mesures punitives. Le même responsable reconnaît toutefois qu’un retrait de Claude serait techniquement difficile et coûteux à court terme.
Grok entre dans le cœur classifié, Google et OpenAI en négociations
Grok, Gemini et ChatGPT sont déjà utilisables sur des systèmes non classifiés du ministère. Google et OpenAI négocient depuis plusieurs mois pour franchir le cap du classifié, avec une accélération récente côté Pentagone en prévision d’une rupture potentielle avec Anthropic. Le New York Times indique que Google serait « proche » d’un accord, alors qu’OpenAI n’aurait pas encore de trajectoire arrêtée.
Le DoD martèle que tout fournisseur devra accepter le standard « any lawful use ». Des sources internes indiquent que l’issue reste incertaine pour OpenAI, même si les discussions se poursuivent. Un autre responsable nuance l’idée que Google irait « bien plus vite » qu’OpenAI, affirmant que les deux dossiers avancent en parallèle et que le ministère s’attend, in fine, à des signatures des deux côtés.
Conséquences opérationnelles et rapport de force
L’entrée de Grok sur des réseaux classifiés change le rapport de force: xAI s’aligne sur le cahier des charges le plus permissif demandé par le DoD, quand Anthropic défend des lignes rouges éthiques. Le Pentagone achète ainsi de la continuité opérationnelle et des options de repli, au prix d’un bras de fer avec un acteur clé déjà déployé. Si Claude est écarté, les migrations de charges sensibles et la requalification des outils en environnement classifié pèseront lourdement sur les équipes SecOps et IA du DoD, avec un risque de friction technique à court terme malgré l’effet d’annonce.
Des mesures plus fiables et un contrôle plus fin des affichages, le tout sans bricolage. La nouvelle mouture renforce clairement l’usage avancé sur des machines multi-écrans et des SSD NVMe récents.
AIDA64 8.25 affine l’intégration matérielle
FinalWire publie AIDA64 8.25, itération du socle 64 bits de la branche 8.xx, avec un focus sur l’intégration bas niveau et l’automatisation. Le pilote NVMe natif améliore la détection et le reporting des SSD performants. Le SensorPanel gagne un ancrage par écran plus précis et une tenue améliorée après veille, redémarrage de Windows ou reconfiguration d’affichage.
Le monitoring des alimentations MSI MPG Ai1300TS et Ai1600TS est désormais supporté directement. La compatibilité LCD s’élargit avec la prise en charge des modules WeAct. Une localisation en azéri s’ajoute au catalogue.
Personnalisation et automatisation renforcées
Le SensorPanel profite d’un repositionnement plus robuste dans les cas limites, utile sur les postes à multiples écrans ou après des cycles de veille. Côté entreprise, un AIDA64 Command Line Builder en ligne facilite la génération des options de ligne de commande pour les produits Business, limitant les erreurs de déploiement et de scripts. Les options CLI restent exclusives aux éditions professionnelles.
Téléchargement et disponibilité
AIDA64 Extreme v8.25 est disponible au téléchargement. L’ensemble des nouveautés couvre à la fois les usages enthusiast et les déploiements en parc, sans modifier les habitudes d’exploitation existantes.
Le pilote NVMe natif et la stabilisation du SensorPanel répondent aux irritants les plus fréquents des configurations haut de gamme. L’ajout du monitoring PSU MSI et des LCD WeAct montre une extension pragmatique des périphériques couverts, utile aux intégrateurs comme aux utilisateurs qui veulent une télémétrie complète sur leur build.