Jetpack Cat cartonne, mais son agressivité va être réduite pour relancer sa présence en compétitif. Dans le même temps, Blizzard assume des héros plus atypiques et un rythme soutenu.
Overwatch : cadence d’un héros tous les 2 mois et place aux profils atypiques
Avec le rebranding d’Overwatch 2 en Overwatch, Blizzard a annoncé une série de nouveaux héros dès la première saison de cette nouvelle ère. Alec Dawson, associate director, explique que la popularité de Jetpack Cat et d’autres personnages non conventionnels encourage l’équipe à explorer davantage de héros « oddball ».
Objectif affiché : un nouveau héros chaque saison sur la première année, soit un ajout tous les deux mois, tant que c’est soutenable et hors événements majeurs de gameplay. Ce rythme offre, selon Dawson, plus d’occasions de tenter des approches de gameplay et des rôles différenciants pour élargir l’éventail de styles jouables.
Jetpack Cat : la plus bannie, nerf ciblé à venir
Dans un échange avec PCGamesN, Dawson indique que Jetpack Cat est actuellement la héroïne la plus bannie. Blizzard veut corriger le tir pour la rendre plus jouable en compétitif, en « calmant un peu son agressivité ».
Le nerf visera sa capacité à plonger les backlines, surtout lorsque ses perks Claws Out (mineur) et Territorial (majeur) se cumulent et en font une menace capable de prendre des 1v1. L’équipe va « réduire un peu » cette synergie et observer l’impact. Le système de bans sert de guide pour ajuster l’équilibrage, un point clé avec la cadence d’ajouts accélérée.
Blizzard montre aussi qu’il écoute les retours sur le design des héros, comme l’illustre la révision prévue d’Anran après des critiques sur son aspect jugé trop générique.
Si la cadence bimestrielle tient, l’équilibrage deviendra un chantier continu, soutenu par les données de bans et la réception communautaire. La marge de manœuvre pour des profils « oddball » pourrait dynamiser la méta, à condition de contenir les excès de kits trop polarisants comme celui de Jetpack Cat.
Six mois sans mise à jour, puis un correctif tombe et rebats les cartes pour la ROG Ally. Bonne nouvelle pour les joueurs, mais le signal reste brouillé côté support global.
AMD Ryzen Z1 Extreme : retour des mises à jour sur ROG Ally
ASUS déploie un nouveau package pilote pour sa ROG Ally, alors que la console était figée sur des pilotes SoC datant d’août 2025. Le SoC AMD Ryzen Z1 Extreme, annoncé avec un cTDP configurable de 9 à 30 W, impose des validations OEM spécifiques, ce qui peut allonger les cycles de diffusion.
La situation contrastait avec des signaux défavorables venus d’ailleurs : Lenovo a confirmé en Corée l’arrêt de son plan de mises à jour pour ses machines équipées, laissant les propriétaires de Legion Go sans nouveaux pilotes officiels. Sur ROG Ally, au moins une livraison reprend, mais sans garantie de cadence.
Un support fragmenté entre OEMs et configurations cTDP
La responsabilité de l’irrégularité reste floue entre AMD et les OEMs. Les variantes de configuration liées au cTDP 9–30 W exigent des campagnes de test par modèle avant diffusion publique, ce qui morcelle le calendrier. Pendant ce temps, certains utilisateurs basculent vers Linux pour prolonger la durée de vie logicielle via des pilotes communautaires.
ASUS montre un signe de suivi minimal, là où Lenovo concentre désormais ses ressources sur des SoC plus récents. Pour les possesseurs de ROG Ally, cette reprise peut stabiliser la compatibilité jeu par jeu à court terme. L’absence de visibilité sur la prochaine fenêtre de publication maintient toutefois un risque de stagnation.
Le contraste ASUS/Lenovo illustre un support pilote désormais piloté par les OEMs plutôt que par une filière unifiée. À moyen terme, l’avantage ira aux plateformes avec pipelines de validation courts et intégration logicielle maîtrisée, surtout sur des SoC mobiles à enveloppes TDP variables.
Adobe lance « Quick Cut » dans Firefly, une fonction d’assemblage automatique qui génère un premier cut à partir d’instructions en langage naturel. L’outil sélectionne les plans pertinents, enchaîne les séquences avec des transitions cohérentes et peut insérer des B‑rolls, le tout directement dans l’éditeur vidéo Firefly.
Un premier montage assisté, piloté par texte
Dans l’interface, un champ de prompts permet de définir l’objectif créatif, le format d’image, le tempo des transitions ou d’ajouter des médias complémentaires. Quick Cut s’applique à l’ensemble d’un projet, à une seule timeline ou à un segment précis, selon le besoin.
Adobe précise que la sortie vise un rough cut exploitable, mais pas une version finalisée. Les créateurs restent aux commandes pour l’affinage, la direction artistique et la signature visuelle. Mike Folgner, en charge des produits vidéo et IA, met en avant le gain de temps sur les tâches répétitives au profit du travail de style.
Capacités en hausse sur la suite vidéo Firefly
Quick Cut s’inscrit dans l’évolution récente de Firefly côté montage. En décembre, Adobe a ajouté un éditeur basé sur une timeline avec calques et commandes textuelles pour manipuler des objets (échelle, rotation, etc.). Firefly prend déjà en charge l’édition vidéo par prompts pour ajuster éléments de scène, colorimétrie et angles de caméra, avec une gestion plus claire des frames, de l’audio et des détails via la vue timeline.
Au‑delà de l’effet d’annonce, l’intérêt est pragmatique : accélérer le dérushage et la construction d’un squelette narratif, là où se concentrent les goulots d’étranglement en social, pub et contenus courts. Si la promesse de transitions « intelligentes » et de B‑rolls génératifs tient la route sans artefacts, Adobe consolidera une position déjà forte face aux éditeurs NLE historiques qui ajoutent l’IA par briques plutôt que par flux de travail intégré.
Quelques jours après son arrivée chez OpenAI, Peter Steinberger, connu comme le « père du homard » pour son bot iMessage, livre un entretien dense où il déroule la genèse d’OpenClaw, ses angles morts de sécurité et une manière de travailler avec les agents IA qui tranche avec les habitudes des devs seniors. Ton direct, peu de vernis, et des aveux qui piquent : « la plupart du code est ennuyeux », « on ne peut pas empêcher les abus, seulement éviter la casse ».
De la pause forcée à l’obsession OpenClaw
Après treize ans à piloter PSPDFKit, Steinberger raconte un coup de frein net, puis un électrochoc en testant Claude Code. Il emballe un projet inachevé en Markdown, demande une spec, pipeline d’auto-tests, et voit un prototype passer de zéro à « ça tourne » en une heure, malgré un code « moyen ». La bascule n’est pas la qualité, c’est le débit: tout à coup, ce qui n’était pas faisable devient atteignable à vue humaine.
Les mois suivants, il enchaîne des dizaines d’expériences publiques. Le fil conducteur n’était pas un « masterplan » mais une série de preuves d’usage: lire ses historiques, agir à sa place, manipuler des outils locaux, survivre à des réseaux pourris, traduire des images, pousser des messages pour lui. Un moment charnière: un vocal sans extension traité de bout en bout par l’agent, qui détecte l’encodage Opus, convertit via un outil local, trouve une clé d’environnement et passe en transcription en ligne. Pour Steinberger, c’est la démonstration que l’autonomie émerge dès qu’on donne un trousseau d’outils cohérent à la machine.
À l’automne, il balance un premier OpenClaw « bricolé en une heure », puis itère jusqu’au cinquième nom. Il l’utilise pour se déboguer lui-même, le lâche dans un Discord sans sandbox au départ, observe un agent qui se relance après arrêt via un service auto-restart, et va jusqu’à nommer son Mac Studio « château ». Il place un fichier canari avec valeurs et garde-fous, constate des tentatives de prompt injection, et des refus parfois cinglants du modèle. Depuis, une sandbox a été ajoutée.
Intentions avant le code, et 2 000 PR à filtrer
OpenClaw a déjà absorbé près de 2 000 PR. Steinberger ne fait pas du review ligne par ligne en première intention: il commence par l’intention. Beaucoup de contributions portent une solution locale qui ne s’insère pas au bon endroit de l’architecture. Il préfère clarifier le problème avec le modèle, cadrer s’il s’agit d’un sujet de design, de plateforme ou d’implémentation, puis seulement toucher aux branches et au merge. Même quand il réécrit, il conserve l’attribution: « les idées comptent ».
Sa posture d’auteur a évolué avec les agents: il optimise la base pour qu’un agent y performe, ce qui ne recoupe pas exactement l’ergonomie pour humains. Le code n’a pas à coller à son esthétique, l’orientation prime; si un goulot réel apparaît, on optimise. Et il assume une lecture de code minimale tant que le modèle mental colle à la sortie et que l’UX cible est satisfaite.
Sécurité, mésusages et limites d’un projet « personnel »
Sur la sécurité, le constat est froid: il ne peut pas empêcher les mésusages. Un outil web pensé pour du réseau de confiance s’est retrouvé exposé en clair, malgré les avertissements répétés dans la doc. Dès lors qu’une configuration permet l’exposition, la surface de risque grimpe et les chercheurs ont raison de le pointer. Il a intégré un spécialiste sécu et travaille à compatibiliser ces usages « non prévus » tout en essayant d’empêcher les sorties de route évidentes. Message implicite: « ne jouez pas avec le feu », mais le feu circule déjà.
Côté ergonomie, l’objectif reste paradoxal: que sa mère puisse l’installer, tout en gardant un terrain de jeu pour bidouilleurs. Par défaut, l’agent tourne au plus près du code source, le comprend et peut s’auto-modifier sur demande. Résultat inattendu: des débutants en PR participent via des « demandes d’intention » plutôt que de longues branches, l’agent servant d’exécuteur ou de médiateur technique.
Méthode de travail avec les modèles
Le passage à un environnement type Codex a densifié son activité GitHub: pas seulement grâce au modèle, mais via une intégration plus fluide dans sa routine. Il met en garde contre le « piège des agents » fait de sur-configuration stérile. Sa pratique est frugale: expliquer l’objectif, demander les questions bloquantes, garder la carte mentale globale et découper en modules indépendants pour paralléliser sans collision.
Pour l’écosystème dev, le message est clair: l’avantage compétitif bascule vers ceux qui apprennent à manier ces outils avec rapidité et discernement. Si la cadence d’OpenClaw tient, on pourrait voir se normaliser des workflows où l’intention architecturale, vérifiée par agents, prime sur la micro-police du code, avec un corollaire industriel évident: moins de friction pour prototyper des intégrations locales puissantes, mais une dette sécurité à traiter dès la conception, surtout lorsque l’agent touche aux clés, aux fichiers et aux services personnels.
Nouvelle CEO, nouvelle feuille de route : Microsoft Gaming affiche un retour assumé à l’ADN Xbox, en redonnant à la console et aux licences maison un rôle central. En toile de fond, la prochaine génération de hardware se profile autour de 2028.
Xbox recentre sa stratégie sur la console et ses productions internes
Dans un entretien à Windows Central, Asha Sharma, nouvelle CEO de Microsoft Gaming, fixe un cadre sans ambiguïté : retour à l’ADN Xbox, avec la console comme point de départ et une réduction des barrières entre appareils. Elle insiste sur un investissement accru pour permettre aux développeurs de cibler plusieurs matériels via un seul pipeline de build.
Sharma assume une phase d’audit interne : comprendre le « pourquoi » des décisions passées et piloter à la valeur vie client plutôt qu’à l’efficacité court terme. Elle rappelle un engagement vis-à-vis des fans historiques investis depuis 25 ans dans l’écosystème et ses univers.
Sur l’IA générative, le positionnement reste utilitariste. Outils oui, dérives non. « Je ne noierai pas l’écosystème sous du slop », tranche-t-elle, refusant les contenus bâclés ou dérivatifs.
Next-gen autour de 2028 : vers un hybride PC-console
Les deux dirigeants confirment que la prochaine étape se joue sur le hardware next-gen, avec un lancement évoqué autour de 2028 et une orientation hybride PC-console. Objectif affiché : lisser l’expérience entre types d’appareils et renforcer l’attractivité pour les studios, des choix d’architecture jusqu’aux outils.
Intégration précoce hardware/first-party
Matt Booty, Chief Content Officer, précise que l’organisation est conçue pour le first-party, avec une implication directe dans les décisions matérielles amont. Il cite l’optimisation de titres comme Gears of War pour de nouveaux appareils, citant l’exemple de la Xbox Ally, et réaffirme le rôle de pilier éditeur interne en synergie avec l’équipe plateforme.
Si l’orientation multiplateforme reste présente (« rencontrer les joueurs où ils sont »), le message central est la consolidation de l’offre console, soutenue par des outils unifiés et des builds mutualisés afin de limiter la fragmentation et accélérer les déploiements.
Le repositionnement met la pression sur la feuille de route hardware et sur la qualité du pipeline first-party. S’il est tenu, l’hybride PC-console de 2028 pourrait clarifier la proposition Xbox côté performance, déploiement et support développeurs, à condition d’aligner outils, SDK et calendrier studios.
Un bug de lecture VRAM pouvait fausser les stats. Valve l’a corrigé côté client, avec impact direct sur la fiabilité des prochains relevés.
Steam met à jour le client Beta et corrige la VRAM
Valve a déployé une correction dans le Steam Client Beta daté du 24 février 2026 pour un problème de reporting matériel affectant le Hardware and Software Survey. La VRAM de certaines cartes graphiques était mal remontée, biaisant la distribution publiée.
Le nombre de systèmes touchés n’est pas précisé. Les notes de version confirment toutefois que des valeurs incorrectes pouvaient être enregistrées sur certains GPU, avec un effet direct sur les parts par capacités mémoire affichées.
Sélection du GPU affiché et reporté revue
En configuration multi-adaptateurs, Steam choisit désormais l’adaptateur disposant de la plus grande quantité de VRAM pour l’affichage et le reporting. L’objectif est de limiter les cas où l’iGPU ou un adaptateur secondaire remplace à tort la carte dédiée principale.
Le relevé de janvier 2026 montrait une part importante de systèmes à 8 Go de VRAM. L’ampleur de la distorsion liée au bug reste inconnue, mais l’aveu de Valve indique des entrées mal renseignées avant ce correctif.
Impact attendu sur les prochaines publications
La mise à jour étant cantonnée au client Beta, l’effet sur les résultats de février devrait être limité. Le correctif produira un impact net une fois déployé sur le canal stable, avec un décalage probable d’un cycle de sondage pour que la correction se reflète pleinement dans les données.
Les critiques récurrentes visent souvent des déréférencements côté Radeon en présence d’iGPU et de dGPU. Le nouveau critère “plus de VRAM” devrait réduire ces erreurs sur les configurations modernes mêlant Radeon intégré et GeForce RTX série 50, même si des cas limites peuvent persister selon les drivers et l’ordre d’initialisation.
Si la correction stabilise la sélection d’adaptateur et la capacité mémoire, la photographie du parc PC côté VRAM pourrait évoluer à la marge, notamment sur les segments 6/8/12 Go où l’iGPU biaisait certains relevés. C’est un point de vigilance pour interpréter les courbes de parts dans les prochains mois.