↩ Accueil

Vue lecture

Razer Project AVA : Min-Liang Tan fustige le « GenAI slop » et précise la feuille de route

Un CEO de l’hardware gaming qui parle d’IA en assumant le tri qualité plutôt que la surenchère de contenu, ça tranche. Chez Razer, l’objectif est clair : pas de « GenAI slop », mais des outils concrets qui servent le jeu et ses auteurs.

Razer Project AVA et la ligne rouge sur la génération de contenu

Min-Liang Tan pose le cadre : « En tant que joueurs, ce qui nous déplaît, c’est le GenAI slop ». Personnages difformes, narrations bâclées : le problème n’est pas l’IA en soi, mais l’usage qui en est fait. L’IA doit renforcer la fabrication des jeux, pas remplacer la créativité humaine.

Razer Project AVA : Min-Liang Tan fustige le « GenAI slop » et précise la feuille de route

Razer revendique plus de 600 millions de dollars d’investissements IA, avec des objectifs précis : détecter plus tôt les problèmes, automatiser les tâches répétitives et décupler la capacité de production sans dégrader la qualité. L’approche reprend la logique « concepts au CES, industrialisation si l’intérêt est là », déjà vue avec Project Carol devenu produit commercial.

Prototype holographique, multi‑modèles et choix du LLM

Présenté comme coach virtuel au CES 2025, Project AVA évolue en compagnon IA de bureau à composante « semi‑physique ». Au CES 2026, Razer a montré une version holographique : un affichage animé de 5,5 pouces avec eye‑tracking, mouvements expressifs et synchronisation labiale naturelle. AVA comprend le contexte et interprète l’activité à l’écran via un mode PC Vision, avec réponses en temps réel.

Razer Project AVA : Min-Liang Tan fustige le « GenAI slop » et précise la feuille de route

Les avatars, conçus avec Animation Inc., incluent Kira et Zane de Razer, ainsi que SAO, influenceuse japonaise, chacun avec style visuel et personnalité conversationnelle distincts. Pour la démo, Razer a retenu Grok (xAI) pour sa vivacité et sa personnalité. Le message est néanmoins clair : AVA est une plateforme ouverte et multi‑modèles, compatible avec divers LLM au lancement, afin de laisser le choix à l’utilisateur selon l’usage.

Razer applique cette flexibilité ailleurs, comme sur Project Motoko, un prototype de casque IA wearable motorisé par ChatGPT. L’axe stratégique reste identique : expérimenter de façon responsable, favoriser l’interopérabilité des modèles et sélectionner le moteur conversationnel ou orienté tâches le plus adapté.

Razer Project AVA : Min-Liang Tan fustige le « GenAI slop » et précise la feuille de route

Côté mise sur le marché, Razer parle de principes de conception responsable, de comportements prédictibles et d’un contrôle utilisateur renforcé. Aux États‑Unis, un dépôt de réservation de 20 $, entièrement remboursable et non assimilé à une précommande, sert à mesurer l’intérêt avant la finalisation du produit. À ce stade, pas de tarif public ni de fenêtre de commercialisation annoncés. Estimation indicative si produit autour de ces démos : sans données, conversion euro non pertinente.

Razer Project AVA : Min-Liang Tan fustige le « GenAI slop » et précise la feuille de route

Le positionnement de Razer répond à une attente nette du marché PC : des assistants qui améliorent la pratique (jeux, création, streaming) sans dégrader l’UX par du contenu généré médiocre. L’ouverture multi‑LLM est un point clé pour éviter l’enfermement technologique et suivre le rythme des modèles de pointe. Si l’intégration PC Vision et l’avatar 5,5 pouces tiennent leurs promesses en latence et robustesse, AVA peut s’imposer comme accessoire utile plutôt que gadget.

Source : TechPowerUp

  •  

Apple VSSFlow : un modèle unifié vidéo-vers-son et texte-vers-parole

Apple s’est associé à l’Université Renmin de Chine pour dévoiler VSSFlow, un modèle d’IA capable de générer en une seule passe la bande-son complète d’une vidéo muette : effets d’ambiance synchronisés à l’image et voix humaines pilotées par script. Là où le secteur séparait jusqu’ici « vidéo-vers-son » et « texte-vers-parole », avec des pipelines complexes et des compromis de qualité, VSSFlow unifie les deux tâches et revendique un net gain sur les métriques clés face aux modèles spécialisés.

Apple VSSFlow : un modèle unifié vidéo-vers-son et texte-vers-parole

Un modèle unifié, 10 niveaux et une approche « flow matching »

Le système adopte une architecture en 10 couches et s’appuie sur des techniques de « flow matching » pour apprendre à reconstruire le signal audio cible à partir de bruit aléatoire, sans chaînage de modèles. Le cœur de la promesse est la synchronisation : VSSFlow extrait des indices visuels à 10 images/s pour sculpter les sons d’environnement au bon timing, tout en générant la voix selon un script texte, avec alignement précis.

Apple VSSFlow : un modèle unifié vidéo-vers-son et texte-vers-parole

Contrairement aux approches par étapes, l’entraînement conjoint n’a pas créé d’interférences entre tâches selon les auteurs ; il a même produit un effet d’entraide. L’exposition à la parole améliorerait la qualité des effets, et réciproquement, l’abondance d’effets enrichirait la robustesse de la synthèse vocale en contexte bruité.

Données hybrides et résultats annoncés

Le dataset mélange des vidéos avec ambiance sonore, des vidéos parlées sous-titrées et des paires texte-parole. Des échantillons synthétiques ont été utilisés pour le réglage fin, afin que le modèle apprenne à émettre simultanément fond sonore et voix. En test, VSSFlow surpasse des références dédiées à un seul objectif, selon les métriques retenues par l’équipe.

Le code est disponible sur GitHub, avec une ouverture des poids et une démo d’inférence en ligne annoncées comme en préparation. Aucun détail matériel n’est fourni sur l’infrastructure d’entraînement, ni sur les contraintes de calcul en inférence, mais l’extraction visuelle à 10 i/s laisse entendre une cible temps réel ou quasi temps réel pour le montage assisté.

Pour Apple, l’intérêt stratégique est double : un pipeline unifié réduit la complexité d’intégration dans des workflows de production et de post‑prod, tout en rognant l’écart entre génération « proprette » et rendu contextuel crédible. Si les poids sont réellement publiés et la démo convaincante, le modèle pourrait bousculer les briques audio des éditeurs vidéo et des engines temps réel, en particulier sur les cas d’usage doublage + foley automatisés.

Source : ITHome

  •  

Qwen-Image-2.0 : génération d’images 2K et typographie fiable unifiées

Alibaba Qwen dévoile Qwen-Image-2.0, une nouvelle génération de modèle de génération d’images qui fusionne texte‑to‑image et édition d’images dans un unique système. La promesse : un rendu typographique nettement plus professionnel, une meilleure fidélité photoréaliste en 2K, une compréhension sémantique accrue pour suivre les consignes complexes, et une architecture plus compacte pour des temps d’inférence plus courts. L’API est ouverte en accès anticipé sur Alibaba Cloud Baichuan, et le modèle est testable gratuitement via Qwen Chat.

Qwen-Image-2.0 : génération d’images 2K et typographie fiable unifiées

Texte net, composition maîtrisée, 2K natif

Le point saillant est la « lecture/écriture » du texte dans l’image. Qwen-Image-2.0 accepte jusqu’à 1 000 tokens d’instructions et sort des infographies, affiches, planches de BD ou slides avec une mise en page alignée, hiérarchisée et multi‑scripts, sans approximations de glyphes ni artefacts de vectorisation. L’équipe montre des cas de figures saturés en texte (infographies A/B test, calendriers lunaires, calligraphies classiques, inscriptions sur t‑shirts, vitrines, magazines) avec respect des polices, de l’empattement, de l’orientation et de l’intégration matière/lumière.

Sur le réalisme, le modèle passe en génération 2 048 × 2 048, avec un soin particulier aux textures micro‑détails (peau, tissages, pierre, feuillage) et aux interactions optiques crédibles (réflexions sur verre, profondeur de champ, brouillard atmosphérique). Les visuels fournis illustrent une gestion propre des scènes denses, y compris les rendus « image dans l’image » et les superpositions texte‑image sans obstruction du sujet.

Qwen-Image-2.0 : génération d’images 2K et typographie fiable unifiées

Génération + édition unifiées, consignes longues, architecture allégée

Qwen-Image-2.0 unifie la compréhension et la génération pour la création et l’édition dans le même flux, ce qui évite les bascules de pipeline. Le modèle suit plus strictement les prompts longs, y compris les contraintes de cadrage, d’alignement typographique, de styles calligraphiques précis ou de cohérence multi‑vues. Les exemples incluent le titrage directement sur photos, les montages multi‑images cohérents, et l’incrustation contrôlée d’éléments 2D stylisés sur une base photographique réelle, sans casser la vraisemblance lumineuse.

Alibaba met aussi en avant une architecture plus légère et une latence réduite pour produire des images 2K « en quelques secondes ». Sans fiche technique publique détaillée, la communication insiste sur l’équilibre entre fidélité visuelle et vitesse d’inférence dans une enveloppe modèle plus petite que la génération précédente.

Qwen-Image-2.0 : génération d’images 2K et typographie fiable unifiées

Pour l’écosystème, l’intégration propre du texte au sein des pipelines de génération marque une inflexion utile pour les cas pro encore mal servis par les diffuseurs classiques : infographie dense, poster avec crédits longs, maquettes de slides, interfaces annotées ou signalétique sur matériaux. Si la qualité réelle dépendra des jeux de prompts et de l’outil d’édition en amont, la convergence « photoréalisme + typographie fiable » dans un seul modèle est précisément la case que cherchaient à cocher les studios créa et les équipes produit.

Source : ITHome

  •  

Ming-Flash-Omni 2.0 : modèle multimodal unifié audio/vision ouvert par Ant Group

Ant Group ouvre Ming-Flash-Omni 2.0, un grand modèle « full-stack » multimodal orienté compréhension et génération unifiées. Sur les benchmarks publics, l’éditeur revendique des gains notables en vision-langage, en génération audio pilotable et en image (génération/édition), avec un positionnement clair sur la stabilité d’inférence et le coût.

Audio unifié sur une seule piste, contrôle fin et temps réel

Ming-Flash-Omni 2.0 s’affiche comme un modèle d’audio unifié « toutes scènes » capable de générer voix, effets d’ambiance et musique sur une seule piste. Les paramètres voix — timbre, vitesse, intonation, volume, émotion, dialecte — se pilotent en langage naturel, avec clonage de timbre en zéro-shot et options de personnalisation.

Le modèle revendique un taux d’inférence très bas à 3,1 Hz, ce qui autorise une synthèse longue (minutes) en haute fidélité quasi temps réel. Sur ce volet, Ant vise un avantage coût/perf en production, un point critique pour l’industrialisation de contenus audio et les assistants vocaux étendus.

Vision et image : reconnaissance fine et édition robuste

Côté vision, l’entraînement sur des volumes « à l’échelle du milliard » et une stratégie de « hard examples » rehausse l’identification d’objets proches ou peu fréquents, y compris détails d’artisanat, espèces proches et artefacts rares. En image, la stabilité en édition progresse sur les tâches complexes : ajustement lumière/ombres, remplacement de scène, correction de pose et retouche en un clic, tout en conservant cohérence temporelle et détails sur scènes dynamiques.

Sur la partie texte-image, l’objectif n’est pas une démonstration de SOTA générique, mais une fiabilité d’outils, ce qui intéresse directement la chaîne de production créative où les échecs stochastiques coûtent cher.

Architecture, ouverture et feuille de route

Le modèle est entraîné sur la base Ling-2.0, une architecture MoE (100B-A6B). Ant met en avant une trajectoire produit où l’unification multimodale ne sacrifie plus les performances spécialisées, avec des scores qui dépasseraient certains modèles dédiés sur des périmètres précis. L’ouverture de Ming-Flash-Omni 2.0 en fait un « socle réutilisable » pour des pipelines bout à bout, évitant la concaténation de modèles hétérogènes et ses surcoûts d’orchestration.

Poids et code d’inférence sont publiés sur Hugging Face. Une instance hébergée est accessible via la plateforme officielle Ling Studio de Bailing pour tests et intégration. L’équipe annonce des chantiers actifs sur la compréhension temporelle vidéo, l’édition d’image complexe et la latence en génération d’audio long, avec une consolidation de la toolchain et des protocoles d’évaluation.

Pour l’écosystème, l’intérêt dépasse l’effet d’annonce : un modèle réellement unifié qui tient la route en audio, vision et génération réduit la dette d’intégration côté développeurs et peut déplacer la valeur vers des produits multimodaux plus cohérents, en particulier là où la stabilité de sortie et le pilotage fin priment sur le pur score académique.

Source : ITHome

  •  

DuckDuckGo lance un chat vocal privé : Duck.ai mise sur l’anonymat et zéro rétention

DuckDuckGo a dévoilé le 10 février une fonction de chat vocal temps réel pour sa plateforme Duck.ai, avec une promesse centrale : ne pas stocker les flux audio et limiter strictement l’exposition des données. L’approche privilégie la confidentialité, en plaçant DuckDuckGo comme intermédiaire entre l’utilisateur et le modèle sous-jacent d’OpenAI, derrière une couche technique et contractuelle censée bloquer toute rétention.

Instructions en chinois sur l'utilisation de Duck.ai pour le chat vocal.

Techniquement, la conversation transite par WebRTC avec chiffrement de bout en bout et relai via des serveurs intermédiaires. DuckDuckGo dit anonymiser les requêtes et n’envoyer à OpenAI que le strict minimum nécessaire au traitement, sans métadonnées identifiantes. Les flux sont éphémères : transmis uniquement pendant la prise de parole, détruits une fois la session close.

Le cadre contractuel est présenté comme contraignant pour les deux parties : pas d’entraînement de modèles sur les contenus des utilisateurs, pas de journalisation des échanges, pas de conservation après l’appel. DuckDuckGo insiste sur une « cloison » opérationnelle visant à empêcher l’agrégation ou la réexploitation ultérieure des voix et réponses.

Usage, limites et modèle économique

Écran d'accueil Duck.ai avec icône lumineuse et texte en chinois.

Duck.ai reste accessible gratuitement sans inscription, avec un quota quotidien. Un abonnement à 10 $/mois (environ 9,30 €) élargit nettement les limites d’usage et ajoute des services périphériques d’hygiène numérique : suppression d’informations personnelles et accompagnement en cas d’usurpation d’identité.

L’offre cible un public sensible à la confidentialité vocale, là où la concurrence s’appuie souvent sur des journaux de sessions et des clauses d’entraînement par défaut. La proposition de valeur repose moins sur la performance brute du LLM, fourni par OpenAI, que sur l’orchestration, la minimisation des données et l’absence de rétention déclarée.

Si DuckDuckGo parvient à tenir cette ligne sans fuites ni dérogations contractuelles, le service pourrait s’installer comme l’option « private-first » du chat vocal. À court terme, l’enjeu sera la transparence opérationnelle et la résistance aux demandes de conservation côté prestataires ; à moyen terme, la différenciation se jouera sur la latence, la robustesse réseau et la capacité à maintenir des garanties de non-entraînement face à l’évolution rapide des modèles.

Source : ITHome

  •  

IA au travail : gains d’efficience, mais journées plus longues et pauses réduites

Promesse récurrente depuis trois ans dans la tech américaine, l’IA ne devait pas voler les emplois mais libérer du temps. Une étude publiée dans la Harvard Business Review, conduite huit mois au sein d’une entreprise de 200 personnes par des chercheurs de l’Université de Californie à Berkeley, décrit l’inverse : l’adoption des outils d’IA a étiré les journées, comprimé les pauses et alimenté une spirale d’auto-accélération, sans objectifs nouveaux imposés par le management. Parce que « plus devient possible », plus est demandé, souvent par soi-même.

Le témoignage d’un ingénieur résume le décalage : « avec l’IA tu crois gagner du temps, mais tu ne travailles pas moins, parfois plus ». Sur Hacker News, un retour d’expérience concorde : bascule « IA partout » égale attentes triplées, pression triplée, productivité réelle +10 %. La dynamique est classique dans la tech : l’amélioration des outils s’accompagne d’une hausse implicite des standards de vélocité et de réactivité.

Les auteurs ne contestent pas que l’IA amplifie les capacités individuelles. Ils constatent surtout la destination de ces gains : fatigue, sentiment de ne jamais décrocher, et intensification du flux, particulièrement quand l’organisation valorise la réponse instantanée. Autrement dit, le « dividende d’automatisation » est capté par l’empilement de tâches plutôt que par une réduction effective du labeur.

Des gains mesurés, des effets réels sur la charge

Le tableau rejoint d’autres travaux contestés l’an dernier : des développeurs chevronnés, assistés par IA, ont passé 19 % de temps en plus tout en se sentant 20 % plus efficaces ; de son côté, une étude du NBER portant sur des milliers d’entreprises chiffre l’effet global à environ 3 % de temps économisé, sans impact notable sur les revenus ou les heures travaillées. L’écart entre perception de fluidité et production nette demeure.

Dans la société observée par Berkeley, aucun KPI n’a été réhaussé officiellement. La pression s’installe par capillarité : chaque minute « libérée » devient une case à remplir, le backlog enfle parce que l’outil rend faisable ce qui était hors de portée. La boucle se referme dès lors que la norme tacite d’exécution s’accélère.

Un problème d’outillage ou de gouvernance du travail

La portée pour l’industrie est claire : sans garde-fous organisationnels, l’adoption de l’IA convertit des gains marginaux en intensification continue. La question n’est plus « l’IA augmente-t-elle l’efficience ? » mais « qui capture ces gains, et comment sont-ils bornés ? ». À défaut de contrats sociaux explicites sur le rythme et la charge, les outils de productivité alimentent mécaniquement des cultures d’urgence permanente, avec le coût prévisible en rétention et en santé au travail.

Source : ITHome

  •  

Insurify intègre un comparateur d’assurance dans ChatGPT et secoue Wall Street

Insurify lance une application « conçue pour ChatGPT » qui intègre directement la comparaison d’assurances au sein du chatbot. L’outil permet de poser des questions en langage naturel et d’obtenir des devis estimatifs sans formulaires à rallonge, en s’appuyant sur la base de données d’Insurify et les capacités conversationnelles de l’IA d’OpenAI.

Le timing a coïncidé avec une secousse boursière sur les courtiers américains. L’indice S&P 500 Insurance recule de 3,89 %, sa plus forte baisse depuis octobre dernier. Willis Towers Watson décroche de 12,10 %, sa pire séance depuis novembre 2008, Arthur J. Gallagher cède 9,85 %, Aon 9,27 %.

Concrètement, l’application agrège des éléments clés du profil conducteur — localisation, modèle de véhicule, âge, antécédents — pour générer des estimations et afficher, au-delà du prix, des avis clients et les garanties essentielles selon les assureurs. Une fois une offre retenue, l’utilisateur est aiguillé vers la plateforme Insurify, où des conseillers certifiés finalisent la souscription, sans ressaisie inutile.

Un flux de souscription taillé pour le conversationnel

L’intérêt n’est pas tant l’algorithme de tarification — déjà courant — que l’accès via un canal où des centaines de millions d’utilisateurs sont actifs. Le parcours se résume à une session de chat, sans navigation multi-onglets ni champs redondants, avec des réponses reformulées de façon lisible sur des points souvent hermétiques pour le grand public.

Insurify se positionne comme l’un des premiers à brancher un comparateur directement dans ChatGPT, quand nombre d’acteurs se contentent d’assistants internes pour l’explication de garanties, la recommandation de niveaux de couverture ou l’automatisation du support.

Signal de marché pour les intermédiaires

La réaction de Wall Street traduit la crainte d’un déplacement du trafic et de la marge vers des interfaces conversationnelles dominantes. Si l’IA réduit la friction à l’entrée et standardise la découverte de produits, les courtiers dont le modèle repose sur la captation de leads via des parcours web classiques risquent de voir leur coût d’acquisition augmenter et leur différenciation s’éroder, à moins d’intégrer ces canaux et de renforcer leur valeur conseil sur des cas complexes.

Source : ITHome

  •  

Xbox Game Pass : vers une fusion PC + Premium qui simplifierait l’offre

Microsoft teste l’idée d’un palier unique qui regrouperait Xbox et PC, avec à la clé une grille d’abonnements enfin lisible pour les joueurs.

Xbox Game Pass : fusion à l’étude et simplification des paliers

Selon des informations concordantes de The Verge et Windows Central, Microsoft explore la fusion des offres PC Game Pass et Xbox Game Pass Premium en un seul palier. Objectif évident : réduire la complexité actuelle qui brouille les choix d’abonnement et freine l’adoption.

À date, le PC Game Pass est facturé 16,49 $/mois (environ 15,30 €) après une hausse proche de 40 % en octobre, tandis que le palier Xbox Game Pass Premium coûte 15 $/mois (environ 13,95 €) sans donner accès à l’intégralité du catalogue PC. Tout en haut, l’Ultimate est positionné à 30 $/mois (environ 27,90 €) avec les sorties day one first-party et des avantages EA Play, Ubisoft+ Classics et Fortnite Crew.

La consolidation PC + Premium poserait deux questions clés : le maintien d’un tarif proche des 16,49 $ pour les abonnés PC, et l’alignement des fonctionnalités entre plateformes. Microsoft étudierait parallèlement l’intégration de bundles tiers supplémentaires au sein de Game Pass.

Contexte matériel : une Xbox next-gen proche d’un PC sous Windows 11

Cette piste intervient alors que la prochaine Xbox est décrite comme un hybride PC/console, avec un démarrage sur une interface Xbox et un Windows 11 embarqué. Un tel choix pourrait faciliter l’exécution de boutiques comme Steam et Epic Games Store, et rend cohérente une offre d’abonnement unifiée entre PC et console.

L’échéance évoquée reste lointaine : un lancement en 2027 est suggéré, laissant du temps à Microsoft pour stabiliser la stratégie d’abonnements et clarifier le positionnement face à l’Ultimate.

Si Microsoft opte pour un palier fédérateur PC + Xbox, la lisibilité tarifaire pourrait s’améliorer sans cannibaliser l’Ultimate, qui conserverait ses avantages premium. La clé sera un pricing perçu comme équitable par le parc PC, fraîchement touché par une hausse tarifaire, et une gestion fine des catalogues entre plateformes pour éviter la fragmentation qui a ralenti la dynamique d’abonnement côté Xbox.

Source : TechPowerUp

  •  

Silicon wafers 2025 : les expéditions rebondissent de 5,8 % mais les revenus reculent

Les volumes repartent, les dollars traînent. La demande IA tire les tranches 300 mm tandis que les marchés matures freinent encore la monétisation.

Silicon wafers : volumes 2025 en hausse, revenus en retrait

Le SEMI Silicon Manufacturers Group (SMG) publie un total de 12 973 MSI en 2025, en progression de 5,8 %. Dans le même temps, le chiffre d’affaires glisse de 1,2 % à 11,4 Md$ (environ 10,6 Md€ à titre indicatif).

Le rebond des expéditions est soutenu par la vigueur des wafers épitaxiés avancés pour le logic et des wafers polis pour la HBM, tous deux dopés par les usages IA. La faiblesse des revenus s’explique par l’inertie des applications traditionnelles, où demande et prix restent sous pression.

300 mm, HBM et sub-3 nm au centre du jeu

Ginji Yada (SEMI SMG, SUMCO) souligne un marché à deux vitesses sur 2025-2026 : forte traction des 300 mm pour le logic IA et la HBM, portée par l’adoption continue des procédés sub-3 nm. Les exigences de qualité et de régularité matière montent, poussant les solutions matériaux avancées.

En miroir, les nœuds matures (automobile, industriel, électronique grand public) se stabilisent. Les stocks wafer et puces se normalisent après de longs ajustements, mais le redressement reste graduel et dépendant du macro et des dynamiques de fin de marché.

Divergence durable entre avancé et mature

L’investissement data centers et générative maintient la cadence côté avancé, où performance et fiabilité priment. À l’inverse, le rattrapage des segments legacy demeure prudent, ce qui nourrit l’écart entre volumes solides et revenus qui tardent à suivre.

Pour les chaînes d’approvisionnement, l’équation est claire : assurer des capacités en épitaxié/poli haut de gamme et sécuriser la consistance des 300 mm tout en évitant de surinvestir sur les lignes dédiées aux nœuds matures dont la reprise reste séquentielle.

Source : TechPowerUp

  •  

Overwatch 2 : Blizzard revoit Anran après un tollé, Keller promet une refonte

Un nouveau visage devait dynamiser la saison 1 de 2026. Il déclenche finalement une refonte assumée par la direction du jeu.

Overwatch 2 : Blizzard corrige le tir sur Anran

Blizzard a présenté un lot de nouveaux héros et des changements structurels et gameplay pour le début de la saison 1 de 2026. Parmi eux, Anran a cristallisé un mécontentement marqué : design jugé générique, traits adoucis par rapport à une apparition antérieure dans la bande-annonce de son frère, et critiques publiques de sa comédienne, qui a dénoncé un style « Ozempic chic ».

Illustration d'un personnage d'Overwatch 2 tenant une orbe avec le logo d'Overwatch

Le directeur du jeu, Aaron Keller, a réagi en indiquant que l’équipe va retravailler Anran pour qu’elle « ressemble davantage à la grande sœur farouche que nous avions tous en tête ». Il estime pouvoir améliorer le personnage au-delà de son itération actuelle, sans détailler les ajustements avant la phase de tests. La décision divise : une partie de la communauté salue l’écoute, d’autres y voient une capitulation et disent perdre de l’intérêt pour le jeu.

Réactions contrastées et calendrier

Le timing reste lié au déploiement de la saison 1 2026, qui embarque également 10 nouveaux héros et une refonte des systèmes de jeu. Blizzard n’a pas partagé d’éléments concrets sur le périmètre exact des modifications d’Anran avant validation interne. Les retours initiaux proviennent majoritairement de Reddit et d’X, avec des avis polarisés sur l’orientation artistique et la communication.

À l’échelle produit, cette révision en amont du lancement illustre une itération accélérée sur l’identité visuelle d’un personnage clé. Le risque est double : préserver la cohérence artistique tout en répondant à des attentes hétérogènes, sans diluer la personnalité d’Anran ni décaler le reste du pipeline de contenu de la saison.

Source : TechPowerUp

  •  

Cisco Silicon One G300 : un ASIC 102,4 Tb/s pour doper les fabrics IA

Cisco a profité de Cisco Live Amsterdam pour présenter son nouveau fleuron Ethernet, le Cisco Silicon One G300. Cette puce de commutation affiche 102,4 Tb/s de capacité agrégée et aligne 64 interfaces 1000GbE en full-duplex, avec des SerDes à 224 Gb/s, la prise en charge de RDMA et RoCE v2.

Un ASIC 102,4 Tb/s pensé pour les fabrics IA

Au-delà des débits, Cisco met en avant une technologie d’orchestration collective intégrée destinée aux charges distribuées, annoncée comme capable d’absorber les variations de trafic et d’améliorer l’utilisation du réseau de 33 %, tout en réduisant le temps d’exécution des jobs de 28 %. Dans un contexte d’entraînement et d’inférence massifs, le constructeur promet un gain direct sur les cadences de génération de tokens.

Le G300 sert de base aux nouveaux commutateurs Cisco Nexus 9000 et aux routeurs Cisco 8000. Ces plates-formes seront proposées en version à refroidissement intégral par liquide, avec une promesse d’augmentation sensible de la densité de bande passante et jusqu’à 70 % d’efficacité énergétique en plus par rapport aux variantes conventionnelles.

Chaîne optique 1,6T et modules 800G LPO

Pour les interconnexions scale-out des clusters IA, Cisco ajoute un OSFP 1,6 Tbit/s et des modules 800G LPO linéaires sans redriver/retimer. Cette approche réduit la complexité et vise directement la consommation, avec un -50 % au niveau du module optique ou -30 % sur la consommation globale du châssis selon le constructeur.

L’ensemble dessine une stratégie très agressive sur le coût énergétique par bit et la densité par U. Si les chiffres internes se confirment en production, l’option full liquid cooling couplée aux LPO pourrait rebattre les cartes sur le TCO des fabrics Ethernet face aux déploiements InfiniBand haut de gamme, notamment dans les salles où la marge thermique est le facteur limitant.

Source : ITHome

  •  

OpenAI abandonne la marque « io » et repousse son appareil IA à 2027

OpenAI ne commercialisera pas sa première machine sous la marque « io ». Selon des documents judiciaires déposés hier et cités par Wired, l’entreprise a renoncé aux appellations « io » et « IYO » pour tout nommage, marketing, publicité et vente liés à ses produits matériels, après une plainte pour contrefaçon de marque initiée l’an dernier par la start-up audio iyO.

Dans le même dépôt, Peter Welinder, vice-président d’OpenAI, précise que le calendrier s’est éclairci côté hardware : aucune livraison au grand public avant fin février 2027. Un contre-pied net face aux déclarations antérieures faisant état d’un lancement envisagé au second semestre de cette année.

Recul stratégique sur la marque et sur le calendrier

OpenAI a acquis en 2023 la société io fondée par Jony Ive, ex-Apple. Le conflit de marque avec iyO a visiblement fermé la porte à « io » pour le branding final. Welinder indique par ailleurs qu’aucun packaging ni support marketing n’a été produit à ce stade, ce qui corrobore un développement encore au stade de prototype.

Le produit visé resterait un appareil sans écran, destiné au bureau, pensé pour fonctionner en tandem avec un smartphone ou un ordinateur portable. OpenAI n’a pas répondu aux demandes de commentaire.

Le décalage jusqu’en 2027 change sensiblement la donne du segment « AI device ». Les acteurs déjà positionnés sur les terminaux IA autonomes gagneront un boulevard temporel pour itérer sur le matériel, l’optimisation énergétique et l’intégration logicielle, tandis qu’OpenAI devra verrouiller l’industrialisation et un écosystème d’usages suffisamment différenciants pour éviter d’arriver avec un simple accessoire vocal de plus.

Source : ITHome

  •  

SilverStone XE02 : deux ventirads SFF 2U pour AM5 et sTR5 jusqu’à 350 W

Deux nouveaux refroidisseurs 2U débarquent chez SilverStone, avec un 60 mm prêt à grimper à 14 000 tr/min. De quoi tenir jusqu’à 350 W sur plates-formes sTR5/SP6/TR4/SP3.

SilverStone XE02 : SFF 2U, cinq caloducs et 60 mm PWM

SilverStone élargit en douceur sa gamme avec deux modèles SFF destinés aux serveurs et stations 2U : SST‑XE02‑AM5B pour AM5 (et compatibilité AM4 indiquée) et SST‑XE02‑TR5B pour sTR5, SP6, TR4 et SP3. Les deux partagent une base à cinq caloducs de 6 mm et un empilement d’ailettes en aluminium.

Vue de dessus du ventilateur SilverStone XE02 avec flèche de flux d'air
Vue de dessus du ventilateur SilverStone XE02 avec flèche verte indiquant le flux d'air

Le ventilateur central de 60 mm, PWM et roulements à billes, annonce une plage de 2 000 à 14 000 tr/min, un débit maximal de 72,8 CFM et une pression statique de 47,18 mmH2O. La MTTF est donnée à 70 000 heures.

Compatibilités et enveloppes thermiques

Le XE02‑AM5B vise les processeurs AM5/AM4 avec une prise en charge jusqu’à 170 W de TDP. Le XE02‑TR5B, légèrement plus massif, monte à 350 W et cible notamment les EPYC 8004 et Ryzen Threadripper 7000 sur sTR5, ainsi que SP6/TR4/SP3.

Ventirad AMD Socket AM5 avec visuel de la carte mère correspondante

Malgré le même ventilateur, l’écart de capacité annoncée provient du design du radiateur et de la surface d’échange adaptée aux IHS et aux répartitions de charges thermiques très différentes entre AM5 et sTR5/SP6/TR4/SP3.

Ventirad AMD TR5 avec visuel de la carte mère correspondante

Positionnement en châssis 2U

Le format bas‑profil et la pression statique élevée répondent aux contraintes de flux en baie 2U, avec une priorité claire au maintien des fréquences sous charge soutenue. La plage PWM étendue offre une marge d’exploitation fine selon la politique acoustique du rack.

Source : TechPowerUp

  •  

HBM3 CXMT : 20 % de la capacité allouée en 2026, 60 000 wafers/mois visés

Le rythme s’intensifie et la part dédiée à la HBM3 progresse nettement chez CXMT, entraînant dès 2026 une réorganisation industrielle de grande ampleur.

HBM3 CXMT : 20 % de la capacité dédiée en 2026

Des rapports récents indiquent que CXMT a lancé la fabrication de masse de modules HBM3. Le fabricant chinois suit la trace des acteurs sud-coréens, qui produisent de l’HBM3 depuis 2023, avec une rampe désormais assumée sur 2026.

Logo de CXMT avec texte sous le nom

Selon une source citée par MK South Korea, CXMT viserait 60 000 wafers par mois dédiés à l’HBM3, soit environ 20 % d’une capacité totale estimée à 300 000 wafers/mois en 2026. Les rendements seraient encore discutés, mais l’objectif de passage en production de volume est évoqué.

Partenariats, lignes produits et contraintes

La filière HBM chinoise s’agrège : un partenariat entre CXMT et Huawei est mentionné, avec une implication de YMTC via une coentreprise apparue à l’automne dernier. Les sanctions internationales limitant l’accès à Micron, Samsung et SK hynix renforcent l’orientation vers des solutions locales, déjà visibles avec l’Ascend AI de Huawei et sa HBM maison.

En parallèle, CXMT a montré en 2025 des avancées sur des lignes commerciales, dont des designs DDR5 et LPDDR5X présentés en avant-première en novembre. Début février 2026, ASUS, Acer, Dell et HP étudiaient l’intégration de ces mémoires grand public pour répondre aux tensions d’approvisionnement.

Capacité et montée en charge

Le positionnement HBM3 reste stratégique face à l’explosion des besoins en VRAM empilée pour l’IA. Réaffecter 20 % des wafers à l’HBM3 suggère une ligne prioritaire, avec un impact potentiel sur les volumes DDR5/LPDDR5X si les rendements HBM3 tardent à converger.

Si la montée en volume se confirme, les accélérateurs IA locaux pourraient réduire leur dépendance extérieure. À court terme, la question clé reste l’atteinte d’un yield compétitif, préalable indispensable pour absorber la demande tout en préservant les marges.

Source : TechPowerUp

  •  

Directive 8020 : sortie le 12 mai 2026, précommandes ouvertes avec upgrade Deluxe

Un huis clos spatial signé Supermassive bascule en phase finale : la sortie arrive en mai et les précommandes intègrent d’emblée un passage à l’édition Deluxe. De quoi attirer les joueurs qui veulent tout voir dès le jour J.

Sortie, plateformes et contenu de précommande

Directive 8020 sera disponible le 12 mai 2026 sur PlayStation 5, Xbox Series X|S et PC (Steam). Éditions physique et numérique sur PS5 et Xbox Series X|S, PC en numérique uniquement. Les précommandes sont ouvertes sur consoles, celles de Steam arrivent prochainement.

Directive 8020 : sortie le 12 mai 2026, précommandes ouvertes avec upgrade Deluxe

Supermassive propose un upgrade gratuit vers la Deluxe Edition pour les précommandes, dans la limite des stocks retail. Le pack inclut The Dark Pictures Outfit Pack, The Dark Pictures Collectables, Cinematic Filter Pack, la bande-son numérique et un artbook numérique.

Gameplay narratif et Turning Points

Le trailer Comply met en avant des décisions à haut risque : Cooper, la médecin de bord, doit choisir s’il faut libérer Mitchell derrière une porte scellée, avec un doute persistant sur sa nature humaine. Autre séquence clé, la révélation d’un « double » où deux versions de Cernan surgissent, obligeant à identifier le mimic sous la menace d’une issue fatale.

Directive 8020 : sortie le 12 mai 2026, précommandes ouvertes avec upgrade Deluxe

Directive 8020 introduit Turning Points, une fonction inédite dans The Dark Pictures pour remonter à des décisions charnières. Trois approches sont prévues : complétionnistes (branches et fins cachées), protection de personnages (annuler une mort), et mode Survivant sans filet, avec décès permanents.

Le trailer tease également l’exploration planétaire de Tau Ceti f. Côté casting, Lashana Lynch incarne la pilote Brianna Young, sur la piste « Comply » du groupe Blood Red Shoes.

Directive 8020 : sortie le 12 mai 2026, précommandes ouvertes avec upgrade Deluxe

Modes de jeu et calendrier multijoueur

Le jeu sortira en solo et en coop locale jusqu’à 5 joueurs, dès le 12 mai. Le multijoueur en ligne arrivera via une mise à jour gratuite après lancement.

Directive 8020 : sortie le 12 mai 2026, précommandes ouvertes avec upgrade Deluxe
Directive 8020 : sortie le 12 mai 2026, précommandes ouvertes avec upgrade Deluxe

Le positionnement mêle la grammaire interactive de The Dark Pictures à un cadre SF plus ouvert avec segments planétaires, tout en laissant la porte à l’expérimentation grâce à Turning Points. L’upgrade Deluxe offert en précommande et la coop canapé jusqu’à 5 joueurs constituent des leviers d’adoption efficaces au lancement, en attendant l’online.

Source : TechPowerUp

  •  

Intel Core Ultra 400 : NPU à 74 TOPS et compatibilité Copilot+ en ligne de mire

Un NPU de bureau affichant 74 TOPS, bien au-delà du seuil Copilot+, place le prochain haut de gamme d’Intel sur une trajectoire radicalement différente de l’actuel Arrow Lake-S.

En effet, comme évoqué précédemment à l’occasion d’une récente rumeur relayée par Jaykihn, cette génération embarquerait le NPU6 annoncé, offrant des performances plus de cinq fois supérieures à celles d’Arrow Lake-S.

Intel Core Ultra 400 et NPU 74 TOPS

La série Core Ultra 400 « Nova Lake-S » serait le premier lineup desktop d’Intel taillé pour l’accélération native Microsoft Copilot+. Son NPU grimperait à 74 TOPS, bien au-delà des 40 TOPS requis par Copilot+. C’est un saut notable face aux 13 TOPS des actuels Arrow Lake-S et du refresh à venir, tous deux héritant du NPU Meteor Lake.

L’information provient cette fois d’une capture issue d’un document ayant fuité, partagée par X86 is dead&back. Elle mentionne un NPU à 74 TOPS pour Nova Lake, contre 13 TOPS pour Arrow Lake Refresh. La fiche évoque également une fenêtre 2H26, ce qui confirmerait une sortie prévue en 2026.

Détails des performances NPU avec Arrow Lake et Nova Lake, affichant 13 et 74 TOPS respectivement.

Toutes les références Nova Lake-S n’atteindront pas nécessairement 74 TOPS, mais l’espace de segmentation laisse envisager un plan produit où même l’entrée de gamme satisferait le plancher des 40 TOPS. Côté mobile, Intel a déjà validé la cible avec Lunar Lake ; en desktop, il faudra attendre le calendrier de la série 4.

AMD en embuscade sur Copilot+ desktop

AMD pourrait toutefois coiffer Intel au poteau sur le premier processeur socket desktop Copilot+ ready. Les APU Ryzen AI 400 « Gorgon Point » en Socket AM5 sont évoqués plus tôt que la fenêtre fin 2026 prêtée aux Core Ultra Series 4 desktop. Le timing de commercialisation pourrait donc décider du premier badge Copilot+ sur tour.

Enjeux pour l’écosystème PC

Si le NPU 74 TOPS se généralise en desktop, on verra converger les exigences Copilot+ avec des profils d’usage créa et productivité lourds sans carte dédiée. Pour les intégrateurs, la barre Copilot+ à 40 TOPS devient un axe de différenciation clair, que ce soit via APU AMD ou CPU Intel avec iGPU/NPU renforcés.

Source : TechPowerUp

  •  

Intel TDX : audit conjoint Intel-Google, 5 vulnérabilités corrigées et 35 faiblesses relevées

Cinq mois d’audit et des correctifs livrés ; Intel et Google resserrent les boulons sur TDX et son module 1.5, pilier des VM confidentielles.

Qu’est-ce que Intel® TDX ?

Intel Trust Domain Extensions (TDX) est la dernière innovation d’Intel en matière d’informatique confidentielle. Cette technologie repose sur un environnement d’exécution de confiance (TEE) directement implémenté au niveau matériel, permettant le déploiement de domaines de confiance (TD). Ces derniers prennent la forme de machines virtuelles isolées du reste du système, conçues pour protéger efficacement les données et applications sensibles contre tout accès non autorisé, y compris au niveau de l’infrastructure sous-jacente.

Intel TDX, co-validation et durcissement du module 1.5

Intel et Google Cloud Security ont mené une revue conjointe du module Intel TDX 1.5, avec l’équipe INT31 d’Intel. Bilan : 5 vulnérabilités et 35 autres faiblesses ou axes d’amélioration. Intel indique que les 5 vulnérabilités ont été corrigées dans la dernière version de code livrée aux partenaires.

TDX isole matériellement des « Trust Domains » des hyperviseurs via SEAM et un module signé numériquement. Le TDX Module agit comme un shim exécuté en SEAM pour appliquer des politiques que le matériel seul ne peut pas faire respecter. Sa compromission pourrait contourner l’isolation, d’où la criticité de sa vérification.

Fonctionnalités ciblées et méthode d’audit

La revue a ciblé des fonctionnalités complexes introduites avec le TDX Module 1.5 : Live Migration et TD Partitioning. La Live Migration déplace une VM chiffrée entre serveurs physiques sans interruption ni exposition des clés à l’hyperviseur non fiable. Le TD Partitioning autorise des VM imbriquées au sein d’un TD, ajoutant des couches d’abstraction nécessitant des contrôles rigoureux.

Google a combiné revue manuelle de code, outils maison de recherche de bugs et analyse assistée par IA (Gemini Pro) pour repérer des défauts logiques. Cette approche hybride s’inscrit dans une dynamique de co-validation où des partenaires majeurs auditent des briques fondamentales avant déploiement large.

Confiance matérielle et garantie pour les clients

Intel rappelle qu’aucun produit n’est absolument sécurisé et que multiplier les regards renforce la robustesse. Pour les entreprises, la démarche renforce l’assurance que la racine matérielle de confiance est activement testée par des tiers indépendants, avant une montée en charge à l’échelle.

Dans un contexte où TDX structure la sécurité des data centers, la correction rapide des 5 vulnérabilités et la cartographie de 35 faiblesses montrent une maturité opérationnelle autour de la Live Migration et du TD Partitioning. Les hyperscalers ont intérêt à ce modèle d’audit partagé, qui réduit le risque systémique en amont des déploiements massifs.

Source : TechPowerUp

  •  

DLSS 4 arrive sur High On Life 2, Yakuza Kiwami 3 & Dark Ties, plus un bundle RE RTX 50

Trois sorties, une même constante : NVIDIA pousse DLSS 4 et ses itérations à grande échelle, avec à la clé des hausses de FPS et une montée en qualité sur les dernières RTX.

DLSS 4 et Multi Frame Generation au lancement

High On Life 2 arrive le 13 février avec DLSS 4 et Multi Frame Generation activables dès le jour 1. Les utilisateurs de l’application NVIDIA pourront aussi basculer DLSS Super Resolution vers DLSS 4.5 Super Resolution pour maximiser la netteté en parallèle du gain de performances.

Illustration colorée de High On Life 2 avec personnages et ville futuriste

Yakuza Kiwami 3 & Dark Ties sort demain, le 11 février, avec DLSS Frame Generation, DLSS Super Resolution et NVIDIA Reflex dans le jeu complet comme dans la démo. Via l’application NVIDIA, DLSS Frame Generation passe en Multi Frame Generation et DLSS Super Resolution en DLSS 4.5 Super Resolution, pour des fréquences d’images multipliées et une image plus propre.

Yakuza Kiwami 3 Dark Ties affichant deux personnages en noir et blanc

Bundle Resident Evil Requiem pour les RTX 50 Series

Le bundle GeForce RTX 50 Series avec Resident Evil Requiem est disponible dès aujourd’hui. L’achat d’un PC de bureau ou d’une carte graphique GeForce RTX 5090, 5080, 5070 Ti ou 5070, ou d’un laptop équipé d’une GeForce RTX 5090, 5080, 5070 Ti ou 5070, chez les revendeurs participants, donne droit à une copie Steam du jeu.

Le titre exploite un path tracing intégral, accéléré par DLSS 4 avec Multi Frame Generation et DLSS Super Resolution, et bénéficie de NVIDIA Reflex pour réduire la latence. C’est aujourd’hui l’implémentation la plus ambitieuse sur cette série, pensée pour les GPU GeForce RTX 50.

Affiche de Resident Evil Requiem avec deux personnages sous la pluie

REANIMAL et les intégrations à venir

REANIMAL (Tarsier/THQ Nordic) sort le 13 février avec DLSS Super Resolution et DLAA. Là encore, l’application NVIDIA permet de migrer vers DLSS 4.5 Super Resolution pour une qualité accrue.

NVIDIA annonce par ailleurs d’autres intégrations DLSS et RTX à court terme. La liste des titres compatibles, ainsi que ceux validant les overrides DLSS de l’application NVIDIA, continue de s’allonger.

L’enchaînement de sorties compatibles DLSS 4, couplé au bundle Resident Evil Requiem, confirme la stratégie d’adoption côté éditeurs et l’incitation matérielle côté utilisateurs. La possibilité d’upgrader localement vers DLSS 4.5 via l’application NVIDIA aiguise l’intérêt pour la pile logicielle maison, tout en verrouillant l’avantage des RTX 50 sur les workloads path-tracés.

Source : TechPowerUp

  •  

NVIDIA GTC 2026 : keynote le 16 mars, deux heures au SAP Center de San Jose

Deux heures en scène et un préshow matinal ; NVIDIA verrouille le tempo de son rendez-vous annuel dédié aux centres de données et à l’IA.

NVIDIA GTC 2026 : calendrier, formats et lieu

La keynote principale est fixée au lundi 16 mars, de 11 h à 13 h PDT, en live depuis le SAP Center de San Jose. Un « GTC Live 2026 Keynote Pregame » est programmé le même jour de 8 h à 11 h PDT, en amont.

La page GTC 2026 annonce l’événement du 16 au 19 mars, avec des workshops dès le 15 mars. NVIDIA propose l’ajout au calendrier pour le livestream directement depuis la page de keynote.

Ce que suggèrent les précédentes feuilles de route

Lors de la keynote 2025, Jensen Huang a détaillé une roadmap data center : production Blackwell, systèmes Blackwell Ultra prévus pour le second semestre 2025, puis plateforme Vera Rubin en 2026 et Rubin Ultra en 2027. Le volet robotique et simulation a été mis en avant avec le modèle fondation humanoïde Isaac GR00T N1 et des outils associés, dont le moteur physique Newton développé avec Google DeepMind et Disney Research.

Le segment automobile a également été mentionné avec le système de sécurité Halos et des collaborations avec General Motors. GTC demeure centré sur le data center, l’IA et la robotique, sans attendre de grandes annonces orientées grand public.

Dans ce cadre, la fenêtre 2026 pourrait préciser le déploiement de Vera Rubin, l’écosystème logiciel autour d’Isaac et les jalons industriels alignés sur Rubin Ultra 2027, avec un impact direct sur les cadences d’intégration en data centers plutôt que sur le marché gaming.

Source : VideoCardz

  •  

Generative AI dans Control Resonant : aucun contenu, mais Remedy garde la porte entrouverte

Choix tranché pour le prochain shooter de Remedy, avec un impact direct sur la prod et l’acceptabilité par les joueurs. La suite, en revanche, pourrait basculer selon les outils et l’éthique.

Control Resonant sans Generative AI

Markus Mäki, CEO de Remedy, a confirmé en Q&A d’earnings call que Control Resonant n’embarque aucun contenu généré par IA : « Control Resonant does not use generative AI content at all ».

Le studio reste toutefois pragmatique pour la suite. Mäki refuse « des promesses à long terme » et suit l’évolution des outils afin d’évaluer un usage « éthiquement au bon endroit », utile pour le joueur et accepté par les équipes.

Intérêt interne mesuré, industrie divisée

Remedy note un intérêt variable selon les métiers pour tester ces outils. Le tableau colle avec une enquête récente du secteur : 81 % des travailleurs du jeu utilisent l’IA générative pour le brainstorming et 35 % pour le prototypage, mais seuls 7 % jugent son impact positif sur l’industrie.

Chez les grands éditeurs, la ligne n’est pas uniforme. Take-Two indique que GTA VI n’emploiera pas l’IA générative tout en laissant la porte ouverte pour de futurs titres. Ubisoft explore des coéquipiers IA avec commande vocale. EA annonce un pivot large vers l’IA malgré des outils jugés chronophages par certains studios après un an d’usage.

Ce positionnement intervient dans un contexte matériel tendu, entre crise DRAM, flambée des prix DDR4, reports produits et pression accrue sur la supply chain PC.

À court terme, l’absence d’IA générative dans Control Resonant clarifie la proposition pour un public attentif aux méthodes de production. À moyen terme, le virage dépendra de la maturité des pipelines, des garde-fous juridiques et de la capacité des outils à créer de la valeur sans dégrader la cohérence artistique ni le time-to-content.

Source : TechPowerUp

  •  

Forza Horizon 6 : dix nouveautés clés entre Tokyo, neige permanente et radar de proximité

Japon, neige en altitude 365 jours et meetups sans chargement : le prochain Forza Horizon 6 muscle tout ce qui compte en conduite libre. Les joueurs PC, Xbox Series X|S et Steam y trouveront des nouveautés concrètes dès la sortie.

Forza Horizon 6 : carte japonaise, saisons plus marquées, nouveaux modes

La sortie de Forza Horizon 6 est prévue sur Xbox Series X|S et PC le 19 mai, avec accès anticipé dès le 15 mai via l’édition Premium. Le festival s’installera au Japon avec Tokyo (Shibuya Crossing, Ginkgo Avenue, Tokyo Tower), le tronçon de route urbaine inspirée du C1, et des routes de montagne emblématiques comme le Mt. Haruna et Bandai Azuma.

Route sinueuse entourée de cerisiers en fleurs et de verdure.

Les saisons reviennent avec une variation plus marquée que Mexico : visuels, cultures, feuillages, météo et soundscapes distincts selon la période. La région alpine japonaise proposera de la neige toute l’année, indépendamment de la saison globale.

Horizon Rush signe un nouveau type d’épreuve sous forme de parcours à obstacles dans des lieux comme les docks de Tokyo. Le système de bracelets (Wristbands) fait son retour : il faut débloquer et terminer ces événements pour progresser vers le statut Horizon Legend.

Forza Horizon 6 : meetups intégrés et circuits Time Attack

Time Attack Circuits, Car Meets et Drag Meets sont intégrés au monde partagé. On peut y passer, voir de vrais joueurs, puis les rejoindre instantanément sans écran de chargement. Les Time Attack disposent de plusieurs tracés répartis au Japon, avec des tours libres, crédits et XP par tour, et véhicule au choix.

Trois voitures dans un tunnel enneigé, course dynamique.

Les Car Meets permettent d’exposer voitures et personnages, de télécharger des réglages, ou d’acheter une copie des modèles aperçus. Les Drag Meets sont des runs à 12 voitures avec positionnement sur la ligne, feu et départ immédiat.

Garages personnalisables, build coop et nouveautés de conduite

Les garages personnalisables et The Estate offrent un espace à décorer librement en solo, jusqu’à créer un showroom personnel dans l’open world. Le Horizon CoLab étend le build multijoueur à l’EventLab, jusqu’à 12 joueurs pour construire en coopération directement au Japon.

Des Aftermarket Cars rares sont en plus disséminées dans la carte de Forza Horizon 6 : essai immédiat ou ajout à la collection, souvent à prix réduit, avec des modèles uniques.

Le nouveau « Car Proximity Radar » apporte une vision de l’environnement latéral et dans les angles morts. Utile pour éviter les contacts, surtout en caméras cockpit, capot ou pare-chocs.

Voiture sportive blanche passant à grande vitesse sous un conteneur.

L’audio de Forza Horizon 6 évolue avec de nouveaux enregistrements, un mix remasterisé et des systèmes modulaires revus (turbo, backfires). Les interactions de surface sont plus détaillées, l’impulsion cockpit est améliorée, et le modèle acoustique intègre Triton Acoustics (réverb spatiale orientée objets) avec des prises de son in situ pour les quatre saisons.

La personnalisation s’élargit : Forza Aero actualisé, peinture de livrées sur vitrages, nouvelles jantes et montage différencié avant/arrière. Une usure cosmétique des pneus est en plus de la partie.

Les animations de volant passent jusqu’à 540° de rotation en cockpit pour améliorer l’immersion.

Compatibilité, cross-save et disponibilité

Xbox Play Anywhere sur achats numériques Xbox Series X|S ou Microsoft Store PC (hors Steam) : une licence pour les deux, sauvegardes et DLC partagés. Le jeu est compatible PC handheld sous Windows 11 dont ROG Ally et Ally X.

Il y aura également cross-play et cross-save entre Xbox Series X|S, Xbox sur PC, PlayStation 5 et Steam. La précommande de Forza Horizon 6 Premium peut se faire sur Microsoft Store ou Steam avec accès anticipé le 15 mai et une Ferrari J50 pré-réglée offerte pour tout achat d’une édition complète ou du Premium Upgrade avant la sortie.

Voiture compacte blanche dans un rassemblement urbain de véhicules.
Vue cockpit d'une voiture de rallye sur une piste avec affichage d'informations de course.
Trois voitures de course sur une piste devant une foule enthousiaste.
Voiture classique orange garée devant une maison traditionnelle japonaise.
Deux voitures rapides se poursuivant sur une route de campagne.
Voiture sportive grise sur route éclairée par néons en ville.
Voiture bleue devant une maison japonaise traditionnelle en automne.
Voiture sportive rouge roulant sur une autoroute urbaine.
Camion de course à travers un champ de fleurs vibrant.
Paysage de champs dorés avec vue sur le mont Fuji.

La combinaison Tokyo dense, Time Attack instantané et le radar de proximité va avantager la conduite propre et les formats compétitifs courts. L’empilement de qualité audio (Triton), la neige permanente en altitude et le build coop à 12 renforce la boucle communautaire, avec un impact direct sur la longévité côté créateurs et clubs.

Source : TechPowerUp

  •  

GeForce RTX 50 : un bundle offre Resident Evil Requiem avec les RTX 5070 et plus

Un jeu AAA arrive en bonus chez NVIDIA, et le timing colle avec un lancement majeur. De quoi doper l’intérêt pour les RTX 50 au moment où Resident Evil Requiem sort sur PC.

GeForce RTX 50 : Resident Evil Requiem offert

NVIDIA met en place un bundle qui inclut une copie Steam de Resident Evil Requiem Standard Edition pour l’achat de certaines GeForce RTX 50 Series, à partir d’aujourd’hui. Sont concernés les GPU desktop GeForce RTX 5090, RTX 5080, RTX 5070 Ti et RTX 5070, ainsi que les PC préassemblés qui les embarquent.

GeForce RTX 50 Comparatif visuel RTX off/on dans une rue sous la pluie

La même offre s’applique aux laptops équipés de GeForce RTX 5090 Laptop GPU, RTX 5080 Laptop GPU, RTX 5070 Ti Laptop GPU ou RTX 5070 Laptop GPU. En pratique, tout ce qui est RTX 5070 et au-dessus est éligible.

La fenêtre promotionnelle court du 10 février 2026 au 16 mars 2026. Les codes doivent être activés avant le 16 avril 2026. Les conditions précisent une limite d’un code de téléchargement numérique par client, sous réserve de disponibilité, et une activation via l’application NVIDIA sur un PC doté de la carte éligible.

Modalités, compatibilité et distribution

L’éligibilité varie selon les régions avec un âge minimum, et plusieurs pays/territoires sont exclus. La liste des revendeurs et intégrateurs participants est détaillée sur la page dédiée du bundle. Après l’achat, le revendeur fournit les instructions de réclamation, puis l’activation dans l’application NVIDIA ajoute le jeu à la bibliothèque Steam.

GeForce RTX 50 Capture performance 193 FPS DLSS 4 en jeu RTX on fond urbain

Resident Evil Requiem sort le 27 février 2026. NVIDIA annonce un driver Game Ready en amont et met en avant le path tracing, DLSS 4 avec Multi Frame Generation, ainsi que NVIDIA Reflex pour réduire la latence.

Spécifications PC et performances attendues

Configuration minimale requise : Windows 11 64-bit, 16 Go de RAM, GeForce GTX 1660 6 Go ou Radeon RX 5500 XT 8 Go, couplée à un Intel Core i5-8500 ou un AMD Ryzen 5 3500. Recommandée : GeForce RTX 2060 Super 8 Go ou Radeon RX 6600 8 Go, avec un Intel Core i7-8700 ou un AMD Ryzen 5 5500.

Le support du path tracing et du DLSS 4 avec Multi Frame Generation place logiquement les RTX 50 comme cibles privilégiées pour jouer en haute définition avec des effets avancés, notamment sur les scènes globalement éclairées par Raytracing.

Source : VideoCardz

  •  

64GB DDR4 retrouvés en déchetterie : un butin à près de 500 € qui dope une config

Un container de recyclage a livré mieux qu’un vieux Pentium : 64 Go de DDR4 et une plateforme complète qui transforment une config vieillissante en machine de travail crédible.

64GB DDR4 et plateforme Intel 10e gen sortis d’un bac e-waste

Un post sur PCMasterRace détaille une récupération peu commune : 64 Go de DDR4, un Intel Core i7 de 10e génération avec un ventirad Cooler Master, une carte mère ASUS, un NAS Drobo cinq baies, un écran Samsung et même un lecteur de disquettes 5,25 po neuf.

Le propriétaire remplace ainsi un kit 16 Go DDR4‑2133 associé à un Core i7‑7700, tout en conservant sa GeForce GTX 1070 OC. Si la mémoire et la plateforme sont saines, le saut à 64 Go ouvre nettement le multitâche lourd et la rétention d’applications en RAM.

Capture d'écran de fiche produit Corsair Vengeance 64GB DDR4 sur site e-commerce En choisissant l'image 1, on opte pour une p

Sur le marché de l’occasion, les kits 64 Go (2×32 Go) se négocient généralement entre 250 et 400 $ selon la marque, la fréquence et l’état, avec un exemple listé à 499 $ chez Newegg. Compter environ 230–460 € et jusqu’à ~460 € pour l’annonce à 499 $.

Précautions matérielles et limites côté stockage

Comme toujours en récupération, tests de stabilité mémoire obligatoires et hygiène des données à respecter : tout support de stockage peut contenir des informations résiduelles. À noter que de nombreux centres de recyclage interdisent tout retrait des bennes d’e‑waste.

Le NAS Drobo n’a plus de support éditeur, ce qui en limite l’intérêt sécurité. Utilisation possible uniquement hors Internet, avec un RAID correctement configuré et des risques assumés.

Cette affaire illustre la décote rapide de la DDR4 tout en montrant que 64 Go restent une valeur sûre pour des postes de prod, même en plateforme Intel 10e gen, à condition de valider l’intégrité électrique et la compatibilité SPD/XMP avant intégration.

Source : VideoCardz

  •  

AMD offre Crimson Desert avec un Ryzen 9000X3D, ou une Radeon RX 9070 et une large sélection de laptops gaming

Un AAA offert au bon moment, et un message clair aux assembleurs : AMD aligne CPU, GPU et laptops sous une même promo, juste avant la sortie.

AMD Crimson Desert : période, matériel éligible, modalités

Les revendeurs listent un bundle via AMD Rewards incluant Crimson Desert avec une fenêtre d’achat du 10 février 2026 à 15:00 CET au 25 avril 2026. La période d’échange annoncée s’arrête le 23 mai 2026.

Tableau compatibilité CPUs AMD Ryzen avec jeu Crimson Desert

Les composants desktop éligibles récurrents sur plusieurs pages partenaires sont les Ryzen 9 9950X3D, Ryzen 9 9900X3D, Ryzen 7 9850X3D, Ryzen 7 9800X3D, ainsi que les Radeon RX 9070 XT et Radeon RX 9070.

Côté portables, sont référencés notamment les Acer Nitro 16S AI et Nitro 18 AI, ASUS TUF Gaming A14, ROG Strix G16/G18, ROG Flow Z13, HP OMEN MAX 16 et OMEN 16, Lenovo Legion Pro 5/Pro 7/Legion 5, MSI Raider A16/A18 et Crosshair A18, Gigabyte AERO X16, Razer Blade 16 et Blade 14. Presque tout l’écosystème gaming AMD y passe, mais via des SKU sélectionnés par marque.

Liste ordinateurs portables compatibles AMD Ryzen avec

Le coupon est fourni par le revendeur. Le CPU, GPU ou laptop qualifiant doit être installé sur la machine au moment de l’activation. MSI précise des contraintes régionales et rappelle la date limite du 23 mai 2026 sur sa page promotionnelle.

Crimson Desert : disponibilité, édition spéciale et exigences PC

Pearl Abyss positionne Crimson Desert comme un jeu d’action-aventure en monde ouvert sur le continent de Pywel, incarnant Kliff. La sortie est calée au 19 mars 2026, avec disponibilité sur PC et consoles : Steam, PlayStation 5, Xbox Series X|S, ainsi que Mac App Store et Epic Games Store listés par l’éditeur.

Sapphire a développé une édition spéciale Radeon RX 9070 XT aux couleurs du jeu, alignée avec le bundle pour pousser la gamme RDNA au moment clé.

Les exigences minimales Steam sur PC sont : Windows 10 64-bit, Ryzen 5 2600X ou Core i5-8500, 16 Go de RAM, Radeon RX 6500 XT ou GeForce GTX 1060, et un stockage annoncé à 100 Go.

Le timing de la promo verrouille l’exposition des Ryzen 9000X3D et RX 9070 sur la fenêtre de lancement du titre. Pour les intégrateurs et les acheteurs de portables AMD, le coupon renforce l’attractivité des SKU haut de gamme sans contrainte de bundle côté cartes AIB, tandis que l’édition Sapphire sert de vitrine marketing conforme aux cycles de sortie AAA.

Source : VideoCardz

  •  
❌