↩ Accueil

Vue lecture

Omen Gaming Subscription : HP lance une location de laptops à 49,99 à 129,99 €/mois

Une offre d’abonnement aux PC portables gaming avec contrat de 12 mois, des frais d’annulation élevés et un rachat au prix fixe. HP pousse le modèle locatif sur Omen et Victus, accessoires compris.

Spoiler : ne sortez pas votre carte bancaire tout de suite. L’OMEN Gaming Subscription est actuellement verrouillée sur le territoire américain, avec obligation de résidence US et vérification de crédit TransUnion (score 650 minimum). HP reste muet sur une éventuelle expansion en France ou en Europe, et rien n’indique un lancement prochain de ce côté de l’Atlantique. Pour l’instant, cette formule d’abonnement gaming reste donc un concept à moquer… de loin.

Omen Gaming Subscription : trois paliers, engagement annuel et options de rachat

HP déploie l’Omen Gaming Subscription, une location mensuelle d’ordinateurs portables Omen/Victus et d’accessoires (moniteurs, casques, micros, hubs USB, souris HyperX). L’inscription passe par un soft credit check, renouvelable annuellement avec du nouveau matériel à chaque reconduction. HP inclut un essai de 30 jours et une garantie continue.

Quatre offres d'abonnements Omen Gaming avec divers modèles de laptops et prix.

Trois niveaux sont proposés.

  • À 49,99 €/mois : Victus 15 « Everyday Gaming with Great Performance » avec AMD Ryzen 7 8845HS, 16 Go DDR5-5600, GeForce RTX 4050 Laptop.
  • À 79,99 €/mois : Omen 17 « Immersive Gaming Experiences » avec Ryzen AI 7 350, RTX 5060 8 Go Laptop, 32 Go DDR5-5600, 1 To PCIe.
  • À 129,99 €/mois : Omen Max 16 « High-End Gaming with no Compromises » avec Intel Core Ultra 9 275HX, RTX 5080 16 Go Laptop, 32 Go DDR5-5600, 1 To PCIe.
Tableau comparatif des options d'achat, location et abonnement pour Omen Gaming.

L’engagement minimum est de 12 mois. En cas de résiliation après deux mois d’utilisation avec restitution du matériel, des frais s’appliquent entre 549,99 € et 1 429,99 €. Pour conserver l’appareil, HP facture un montant fixe : 1 199 € pour le Victus 15, 3 299 € pour l’Omen Max 16, indépendamment de l’ancienneté d’abonnement.

Tableau des frais d'annulation et des coûts mensuels de l'abonnement Omen.

Le fonctionnement rappelle le programme All-In des imprimantes HP, démarrant à 7,99 €/mois pour 20 pages avec un engagement de deux ans. La réception en ligne est déjà critique, à l’image des réactions précédentes autour de l’offre Flex PC d’NZXT.

Si vous jouez autant à Valorant qu’à Cyberpunk 2077, l’intérêt du forfait à 129,99€/mois dépend de vos habitudes. Certes, vous obtenez une RTX 5080 Laptop et un Core Ultra 9 275HX récents, mais le budget annuel grimpe vite à plus de 1 500€, sans compter le rachat final élevé. L’abonnement est cohérent pour ceux qui veulent du matériel neuf chaque année, mais attention : rompre le contrat avant terme coûte cher. Notre verdict ? À éviter.

Source : TechPowerUp

  •  

DeepSeek porte sa fenêtre à 1M de tokens et actualise sa base à mai 2025

DeepSeek teste en gris une fenêtre de contexte portée à 1 million de tokens, selon de multiples retours d’utilisateurs ce 11 février. Interrogée, la société confirme ce chiffre aussi bien sur l’app que sur le Web. Pour mémoire, DeepSeek V3.1 avait étendu sa fenêtre à 128 k tokens en août dernier.

Autre changement notable, la base de connaissances hors ligne est actualisée jusqu’en mai 2025 : le modèle parvient à restituer correctement des informations datées d’avril 2025, sans connexion. Le système reste non multimodal : pas d’entrée image, uniquement texte et traitement de la voix.

1M tokens : usages et limites

deepseek 1m fenetre de contexte

Passer de 128 k à 1 M tokens ouvre la voie à des prompts incluant des dépôts de code entiers, des corpus réglementaires volumineux ou des historiques de conversation très longs, avec moins de découpage et de gestion externe du contexte. Reste l’inconnue sur le coût d’inférence, la latence et la politique d’accès : la phase de test en gris suggère une activation progressive et potentiellement restreinte.

Le positionnement reste clair : DeepSeek privilégie l’empilement contextuel et la mise à jour de la mémoire factuelle, sans basculement vers une prise en charge native de la vision. Les annonces récentes autour d’architectures et de modules mémoire propriétaires cadrent avec cette montée en capacité, en attendant d’éventuels détails techniques publics sur l’implémentation et la gestion de l’index interne.

Si la barre du million tient ses promesses en production, l’impact sera immédiat sur les workflows R&D et code audit, où la réduction du pré-processing et des heuristiques de chunking compte autant que la qualité de génération. La concurrence sur les très longues fenêtres s’intensifie, et la question ne sera plus seulement « combien de tokens », mais « à quel coût et avec quelle stabilité de rappel ».

Source : ITHome

  •  

Google bloque les prompts Disney dans Gemini après une mise en demeure

Deux mois après une mise en demeure musclée de Disney, Google a commencé à bloquer les prompts visant ses personnages sous Gemini et certains outils connexes comme Nano Banana, selon Deadline. Là où des requêtes testées en janvier renvoyaient encore des visuels de haute qualité, les mêmes instructions sont désormais filtrées avec un message évoquant des « préoccupations de fournisseurs de contenus tiers ». À noter qu’un contournement subsiste : l’upload d’une image d’un personnage Disney, combiné à un prompt texte, peut encore produire du contenu dérivé.

À l’origine, une lettre de 32 pages signée par l’avocat externe de Disney, David Singer, adressée en décembre à Google. Elle accuse Gemini, Veo et Nano Banana de faciliter à grande échelle la génération d’images protégées (exemples à l’appui, de Dark Vador à Iron Man) et réclame l’arrêt immédiat des usages incriminés, y compris l’entraînement des modèles sur des IP Disney. Le groupe rappelle avoir déjà signalé ses inquiétudes sans constater d’évolution satisfaisante.

Google, de son côté, met en avant une relation « de long terme et mutuellement bénéfique » avec Disney et renvoie à ses mécanismes de contrôle de droits, de Google-extended à YouTube Content ID. La firme assure entraîner ses modèles sur des données publiques issues du web ouvert, tout en laissant aux éditeurs et ayants droit des options de gestion de leurs contenus. Le timing interpelle d’autant plus que Disney a quasi simultanément officialisé un accord d’environ 1 milliard de dollars (environ 927 M€) avec OpenAI pour autoriser l’usage de ses personnages dans Sora, l’app vidéo générative.

Un filtrage plus strict côté Google, une fenêtre contractuelle côté concurrents

Le basculement opéré entre janvier et début février suggère un durcissement ciblé des garde-fous dans les pipelines de génération de Gemini et des outils associés. Techniquement, la différence entre génération ex nihilo et transformation guidée d’une image fournie par l’utilisateur reste un angle mort juridique fréquent, et un point de friction opérationnel pour les filtres d’IP. En pratique, le blocage des prompts texte purs réduit l’exposition immédiate de Google, mais n’éteint pas le risque de contournement.

Sur le plan industriel, l’accord Disney–OpenAI illustre une ligne de partage plus nette entre plateformes acceptant des licences IP coûteuses afin de sécuriser l’offre, et acteurs misant sur des filtres dynamiques adossés à des mécanismes d’opt-out. À court terme, les outils grand public de Google perdent en permissivité graphique, tandis que l’accès sous licence confère à OpenAI un avantage de vitrine sur le contenu brandé. Pour les éditeurs et studios, la tendance conforte la valeur d’accords-cadres et de garde-fous d’ingestion explicites dans les chaînes d’entraînement multimodales.

Source : ITHome

  •  

Musk veut des satellites d’IA depuis la Lune avec mass driver via xAI/SpaceX

Elon Musk pousse xAI sur un terrain plus radical encore : un site industriel lunaire dédié à la fabrication de satellites d’IA, catapultés en orbite via un « lanceur de masse » de type mass driver, afin d’alimenter une capacité de calcul hors normes. Lors d’une réunion interne, il a indiqué que la Lune serait la clé pour doter xAI d’un avantage massif en ressources de calcul, sans détailler de feuille de route concrète.

Cette prise de parole intervient après l’annonce du rapprochement entre xAI et SpaceX pour développer des data centers d’IA en orbite. Le discours élargit désormais l’ambition à une base lunaire, avec à terme une « ville autosuffisante », puis un relais vers Mars et, au-delà, l’exploration interstellaire pour la recherche de vie. Deux ex-cadres de SpaceX rappellent toutefois que la Lune n’était pas jusqu’ici un axe stratégique central de l’entreprise.

SpaceX préparerait par ailleurs une introduction en Bourse, potentiellement dès juin selon des éléments évoqués localement. Musk, qui a fondé SpaceX en 2002 sur l’hypothèse d’une présence humaine multi-planétaire, a récemment multiplié sur X les références à la Lune comme tremplin opérationnel et logistique vers Mars.

Satellites d’IA, mass driver et cap sur la Lune

Le scénario évoqué par Musk conjugue production in situ et lancement par lanceur électromagnétique, ce qui contournerait le coût des vols de ravitaillement depuis la Terre et maximiserait le débit de mise sur orbite. L’idée rejoint des concepts d’ingénierie spatiale connus, rarement sortis du laboratoire faute d’infrastructures et d’énergie en site lunaire. Aucune indication n’a été donnée sur le cycle industriel, l’assemblage des charges utiles ou la couche logicielle d’IA visée.

Sur le volet plateformes, la galaxie SpaceX dispose d’atouts immédiats : cadence de tir, architecture Starship pour le fret lourd, et maîtrise d’une constellation à grande échelle. Reste l’écart entre une ligne d’assemblage lunaire de satellites d’IA et l’état de l’art actuel, qui implique extraction, énergie, robotique autonome et contrôle qualité en environnement lunaire, autant de briques non trivialement industrialisables.

X revendique 600 millions de MAU

Au même moment, Musk affirme que X compte environ 600 millions d’utilisateurs mensuels actifs, un chiffre non vérifié indépendamment. Lors du rachat de Twitter en 2022, la plateforme publiait 237,8 millions d’utilisateurs actifs quotidiens. L’écosystème X/xAI/SpaceX apparaît de plus en plus imbriqué, avec un récit commun autour de l’échelle, de l’autonomie et de l’intégration verticale.

Si Musk parvient à orchestrer un pipeline « Lune → orbite » pour des satellites spécialisés IA, l’avantage compétitif viendrait moins du silicium isolé que de l’intégration bout en bout : fabrication, lancement, réseau et énergie. Les concurrents devront alors répondre sur la densité de calcul orbitale, la latence inter-DC et la supply chain spatiale, un terrain où la barrière à l’entrée est plus réglementaire et industrielle que purement R&D.

Source : ITHome

  •  

Zowie Performance Mode réduit la latence de clic de plus de 3 ms sur les DW

Un simple boot caché, un gain mesurable. Zowie débloque un mode qui fait tomber la latence de clic de plus de 3 ms sur ses souris DW.

Zowie Performance Mode sur les souris DW

Le nouveau firmware des modèles sans fil DW ajoute un Performance Mode activable en maintenant le clic gauche lors de l’allumage. L’objectif est clair : réduire au maximum le délai entre l’action du switch et le report USB.

Interface de téléchargement du firmware Zowie Performance Mode pour souris S2-DW sur site officiel.

Sur une ZA13-DW en polling 4 kHz, AimAdept a mesuré via un testeur Xlat une latence minimale de 0,468 ms, contre 3,898 ms avec l’ancien firmware en « Fast response ». Le gain dépasse donc 3 ms, avec un impact immédiat sur la sensation de réactivité.

Capture d'écran tweet avec instructions d'installation du Zowie Performance Mode et détails de latence.

Mesures, activation et contexte compétitif

L’activation ne nécessite aucun logiciel : maintenir le bouton gauche au power-on suffit. Les premiers retours confirment une amélioration nette de la latence de clic, sans autre changement annoncé côté capteur ou autonomie.

Cette mise à jour intervient peu après la sortie de la Logitech G Pro X2 Superstrike, qui revendique une réduction de 30 ms grâce à des switches inductifs. Zowie répond côté firmware en optimisant la pile entrée/USB, une approche pertinente pour les joueurs qui utilisent déjà des taux d’interrogation élevés.

Le gain de plus de 3 ms sur la latence de clic est significatif, surtout à 4 kHz. Passer d’environ 3,9 ms à moins de 0,5 ms place la ZA13-DW à un niveau de réactivité qui devient perceptible pour les joueurs compétitifs, en particulier en FPS où le délai clic → tir est critique. À ces valeurs, on n’est plus dans l’optimisation marginale mais dans une réduction franche du chemin critique entre le switch et le report USB.

L’approche est aussi intelligente d’un point de vue produit. Zowie choisit une optimisation firmware, sans logiciel résident ni modification matérielle, ce qui colle parfaitement à sa philosophie minimaliste. Le fait que l’activation passe par un simple boot caché évite toute couche logicielle supplémentaire, donc tout risque de latence induite ou de conflit système.

La comparaison avec la Logitech G Pro X2 Superstrike est intéressante, mais elle joue sur un autre terrain. Les switches inductifs promettent des gains bien plus élevés sur le papier, mais au prix d’un changement matériel, d’un positionnement tarifaire différent et d’une dépendance plus forte à l’écosystème. Zowie démontre ici qu’en optimisant la pile entrée/USB, il reste encore beaucoup à gagner sans toucher au hardware.

Dans un contexte 4 kHz, ce type de mise à jour a d’autant plus de sens que chaque milliseconde économisée sur le clic s’additionne aux gains déjà apportés par le polling élevé. Pour les joueurs équipés d’écrans très rapides et sensibles à la chaîne complète de latence, c’est un vrai bonus, gratuit, et immédiatement exploitable.

En résumé, ce n’est pas révolutionnaire au sens marketing, mais techniquement pertinent, mesurable, et parfaitement aligné avec l’usage compétitif visé par la gamme DW.

Source : TechPowerUp

  •  

ChatGPT renforce la recherche approfondie avec viewer plein écran et GPT‑5.2

OpenAI met à jour l’outil de « recherche approfondie » de ChatGPT avec un nouveau mode de visualisation en plein écran, conçu pour parcourir des rapports générés par l’IA, naviguer par sections et accéder rapidement aux sources citées. L’interface peut s’ouvrir dans une fenêtre dédiée avec un sommaire à gauche et la liste des références à droite.

Introduit l’an dernier, ce module permet à ChatGPT d’agréger des informations issues du web pour produire un document structuré sur un sujet donné. La mise à jour apporte un filtrage par domaines et applications partenaires, afin de borner précisément le périmètre de collecte. Les utilisateurs peuvent suivre l’avancement en temps réel, ajuster le cadrage de la recherche en cours de route ou injecter de nouvelles sources avant la finalisation.

Une fois le rapport prêt, le nouveau viewer autorise l’export en Markdown, Word et PDF. OpenAI indique également que l’outil tourne désormais sur GPT‑5.2, itération qui alimente la génération et l’agrégation des contenus consultés.

La disponibilité commence dès aujourd’hui pour les abonnés Plus et Pro. Le récent abonnement ChatGPT Go, ainsi que la version gratuite, recevront progressivement l’actualisation de l’outil de recherche approfondie dans les prochains jours.

Au‑delà du confort de lecture, l’alignement sur GPT‑5.2 et le contrôle fin des sources jouent directement sur la valeur éditoriale des rapports générés. Entre la traçabilité des références et l’export multi‑format, OpenAI encadre mieux un usage professionnel où la vérifiabilité et le cycle d’itération rapide priment sur la simple génération de texte.

Source : ITHome

  •  

Mesa 26.0 arrive avec un gros gain en ray tracing sur Radeon et un socle Vulkan 1.4

Gros coup d’accélérateur sur le ray tracing Radeon côté Linux. Les changements de pipeline RADV dans Mesa 26.0 débloquent des gains concrets en jeu.

Mesa 26.0 : socle API et périmètre de pilotes élargis

Mesa 26.0.0 est disponible comme nouvelle version majeure du stack graphique open source pour Linux et autres environnements, y compris le Windows Subsystem for Linux. Cette mouture consolide la prise en charge de Vulkan 1.4, OpenGL 4.6, OpenGL ES 3.2 et OpenCL 3.0.

Le calendrier officiel pointe une sortie au 11 février 2026 pour 26.0.0. Mesa 25.3.6 est programmé au 18 février 2026 comme ultime correctif pour la branche 25.3.

I’m happy to announce a new feature release, Mesa 26.0.0!

Mesa is the open source 3D graphics library, which includes implementations of Vulkan 1.4, OpenGL 4.6, OpenGL ES 3.2, OpenCL 3.0, and more APIs.

Since Mesa 25.3, RADV has seen significant raytracing performance improvements.

Its `RADV_DEBUG` environment variable has removed the following deprecated options: invariantgeom, nodynamicbounds, nongg_gs and splitfma. Use the driconf variables radv_invariant_geom, radv_no_dynamic_bounds, radv_disable_ngg_gs, and radv_split_fma instead.

RadeonSI switched to ACO by default for better and faster ISA code generation and better GPU performance and better compile times.

This release also introduces KosmicKrisp, a Vulkan to Metal layered driver for macOS.

Users can expect the usual flurry of improvements across all drivers and components, including these new extensions & features highlighted by their developers (in no particular order):

  • VK_KHR_relaxed_block_layout on pvr
  • VK_KHR_storage_buffer_storage_class on pvr
  • VK_EXT_external_memory_acquire_unmodified on panvk
  • VK_EXT_discard_rectangles on NVK
  • VK_KHR_present_id, VK_KHR_present_id2 on HoneyKrisp
  • VK_KHR_present_wait, VK_KHR_present_wait2 on HoneyKrisp
  • VK_KHR_maintenance10 on ANV, NVK, RADV
  • VK_EXT_shader_uniform_buffer_unsized_array on ANV, HK, NVK, RADV
  • VK_EXT_device_memory_report on panvk
  • VK_VALVE_video_encode_rgb_conversion on radv
  • VK_EXT_custom_resolve on RADV
  • GL_EXT_shader_pixel_local_storage on Panfrost v6+
  • VK_EXT_image_drm_format_modifier on panvk/v7
  • VK_KHR_sampler_ycbcr_conversion on panvk/v7
  • sparseResidencyImage2D on panvk v10+
  • sparseResidencyStandard2DBlockShape on panvk v10+
  • VK_KHR_surface_maintenance1 promotion everywhere EXT is exposed (anv, hk, lvp, nvk, radv, tu, v3dv, vn)
  • VK_KHR_swapchain_maintenance1 promotion everywhere EXT is exposed (anv, hk, lvp, nvk, radv, tu, v3dv, vn)
  • VK_KHR_dynamic_rendering on PowerVR
  • VK_EXT_multisampled_render_to_single_sampled on panvk
  • VK_KHR_pipeline_binary on HoneyKrisp
  • VK_KHR_incremental_present on pvr
  • VK_KHR_xcb_surface on pvr
  • VK_KHR_xlib_surface on pvr
  • VK_KHR_robustness2 promotion everywhere EXT is exposed (panvk v10+, HoneyKrisp, hasvk, NVK, Turnip, lavapipe, venus)
Eric Engestrom

Ray tracing RADV : compilation repensée, perfs en hausse

Le cycle met l’accent sur le ray tracing Vulkan pour AMD Radeon via RADV. Depuis Mesa 25.3, plusieurs optimisations ont été intégrées, avec des contributions liées aux travaux Linux de Valve. Natalie Vock a détaillé en janvier les changements de compilation RT dans Mesa 26.0 : passage à de vrais appels de fonctions et désinlining d’éléments shader auparavant fusionnés.

Sur son parcours de test, Ghostwire Tokyo affiche des passes RT plus de 2× rapides. L’impact exact varie selon jeux, shaders et GPU, mais la direction est claire pour RADV.

Vulkan 1.4 et mises à jour pilotes multi-vendeurs

Au-delà d’AMD, Mesa 26.0 aligne une longue liste d’ajouts Vulkan sur plusieurs GPU. Des fonctionnalités jusqu’ici optionnelles basculent en standard quand le support était déjà présent. Intel ANV, NVIDIA NVK et AMD RADV reçoivent des mises à jour de maintenance, avec côté RADV une option de custom resolve et, pour NVK, la prise en charge des discard rectangles.

Côté plateformes, « KosmicKrisp » fait son entrée comme couche Vulkan‑to‑Metal pour macOS. Sur mobile, les pilotes Qualcomm Adreno, PowerVR et PanVK évoluent, avec des correctifs liés au HDR.

La publication amont fournit tarball source et signature sur l’archive du projet. La majorité des utilisateurs recevront Mesa 26.0 via les mises à jour classiques des distributions.

Pour le jeu sous Linux, le combo Vulkan 1.4 et les gains RT de RADV devraient surtout profiter aux titres récents et aux moteurs à pipelines RT complexes. Les studios qui ciblent Proton et Steam Deck/PC Linux auront intérêt à réévaluer leurs profils de shaders et les chemins de compilation RT avec cette 26.0.

Source : VideoCardz

  •  

Intel Arc B390 : 12x de perf et 8x d’efficacité vs Gen9, bond générationnel mesuré

Dix ans d’iGPU Intel aboutissent à un saut net : les mesures récentes placent la dernière génération très loin devant les UHD Gen9 de 2016, avec un impact direct sur les usages GPU sans dGPU.

Intel Arc B390 : 12x de performance, 8x par watt

Phoronix a comparé une décennie d’iGPU Intel, du Gen9 « Kaby Lake » (UHD Graphics 620) au récent Arc B390 en Xe3 de « Panther Lake ». Résultat : un gain géométrique de 11,97x en performance et un +8x en performance par watt entre le 14 nm FinFET et TSMC N3E.

Graphique comparatif des performances Intel Xe3 Arc B390 vs Gen9 Skylake

Le panel de tests couvre les modèles haut de gamme Core/Utra : Core i7‑8550U « Kaby Lake », i7‑8565U « Whiskey Lake », i7‑1065G7 « Ice Lake », i7‑1185G7 « Tiger Lake », i7‑1280P « Alder Lake », Core Ultra 7 155H « Meteor Lake », Core Ultra 7 258V « Lunar Lake » et Core Ultra X7 358H « Panther Lake ».

Sur la consommation, « Lunar Lake » reste le plus sobre avec 13,82 W en moyenne (36,97 W max). « Panther Lake » monte à 26,86 W en moyenne (55,59 W max) pour un score quasi doublé, signe d’une meilleure densité et d’un rendement accru par watt malgré une enveloppe plus large.

Graphique de la consommation énergétique des CPU Intel Xe3 Arc B390

L’Arc B390 en Xe3 se détache grâce au passage de nœuds et aux optimisations architecturales récentes. Les mesures agrégées par Phoronix confirment une progression continue, avec une accélération nette sur les deux dernières générations.

Contexte de test et chiffres clés

La moyenne géométrique des benchmarks agrégés affiche 11,97x de mieux entre Gen9 et Xe3 B390. L’efficacité grimpe de 8x, aidée par TSMC N3E et un meilleur travail par watt. Entre « Lunar Lake » (13,82 W moy.) et « Panther Lake » (26,86 W moy.), le second délivre près du double de performance pour un pic de 55,59 W.

Pour les portables sans dGPU, ce palier place enfin l’iGPU Intel dans une zone crédible pour des charges graphiques soutenues et des workloads GPGPU légers, avec une marge d’efficacité qui dépendra surtout de la gestion des limites de puissance par châssis.

Source : TechPowerUp

  •  

Intel Core Ultra 400 : la tuile bLLC atteindrait +36 % de surface face au design standard

Une tuile compute qui enfle de 36 % et un cache massif en embuscade : Intel semble préparer une riposte frontale aux X3D d’AMD. Les contours de Nova Lake-S se précisent chez les leakers partenaires.

Intel Core Ultra 400 bLLC : vers une alternative aux X3D

Des détails partagés par HXL évoquent une tuile compute bLLC intégrée au die, à rebours de l’empilement 3D d’AMD. L’approche gonfle la surface : d’au moins 110 mm² sur un design standard, elle grimperait à 150 mm² avec bLLC, soit +36 %, pour une configuration 8P + 16E.

L’objectif est clair : attaquer les CPU Ryzen 9000X3D, actuellement très bien placés en jeu grâce à la réduction des goulots CPU via le 3D V-Cache, même avec de la DDR5 grand public. Intel miserait sur une intégration directe de la « Big Last Level Cache » plutôt qu’un empilage, avec un impact silicium assumé.

NVL 8+16 Die TSMC N2 ~110+mm2

NVL 8+16 bLLC Die TSMC N2 ~150+mm2 https://t.co/beHNikpl1O

— HXL (@9550pro) February 11, 2026

Les rumeurs évoquent 144 Mo de bLLC par Compute Tile. Un design à double tuile atteindrait 288 Mo au total. En face, AMD préparerait une hausse du 3D V-Cache de 64 Mo à 96 Mo par CCD, soit 192 Mo sur un double CCD.

Configurations évoquées et cadrage face à AMD

Au-delà du 8P + 16E, Intel explorerait un mode double compute tile portant le total de cœurs à 52 en incluant les LP cores d’autres tuiles. Cela viserait les segments haut de gamme, avec une enveloppe cache pensée pour lisser les performances en gaming et en productivité.

Côté AMD, un CCD Zen 6 passerait de 8 à 12 cœurs, avec des variantes double CCD et un simple CCD potentiellement clé en volume. L’augmentation de densité de cœurs et de cache chez les deux acteurs place la mémoire de dernier niveau au centre du jeu, surtout sur des plateformes DDR5 classiques.

Intel Core Ultra 400 et bLLC : surface, cache et coûts

L’intégration du bLLC dans la tuile compute explique l’augmentation de 110 mm² à 150 mm². Ce choix supprime la complexité d’un empilage 3D mais renchérit mécaniquement le die, avec des implications possibles sur le binning et les tarifs finaux, en échange d’une latence plus maîtrisée que du cache empilé.

Si ces chiffres se confirment, les puces Core Ultra 400 bLLC pourraient effacer les écarts en jeu observés face aux Ryzen 9000X3D, et préparer le terrain face aux futurs Ryzen 10000X3D en dual CCD à 192 Mo de 3D V-Cache. Le positionnement commercial dépendra alors autant des fréquences et de l’IO que de la seule taille de cache.

Source : HXL@9550pro

  •  

Starship Troopers: Ultimate Bug War! sort le 16 mars 2026, démo jouable dès maintenant

Déploiement officiel le 16 mars 2026, démarrage immédiat via une démo jouable. Les plages de Zegema Beach servent de terrain d’essai grandeur nature.

Démo disponible et campagne sur Zegema Beach

Starship Troopers: Ultimate Bug War! propose une première prise en main dès maintenant, avec un extrait jouable validé par l’équipe FedDev. Le segment couvre l’opération Razorwire et place le joueur dans la peau du Major Samantha « Sammy » Dietz pendant la Première Guerre des Bugs.

Mitrailleuse en action contre un insecte géant explosant dans un désert rocheux.

Objectif : libérer les rivages de Zegema Beach, avec un angle rétro FPS assumé et une mise en scène directement issue du champ de bataille. Une vidéo officielle accompagne la démo et illustre les combats contre l’Arachnide.

Arsenal, soutien et options tactiques

L’équipement de base inclut le fusil Morita MK1, avec des armes additionnelles à récupérer sur zone. Le soutien Mobile Infantry est au cœur du loop : escouades alliées, blindés et biped M7 Razorback épaulent les percées.

Scène de jeu, viseur sur une ville en ruines avec ciel vert orageux.

Les objectifs demeurent ouverts : la progression et l’ordre d’exécution sont laissés à l’initiative du joueur. Un appui de la flotte permet d’appeler des frappes aériennes pour nettoyer des masses d’insectes sans s’enliser au sol.

Combat nocturne contre des insectes géants dans un décor montagneux.

Starship Troopers: Ultimate Bug War! et promesse de réalisme

Le studio annonce « la représentation la plus réaliste de la guerre » pour la licence, en cohérence avec l’arsenal, l’échelle des affrontements et l’intégration du soutien orbital. La démo sert de banc d’essai immédiat pour jauger rythme, densité d’ennemis et efficacité du kit Morita MK1.

Environnement de jeu post-apocalyptique avec deux insectes à proximité.
Bannière promotionnelle pour la démo Steam de Starship Troopers: Ultimate Bug War.

Si le modèle tient ses promesses en charge ennemie et variétés d’outils, l’approche FPS rétro avec liberté tactique pourrait séduire au-delà du fan service, notamment chez les joueurs en quête d’IA agressive et d’options de suppression par l’artillerie orbitale.

Source : TechPowerUp

  •  

BenQ MA Series : écrans MA270S 5K et MA320UG 4K 120 Hz optimisés Mac, nano gloss et TB4

Deux nouveaux moniteurs haut de gamme ciblent directement les utilisateurs Mac exigeants. BenQ aligne une 5K à 218 ppp et une 4K 120 Hz avec un calibrage couleur pensé pour macOS.

BenQ MA Series : spécifications clés et ciblage Mac

Le MA270SP3 à 99 % et un contraste de 2000:1. Le positionnement vise les designers et monteurs qui ont besoin d’une 5K nette et d’une cohérence colorimétrique alignée sur le rendu Mac.

Écran BenQ affichant un rapport de performance connecté à un Mac Mini et une tablette

Le MA320UG120 Hz pour la vidéo et le motion design, avec P3 à 98 % et un contraste de 2000:1. Les deux modèles adoptent des panneaux Nano Gloss pour un contraste élevé et des reflets maîtrisés, et un pied réglable sur 150 mm.

Connectique, ergonomie et intégration logicielle

La connectique Thunderbolt 4 est au centre du dispositif, avec alimentation 96 W + 15 W et chaînage possible. Le Smart KVM permet de basculer entre deux systèmes avec un seul clavier/souris, pertinent pour panacher MacBook Pro, Mac mini ou Mac Studio.

Ports HDMI et USB-C sur un moniteur BenQ

Le calibrage intègre des courbes de luminosité et un tuning couleur « Mac-tuned » pour coller au comportement natif des MacBook. Le logiciel Display Pilot 2 gère la synchro couleur automatique, l’organisation d’espace de travail et le contrôle multi-systèmes.

Gamme élargie et variantes

BenQ complète la série avec MA270U / MA320U en panneaux Nano Matte et MA270UP / MA320UP en Nano Gloss. Le design minimaliste reste aligné avec l’esthétique Apple, tandis que la science des couleurs maison vise la continuité d’expérience entre Mac et écran externe.

Pour les flux de création sur Mac, l’association 5K 27 pouces/P3 à 99 % et 4K 120 Hz/P3 à 98 % répond à deux usages distincts : netteté extrême pour le print et la retouche d’un côté, fluidité et précision du mouvement pour la vidéo de l’autre. L’intégration TB4 et Smart KVM réduit les frictions en poste hybride multi-machines.

Source : TechPowerUp

  •  

LPDDR6 en tête : SK hynix à 14,4 Gbps, Samsung à 12,8 Gbps pour l’ISSCC 2026

14,4 Gbps par pin en LPDDR6 tombe chez SK hynix, juste avant l’ISSCC 2026. Samsung suit à 12,8 Gbps avec un gain énergétique annoncé de 21 % face à la LPDDR5X.

LPDDR6 : vitesses, nœuds et état de l’art

SK hynix présentera des modules LPDDR6 de 16 Gb cadencés à 14,4 Gbps par pin, gravés en nœud 1c (1γ), soit la 6e génération 10 nm DRAM du fondeur. Ces puces opèrent aux plus hauts paliers JEDEC pour la LPDDR6. Des variantes LPDDR6X overclockées sont évoquées en perspective.

Samsung mettra à jour sa LPDDR6 16 Gb à 12,8 Gbps, en hausse nette par rapport aux 10,7 Gbps montrés au CES 2026. La fabrication se ferait en 12 nm, un nœud plus large que le 10 nm de SK hynix, mais avec une efficacité énergétique revendiquée en hausse de 21 % par rapport à la LPDDR5X.

Sécurité, ECC et efficacité : les nouveautés clés

La LPDDR6 introduit un suivi intégré du nombre d’activations de rangées directement dans la DRAM, une première pour un standard mémoire. Objectif : contrer les attaques row hammer via un comptage conjoint contrôleur-puce, au-delà des seules stratégies de rafraîchissement des générations précédentes.

La norme embarque des métadonnées directement dans les paquets de données, éliminant des broches dédiées et permettant une correction d’erreurs bout-en-bout : correction 1 bit et détection multi-bits en on-die et sur le lien. Côté signalisation, Samsung mise sur du NRZ avec sous-canal 12DQ, un schéma que SK hynix devrait également suivre.

Sur l’énergie, la LPDDR6 prend en charge un DVFS étendu sur trois rails, contre deux en LPDDR5, et des modes d’efficacité capables de doubler la densité tout en abaissant la consommation I/O. Les deux industriels présenteront ces avancées à l’ISSCC 2026 à San Francisco, du 15 au 19 février.

Si SK hynix tutoie déjà les limites JEDEC avec 14,4 Gbps en 1γ, l’écart de nœud et la marge d’optimisation chez Samsung laissent entrevoir une montée en régime rapide. La combinaison anti-row hammer native et ECC de lien change la donne pour les mobiles haut de gamme et l’IA embarquée, où la qualité de service mémoire devient critique.

Source : TechPowerUp

  •  

Romeo is a Dead Man : Suda51 détaille un hack’n’slash musclé et une impro maîtrisée

Ouverture à fond, combats au cordeau : Grasshopper Manufacture pousse son hack’n’slash en assumant une méthode d’itération improvisée mais cadrée par le duo Suda51/Yamazaki.

Romeo is a Dead Man, un action-game qui mise sur la mêlée et le rythme

Le studio revendique un « strong-style » hack’n’slash où l’équilibrage oppose tir à distance et risque en mêlée. Le finisher Bloody Summer ne se charge qu’avec les armes de corps à corps, forçant des engagements rapprochés malgré la sécurité du tir.

Deux personnes devant le mur du studio Yabukiri

Les épées ont fait l’objet d’un polissage fin, jusqu’au timing d’impact. Le placement et le volume d’ennemis ont été retouchés en continu pour garder une progression fluide mais tendue, y compris lors d’un premier run.

Bastards : invocations, craft et loadouts modulaires

Évolution des « gimmick skills » de Travis Strikes Again/NMH3, les Bastards lient compétences et crafting. Certains finissent plus puissants que l’arsenal standard, avec des réactions sur gâchettes adaptatives côté PlayStation lors de la récolte. Exemples cités : Mictlantecuhtli, FrostBolt (gel), SuicideAttack (auto-destruction scalable).

Illustration style bande dessinée

Narration sous masque, ouverture chaotique, et méthode « ad-lib »

Le protagoniste, Romeo Stargazer, est pensé pour marquer au-delà du moveset, son identité « DeadMan » ayant cristallisé la direction. La relation avec Juliet s’est imposée en écriture, loin d’un pastiche tragédie. Duo référencé « vieux/jeune » avec le grand-père Ben.

L’ouverture est volontairement expéditive et confuse, pour propulser immédiatement dans l’action. En interne, près de la moitié des effectifs étaient nouveaux ; la vision globale ne s’est figée qu’au debug, reflet d’un processus fait d’idées brassées en réunion puis intégrées par intérêt ludique.

Deux personnes assises devant des étagères de figurines et livres

Suda51 assume une densité d’idées parfois coupées puis réinjectées, l’intention étant de concentrer dès le départ les séquences fortes. Le studio revendique un parti pris non orthodoxe face aux productions « parfaites » du marché, avec un assaisonnement qui parlera surtout aux amateurs de leur signature.

Groupe de personnes devant l'entrée du studio Yabukiri avec logo en arrière-plan

Sorties calées : 10 février sur PC, 11 février sur consoles. Combats évolutifs selon l’ennemi, les armes, et la montée en puissance de Romeo, de son équipement et de ses Bastards via mini-jeux.

Pour les joueurs d’action, le couple risque/récompense imposé par Bloody Summer et la couche buildcraft des Bastards laissent entrevoir une méta portée par le corps à corps agressif, avec un plafond de skill relevé et des variations de loadouts propices à l’optimisation.

Source : TechPowerUp

  •  

Windows 11 26H1 réservé aux nouveaux SoC Arm, les PC x86 restent sur 25H2

Branche séparée, cible unique : Microsoft consacre 26H1 aux nouveaux SoC Arm, tandis que le parc x86-64 reste cantonné à 25H2. D’ailleurs aucune mention des PC Arm NVIDIA évoqués par ailleurs !.

Windows 11 26H1 : priorité aux plateformes Arm récentes

Microsoft oriente 26H1 vers le support des Snapdragon X2 Elite/Plus et des SoC NVIDIA N1/N1x. Les machines x86-64 et Arm plus anciennes continueront sur Windows 11 25H2 pour les évolutions fonctionnelles.

Windows 11 26H1 réservé aux nouveaux SoC Arm, les PC x86 restent sur 25H2

Le Windows IT Pro Blog précise que « Windows 11, version 26H1 n’est pas une mise à jour de fonctionnalités pour la version 25H2 ». Autrement dit, la prochaine feature update pour la majorité des PC ne sera pas 26H1.

Optimisations ciblées et branche de service distincte

26H1 concentre des profils d’alimentation spécifiques et des optimisations matérielles destinées à extraire les performances maximales des nouveaux Windows on Arm. La séparation de la branche facilite le servicing sans impacter les CPU non‑Arm.

Contrairement à 25H2, activé via un enablement package (eKB), 26H1 pourrait ne pas partager la même base de code. Microsoft n’a pas confirmé l’usage d’un eKB pour 26H1, ni détaillé le cycle de vie exact et la fenêtre de support de cette branche.

Cette scission clarifie la feuille de route : accélérer la montée en puissance de Windows on Arm sans pénaliser la stabilité des builds x86. Pour les OEM, c’est l’assurance de profils énergie/performance mieux adaptés aux Snapdragon X2 et futurs N1/N1x ( un jour) ; pour les utilisateurs classiques, le canal 25H2 demeure la référence à court terme.

Source : TechPowerUp

  •  

NVIDIA App 11.0.6.386 : hotfix pour MUX Advanced Optimus grisé et app bloquée

Des contrôles MUX grisés au pire moment et une app qui refuse de se lancer. NVIDIA publie un hotfix ciblé pour remettre de l’ordre dans la version 11.0.6.

Hotfix NVIDIA App 11.0.6.386 : ciblage des pannes critiques

NVIDIA met en ligne un installateur hotfix pour NVIDIA App 11.0.6.386. Deux problèmes sont visés : l’impossibilité d’ouvrir la NVIDIA App 11.0.6 après mise à jour via l’application, et la désactivation aléatoire des options de MUX Advanced Optimus, affichées grisées lors de « random mux switch scenarios ».

NVIDIA App Hotfix v11.0.6.386 is now available. Click below to learn more and download the update:https://t.co/BsqHsvKaiC pic.twitter.com/tzkJGbpf0c

— NVIDIA Customer Care (@nvidiacc) February 10, 2026

Sur les portables compatibles, Advanced Optimus pilote le basculement iGPU/dGPU via MUX. Quand l’UI est grisée, l’utilisateur peut rester coincé dans un mode non désiré ou perdre l’accès au basculement d’affichage jusqu’à réinitialisation de l’état. Le hotfix doit restaurer ces contrôles.

Côté stabilité, les erreurs « l’app ne s’ouvre pas » ou « there was a problem with NVIDIA App » ont touché des installations récentes 11.0.6. Des contournements circulent (arrêt de services NVIDIA, purge de dossiers de profils), mais NVIDIA recommande l’installateur hotfix officiel lorsque la mise à jour in-app échoue.

Advanced Optimus et mises à jour : quoi faire selon votre cas

Si vous êtes affecté par les contrôles MUX grisés ou par une app 11.0.6 qui ne se lance pas, utilisez le hotfix 11.0.6.386. Sans symptôme, mieux vaut patienter pour la prochaine stable.

Source : VideoCardz

  •  

Fortnite généralise Secure Boot, TPM et IOMMU pour tous les tournois PC dès février 2026

Tournoi PC et triche matérielle ne feront plus bon ménage. Epic verrouille la chaîne de confiance et étend ses prérequis sécurité à l’ensemble des compétitions.

en effet, à partir du 19 février 2026, Fortnite durcit brutalement les règles sur PC : sans Secure Boot, TPM et IOMMU activés, l’accès aux tournois devient tout simplement impossible.

Fortnite : nouvelles exigences anti‑cheat pour le PC

À compter du 19 février 2026, tous les tournois Fortnite sur PC exigeront Secure Boot, TPM et désormais IOMMU activés. Epic aligne son anti‑cheat sur la baseline sécurité Windows afin de limiter les accès mémoire non autorisés et les manipulations bas niveau.

Secure Boot protège la séquence de démarrage contre les altérations, le TPM atteste l’état de confiance de la machine, et l’IOMMU encadre matériellement l’accès des périphériques PCIe à la RAM via le DMA. Epic précise que l’IOMMU complique l’accès à la mémoire du jeu par du matériel de triche.

L’éditeur indique que l’impact restera limité : environ 95 % des joueurs PC Fortnite utilisent un système compatible Windows 11 et remplissent déjà ces critères, ou peuvent les activer sans achat matériel. Les exigences TPM et Secure Boot étaient imposées aux tournois de haut niveau depuis le 27 février 2025 ; l’extension 2026 généralise la règle et ajoute explicitement l’IOMMU.

IOMMU, VT-d et AMD-Vi : ce qui change côté plateforme

L’IOMMU (Input Output Memory Management Unit) permet au système d’exploitation de restreindre chaque périphérique aux plages mémoire qui lui sont allouées. Sur Intel, la fonctionnalité est exposée comme VT-d ; côté AMD, AMD-Vi ou IOMMU dans l’UEFI. Une fois activée, Windows réduit le risque d’attaques DMA et durcit l’accès à la mémoire protégée du jeu par des cartes d’extension ou dispositifs externes compromis.

Epic complète ce durcissement par un rappel répressif. L’entreprise dit avoir récemment engagé des poursuites contre un joueur accusé de triche et de DDoS, assorties d’un bannissement à vie sur ses jeux et services. Bilan 2025 : jugement à 175 000 $ (environ 162 000 €) dans un dossier, autres actions contre développeurs/vendeurs de cheats et contre le vol de comptes.

La généralisation de l’IOMMU dans le circuit compétitif PC pousse de fait les participants à activer des briques de sécurité déjà répandues dans l’écosystème Windows 11. Côté organisateurs et anticheat, c’est un moyen concret de fermer la porte aux vecteurs DMA encore exploités par du hardware de triche, sans pénaliser la grande majorité des configurations actuelles.

Source : epicgames

  •  

DDR5 Biostar 16 Go UDIMM en 4800/5600 MT : PMIC JEDEC, 1,1 V et compatibilité large

Modules sobres, timings annoncés, PMIC intégré à 1,1 V et ECC on-die : Biostar cible les builds sérieux qui cherchent de la stabilité sans fioritures.

DDR5 Biostar 16 Go UDIMM : deux vitesses, même promesse de stabilité

Biostar ajoute des barrettes DDR5 16 Go UDIMM en 4800 MT et 5600 MT, orientées postes de travail légers, HTPC, NAS, intégration système et gaming milieu de gamme. Le design non-ECC unbuffered 288 broches s’aligne sur le standard desktop actuel, avec une architecture 32 banques et une organisation améliorée des bank groups pour un meilleur parallélisme.

Emballage de la mémoire DDR5 Biostar 16 Go 4800 MHz en plastique transparent

La gestion d’alimentation passe par un PMIC certifié JEDEC directement sur le module, tension nominale 1,1 V. Objectif affiché : régulation plus précise, efficacité énergétique et tenue en charge prolongée, notamment pour des systèmes compacts ou à fonctionnement continu.

L’ECC on-die renforce l’intégrité des données côté puce, utile pour des usages longs et intensifs, sans basculer vers des DIMM ECC enregistrés. La compatibilité annoncée couvre les plateformes Intel et AMD, de quoi simplifier les mises à niveau sur PC tour et SFF.

Timings et profils

Les versions 4800 MT sont données en CL40-40-40-77. Les 5600 MT montent à CL46-45-45-90, un positionnement cohérent pour des UDIMM JEDEC visant la fiabilité plutôt que l’overclock.

Barrettes de RAM DDR5 Biostar 16 Go, recto et verso, sans emballage

Sur des charges réelles mixtes (bureautique avancée, création de contenu légère, multitâche), l’architecture 32 banques et la granularité des bank groups aident à maintenir la réactivité, sans dépendre d’XMP/EXPO agressifs. Les intégrateurs y verront une base stable pour des configurations à faible maintenance.

Face aux kits hautement clockés avec dissipateurs massifs, ces UDIMM misent sur la conformité JEDEC, la simplicité et la consommation maîtrisée. Dans un contexte de builds compacts et de parcs nécessitant une endurance 24/7, l’équation efficacité/compatibilité peut peser plus lourd que le gain marginal en latence.

Source : TechPowerUp

  •  

G.Skill : accord à 2,4 M$ et clarification des vitesses DDR4 et DDR5

Un chèque de 2,4 M$ et des emballages revus plus explicitement. G.Skill tourne la page d’un litige sur l’affichage des vitesses DDR4/DDR5 et s’aligne sur un marquage « up to » et mention OC concernant les fréquences de ses RAM.

G.Skill ajuste ses étiquettes de vitesse

G.Skill a accepté un règlement collectif de 2,4 millions de dollars (environ 2,2 M€) concernant l’étiquetage des vitesses « notées » de certains kits DDR4 et DDR5 de bureau. L’entreprise conteste toute faute, et le tribunal n’a pas tranché sur la responsabilité.

Dos d'emballage Trident Z5 RGB, texte et logos variés, éclairage terne

Le cœur du dossier porte sur les vitesses supérieures aux valeurs JEDEC par défaut (DDR4-2133, DDR5-4800) et la manière dont elles pouvaient être perçues comme « out of the box ». En pratique, ces profils sont atteints après activation d’Intel XMP ou d’AMD EXPO dans l’UEFI, ou via un réglage manuel.

La période couverte s’étend du 31 janvier 2018 au 7 janvier 2026 pour les acheteurs résidant aux États-Unis, sur des produits non destinés aux laptops. Les réclamations en ligne ou par courrier doivent être soumises ou oblitérées au plus tard le 7 avril 2026, avec une audience d’approbation finale fixée au 5 juin 2026 à 14 h 00 PDT.

Texte explicatif sur un règlement judiciaire concernant la mémoire G.Skill DDR4 et DDR5

Sans justificatifs, le formulaire limite à cinq achats éligibles par foyer ; au-delà, des preuves d’achat sont requises. Côté présentation produit, le règlement prévoit l’emploi d’un « up to » pour les vitesses notées, assorti d’un avertissement clair : « Requires overclocking/BIOS adjustments. Maximum speed and performance depend on system components, including motherboard and CPU. »

XMP/EXPO mis en avant, comme chez Corsair

Les futurs packagings et fiches techniques devront refléter ces mentions, y compris chez les revendeurs, avec une tolérance pour l’écoulement des stocks actuels. L’approche rejoint celle adoptée après le règlement de 5,5 M$ conclu par Corsair Gaming en 2025 sur des allégations similaires d’« out-of-box » pour des kits DDR4/DDR5.

Pour l’utilisateur, le message est désormais explicite : un kit annoncé à 6000 MT/s vise une cible atteignable via OC/XMP/EXPO, sous réserve des capacités CPU et carte mère. Le secteur se standardise vers une sémantique plus nette entre profils JEDEC et profils OC, ce qui devrait réduire les malentendus au moment de l’achat.

Source : VideoCardz

  •  

MSI GeForce RTX 5090 filmée en flammes : première mise sous tension, pas de SAV local

Premier démarrage, premières flammes. Une RTX 5090 importée s’embrase et laisse son propriétaire sans support SAV local.

Vidéo Bilibili et premiers éléments techniques

Un uploader Bilibili a publié une séquence montrant une MSI GeForce RTX 5090 défaillir dès le démarrage. Dans les commentaires, il indique que le problème a été confirmé comme provenant de la carte graphique.

Carte GeForce RTX dans boîtier éclairage violet, fond neutre

Le PC venait de recevoir une nouvelle alimentation de 1300 W, utilisée avec ses câbles d’origine. L’auteur affirme que le faisceau n’a pas brûlé et que la machine fonctionne normalement après retour sur une RTX 5060.

  •  

MSI Afterburner 4.6.7 Beta 2 active GPU Safeguard+ et prend en charge les RTX 5090 LIGHTNING

Un utilitaire d’overclocking qui peut aussi sauver un 16 broches en surchauffe, c’est nouveau. Afterburner 4.6.7 Beta 2 relie enfin la télémétrie PSU à une réponse automatique côté GPU.

MSI Afterburner 4.6.7 Beta 2 : GPU Safeguard+ et actions d’urgence

MSI publie Afterburner 4.6.7 Beta 2 (branche bêta courante datée de février 2026) avec la prise en charge de la série GeForce RTX 5090 LIGHTNING. Le cœur de la mise à jour concerne GPU Safeguard+, une surveillance côté alimentation des connecteurs 12V-2×6 capable de signaler des comportements anormaux.

Interface MSI Afterburner avec avertissement, fond bleu noir moins contrasté

Un nouveau plugin de monitoring, PSU.dll, expose la télémétrie des blocs MSI MEG Ai1x00 et MSI MPG Ai1x00TS : tension, courant, puissance, température, rendement et vitesse des ventilateurs. Les modèles MPG remontent aussi des courants par broche pour les 12VHPWR et 12V-2×6, utile pour détecter surintensités et déséquilibres.

Le fonctionnement est centré sur des alarmes, avec des capteurs simplifiés d’overcurrent et d’imbalance exploitables par les alertes d’Afterburner. La case « Enable GPU Safeguard+ » automatise la réponse : alerte sonore et déclenchement d’un flux d’atténuation d’urgence en cas de dépassement.

Réglages MSI Afterburner avec texte et options, fond bleu noir

Ce flux d’urgence s’appuie sur deux nouvelles options en ligne de commande : chargement d’un profil d’urgence prédéfini à consommation réduite et affichage d’un message OSD personnalisé lors de son application. Par défaut, le profil cible un power limit inférieur sur les GPU NVIDIA afin de couper rapidement la charge pendant la vérification du connecteur 16 broches.

Support RTX 5090 LIGHTNING et éditeur V/F amélioré

Outre la compatibilité avec les RTX 5090 LIGHTNING, Afterburner 4.6.7 Beta 2 améliore l’éditeur de courbe Voltage/Frequency : zoom, panoramique, taille de nœud ajustable et opérations affinées basées sur la sélection. Des ajustements bienvenus pour les profils courbe-tension, en particulier sur les cartes visant des enveloppes de puissance agressives.

Propriétés MSI Afterburner avec réglages GPU Safeguard, fond bleu noir

L’intérêt majeur reste toutefois la chaîne télémétrie→action : l’agrégation de données PSU côté 12V-2×6, leur traduction en alarmes exploitables et l’application immédiate d’un profil de réduction. C’est une approche pragmatique pour limiter les risques liés aux connecteurs haute intensité sans intervention manuelle.

Source : VideoCardz

  •  

Boîtiers panoramiques GameMax NEX C51/C31 : verre trempé, 360 mm et USB-C 20 Gbps

Prix d’entrée et vitrine haut de gamme, GameMax pousse le format panoramique avec ses boîtiers GameMax NEX C51 et NEX C31 sans rogner sur la compatibilité ni la connectique.

GameMax NEX C51/C31 : design panoramique et support 360 mm

Les NEX C51 (ATX) et NEX C31 (microATX) adoptent un châssis à parois en verre trempé sans montant, offrant une vue continue sur la configuration. Trois ventilateurs 120 mm ARGB sont fournis d’origine.

Boîtiers panoramiques GameMax NEX C51/C31 : verre trempé, 360 mm et USB-C 20 Gbps

Le GameMax NEX C51 sépare les zones chaudes des compartiments d’alimentation et des câbles pour un flux d’air plus propre et un câblage simplifié. Les deux modèles acceptent un radiateur de 360 mm en partie supérieure et des ventilateurs jusqu’à 9×120 mm, ou 2×140 mm + 6×120 mm selon l’agencement.

La compatibilité GPU monte à 410 mm et les ventirads à 175 mm. En façade, la connectique intègre un USB Type‑C Gen 2×2 à 20 Gbps et deux ports USB 3.0.

Boîtiers panoramiques GameMax NEX C51/C31 : verre trempé, 360 mm et USB-C 20 Gbps

NEX C51 vs NEX C31 : même philosophie, formats distincts

Le NEX C51 vise les configurations ATX imposantes tout en conservant un haut niveau de ventilation. Le NEX C31 transpose l’approche dans un format microATX compact sans renoncer au radiateur 360 mm, aux 410 mm pour le GPU ni aux 175 mm pour le ventirad.

Tarifs et disponibilité

La garantie est limitée à 1 an. Prix publics indicatifs : NEX C51 BK 54,99 $ (~51 €), NEX C51 WH 59,99 $ (~56 €), NEX C31 BK 49,99 $ (~46 €), NEX C31 WH 54,99 $ (~51 €).

À ce niveau de prix, l’ensemble verre trempé sans pilier, 360 mm en top et USB‑C 20 Gbps place GameMax en alternative agressive aux vitrines plus onéreuses, notamment pour des builds ARGB grand format ou compacts sans concessions.

Source : TechPowerUp

  •  

Razer Project AVA : Min-Liang Tan fustige le « GenAI slop » et précise la feuille de route

Un CEO de l’hardware gaming qui parle d’IA en assumant le tri qualité plutôt que la surenchère de contenu, ça tranche. Chez Razer, l’objectif est clair : pas de « GenAI slop », mais des outils concrets qui servent le jeu et ses auteurs.

Razer Project AVA et la ligne rouge sur la génération de contenu

Min-Liang Tan pose le cadre : « En tant que joueurs, ce qui nous déplaît, c’est le GenAI slop ». Personnages difformes, narrations bâclées : le problème n’est pas l’IA en soi, mais l’usage qui en est fait. L’IA doit renforcer la fabrication des jeux, pas remplacer la créativité humaine.

Razer Project AVA : Min-Liang Tan fustige le « GenAI slop » et précise la feuille de route

Razer revendique plus de 600 millions de dollars d’investissements IA, avec des objectifs précis : détecter plus tôt les problèmes, automatiser les tâches répétitives et décupler la capacité de production sans dégrader la qualité. L’approche reprend la logique « concepts au CES, industrialisation si l’intérêt est là », déjà vue avec Project Carol devenu produit commercial.

Prototype holographique, multi‑modèles et choix du LLM

Présenté comme coach virtuel au CES 2025, Project AVA évolue en compagnon IA de bureau à composante « semi‑physique ». Au CES 2026, Razer a montré une version holographique : un affichage animé de 5,5 pouces avec eye‑tracking, mouvements expressifs et synchronisation labiale naturelle. AVA comprend le contexte et interprète l’activité à l’écran via un mode PC Vision, avec réponses en temps réel.

Razer Project AVA : Min-Liang Tan fustige le « GenAI slop » et précise la feuille de route

Les avatars, conçus avec Animation Inc., incluent Kira et Zane de Razer, ainsi que SAO, influenceuse japonaise, chacun avec style visuel et personnalité conversationnelle distincts. Pour la démo, Razer a retenu Grok (xAI) pour sa vivacité et sa personnalité. Le message est néanmoins clair : AVA est une plateforme ouverte et multi‑modèles, compatible avec divers LLM au lancement, afin de laisser le choix à l’utilisateur selon l’usage.

Razer applique cette flexibilité ailleurs, comme sur Project Motoko, un prototype de casque IA wearable motorisé par ChatGPT. L’axe stratégique reste identique : expérimenter de façon responsable, favoriser l’interopérabilité des modèles et sélectionner le moteur conversationnel ou orienté tâches le plus adapté.

Razer Project AVA : Min-Liang Tan fustige le « GenAI slop » et précise la feuille de route

Côté mise sur le marché, Razer parle de principes de conception responsable, de comportements prédictibles et d’un contrôle utilisateur renforcé. Aux États‑Unis, un dépôt de réservation de 20 $, entièrement remboursable et non assimilé à une précommande, sert à mesurer l’intérêt avant la finalisation du produit. À ce stade, pas de tarif public ni de fenêtre de commercialisation annoncés. Estimation indicative si produit autour de ces démos : sans données, conversion euro non pertinente.

Razer Project AVA : Min-Liang Tan fustige le « GenAI slop » et précise la feuille de route

Le positionnement de Razer répond à une attente nette du marché PC : des assistants qui améliorent la pratique (jeux, création, streaming) sans dégrader l’UX par du contenu généré médiocre. L’ouverture multi‑LLM est un point clé pour éviter l’enfermement technologique et suivre le rythme des modèles de pointe. Si l’intégration PC Vision et l’avatar 5,5 pouces tiennent leurs promesses en latence et robustesse, AVA peut s’imposer comme accessoire utile plutôt que gadget.

Source : TechPowerUp

  •  

Apple VSSFlow : un modèle unifié vidéo-vers-son et texte-vers-parole

Apple s’est associé à l’Université Renmin de Chine pour dévoiler VSSFlow, un modèle d’IA capable de générer en une seule passe la bande-son complète d’une vidéo muette : effets d’ambiance synchronisés à l’image et voix humaines pilotées par script. Là où le secteur séparait jusqu’ici « vidéo-vers-son » et « texte-vers-parole », avec des pipelines complexes et des compromis de qualité, VSSFlow unifie les deux tâches et revendique un net gain sur les métriques clés face aux modèles spécialisés.

Apple VSSFlow : un modèle unifié vidéo-vers-son et texte-vers-parole

Un modèle unifié, 10 niveaux et une approche « flow matching »

Le système adopte une architecture en 10 couches et s’appuie sur des techniques de « flow matching » pour apprendre à reconstruire le signal audio cible à partir de bruit aléatoire, sans chaînage de modèles. Le cœur de la promesse est la synchronisation : VSSFlow extrait des indices visuels à 10 images/s pour sculpter les sons d’environnement au bon timing, tout en générant la voix selon un script texte, avec alignement précis.

Apple VSSFlow : un modèle unifié vidéo-vers-son et texte-vers-parole

Contrairement aux approches par étapes, l’entraînement conjoint n’a pas créé d’interférences entre tâches selon les auteurs ; il a même produit un effet d’entraide. L’exposition à la parole améliorerait la qualité des effets, et réciproquement, l’abondance d’effets enrichirait la robustesse de la synthèse vocale en contexte bruité.

Données hybrides et résultats annoncés

Le dataset mélange des vidéos avec ambiance sonore, des vidéos parlées sous-titrées et des paires texte-parole. Des échantillons synthétiques ont été utilisés pour le réglage fin, afin que le modèle apprenne à émettre simultanément fond sonore et voix. En test, VSSFlow surpasse des références dédiées à un seul objectif, selon les métriques retenues par l’équipe.

Le code est disponible sur GitHub, avec une ouverture des poids et une démo d’inférence en ligne annoncées comme en préparation. Aucun détail matériel n’est fourni sur l’infrastructure d’entraînement, ni sur les contraintes de calcul en inférence, mais l’extraction visuelle à 10 i/s laisse entendre une cible temps réel ou quasi temps réel pour le montage assisté.

Pour Apple, l’intérêt stratégique est double : un pipeline unifié réduit la complexité d’intégration dans des workflows de production et de post‑prod, tout en rognant l’écart entre génération « proprette » et rendu contextuel crédible. Si les poids sont réellement publiés et la démo convaincante, le modèle pourrait bousculer les briques audio des éditeurs vidéo et des engines temps réel, en particulier sur les cas d’usage doublage + foley automatisés.

Source : ITHome

  •  

Qwen-Image-2.0 : génération d’images 2K et typographie fiable unifiées

Alibaba Qwen dévoile Qwen-Image-2.0, une nouvelle génération de modèle de génération d’images qui fusionne texte‑to‑image et édition d’images dans un unique système. La promesse : un rendu typographique nettement plus professionnel, une meilleure fidélité photoréaliste en 2K, une compréhension sémantique accrue pour suivre les consignes complexes, et une architecture plus compacte pour des temps d’inférence plus courts. L’API est ouverte en accès anticipé sur Alibaba Cloud Baichuan, et le modèle est testable gratuitement via Qwen Chat.

Qwen-Image-2.0 : génération d’images 2K et typographie fiable unifiées

Texte net, composition maîtrisée, 2K natif

Le point saillant est la « lecture/écriture » du texte dans l’image. Qwen-Image-2.0 accepte jusqu’à 1 000 tokens d’instructions et sort des infographies, affiches, planches de BD ou slides avec une mise en page alignée, hiérarchisée et multi‑scripts, sans approximations de glyphes ni artefacts de vectorisation. L’équipe montre des cas de figures saturés en texte (infographies A/B test, calendriers lunaires, calligraphies classiques, inscriptions sur t‑shirts, vitrines, magazines) avec respect des polices, de l’empattement, de l’orientation et de l’intégration matière/lumière.

Sur le réalisme, le modèle passe en génération 2 048 × 2 048, avec un soin particulier aux textures micro‑détails (peau, tissages, pierre, feuillage) et aux interactions optiques crédibles (réflexions sur verre, profondeur de champ, brouillard atmosphérique). Les visuels fournis illustrent une gestion propre des scènes denses, y compris les rendus « image dans l’image » et les superpositions texte‑image sans obstruction du sujet.

Qwen-Image-2.0 : génération d’images 2K et typographie fiable unifiées

Génération + édition unifiées, consignes longues, architecture allégée

Qwen-Image-2.0 unifie la compréhension et la génération pour la création et l’édition dans le même flux, ce qui évite les bascules de pipeline. Le modèle suit plus strictement les prompts longs, y compris les contraintes de cadrage, d’alignement typographique, de styles calligraphiques précis ou de cohérence multi‑vues. Les exemples incluent le titrage directement sur photos, les montages multi‑images cohérents, et l’incrustation contrôlée d’éléments 2D stylisés sur une base photographique réelle, sans casser la vraisemblance lumineuse.

Alibaba met aussi en avant une architecture plus légère et une latence réduite pour produire des images 2K « en quelques secondes ». Sans fiche technique publique détaillée, la communication insiste sur l’équilibre entre fidélité visuelle et vitesse d’inférence dans une enveloppe modèle plus petite que la génération précédente.

Qwen-Image-2.0 : génération d’images 2K et typographie fiable unifiées

Pour l’écosystème, l’intégration propre du texte au sein des pipelines de génération marque une inflexion utile pour les cas pro encore mal servis par les diffuseurs classiques : infographie dense, poster avec crédits longs, maquettes de slides, interfaces annotées ou signalétique sur matériaux. Si la qualité réelle dépendra des jeux de prompts et de l’outil d’édition en amont, la convergence « photoréalisme + typographie fiable » dans un seul modèle est précisément la case que cherchaient à cocher les studios créa et les équipes produit.

Source : ITHome

  •  
❌