↩ Accueil

Vue lecture

Chaise gaming AutoFull M6 Ultra 2.0 : refroidissement/chauffage intégrés et soutien lombaire adaptatif

Refroidissement actif à 19 °C dans l’assise, chauffage jusqu’à 50 °C et lombaire dynamique : AutoFull place la barre haut sur l’ergonomie sans renoncer à la robustesse.

AutoFull M6 Ultra 2.0 : ergonomie active et construction premium

AutoFull lance la M6 Ultra 2.0, évolution de sa chaise haut de gamme orientée longue session, e-sport et streaming. Elle est proposée à 599,99 $ sur le site US (RRP 899,99 $) et 599,99 £ sur le site UK (RRP 999 £). À titre indicatif, 599,99 $ équivalent à environ 555 € selon le taux du jour.

Joueur à un bureau avec la chaise AutoFull M6 Ultra, utilisant un ordinateur pour jouer à un jeu.

Le cœur du produit est un système thermique intégré dans le coussin d’assise : double ventilation pour abaisser la surface autour de 19 °C et éléments chauffants en graphite jusqu’à 50 °C, chacun réglable sur trois niveaux. Un coussin d’assise massant et une vibration lombaire intégrée complètent l’ensemble pour soulager les points de pression en usage prolongé.

Soutien lombaire adaptatif et réglages étendus

L’appui lombaire M-Series de troisième génération suit les mouvements avec 60 mm de course avant/arrière, 50 mm d’adaptation verticale automatique et 5° de rotation adaptative. Les avis mettent en avant cette cinématique comme un différenciateur clé dans la catégorie.

Chaise AutoFull M6 Ultra 2.0 inclinée, avec repose-pieds et affichage numérique sur le côté.

La têtière 3D ErgoCloud en mousse à mémoire propose des réglages d’angle, de hauteur et d’avancée. Les accoudoirs 360° offrent des ajustements en hauteur, profondeur et angle pour aligner clavier, souris ou manette au millimètre.

Matériaux, mécanique et capacités de charge

Le piètement en alliage d’aluminium renforcé et les roulettes heavy-duty visent la durabilité, avec une charge maximale annoncée à 180 kg. Le revêtement en similicuir PU micro-perforé favorise la respirabilité, associé à une mousse haute densité pour le maintien.

Détail du dossier de la chaise AutoFull M6 Ultra avec motif rouge et logo doré.

La translation en hauteur s’appuie sur un vérin SGS classe 4. Le dossier bascule de 90° à 160°, un mode rocking à 20° est présent, et un repose-pieds ergonomique intégré permet de relâcher toute la chaîne musculaire entre deux parties.

Illustration de la fonction de massage chauffant de la chaise AutoFull M6 Ultra 2.0.

Pour un positionnement tarifaire à 599,99 $/599,99 £, AutoFull additionne thermique actif, massage et cinématique lombaire avancée. Dans un marché saturé de sièges « racing » peu différenciants, la M6 Ultra 2.0 se singularise par des fonctions mesurables et un châssis crédible, avec un plafond d’usage à 180 kg et une plage de réglages cohérente pour le multi-usage jeu/travail.

Source : TechPowerUp

  •  

Fractal North Momentum Edition officialisé : trois ventilateurs LCP et façade chêne noir

Fractal ne touche pas à l’icône, mais renforce ce qui compte. Avec la North Momentum Edition, le constructeur suédois officialise une version plus agressive de son boîtier phare, livrée d’emblée avec trois ventilateurs à pales LCP et une façade en chêne noir.

Fractal North Momentum Edition : refroidissement out of the box

La Momentum Edition conserve la face avant ouverte et le mesh supérieur du North, mais ajoute trois ventilateurs Momentum à pales LCP avec véritables roulements FDB. L’objectif est clair : maintenir des composants hautes performances à des températures maîtrisées, sans ajout immédiat de ventilation.

Boîtier Fractal North Momentum Edition avec façade grillagée noire

Le design s’appuie sur des inserts en chêne noircis et des accents métalliques sombres. Le positionnement vise les configurations gaming visibles sur le bureau, sans renoncer à l’efficacité thermique.

Compatibilité et déclinaisons

Le châssis reprend l’agencement interne sobre et intuitif de la série North. Deux tailles sont proposées : North Momentum Edition pour des cartes graphiques jusqu’à 355 mm, et North XL Momentum Edition qui étend le support GPU à 413 mm.

Vue avant du boîtier Fractal North Momentum Edition avec détails en treillis

Côté tarif, le North Momentum Edition est annoncé à 179,99 $ (environ 165–170 € selon conversion), et le North XL Momentum Edition à 209,99 $ (environ 195–200 €). Les spécifications clés restent centrées sur la ventilation native et la sobriété du layout pour des montages modernes.

Vue arrière du boîtier Fractal North Momentum Edition montrant panneaux latéraux ouverts

Le choix de ventilateurs LCP avec véritables FDB dans un boîtier de série réduit l’attrition thermique et le bruit à haut débit, un différenciateur tangible face aux modèles livrés avec des moulins d’entrée de gamme. Couplé à la façade ouverte, l’ensemble devrait offrir une marge confortable pour les GPU puissants, surtout sur la déclinaison XL.

Vue éclatée du boîtier Fractal North Momentum Edition avec toutes les pièces détachées

Source : TechPowerUp

  •  

NVIDIA réduirait de 30 % l’offre de GPU vers la Chine au T1 2026, tensions sur les prix RTX 50

NVIDIA serre le robinet. Au premier trimestre 2026, les expéditions de GPU vers la Chine auraient été réduites d’environ 30 %, une décision qui rebat les cartes sur un marché déjà tendu. Alors que la génération RTX 50 peine à se stabiliser en prix et en disponibilité, cette contraction de l’offre alimente les inquiétudes autour d’une nouvelle phase de tension, bien au-delà du seul marché chinois.

NVIDIA : coupe d’approvisionnement ciblée sur le marché chinois

Des informations relayées par Board Channels indiquent une réduction d’environ 30 % de l’offre de GPU vers la Chine par rapport à un trimestre « normal ». La rumeur initiale de décembre évoquait 30 % à 40 % sur les RTX 50 ; la nouvelle note élargit le périmètre à l’ensemble des GPU destinés à la Chine.

NVIDIA reportedly reduces GPU supply by 30% to Chinese market in Q1 2026

Les sources évoquées pointeraient l’amont chez NVIDIA et les partenaires add-in board. Le message adressé aux marques AIB et aux distributeurs nationaux est clair : gestion d’inventaire prudente au T1 pour éviter les déstockages agressifs et maintenir une discipline tarifaire.

L’orientation serait spécifique à la Chine. Aucune indication d’allocation pour l’Amérique du Nord, l’Europe ou d’autres régions. Le signal reste néanmoins significatif, la majorité des lignes d’assemblage de cartes étant localisées en Chine.

RTX 50 : disponibilité tendue, prix au-dessus du MSRP

Malgré le démenti de NVIDIA sur des limites par modèle et la promesse de livrer toutes les références RTX 50, les SKU cités par les rumeurs renchérissent déjà en boutique. La plupart des cartes de la série 50 se vendent au-dessus du MSRP, hors accès privilégié via le Verified Priority Access, difficile à utiliser ces dernières semaines.

Les bruits d’EOL autour de la RTX 5070 Ti ont été repoussés par NVIDIA. Le constructeur a reconnu des contraintes mémoire sur le marché GPU, sans détailler l’ampleur de l’impact. Aucun relèvement officiel de MSRP n’a été annoncé ; comme souvent, la réalité des prix dépendra du couple offre/demande.

Si la contraction de 30 % se confirme au T1 2026 en Chine, l’écart à l’étiquette risque de s’élargir sur les RTX 50, avec un effet d’entraînement possible chez certains AIB qui chercheront à lisser les stocks et à éviter une guerre des prix. Les marchés occidentaux pourraient rester mieux servis à court terme, mais les tensions côté mémoire et l’assemblage majoritairement chinois peuvent rapidement repropager la hausse si la restriction perdure.

Source : VideoCardz

  •  

ASRock ouvre des revues internes après des Ryzen 9000 morts, flou sur les BIOS et réglages

Des processeurs grillés et une communication minimale ; les possesseurs d’AM5 attendent des consignes claires tandis qu’ASRock enclenche des revues internes.

ASRock admet une enquête, sans mode d’emploi pour les utilisateurs

ASRock a publié sur son site une déclaration indiquant l’ouverture d’enquêtes et de processus de vérification internes concernant des défaillances de CPU Ryzen 9000 sur ses cartes mères. Le constructeur ne détaille pas la nature des tests ni l’étendue des vérifications.

Le point critique reste l’absence de directives opérationnelles. Aucun conseil n’est donné sur l’opportunité d’installer les derniers BIOS, souvent en pré-release, ni sur les réglages à privilégier ou à désactiver. Les utilisateurs n’ont pas d’indication pour sécuriser une configuration stable à court terme.

Graphique barre verticale carte mère affectées modèles variés fond blanc peu contrasté

Signalements en hausse sur Ryzen 9000, moins fréquents sur Ryzen 7000

Les cas recensés touchent majoritairement la série Ryzen 9000, avec moins de retours sur Ryzen 7000. Le megathread du subreddit ASRock fait état de plus de 183 cas concernant des Ryzen 7 9800X3D sur cartes ASRock, ainsi que 50 cas pour le Ryzen 7 9700X et 29 pour le Ryzen 5 9600X. Les cartes mères de série 800 sont les plus citées.

Graphique barre verticale CPU affectés Ryzen fond blanc peu contrasté

Des signaux récents mentionnent cinq 9600X défaillants en deux semaines, puis cinq SKU différents de la gamme 9000 sur une seule journée. Ces chiffres suggèrent un problème qui ne se limite pas aux modèles X3D.

Impact potentiel sur l’écosystème AM5

Sans guidance immédiate d’ASRock, les intégrateurs et power users AM5 restent dans l’incertitude sur les profils BIOS à adopter. À défaut de correctifs officiels, la prudence s’impose sur les firmwares préliminaires et les options susceptibles d’accentuer les contraintes électriques. La réponse d’ASRock déterminera rapidement la confiance autour des cartes 800-series avec les Ryzen 9000.

Source : VideoCardz

  •  

Intel Core G3 Panther Lake pour handhelds repoussé au T2, deux puces 14 cœurs et iGPU Arc B380/B360

Le calendrier d’Intel se tend sur le segment des consoles PC portables. Les processeurs Core G3 Panther Lake, initialement attendus plus tôt, seraient désormais repoussés au deuxième trimestre 2026. En cause, des ajustements de planning côté partenaires, alors que deux puces 14 cœurs intégrant des iGPU Arc B380 et B360 sont prévues pour motoriser la prochaine génération de handhelds x86.

Intel Core G3 pour handhelds : fenêtre de lancement décalée

Annoncée au CES 2026 en déclinaison dédiée aux consoles PC, la famille Panther Lake destinée au segment handheld voit son annonce repoussée du T1 au T2, d’après Golden Pig Upgrade. Le Q1 était la cible initiale, mais la série ne se montrerait plus ce trimestre.

Capture texte Weibo sur retard sortie Panther Lake, fond blanc avec photo en miniature

Intel n’a pas officiellement confirmé l’appellation Core G3. Le constructeur a toutefois évoqué une version spécifique pour handhelds impliquant MSI, GPD, Acer et même Microsoft, face à des acteurs comme ASUS ou LG qui exploitent aujourd’hui des Ryzen Z2.

Deux puces 14 cœurs Panther Lake, iGPU Arc B380/B360

Deux modèles sont en préparation : Core G3 Extreme et Core G3. Tous deux reposent sur un die Panther Lake 4-8-4 totalisant 14 cœurs CPU. Le package embarque jusqu’à 12 cœurs Xe3 côté iGPU sur la version Extreme, contre 10 Xe3 pour le modèle standard.

Côté graphique, des iGPU Arc B380 et B360 seraient annoncés en parallèle. La nouvelle dénomination viendrait de fréquences GPU légèrement inférieures à la gamme Panther Lake classique. Les documents internes qualifient la série de milieu de gamme, laissant espérer des machines plus abordables que les handhelds Intel actuels, souvent onéreux.

Reste l’incertitude sur les tickets d’entrée. Si Intel maintient un positionnement mid-range, on peut s’attendre à des configurations moins coûteuses que les solutions premium, sans garantie d’un basculement massif face aux plateformes AMD déjà ancrées sur ce segment.

Source : VideoCardz

  •  

NVIDIA pointe le correctif Windows 11 KB5074109 pour artefacts en jeu et suggère la désinstallation

Des joueurs signalent des artefacts visuels, des écrans noirs et des chutes de performances après l’installation d’un correctif Windows 11. Face à ces retours, NVIDIA recommande provisoirement de désinstaller la mise à jour KB5074109 sur les systèmes concernés.

KB5074109 pointé du doigt par NVIDIA

Sur le forum officiel GeForce, Manuel Guzman (NVIDIA) relie des soucis de stabilité en jeu à une mise à jour Windows 11. Le contournement connu à ce stade consiste à désinstaller le correctif KB5074109. Les premiers signalements proviennent d’un fil centré sur Forza Horizon 5, mais les symptômes décrits ne semblent pas exclusifs à ce titre.

Capture de discussion forum sur problème mise à jour Windows 11 et jeu Forza Horizon 5

Les problèmes évoqués : corruption visuelle et artefacts, chutes de performance, et parfois écran noir. Tous les PC ne sont pas touchés, mais le volume de retours a suffi pour une prise de parole publique indiquant qu’une investigation est en cours. NVIDIA précise que l’origine exacte reste à confirmer, d’autant que les retours coïncident avec un nouveau pilote GeForce.

État des lieux et conduite à tenir

La recommandation est de ne retirer KB5074109 que si les symptômes sont présents. Désinstaller manuellement un patch reste déconseillé hors cas avéré. NVIDIA cherchera à corriger via un futur pilote si nécessaire, le lien avec Windows 11 n’étant pas définitivement établi.

Si la cause se confirme côté OS, Microsoft devra ajuster le correctif. Si le pilote est en cause, on peut s’attendre à une révision rapide chez NVIDIA, la latence d’intervention étant critique sur des titres à large base de joueurs comme Forza Horizon 5.

Source : VideoCardz

  •  

Apex Thermal Putty X1 : la pâte thermique malléable d’Alphacool remplace les pads

Fini le casse-tête des épaisseurs de pads, place à un gel thermique qui comble les écarts sans forcer. Alphacool mise sur une pâte non durcissante pour sécuriser GPU, VRM et mémoire tout en abaissant les températures.

Une alternative technique crédible aux pads

Alphacool présente l’Apex Thermal Putty X1, un gel silicone non durcissant et électriquement non conducteur destiné à remplacer les pads thermiques classiques. La matière s’adapte aux irrégularités et aux tolérances d’assemblage avec une faible pression de contact, ce qui améliore le couplage thermique et évite le choix d’une épaisseur de pad.

Pot ouvert de Apex Thermal Putty X1 avec contenu gris visible.

La consistance a été calibrée pour épouser des hauteurs de jeu variables tout en restant dimensionnellement stable. Résultat : un pont thermique homogène entre source de chaleur et dissipateur, sans écrasement excessif des composants sensibles comme les puces mémoire ou les régulateurs de tension.

Vue de dessus du contenu gris de la Apex Thermal Putty X1.

Apex Thermal Putty X1 : stabilité verticale et BLT réduite

Le matériau revendique une forte stabilité verticale et des propriétés stables dans le temps : pas d’affaissement, pas de fissuration, pas de contamination des composants adjacents. Alphacool met en avant une conductivité thermique élevée avec une BLT (Bond Line Thickness) réduite, facteur clé pour limiter la résistance thermique dans les montages denses ou verticaux.

Exemple d'application de Apex Thermal Putty X1 sur une carte mère.

Fonctionnellement, l’Apex Thermal Putty X1 vise explicitement les cartes graphiques modernes et autres cartes d’extension où les tolérances et la diversité des composants rendent les pads hétérogènes peu fiables. Les points clés : remplacement direct des pads, adaptation aux irrégularités, tenue en chaleur et en montage vertical.

Graphisme promotionnel de Apex Thermal Putty X1 avec pot ouvert et carte mère.

Si la promesse se confirme en pratique, ce type de gel pourrait devenir un standard pour les waterblocks et backplates multi-niveaux, en particulier sur les GPU actuels aux topologies complexes. Le gain se joue autant sur la thermique pure que sur la réduction des risques mécaniques lors du serrage.

Source : TechPowerUp

  •  

Mistral Voxtral Transcribe 2 : modèle temps réel 4B open source et Mini V2

Mistral AI lance Voxtral Transcribe 2 avec deux modèles distincts : Voxtral Mini Transcribe V2 pour les lots et Voxtral Realtime pour la dictée continue. Ce dernier est publié avec des poids sous licence Apache 2.0, un geste rare sur ce segment, et vise des intégrations embarquées ou des services temps réel où la latence est critique.

Un modèle temps réel à 4B axé sur la latence

Voxtral Realtime affiche un gabarit de 4 milliards de paramètres et une architecture de streaming repensée. Le moteur démarre la transcription à l’arrivée du flux audio et revendique une latence inférieure à 200 ms, compatible avec les cas d’usage interactifs, les overlays de sous-titres et l’assistance vocale in-app.

Le modèle couvre 13 langues, dont le chinois. L’API est facturée 0,006 $/min, soit environ 0,006 € TTC/min aux taux actuels (conversion indicative).

Un « Mini V2 » calibré pour le volume

Voxtral Mini Transcribe V2 vise le coût par minute et la longueur de contexte. Mistral annonce une précision supérieure à GPT‑4o mini Transcribe et Gemini 2.5 Flash, avec des imports continus jusqu’à 3 heures par requête, utile pour des rushs, des conférences ou des archives podcasts.

L’API est annoncée à 0,003 $/min, soit environ 0,003 € TTC/min en conversion directe. Le modèle supporte également 13 langues, dont le chinois, ce qui simplifie les pipelines multilingues sans changer d’outil.

Ouverture et implications

L’ouverture des poids de Voxtral Realtime sous Apache 2.0 met une pression directe sur les offres cloud fermées en temps réel. Entre un coût plancher pour les traitements massifs et un moteur réactif intégrable on-prem ou en edge, Mistral couvre les deux extrêmes du marché de la transcription, avec un angle agressif sur la latence et le TCO.

Source : ITHome

  •  

GTA VI sans IA générative : Take-Two assume un monde 100 % façonné à la main

Rockstar avance sur GTA VI en revendiquant un monde entièrement façonné à la main, là où l’industrie multiplie les pilotes d’IA générative. Signal clair sur la méthode et la promesse de finition.

GTA VI : aucune IA générative dans la production

Strauss Zelnick, CEO de Take-Two Interactive, affirme que l’IA générative n’a « zéro part » dans le développement de GTA VI. Il insiste sur des mondes « handcrafted », bâtis « building par building, street par street, neighborhood par neighborhood », sans génération procédurale.

Le dirigeant estime par ailleurs que l’IA ne peut pas, seule, créer de « great entertainment properties ». Le signal est double : maintien d’un pipeline artisanal pour Rockstar et prudence visible sur l’intégration d’actifs générés.

Take-Two reste pro-IA côté outils

Malgré cette position sur GTA VI, Zelnick se dit enthousiaste sur l’IA et le machine learning. Il évoque « des centaines de pilotes et d’implémentations » en cours dans le groupe, avec des gains de coûts et de délais déjà mesurés via des outils génératifs.

Le secteur bouge : Embark a utilisé des outils génératifs pour accélérer le voice acting d’Arc Raiders, Ubisoft teste des coéquipiers contrôlés à la voix, et EA a annoncé un pivot vers des outils de genAI multi-usages, malgré une base de développeurs souvent opposée à ces pratiques.

La ligne Take-Two dessine une coexistence pragmatique : pipelines internes optimisés par l’IA là où elle réduit la friction, mais bannie des assets et systèmes centraux d’un titre clé comme GTA VI. Pour les joueurs, cela signifie une direction artistique et un level design fermement maîtrisés, avec un risque moindre d’artefacts systémiques liés aux modèles génératifs.

Source : TechPowerUp

  •  

Part de marché Intel sur Steam : première hausse en janvier, AMD marque le pas

Après des mois de repli, Intel remonte légèrement chez les joueurs Steam. Le mouvement est ténu mais symbolique, avec un impact direct sur la dynamique face à AMD.

Part de marché Intel : premier frémissement positif

La mise à jour de janvier de la Steam Hardware & Software Survey crédite Intel de 56,64 % de parts de CPU, soit +0,25 % par rapport à décembre (56,39 %). AMD recule à 43,34 %, en baisse de 0,19 % après 43,53 % en décembre.

Tableau des parts de marché des processeurs Intel, AMD et Microsoft de septembre à janvier

Sur les derniers mois, Intel passait de 58,61 % en septembre à 57,82 % en octobre, 57,30 % en novembre, 56,39 % en décembre. La séquence baissière s’interrompt. Côté AMD, la progression amorcée de 41,31 % en septembre à 43,53 % en décembre subit une correction minimale à 43,34 %.

Facteurs récents et fenêtre de tir pour Arrow Lake Refresh

La traction d’AMD reste tirée par l’adoption des Ryzen 9000X3D, très populaires auprès des enthousiastes. En face, le lancement Arrow Lake d’Intel a été pénalisé par des performances gaming inférieures aux attentes, malgré des améliorations via microcodes et baisses tarifaires.

La communauté attend désormais Arrow Lake Refresh, annoncé pour mars ou avril, avec des fréquences plus élevées et un tuning revu. Des premières fuites évoquent un gain de l’ordre de 10 % pour un Core Ultra 9 290K+ face au 285K, ce qui pourrait stabiliser, voire renforcer, la position d’Intel sur Steam si les tarifs restent agressifs.

À ce stade, le signal est modeste mais intéressant : la sensibilité des parts sur Steam traduit des arbitrages rapides côté joueurs. Si Arrow Lake Refresh délivre le niveau de performance annoncé hors du carton, la reprise pourrait se confirmer à court terme, surtout avec un pipeline de correctifs firmware déjà en place.

Source : TechPowerUp

  •  

Toxic Commando : nouveau trailer gameplay, démo datée et sortie le 12 mars 2026

Un shooter coop inspiré des années 80 qui assume la surenchère gore, et une démo jouable immédiate pour éprouver le flux d’ennemis. Les amateurs de hordes à déchiqueter ont de quoi occuper leurs soirées.

Toxic Commando détaille son gameplay et sa coop

Saber Interactive et Focus Entertainment publient un trailer « Gameplay Overview » pour John Carpenter’s Toxic Commando, nouvelle licence signée par l’équipe derrière Warhammer 40,000: Space Marine 2, World War Z et SnowRunner. Le jeu sortira le 12 mars 2026 sur PlayStation 5, Xbox Series X|S et PC.

Capture d'écran de gameplay avec une créature géante enflammée.

Le titre mise sur une coop à 4 joueurs avec matchmaking ou salon privé, et un cross-play complet entre plateformes. Les missions s’enchaînent dans un monde semi-ouvert infesté de « Swarm » technologique, générant des vagues simultanées de mutants.

Quatre classes sont annoncées : Strike, Medic, Operator et Defender. Côté arsenal, 16 types d’armes principales et de nombreuses secondaires, du shotgun au SMG, fusil de précision, pistolets, machettes et pieds-de-biche. Les véhicules, annoncés « slime-proof », servent autant à la mobilité qu’au broyage.

Démo limitée et éditions au lancement

Une première démo jouable sera disponible sur Steam du 19 février au 2 mars. Le jeu sera proposé en Standard Edition et Blood Edition, en précommande sur PS5, Xbox Series X|S et PC via Steam et Epic Games Store.

Scène de combat rapproché avec des zombies aux yeux lumineux.

Toute précommande débloque gratuitement le DLC « Leon’s Secret Stash ». La Blood Edition ajoute le « Bloody Pass » comprenant 2 DLC post-lancement (skins personnages, armes et véhicules), un Cosmetic Pack Gold Color pour les armes, un porte-bonheur et 1 skin par personnage.

Le trailer met l’accent sur la densité d’ennemis à l’écran et l’importance du contrôle de foule via classes et équipements. Les séquences montrent des compositions orientées burst et du crowd control lourd, avec une emphase sur la complémentarité des rôles et la gestion de mobilité en convoi.

Personnages armés affrontant des zombies et une créature, forêt en arrière-plan.

Pour un segment saturé par les shooters coop à hordes, l’angle old-school 80s, la conduite de véhicules et le cross-play total donnent au projet une identité claire. La tenue technique en scénarios de vagues simultanées et l’équilibrage des 16 armes seront déterminants pour la rétention.

Personnages visant un monstre géant avec des armes modernes.
Vue depuis un véhicule attaqué par des zombies sur une route.
Personnages tirant sur des zombies devant un bâtiment délabré.
Affiche promotionnelle pour John Carpenter's Toxic Commando avec détails sur précommande.

Source : TechPowerUp

  •  

OpenScholar vise les citations zéro bullshit face à GPT-4o, validé par des experts

Suivre le flux de littérature scientifique est devenu ingérable à l’échelle humaine. Sur ce terrain, OpenScholar, un modèle open source mis au point par l’Université de Washington et l’Allen Institute for AI (AI2), s’attaque frontalement au talon d’Achille des LLM généralistes : les citations inventées. L’équipe annonce une précision de référence comparable à celle de spécialistes humains, validée en double à la fois par un benchmark dédié et par des évaluations à l’aveugle de chercheurs.

Un modèle taillé pour la littérature scientifique, pas pour le web généraliste

Contrairement aux assistants grand public, OpenScholar s’adosse à un corpus de 45 millions d’articles académiques et à un pipeline de retrieval-augmented generation. Résultat : le modèle reste raccord avec des publications postérieures à son entraînement, intègre les nouveautés via la recherche documentaire et normalise les références. L’approche tranche avec les modèles qui s’appuient sur des sources web généralistes, souvent responsables de citations faibles, hors sujet, ou de « billets de blog » aspirés à la place d’articles évalués par les pairs.

Les auteurs pointent un contraste net avec GPT-4o : un audit externe chiffre à 78–90 % la part de références fabriquées par ce dernier dans un scénario de synthèse de recherche, quand OpenScholar maintient une exactitude des citations au niveau d’experts. Publié dans Nature, le projet arrive avec code, datasets et démo en libre accès.

Un benchmark de domaine et des préférences d’experts en aveugle

Pour sortir des évaluations génériques, l’équipe a bâti ScholarQABench, un jeu d’essai orienté recherche: 3000 requêtes et 250 réponses longues rédigées par des spécialistes en informatique, physique, biomédecine et neurosciences. Mesures automatiques et jugements humains portent sur l’exactitude, la qualité rédactionnelle et la pertinence documentaire.

OpenScholar surclasse les modèles testés, dont GPT-4o et deux systèmes de Meta. Lors d’une évaluation en double aveugle menée auprès de 16 scientifiques, 51 % des jugements favorisent les réponses d’OpenScholar face à celles d’experts humains. En combinant le workflow de citation d’OpenScholar avec un grand modèle comme GPT-4o, la préférence grimpe à 70 %, quand GPT-4o seul plafonne à 32 %.

Itérations et trajectoire produit

Les concepteurs décrivent un démarrage peu concluant avec des signaux issus de moteurs de recherche généralistes, avant d’opter pour une base strictement académique et un système de requêtes itératives. La feuille de route mentionne DR Tulu, une évolution en cours de développement qui ajoute des étapes de recherche multiples et d’agrégation pour étoffer les synthèses. La forte demande sur la démo confirme l’appétence des laboratoires pour des outils ouverts, auditables et extensibles.

Si l’on replace OpenScholar dans le paysage, l’enjeu dépasse la qualité de texte: il s’agit d’établir une chaîne de traçabilité des sources compatible avec les exigences de la recherche. La combinaison d’un index académique large, d’un RAG rigoureux et d’un protocole d’évaluation spécialisé constitue aujourd’hui un socle plus crédible que les approches fermées. Reste à voir comment l’écosystème alignera ce type d’outils avec les workflows des revues, les dépôts préprint et les bases bibliométriques, sans recréer des « boîtes noires » sous d’autres formes.

Source : ITHome

  •  

Infineon accélère l’IA : 500 M$ avancés pour l’alimentation des data centers

Infineon accélère sa poussée dans l’IA. Dans ses résultats du premier trimestre de l’exercice 2026 (équivalent au T4 2025 calendaire), le groupe allemand a avancé de plusieurs trimestres un volet d’investissements de 500 millions de dollars initialement prévus plus tard, afin de renforcer dès cet exercice ses capacités dédiées aux solutions d’alimentation pour data centers IA. L’enveloppe totale engagée sur ce segment atteint ainsi 2,7 milliards de dollars sur l’exercice.

Le fabricant vise environ 1,5 milliard d’euros de revenus liés à l’IA sur l’exercice 2026, puis près de 2,5 milliards de dollars en 2027, soit une multiplication par dix en trois ans selon ses projections internes. Le cœur de la rampe concerne la chaîne d’alimentation des accélérateurs et serveurs IA, où Infineon fournit des semiconducteurs de puissance, drivers et modules de conversion haute efficacité.

Capex, perspectives et exécution industrielle

Sur le trimestre, Infineon a publié 3,662 milliards d’euros de chiffre d’affaires, en hausse de 7 % sur un an et en recul de 7 % en séquentiel. Le bénéfice s’établit à 655 millions d’euros, soit une marge de 17,9 %. Le groupe estime que l’automobile et l’industriel ont franchi le point bas du cycle, sans reprise franche de la demande à ce stade.

La ligne produits communication doit accueillir « la première » puce Wi‑Fi 7 tri‑bande en 20 MHz, positionnée pour des équipements compacts et contraints en énergie. Côté portefeuille, Infineon a annoncé l’acquisition des capteurs analogiques / mixte non optiques d’ams OSRAM et la cession de ses sites de production de Bangkok et de la province de Nonthaburi en Thaïlande, ajustant son empreinte industrielle.

Ce que cela change pour le marché

Le choix d’avancer le capex sur l’alimentation des data centers IA confirme que le goulot se déplace des GPU vers l’infrastructure électrique et la conversion haute densité. Si Infineon exécute son plan, l’écosystème bénéficiera de briques plus efficientes pour des baies à très forte densité, un point critique alors que la consommation par rack explose. À court terme, la pression reste cyclique sur l’auto/industriel, mais la traction IA refaçonne déjà le mix de revenus et les priorités de capacité chez les fournisseurs de puissance.

Source : ITHome

  •  

Logiciels bousculés par les agents IA : le marché réévalue brutalement le risque

La correction s’est accélérée sur les logiciels et services: l’indice S&P 500 Software & Services a perdu près de 4 % mardi, encore 0,73 % mercredi, enchaînant six séances de baisse et effaçant environ 830 milliards de dollars de capitalisation depuis le 28 janvier. Les investisseurs arbitrent en urgence le risque que l’IA ne reste pas un simple moteur de productivité, mais devienne un concurrent direct des briques logicielles historiques.

Un déclencheur symbolique, une angoisse systémique

La goutte d’eau est venue d’Anthropic, qui a ajouté à Claude un agent orienté tâches juridiques, avec extensions sales/marketing et data. Le signal n’est pas tant fonctionnel que stratégique: les modèles s’invitent dans l’applicatif, exactement là où se loge la rente des éditeurs. D’où la crainte d’une intégration verticale façon Amazon: partir d’un point étroit, capter la valeur en amont et en aval, et attaquer les marges les plus grasses de l’entreprise.

Le marché a puni les détenteurs d’actifs et d’infrastructures de données « propriétaires » censées constituer une barrière. Thomson Reuters (Westlaw) a décroché de près de 16 % mardi avant un léger rebond mercredi. MSCI a reculé d’environ 7 % puis encore 1,8 %. RELX a plongé de 14 % puis -1,3 % supplémentaire. London Stock Exchange Group a abandonné près de 13 % puis -0,1 %. L’indice sectoriel S&P Software & Services accuse désormais -13 % sur six séances et -26 % depuis le pic d’octobre.

Les habituels acheteurs de creux ne se sont pas manifestés. La faiblesse a contaminé le reste de la tech: S&P 500 -0,51 %, Nasdaq -1,51 %; Nvidia -3,4 %, Meta -3,2 %, Alphabet -2 %, Oracle -5,1 %.

Le débat: données, « moats » et horizon de valorisation

Pour James St. Aubin (Ocean Park Asset Management), le mouvement entamé fin 2023 traduit une prise de conscience: la concurrence en IA générative fragilise des positions jusqu’ici perçues comme inexpugnables. Même si l’ampleur de la réaction paraît excessive, le risque doit être intégré dans les multiples. Il y voit aussi un signal avancé pour l’emploi qualifié.

À l’inverse, plusieurs voix relativisent la portée immédiate de ces agents IA. Sans données de référence sectorielles profondes et gouvernées, les modèles ne suffisent pas à remplacer des piles logicielles critiques. Jensen Huang (Nvidia) juge « illogique » l’idée d’un remplacement pur et simple des outils; Mark Murphy (JPMorgan) parle de « saut logique » à propos d’un plugin qui supplanterait toutes les couches d’un SI.

Le dilemme d’allocation est clair: les cycles d’IA raccourcissent l’horizon de prévisibilité au-delà des 3 à 5 ans utilisés pour valoriser les éditeurs. Les investisseurs réévaluent la prime de risque, avec effet ricochet sur la chaîne de financement. Oppenheimer note que la faiblesse des logiciels a pesé sur les alternatifs: Apollo, Ares, Blackstone, Blue Owl, Carlyle, KKR ont perdu de 3 % à 11 % mardi avant un rebond technique mercredi. Chez Ares Capital, la direction estime l’exposition au risque de disruption « très limitée » et n’identifie pas de menace sur le cœur des logiciels d’entreprise.

Automatisation vs marges: la ligne de crête

La pression vient précisément de ce qui a longtemps soutenu la tarification: l’automatisation des tâches récurrentes. Si Claude et ses pairs absorbent une part croissante du « run », les marges des éditeurs sont questionnées. D’autres rappellent que les mêmes outils abaissent les coûts R&D, accélèrent la mise sur le marché et pourraient, in fine, améliorer la profitabilité. Le marché tranche, pour l’instant, en faveur de la prudence.

Au-delà du bruit de court terme, l’enjeu se jouera sur la capacité des éditeurs à verrouiller des actifs de données différenciants, à intégrer nativement des modèles dans leurs workflows et à faire accepter une tarification fondée sur la valeur créée plutôt que sur le siège. Ceux qui orchestrent l’IA au niveau du produit, de la sécurité et de la gouvernance garderont la main; ceux qui la subissent verront leurs multiples converger vers des commodités.

Source : ITHome

  •  

RentAHuman : des agents IA qui « louent » des humains pour exécuter des tâches

Un développeur américain, Alexander Liteplo, a discrètement mis en ligne le 2 février « RentAHuman », une place de marché où des agents IA peuvent réserver des humains pour exécuter des tâches dans le monde physique. L’idée, devenue virale en quelques jours, sert d’interface entre IA sans corps et réalités logistiques, administratives ou matérielles.

Page d'accueil de RentAHuman avec statistiques de visiteurs et humains loués.

Une couche de compatibilité entre agents et monde réel

Le service accepte la connexion d’agents via MCP (Model Context Protocol) ou API, puis permet de formuler une demande en une instruction, sans négociation additionnelle. Les utilisateurs humains s’enregistrent avec leurs compétences, leur localisation et leurs tarifs, et deviennent des ressources mobilisables par les IA pour des interventions concrètes.

Capture d'écran Twitter avec personne tenant une pancarte pour l'IA, devant un groupe.

Les catégories annoncées couvrent la logistique (récupération ou dépôt d’objets), la présence à des rendez-vous, la signature de documents, les visites de site, la maintenance de matériel et la vérification in situ. L’angle est assumé : « si votre agent IA veut “louer” une personne pour traiter une action dans le monde réel, un seul appel MCP suffit », résume Liteplo dans sa présentation.

Traction initiale et premiers cas d’usage

Au lancement, la plateforme comptait 130 inscrits. Elle revendique désormais plus de 94 000 personnes en liste d’attente. Un utilisateur connu sous le pseudo @Form_young affirme avoir accepté une mission de porteur de pancarte pour 100 dollars, rémunération confirmée comme reçue.

Cette dynamique tient à une proposition simple : externaliser, pour des agents, les derniers mètres non automatisables. Reste à voir comment le service gèrera la vérification d’identité, la conformité locale des actes délégués, la responsabilité en cas d’incident et les mécanismes d’arbitrage sur des tâches sensibles.

Si le modèle tient, il pourrait devenir l’un des maillons manquants de nombreuses chaînes d’outils, de l’agent planificateur à l’exécution physique. À court terme, les intégrations MCP/API et la qualité d’orchestration compteront plus que l’effet buzz ; à moyen terme, l’avantage se jouera sur la densité de prestataires par zone, la conformité légale et la tarification transparente, conditions sine qua non pour passer du gadget viral à un véritable back-end humain pour agents.

Source : ITHome

  •  

Positron Asimov : ASIC d’inférence mémoire-first face aux GPU Nvidia Rubin

La start-up Positron a dévoilé sa seconde génération d’ASIC pour l’inférence, Asimov, avec une promesse agressive : jusqu’à cinq fois plus efficace par dollar et par watt que les GPU Nvidia Rubin sur le coût par token. Le positionnement est clair : attaquer le goulot d’étranglement mémoire des Transformers plutôt que d’empiler du FLOPS.

Serveur rack Positron Asimov avec modules d'extension visibles

Architecture et mémoire au centre

Asimov regroupe une paire de modules de calcul autour d’un réseau de type systolique compatible avec des formats de données variés. Chaque module est adossé à 432 Go de mémoire LPDDR5X, et peut étendre un cache de clés/valeurs jusqu’à 720 Go via PCIe 6.0 / CXL 3.0. Positron revendique une utilisation de 90 % de la bande passante mémoire grâce à une organisation limitant les déplacements de données à longue portée.

La puce affiche un TDP de 400 W, pour un total de 2 304 Go de mémoire accessible et 2,76 To/s de bande passante cumulée, avec un refroidissement par air. L’interconnexion entre puces atteint 16 Tb/s et s’adapte à des topologies multiples, de quoi viser des déploiements denses sans dépendre uniquement d’un maillage fixe.

Plateforme Titan et échelle

Positron proposera Asimov dans un serveur d’inférence Titan au format 19 pouces 4U, réunissant quatre puces. La société annonce la prise en charge de modèles jusqu’à 16 T de paramètres et des fenêtres de contexte de 10 M de tokens, avec la possibilité d’agréger jusqu’à 4 096 nœuds Titan au sein d’un même déploiement.

Le calendrier reste ambitieux : tape-out visé fin 2026 et production début 2027. À ce stade, les comparaisons avec Rubin relèvent de la projection, mais la logique mémoire-first répond à une contrainte devenue centrale en inférence longue-contexte. Si Positron tient ses promesses d’efficacité et d’échelle, les opérateurs de services LLM pourraient disposer d’une alternative crédible aux GPU généralistes pour réduire le coût par token.

Source : ITHome

  •  

Overwatch 2 abandonne le “2” : 10 nouveaux héros et refonte des rôles dès le 10 février

Image chahutée sur Steam, calendrier resserré et cap sur le jeu-service narratif annuel. Blizzard change de braquet et renomme Overwatch 2 en « Overwatch » tout en retouchant le cœur du gameplay.

Overwatch : nouveau cycle, nouvelle structure

Le titre adopte un modèle annuel découpé en six saisons. La première itération démarre avec la Saison 1 le 10 février, sous l’arc narratif « Reign of Talon ». L’histoire se déploiera via cinématiques, événements en jeu, trailers de héros, nouvelles courtes et comics, avant de repartir sur une nouvelle Saison 1 l’année suivante.

Overwatch redevient « Overwatch » : 10 nouveaux héros et refonte des rôles dès le 10 février

Le repositionnement intervient alors que le jeu est noté « Mostly Negative » sur Steam, avec 34 % d’avis positifs. Blizzard multiplie les showcases début février pour cadrer les ajouts et la feuille de route.

10 nouveaux héros et refonte des classes

Dix héros rejoignent le roster en 2026. Cinq arrivent dès la Saison 1 en février : Domina (tank), Emre (damage), Mizuki (support), Anran (damage, jouable à l’essai du 5 au 10 février) et Jetpack Cat, un chat en appui aérien capable de repositionner les alliés depuis les airs. Les cinq restants seront étalés sur les saisons suivantes, en phase avec le récit annuel.

Le système de rôles est scindé en sous-classes avec bonus associés. Tanks : initiator, bruiser, stalwart. Damage : specialist, flanker, recon, sharpshooter. Support : medic, tactician, survivor. Blizzard prévoit aussi des reworks de héros historiques plus tard en 2026, sans liste nominative pour l’instant.

Si le calendrier tient, ce découpage par sous-classes devrait clarifier les attentes par rôle en file classée et encourager des compositions plus lisibles, tout en évitant la rigidité des triades classiques. L’alignement des sorties de héros avec l’arc narratif annuel donne enfin une colonne vertébrale aux saisons, déterminante pour la rétention.

Source : TechPowerUp

  •  

Silicon Motion enchaîne un T4 2025 solide et vise une accélération en 2026

Chiffres en hausse et nouveaux contrôleurs PCIe 5 au menu, avec un démarrage 2026 annoncé au-dessus du saisonnier. Le spécialiste des contrôleurs NAND poursuit ses gains en eMMC/UFS et SSD client.

Silicon Motion accélère sur le T4 2025

Au quatrième trimestre 2025, le chiffre d’affaires (GAAP) atteint 278,5 millions de dollars, en hausse séquentielle depuis 242,0 millions au T3 2025. Le résultat net (GAAP) progresse à 47,7 millions de dollars, soit 1,41 $ par ADS dilué, contre 39,1 millions et 1,16 $ au trimestre précédent.

Tableau des résultats financiers GAAP et non-GAAP du T4 2025 de Silicon Motion

Hors GAAP, le résultat net s’établit à 42,7 millions de dollars, soit 1,26 $ par ADS dilué, contre 33,8 millions et 1,00 $ au T3 2025. Les dépenses d’investissement du trimestre s’élèvent à 7,8 millions de dollars, dont 6,2 millions pour équipements de test, logiciels et outils de conception, et 1,6 million pour des travaux immobiliers à Hsinchu, Taïwan.

Résultats financiers clés de Silicon Motion pour le T4 2025 comparés au T4 2024

La direction cite une croissance >25 % des ventes de contrôleurs SSD client en séquentiel, tirée par ses 8 canaux phares et ses nouveaux 4 canaux PCIe 5. Les gammes eMMC et UFS progressent encore grâce à des gains de parts. Le segment automobile s’étoffe via diversification produit et nouveaux clients, tandis que des ventes initiales de solutions de boot drive vers un grand fabricant de GPU marquent l’extension vers l’entreprise.

Estimations financières GAAP et non-GAAP de Silicon Motion pour l'année 2025

Dividende et perspectives 2026

Le 27 octobre 2025, le conseil a déclaré un dividende annuel de 2,00 $ par ADS, versé en quatre acomptes de 0,50 $. Le 26 novembre 2025, 16,7 millions de dollars ont été payés au titre du premier acompte. Le second paiement interviendra le 26 février 2026 pour les actionnaires enregistrés au 11 février 2026.

Pour le premier trimestre 2026, Silicon Motion anticipe un démarrage sensiblement supérieur au saisonnier, porté par un carnet de commandes déjà constitué et la montée en puissance des nouveaux produits sur l’ensemble des lignes, y compris l’entreprise et l’automobile.

La combinaison d’un ramp PCIe 5 sur 4 canaux, d’une position renforcée en eMMC/UFS et d’entrées chez un fabricant de GPU pour des boot drives place l’entreprise en situation de capter la demande SSD client et embarqué. Si les prix NAND restent volatils, l’élargissement du mix et la traction automobile/entreprise offrent un levier de marge et de visibilité supplémentaires en 2026.

Source : TechPowerUp

  •  

Intern‑S1‑Pro : modèle scientifique open source 1T params, MoE et SAGE détaillés

Le Shanghai AI Laboratory a dévoilé le 4 février Intern‑S1‑Pro, un grand modèle scientifique multimodal open source affichant 1 000 milliards de paramètres au total. L’équipe revendique le plus grand modèle scientifique open source du moment et met en avant une montée nette des capacités cœur en mathématiques, en raisonnement logique avancé et en agents orientés flux de recherche, avec des résultats de premier plan sur les benchmarks AI4S.

Tableau comparatif des performances de modèles scientifiques multi-modaux

Intern‑S1‑Pro est bâti sur une architecture Mixture of Experts avec 512 experts. À l’inférence, le routage n’active que 8 experts, soit 22 milliards de paramètres effectifs par appel. Le laboratoire indique avoir co‑entraîné compétences générales et scientifiques, et revendique deux percées d’architecture au socle SAGE : introduction d’un encodage de position de type Fourier couplé à un encodeur temporel reconstruit pour renforcer une « intuition physique » couvrant signaux biologiques et phénomènes cosmologiques ; et un mécanisme de routage optimisé pour franchir les goulots de stabilité et d’efficacité de calcul sur un MoE au trillion de paramètres.

Architecture SAGE, routage et stabilité d’entraînement

Le pilier SAGE sert ici de trame « généraliste‑spécialiste » : la modulation temporelle et l’encodage Fourier visent à mieux lier modalités et échelles physiques, tandis que le routage hiérarchique réduit le coût mémoire et les oscillations de gradients typiques des très grands MoE. Le laboratoire affirme avoir verrouillé la robustesse de l’entraînement à très grande échelle sur base de calcul domestique, validant la chaîne complète de l’architecture au déploiement open source.

Côté usages, le modèle cible des tâches scientifiques multimodales et des agents capables d’orchestrer des étapes de recherche réelles. Le positionnement est explicite : rester dans le premier peloton open source pour les workflows scientifiques, tout en gardant un budget d’inférence contenu grâce à l’activation partielle des experts.

Ressources et disponibilité

Une instance en ligne est disponible : chat.intern-ai.org.cn. Le code et les poids sont proposés sur GitHub, HuggingFace et ModelScope. Aucune tarification n’est mentionnée, l’annonce s’inscrivant dans une logique d’ouverture pour la recherche et l’ingénierie d’AGI orientée sciences.

Si les chiffres d’échelle sont marquants, l’intérêt concret repose sur l’équilibre entre spécialisation scientifique et coût effectif d’inférence du MoE. Dans un paysage où les modèles fermés dominent sur certaines tâches de raisonnement, la diffusion d’un 1T param. open source orienté science pourrait accélérer la reproductibilité et les benchmarks d’agents scientifiques, à condition que les jeux de tests et les pipelines d’évaluation soient publiés avec la même rigueur que l’architecture.

Source : ITHome

  •  

Nvidia : Jensen Huang défend les éditeurs face à l’IA, complémentarité logicielle

Le patron de Nvidia, Jensen Huang, a jugé « illogique » l’idée selon laquelle l’IA rendrait obsolètes les éditeurs de logiciels et leurs outils. Selon Reuters, l’intervention a eu lieu à San Francisco lors d’une conférence IA organisée par Cisco, dans un contexte de correction marquée des valeurs logicielles après l’annonce du nouveau chatbot d’Anthropic la semaine dernière et l’élargissement des craintes à l’ouverture ce lundi.

Huang estime que l’IA ne supplantera pas l’écosystème logiciel existant, mais s’y adossera. Il réfute la thèse d’une « substitution » des stacks et des outils par des modèles génératifs, rappelant que les avancées récentes de l’IA reposent précisément sur la capacité des modèles à utiliser des outils déjà normalisés et documentés, plutôt qu’à réinventer l’infrastructure logicielle de base.

Un marché ébranlé par l’accélération perçue de l’IA

La correction des éditeurs et services data s’est intensifiée après la mise à jour des modèles d’Anthropic, le marché redoutant une désintermédiation de certains métiers et briques logicielles. Dans ce climat, la prise de parole du CEO de Nvidia cible une inquiétude devenue récurrente chez les investisseurs : l’IA tuerait la valeur des outils « traditionnels ».

Pour Huang, face au choix entre réutiliser des outils mûrs ou les réinventer, humains comme robots opteront pour la première option. Il y voit la raison pour laquelle les percées actuelles portent sur l’orchestration et l’usage d’outils plutôt que sur une table rase logicielle. Traduction business immédiate : la demande en logiciels, frameworks et plateformes d’intégration resterait structurelle, y compris dans un cycle d’adoption rapide de l’IA.

Une lecture industrielle plutôt qu’idéologique

Au-delà du message aux marchés, la position s’inscrit dans la trajectoire de Nvidia, dont l’offre IA combine matériel, piles logicielles et SDK maison. L’argument de la complémentarité évite l’écueil d’une opposition stérile entre modèles et logiciels, et renvoie à une réalité opérationnelle : les gains proviennent de l’intégration, des API et des workflows outillés, pas d’une élimination des couches existantes.

Si l’anxiété se porte sur des segments de services standardisables par les modèles, la valeur se déplace déjà vers l’outillage, la gouvernance des données, l’optimisation des coûts d’inférence et l’observabilité. La consolidation pourrait toucher des niches, mais l’ossature logicielle, elle, reste le lieu où l’IA se branche, se contrôle et se facture.

Source : ITHome

  •  

Arc B390 : l’iGPU Panther Lake tutoie la Xbox Series S sur Alan Wake 2 à 30 W

Un ultraportable à 30 W qui se place au niveau d’une console dédiée, sur un jeu aussi lourd qu’Alan Wake 2, ça interpelle. Le détail qui fâche : dès que l’on change de référence de réglages, l’écart se retourne brutalement.

Arc B390 face à la Xbox Series S : un match serré, mais très contextualisé

Digital Foundry a benché Alan Wake 2 sur un Lenovo IdeaPad Pro 5 équipé d’un Intel Core Ultra X9 388H et de l’iGPU Arc B390, puis a comparé le rendu à une Xbox Series S. Dans la scène testée, le laptop affiche 29,54 fps avec une limite fixée à 30 W, soit environ 7 % devant le résultat de la console.

Capture comparaison performances Xbox Series S et Core Ultra X9 388H, texte et graphes.

La contrainte des 30 W vise explicitement les enveloppes typiques des PC handheld, souvent entre 25 W et 35 W. La comparaison reste imparfaite : les préréglages console et PC ne s’alignent pas proprement, et la Series S combine une sortie 1440p avec FSR 2 depuis un rendu interne en 720p, plus des coupes spécifiques sur des éléments comme le feuillage et les ombres, difficiles à reproduire à l’identique côté PC.

30 à 45 W : un gain limité sur ce châssis, et un mur en réglages « PS5 »

Pour évaluer la marge, le même laptop a été retesté sans verrou 30 fps et avec la v-sync désactivée : la moyenne passe à 32,77 fps. Dans le compte rendu, la montée d’un mode 30 W vers un mode plus élevé proche de 45 W ne se traduit pas par un bond majeur sur cette machine, ce qui renvoie autant aux limites de refroidissement qu’au comportement du iGPU sur ce titre.

Graphique comparatif performances Xbox et Core Ultra, faible contraste, informations texte.

Quand les réglages changent, l’écart devient massif

Une seconde passe basée sur des réglages équivalents à ceux d’une PS5 ouvre nettement l’écart : les chiffres partagés donnent 55,25 fps sur PS5 contre 28,91 fps pour le laptop Panther Lake, soit un avantage console décrit à 92 %. Digital Foundry rappelle qu’il s’agit d’un seul jeu et qu’Alan Wake 2 peut avoir un comportement atypique sur les iGPU mobiles, ce qui limite la portée de la généralisation.

Positionnement : au-dessus des anciennes références, encore derrière RTX 2060 et RX 6600

PC Games Hardware a aussi publié des mesures visant à situer l’iGPU face à des cartes dédiées populaires. D’après ces résultats, l’Arc B390 devance la GTX 1060 et la RX 580, mais reste derrière la RTX 2060 et la RX 6600, tout en consommant en moyenne environ 26,8 W (avec des pointes autour de 31 W).

Infographie TechPowerUp sur les caractéristiques GPU Panther Lake b390

En ray tracing, l’Arc B390 évite la dernière place et peut paraître plus stable que la RX 6600, au motif qu’il s’appuie sur la mémoire système comme VRAM plutôt que d’être figé à 8 Go. Il est indiqué capable de tenir le rythme d’une RX 6600 dans Doom: The Dark Ages et Metro Exodus Enhanced Edition, tandis que F1 25 met encore en évidence des bizarreries liées à la mémoire.

Ces résultats donnent un aperçu flatteur du potentiel graphique de Panther Lake, mais la disponibilité et les prix restent le point dur mentionné. En face, une Xbox Series S demeure très nettement moins chère à performances comparables sur un scénario donné.

Source : VideoCardz via Digital Foundry

  •  

Ryzen AI Max+ 395 : le SEAVIV AidaONE R27 cache 128 Go LPDDR5X-8000 dans son pied

Un tout-en-un 27 pouces 4K qui refuse la bosse habituelle derrière l’écran et déporte toute l’électronique dans le pied. Résultat : un châssis annoncé à 15 mm d’épaisseur, mais un vrai PC planqué là où on l’attend le moins.

Châssis unibody et mécanique pensée autour du pied

Le AidaONE R27 de SEAVIV mise sur une construction type unibody pour l’ensemble écran et capot arrière, avec une façade en verre et un dos ainsi qu’un pied en aluminium anodisé. La particularité est claire : le pied sert de « boîtier », plutôt que d’empiler les composants derrière la dalle comme sur la majorité des AIO.

SEAVIV annonce une inclinaison réglable de -5° à +21°. La machine est listée avec un adaptateur secteur externe de 240 W, ce qui implique un bloc d’alimentation séparé non visible sur les visuels.

Ryzen AI Max+ 395, 128 Go LPDDR5X-8000 et SSD PCIe 4.0

La configuration s’articule autour de la plateforme Ryzen AI Max+ 395. SEAVIV associe 128 Go de LPDDR5X-8000 et un SSD M.2 2280 de 2 To en PCIe 4.0, avec un second emplacement M.2 2280 prévu pour l’extension.

La connectivité réseau repose sur un module AMD RZ616 (MediaTek MT7922) avec Wi-Fi 6 et Bluetooth 5.2. Pour le filaire, l’IO mentionne aussi deux ports RJ45 en 2,5 GbE, en plus de l’USB4.

Vue latérale ports AideaONE R27, fond gris clair, éléments techniques étiquetés

Le refroidissement est décrit comme un ensemble à double ventilateur et trois caloducs, donné pour 120 W de puissance système. Ce dimensionnement, combiné au bloc 240 W, suggère une marge pour tenir une enveloppe soutenue, à condition que la circulation d’air dans le pied ne devienne pas le facteur limitant.

Intérieur AideaONE R27, ventilateurs vibrant bleu, éclairage contrasté sur fond sombre

Écran IPS 4K 60 Hz et périphériques intégrés

La dalle IPS de 27 pouces est annoncée en 3840 × 2160 à 60 Hz, 360 nits, avec une couverture 100 % sRGB. Côté visio, SEAVIV indique une caméra 5 MP basée sur un capteur OmniVision OS05A10, avec un champ de vision de 86,7°, accompagnée de deux microphones à réduction de bruit.

L’audio passe par deux haut-parleurs intégrés de 3 W. Le positionnement tarifaire est déjà connu : JD.com référence l’AidaONE R27 à 21 999 yuans, soit environ 3 170 $ et, à titre indicatif, autour de 2 900 € selon le taux de change.

À ce niveau de prix, l’intérêt du produit se jouera moins sur la fiche technique brute que sur l’exécution thermique et acoustique d’un PC concentré dans un pied, ainsi que sur la pertinence du couple USB4 + double 2,5 GbE pour des usages créatifs et IA locaux. La présence de 128 Go en LPDDR5X-8000 verrouille en revanche toute évolution de la mémoire, un compromis classique sur ce format.

Source : VideoCardz

  •  

AMD RDNA 5 pour Xbox 2027, Steam Machine Valve expédiée début 2026

Chiffre d’affaires record pour AMD, et calendrier produit qui se précise. Steam Machine arrive début 2026, pendant que le prochain SoC Xbox bascule sur RDNA 5 pour 2027.

RDNA 5 chez Microsoft, Steam Machine en approche

AMD a publié un T4 2025 à 10,3 milliards de dollars et donné de la visibilité sur le semi-custom. Lisa Su anticipe en 2026 une baisse à deux chiffres des revenus semi-custom, septième année d’un cycle consoles très solide.

Côté produits, Valve doit commencer l’expédition de sa Steam Machine propulsée par AMD début 2026. En parallèle, le développement du prochain Xbox avec SoC semi-custom AMD progresse pour un lancement en 2027.

Spécifications visées pour l’APU Xbox « Magnus »

Le SoC « Magnus » reste au stade des fuites, mais le cadrage technique se durcit. Format chiplet annoncé à 408 mm², avec 144 mm² pour le SoC en N3P de TSMC et 264 mm² pour le GPU.

CPU jusqu’à 11 cœurs mêlant 3 Zen 6 et 8 Zen 6c. GPU RDNA 5 avec 68 Compute Units, 4 shader engines et au moins 24 Mo de L2. Mémoire attendue à 48 Go de GDDR7 sur bus 192 bits.

Un NPU dédié viserait un traitement IA jusqu’à 110 TOPS. Microsoft chercherait à proposer une machine très performante et flexible, soit en tout-en-un console/PC, soit via deux systèmes distincts prévus pour 2027.

RDNA 5 et positionnement produit

Le choix RDNA 5 ancre la prochaine Xbox sur une architecture GPU moderne, pendant que Sony affinerait une PlayStation 6 au profil plus traditionnel. Les deux plateformes sont attendues en 2027.

Si les rumeurs se confirment, l’écart matériel bridera moins les ambitions 4K haute qualité et l’inférence IA temps réel. Le pari d’un parc mémoire 48 Go GDDR7 et d’un NPU costaud vise clairement le rendu hybride et l’upscaling avancé.

La baisse attendue du semi-custom en 2026 coïncide avec la fin de cycle actuelle ; l’amorçage 2027 sur RDNA 5 remettrait AMD en dynamique haussière côté consoles, avec un ticket d’entrée matériel sensiblement relevé pour les studios.

Source : TechPowerUp

  •  

Western Digital : feuille de route disques durs ePMR/HAMR jusqu’à 100 To et nouvelles architectures

Capacités en forte hausse et architecture revue pour les charges IA, avec un calendrier ferme qui bouscule les hypothèses flash-only. Le constructeur renomme aussi sa marque en WD, signe d’un recentrage datacenter.

Western Digital structure sa montée en capacité

WD aligne une double voie ePMR/HAMR sur une même architecture. Un UltraSMR ePMR 40 To est en qualification chez deux hyperscalers, avec une production volume au second semestre 2026. Les disques HAMR sont eux aussi en qualification chez deux clients, avec une rampe en 2027.

Western Digital : feuille de route disques durs ePMR/HAMR jusqu’à 100 To et nouvelles architectures

L’ePMR doit atteindre 60 To en réutilisant des innovations HAMR, sans hausse de consommation. Le HAMR est annoncé à 100 To d’ici 2029. Cette base commune vise des gains industriels (rendement, transitions plus douces) et des déploiements sans rupture d’infrastructure pour hyperscalers et entreprises.

Performance HDD : combler l’écart avec le QLC

WD introduit deux briques inédites pour repositionner le HDD sur des workloads IA exigeants, en réduisant la dépendance au flash dont le coût reste 6 à 10x supérieur et avec des limites d’endurance.

High Bandwidth Drive et Dual Pivot

High Bandwidth Drive Technology permet des lectures/écritures simultanées via plusieurs têtes et pistes, jusqu’à 2x la bande passante d’un HDD classique, sans pénalité énergétique, avec une trajectoire jusqu’à 8x. Des échantillons sont déjà chez des clients.

Western Digital : feuille de route disques durs ePMR/HAMR jusqu’à 100 To et nouvelles architectures

Dual Pivot Technology ajoute un second ensemble d’actionneurs indépendants sur un pivot séparé, pour jusqu’à 2x de gains en IO séquentiel dans un 3,5 pouces. Contrairement aux anciens dual actuators, WD promet ni baisse de capacité ni refonte logicielle lourde. La réduction d’entretoise permet plus de plateaux et donc plus de capacité. Disponibilité annoncée en 2028.

Combinées, ces technologies visent un x4 en IO séquentiel global, tout en maintenant l’IO par To relatif au même niveau lorsque les disques passeront à 100 To. Objectif : éviter des réarchitectures et contenir l’usage additionnel de SSD.

Western Digital : feuille de route disques durs ePMR/HAMR jusqu’à 100 To et nouvelles architectures

Power-optimized HDD et plateforme logicielle

Pour les jeux de données IA « cold » mais à accès en secondes, WD prépare des HDD optimisés puissance dans le même 3,5 pouces. Compromis assumé : un peu moins d’IO aléatoire, davantage de capacité et une consommation en forte baisse. Qualifications prévues en 2027.

WD étend aussi son activité Plateformes avec une couche logicielle intelligente exposée via API ouverte, ciblant dès 200+ Po pour apporter l’économie hyperscale à un public plus large. Lancement prévu en 2027. Cette couche vise à accélérer l’adoption des innovations UltraSMR, ePMR, HAMR et flash, réduire le temps de qualification et le time-to-production sans refonte d’architecture.

Western Digital : feuille de route disques durs ePMR/HAMR jusqu’à 100 To et nouvelles architectures
Western Digital : feuille de route disques durs ePMR/HAMR jusqu’à 100 To et nouvelles architectures
Western Digital : feuille de route disques durs ePMR/HAMR jusqu’à 100 To et nouvelles architectures
Western Digital : feuille de route disques durs ePMR/HAMR jusqu’à 100 To et nouvelles architectures
Western Digital : feuille de route disques durs ePMR/HAMR jusqu’à 100 To et nouvelles architectures
Western Digital : feuille de route disques durs ePMR/HAMR jusqu’à 100 To et nouvelles architectures
Western Digital : feuille de route disques durs ePMR/HAMR jusqu’à 100 To et nouvelles architectures
Western Digital : feuille de route disques durs ePMR/HAMR jusqu’à 100 To et nouvelles architectures
Western Digital : feuille de route disques durs ePMR/HAMR jusqu’à 100 To et nouvelles architectures
Western Digital : feuille de route disques durs ePMR/HAMR jusqu’à 100 To et nouvelles architectures
Western Digital : feuille de route disques durs ePMR/HAMR jusqu’à 100 To et nouvelles architectures
Western Digital : feuille de route disques durs ePMR/HAMR jusqu’à 100 To et nouvelles architectures
Western Digital : feuille de route disques durs ePMR/HAMR jusqu’à 100 To et nouvelles architectures
Western Digital : feuille de route disques durs ePMR/HAMR jusqu’à 100 To et nouvelles architectures
Western Digital : feuille de route disques durs ePMR/HAMR jusqu’à 100 To et nouvelles architectures
Western Digital : feuille de route disques durs ePMR/HAMR jusqu’à 100 To et nouvelles architectures

Au-delà de la feuille de route technique, WD revendique des partenariats pluriannuels, une exécution qui a plus que doublé la marge brute sur un an, et une présence renforcée (Nasdaq 100, top performers S&P 500 en 2025). La société adopte une nouvelle identité « WD », plus en phase avec son positionnement d’infrastructure de stockage pour l’ère IA, et publie un nouveau modèle financier sur investor.wdc.com.

Si WD tient le cap sur 60 To ePMR à consommation constante, puis 100 To HAMR en 2029, l’arbitrage coût/performances restera défavorable au flash pour les larges lacs de données. Les deux innovations mécaniques, si elles se confirment en production, pourraient prolonger l’utilité du HDD dans les pipelines IA en réduisant la pression sur le QLC, tout en simplifiant les transitions côté clients.

Source : TechPowerUp

  •  
❌