↩ Accueil

Vue normale

Intel Arc B390 sous Linux dépasse le Radeon 890M de 23 % dans les tests Phoronix

Par :Wael.K
6 février 2026 à 13:27

Avec un profil de performance correctement réglé, l’iGPU Arc B390 prend de l’air face au Radeon 890M. Les mesures de Phoronix confirment le gain sur Linux, y compris en jeux.

Intel Arc B390 sous Linux : le point sur les performances

Phoronix a testé un Core Ultra X7 358H équipé de l’iGPU Arc B390 et observe une avance moyenne de 1,23× face à un Ryzen AI 9 HX 370 dans son panel Linux, une fois le mode performance activé. L’écart grimpe à 1,53× face à un Core Ultra 7 258V (Lunar Lake) et 1,72× face à un Core Ultra 7 155H (Meteor Lake).

Graphique benchmark performance Intel Core et Ryzen fond blanc

Intel a recommandé l’usage d’un profil « performance ». Sur le MSI Prestige 14 testé, le mode « balanced » par défaut est positionné à 15 W minimum et 30 W maximum, en deçà des attentes du fondeur. En pratique, Phoronix relève 16,9 W moyens en mode équilibré contre 28 W avec les contournements et le profil performance.

Sur les pics, la plateforme Intel atteint environ 1,25× la consommation du Ryzen AI 9 HX 370. Les résultats restent donc sensibles aux limites de puissance et au profil actif, un point clé pour les premiers modèles Panther Lake sous Linux.

Graphique consommation énergie CPUs Intel et AMD fond blanc

Profilage énergétique et implications pour le gaming Linux

Les écarts constatés valident la compétitivité de l’Arc B390 en Linux gaming face au Radeon 890M, mais conditionnent la marge aux réglages OEM et aux versions logicielles. Les utilisateurs devront vérifier profils et PL pour reproduire les chiffres de Phoronix sur des machines équivalentes.

Si les intégrateurs alignent les limites de puissance et soignent la pile logicielle, l’Arc B-Series de Panther Lake pourrait devenir une option sérieuse pour des portables ou des solutions basse conso orientées SteamOS/Linux, au-delà du seul usage bureautique.

Source : VideoCardz

Horizon Hunters Gathering : co-op à 3 joueurs, PC/PS5 et cross-play dès le lancement

Par :Wael.K
6 février 2026 à 12:02

Un spin-off multijoueur prend forme dans l’univers Horizon, avec une orientation PvE resserrée qui tranche avec les épisodes solo. Conséquence directe : coopération à trois joueurs, cross-play PC/PS5 et un premier playtest annoncé pour fin février.

Horizon Hunters Gathering : cadre, modes et progression

Guerrilla Games lance Horizon Hunters Gathering, un jeu d’action co-op PvE pensé pour des escouades de trois. Le titre reprend une boucle de missions à la Monster Hunter : traque de machines, objectifs ciblés, boss de fin.

Quatre personnages affrontant un monstre dans une forêt violette dans Horizon Hunters Gathering.

Deux types de missions ouvriront le bal lors du playtest de fin février : Machine Incursion, défense de zone avec combat de boss, et Cauldron Descent, un assaut en « dungeon crawling » sur une base de machines, découpé en plusieurs étapes avec combats et énigmes environnementales.

Trois personnages jouables seront disponibles au lancement, chacun doté d’armes, de capacités, d’atouts et de faiblesses propres. Guerrilla mentionne l’arrivée de nouveaux chasseurs plus tard, signe d’un roster évolutif. Le trailer n’éclaircit pas la persistance de classe entre les missions et rien n’indique une progression continue ; tout porte à croire à une sélection de personnage à l’entrée de chaque file d’attente.

Monstre mécanique enflammé dans un environnement technologique futuriste.

Le jeu se déroule dans l’Ouest américain, 1 000 ans après l’effondrement de la civilisation. Les machines reprennent les silhouettes iconiques de la série mais avec un style visuel plus stylisé et cartoon. Un mode campagne sera présent au lancement, jouable en solo ou en coopération.

Plateformes, cross-play et fenêtre de test

Sortie prévue sur PC et PlayStation 5, avec cross-play dès le lancement. Aucune date de sortie finale n’est communiquée à ce stade. Un premier playtest est programmé pour la fin février.

Le positionnement PvE à 3 joueurs, la structure mission-based et l’absence d’éléments de progression affichés laissent entrevoir un modèle orienté sessions rapides et renouvellement via ajout de chasseurs et de missions. Reste à voir si la campagne co-op apportera suffisamment d’arc narratif pour fidéliser au-delà de la boucle de chasse.

Source : TechPowerUp

GeForce RTX 60 : la production de masse pourrait glisser à 2028, NVIDIA réalloue vers l’IA

Par :Wael.K
6 février 2026 à 08:46

Pas de surprise chez les verts, priorité à l’IA, retard pour le gaming. Le prochain refresh grand public de NVIDIA patine et la génération suivante pourrait glisser bien au-delà de 2027.

GeForce RTX 60 : fenêtre 2027 menacée

Un rapport de The Information affirme que NVIDIA a décidé en décembre de mettre en pause le refresh GeForce RTX 50 SUPER pour réallouer des ressources aux puces IA, sur fond de pénurie de mémoire. Le même document avance que la GeForce RTX 60, initialement prévue en production de masse fin 2027, pourrait basculer en 2028.

Ce report viendrait s’ajouter à une réduction des volumes actuels de puces gaming GeForce RTX 50, déjà difficiles à trouver au détail dans plusieurs régions. NVIDIA aurait opté pour une priorisation de certains SKU afin d’éviter des doublons de configurations mémoire, sans effets probants côté disponibilité.

La visibilité sur les plannings de production reste limitée et les fuites sont par nature difficiles à corroborer. The Information évoque néanmoins des informations provenant de « managers NVIDIA ». Jusqu’ici, les attentes tablaient sur une fenêtre 2027, potentiellement mi-année, pour la nouvelle génération grand public.

RTX 50 SUPER retardée, 5090 sous tension tarifaire

Le report du refresh RTX 50 SUPER n’est pas nouveau ; l’élément marquant demeure la bascule de capacité vers l’IA, conséquence directe d’un marché mémoire tendu. À court terme, le haut de gamme grand public ne devrait pas se démocratiser : l’auteur du rapport estime que la RTX 5090 suivra la trajectoire des RTX 3090 et 4090, avec un prix public conseillé qui ne devrait pas fléchir sur la majeure partie de son cycle.

Si la demande en accélérateurs IA se normalise, l’arbitrage pourrait évoluer rapidement. Dans ce cas, prolonger plus de deux ans l’intervalle avant le lancement de la série RTX 60 semblerait difficile à défendre côté gaming, tant pour l’écosystème logiciel que pour les partenaires AIB.

Le risque principal est un effet ciseau : raréfaction des SKU gaming actuels, fenêtre de lancement de la prochaine génération repoussée, et maintien de tarifs élevés sur le très haut de gamme. Les assembleurs et détaillants pourraient ajuster leur mix en faveur de références milieu de gamme existantes, tandis que la concurrence cherchera à combler l’espace avec des refresh intermédiaires.

Source : VideoCardz

Webcam 4K EMEET S600L : capteur 1/2″ et anneau lumineux intégré pour des visuels constants

Par :Wael.K
6 février 2026 à 08:42

Image plus propre, setup plus simple. Avec un capteur 1/2″ et un anneau lumineux intégré, la nouvelle webcam vise des flux 4K stables sans recourir à un éclairage externe.

EMEET S600L : 4K, capteur 1/2″ et lumière intégrée

EMEET officialise la S600L, une webcam 4K pensée pour créateurs, streamers et usages pro. Le module accueille un capteur plus grand de 1/2″ et un anneau lumineux intégré, avec traitement d’image assisté par les algorithmes maison.

Webcam EMEET S600L avec lumière annulaire intégrée et résolution 4K.

L’objectif de ce duo capteur/éclairage est de lisser l’exposition, réduire les ombres dures et maintenir des couleurs naturelles dans des conditions variables. Les modes d’éclairage et la luminosité sont ajustables pour coller à la scène et limiter la dépendance à des softboxes.

Jeune gamer utilisant un PC équipé de la caméra EMEET S600L.

Traitement d’image et réglages logiciels

La S600L capitalise sur le pipeline d’imagerie d’EMEET : netteté, exposition et stabilité sont pilotées par un traitement intelligent afin d’assurer un rendu propre en direct, en enregistrement ou en visioconférence.

Le logiciel compagnon permet d’affiner les paramètres d’image et de gérer des workflows de caméra virtuelle sans friction. L’intégration matérielle/logicielle vise une configuration rapide et reproductible.

Vue arrière de la webcam EMEET S600L avec câblage visible.

Webcam 4K : intérêt du capteur 1/2″

Par rapport à la S600, l’apport du capteur 1/2″ est double : meilleure collecte de lumière et latitude d’exposition accrue. Couplé à l’anneau lumineux, il facilite une balance des tons plus régulière, utile pour des setups compacts où l’éclairage est contraint.

Infographie sur les caractéristiques de la webcam EMEET S600L, y compris capteur 1/2
Tableau des spécifications techniques pour la webcam EMEET S600L.

Sur un segment saturé de webcams 4K, l’intégration d’un éclairage piloté en cohérence avec le pipeline d’imagerie reste un différenciateur pragmatique pour les créateurs mobiles et les streamers qui veulent limiter le câblage et les sources externes.

Voir notre test : Insta360 Link 2 Pro et 2C Pro : test complet des webcams 4K IA haut de gamme

Source : TechPowerUp

DLSS Dynamic Multi Frame Generation et mode 6x prévus pour avril 2026 chez NVIDIA

Par :Wael.K
6 février 2026 à 08:35

Calendrier fixé et promesse claire ; NVIDIA prévoit d’activer une génération multi-images dynamique pilotée par le driver dès avril 2026, avec un mode 6x destiné aux scènes les plus lourdes.

DLSS Dynamic Multi Frame Generation : bascule de multiplicateur à la volée

Lors d’une présentation à Munich rapportée par HardwareLuxx, NVIDIA a lié la sortie de DLSS Dynamic Multi Frame Generation à avril 2026. Le principe : remplacer un multiplicateur MFG fixe par un pilotage dynamique qui vise le taux de rafraîchissement de l’écran de l’utilisateur, plutôt qu’un ratio gravé dans le marbre.

Exemple cité par NVIDIA : un affichage 240 Hz n’a besoin que de 240 fps. Un réglage statique peut dépasser cet objectif selon la scène et générer de l’overshoot inutile. Le mode dynamique ajuste alors rapidement le multiplicateur en fonction de la charge : jusqu’à 6x dans les passages lourds, puis 3x ou 2x quand la demande baisse. La démonstration observée par HardwareLuxx n’a pas mis en évidence de problèmes lors de bascules fréquentes.

Mode Multi Frame Generation 6x et disponibilité RTX 50 Series

Le même créneau d’avril couvre aussi le Multi Frame Generation 6x, auparavant annoncé dans une fenêtre « spring » pour les GeForce RTX 50 Series. Selon HardwareLuxx, les propriétaires de RTX 50 devraient y avoir accès dès le déploiement d’avril.

NVIDIA propose déjà un MFG capable de générer jusqu’à trois images supplémentaires. En face, Intel a introduit une technologie comparable, officiellement supportée sur Panther Lake, même si des utilisateurs l’activent déjà sur d’autres architectures. AMD ne fournit pas de MFG multi-images à ce jour et se limite à une génération d’image unique.

Si la mise en œuvre tient ses promesses, l’approche dynamique répond à un besoin concret des écrans à haut taux de rafraîchissement en réduisant l’overshoot et en lissant la latence perçue. Le passage au 6x, combiné à une bascule temps réel, pourrait aussi clarifier l’écart fonctionnel entre générations GeForce et cimenter l’avantage logiciel de la série RTX 50 face aux solutions concurrentes encore limitées en support officiel.

Source : VideoCardz

Chaise gaming AutoFull M6 Ultra 2.0 : refroidissement/chauffage intégrés et soutien lombaire adaptatif

Par :Wael.K
5 février 2026 à 18:46

Refroidissement actif à 19 °C dans l’assise, chauffage jusqu’à 50 °C et lombaire dynamique : AutoFull place la barre haut sur l’ergonomie sans renoncer à la robustesse.

AutoFull M6 Ultra 2.0 : ergonomie active et construction premium

AutoFull lance la M6 Ultra 2.0, évolution de sa chaise haut de gamme orientée longue session, e-sport et streaming. Elle est proposée à 599,99 $ sur le site US (RRP 899,99 $) et 599,99 £ sur le site UK (RRP 999 £). À titre indicatif, 599,99 $ équivalent à environ 555 € selon le taux du jour.

Joueur à un bureau avec la chaise AutoFull M6 Ultra, utilisant un ordinateur pour jouer à un jeu.

Le cœur du produit est un système thermique intégré dans le coussin d’assise : double ventilation pour abaisser la surface autour de 19 °C et éléments chauffants en graphite jusqu’à 50 °C, chacun réglable sur trois niveaux. Un coussin d’assise massant et une vibration lombaire intégrée complètent l’ensemble pour soulager les points de pression en usage prolongé.

Soutien lombaire adaptatif et réglages étendus

L’appui lombaire M-Series de troisième génération suit les mouvements avec 60 mm de course avant/arrière, 50 mm d’adaptation verticale automatique et 5° de rotation adaptative. Les avis mettent en avant cette cinématique comme un différenciateur clé dans la catégorie.

Chaise AutoFull M6 Ultra 2.0 inclinée, avec repose-pieds et affichage numérique sur le côté.

La têtière 3D ErgoCloud en mousse à mémoire propose des réglages d’angle, de hauteur et d’avancée. Les accoudoirs 360° offrent des ajustements en hauteur, profondeur et angle pour aligner clavier, souris ou manette au millimètre.

Matériaux, mécanique et capacités de charge

Le piètement en alliage d’aluminium renforcé et les roulettes heavy-duty visent la durabilité, avec une charge maximale annoncée à 180 kg. Le revêtement en similicuir PU micro-perforé favorise la respirabilité, associé à une mousse haute densité pour le maintien.

Détail du dossier de la chaise AutoFull M6 Ultra avec motif rouge et logo doré.

La translation en hauteur s’appuie sur un vérin SGS classe 4. Le dossier bascule de 90° à 160°, un mode rocking à 20° est présent, et un repose-pieds ergonomique intégré permet de relâcher toute la chaîne musculaire entre deux parties.

Illustration de la fonction de massage chauffant de la chaise AutoFull M6 Ultra 2.0.

Pour un positionnement tarifaire à 599,99 $/599,99 £, AutoFull additionne thermique actif, massage et cinématique lombaire avancée. Dans un marché saturé de sièges « racing » peu différenciants, la M6 Ultra 2.0 se singularise par des fonctions mesurables et un châssis crédible, avec un plafond d’usage à 180 kg et une plage de réglages cohérente pour le multi-usage jeu/travail.

Source : TechPowerUp

Fractal North Momentum Edition officialisé : trois ventilateurs LCP et façade chêne noir

Par :Wael.K
5 février 2026 à 18:45

Fractal ne touche pas à l’icône, mais renforce ce qui compte. Avec la North Momentum Edition, le constructeur suédois officialise une version plus agressive de son boîtier phare, livrée d’emblée avec trois ventilateurs à pales LCP et une façade en chêne noir.

Fractal North Momentum Edition : refroidissement out of the box

La Momentum Edition conserve la face avant ouverte et le mesh supérieur du North, mais ajoute trois ventilateurs Momentum à pales LCP avec véritables roulements FDB. L’objectif est clair : maintenir des composants hautes performances à des températures maîtrisées, sans ajout immédiat de ventilation.

Boîtier Fractal North Momentum Edition avec façade grillagée noire

Le design s’appuie sur des inserts en chêne noircis et des accents métalliques sombres. Le positionnement vise les configurations gaming visibles sur le bureau, sans renoncer à l’efficacité thermique.

Compatibilité et déclinaisons

Le châssis reprend l’agencement interne sobre et intuitif de la série North. Deux tailles sont proposées : North Momentum Edition pour des cartes graphiques jusqu’à 355 mm, et North XL Momentum Edition qui étend le support GPU à 413 mm.

Vue avant du boîtier Fractal North Momentum Edition avec détails en treillis

Côté tarif, le North Momentum Edition est annoncé à 179,99 $ (environ 165–170 € selon conversion), et le North XL Momentum Edition à 209,99 $ (environ 195–200 €). Les spécifications clés restent centrées sur la ventilation native et la sobriété du layout pour des montages modernes.

Vue arrière du boîtier Fractal North Momentum Edition montrant panneaux latéraux ouverts

Le choix de ventilateurs LCP avec véritables FDB dans un boîtier de série réduit l’attrition thermique et le bruit à haut débit, un différenciateur tangible face aux modèles livrés avec des moulins d’entrée de gamme. Couplé à la façade ouverte, l’ensemble devrait offrir une marge confortable pour les GPU puissants, surtout sur la déclinaison XL.

Vue éclatée du boîtier Fractal North Momentum Edition avec toutes les pièces détachées

Source : TechPowerUp

NVIDIA réduirait de 30 % l’offre de GPU vers la Chine au T1 2026, tensions sur les prix RTX 50

Par :Wael.K
5 février 2026 à 18:40

NVIDIA serre le robinet. Au premier trimestre 2026, les expéditions de GPU vers la Chine auraient été réduites d’environ 30 %, une décision qui rebat les cartes sur un marché déjà tendu. Alors que la génération RTX 50 peine à se stabiliser en prix et en disponibilité, cette contraction de l’offre alimente les inquiétudes autour d’une nouvelle phase de tension, bien au-delà du seul marché chinois.

NVIDIA : coupe d’approvisionnement ciblée sur le marché chinois

Des informations relayées par Board Channels indiquent une réduction d’environ 30 % de l’offre de GPU vers la Chine par rapport à un trimestre « normal ». La rumeur initiale de décembre évoquait 30 % à 40 % sur les RTX 50 ; la nouvelle note élargit le périmètre à l’ensemble des GPU destinés à la Chine.

NVIDIA reportedly reduces GPU supply by 30% to Chinese market in Q1 2026

Les sources évoquées pointeraient l’amont chez NVIDIA et les partenaires add-in board. Le message adressé aux marques AIB et aux distributeurs nationaux est clair : gestion d’inventaire prudente au T1 pour éviter les déstockages agressifs et maintenir une discipline tarifaire.

L’orientation serait spécifique à la Chine. Aucune indication d’allocation pour l’Amérique du Nord, l’Europe ou d’autres régions. Le signal reste néanmoins significatif, la majorité des lignes d’assemblage de cartes étant localisées en Chine.

RTX 50 : disponibilité tendue, prix au-dessus du MSRP

Malgré le démenti de NVIDIA sur des limites par modèle et la promesse de livrer toutes les références RTX 50, les SKU cités par les rumeurs renchérissent déjà en boutique. La plupart des cartes de la série 50 se vendent au-dessus du MSRP, hors accès privilégié via le Verified Priority Access, difficile à utiliser ces dernières semaines.

Les bruits d’EOL autour de la RTX 5070 Ti ont été repoussés par NVIDIA. Le constructeur a reconnu des contraintes mémoire sur le marché GPU, sans détailler l’ampleur de l’impact. Aucun relèvement officiel de MSRP n’a été annoncé ; comme souvent, la réalité des prix dépendra du couple offre/demande.

Si la contraction de 30 % se confirme au T1 2026 en Chine, l’écart à l’étiquette risque de s’élargir sur les RTX 50, avec un effet d’entraînement possible chez certains AIB qui chercheront à lisser les stocks et à éviter une guerre des prix. Les marchés occidentaux pourraient rester mieux servis à court terme, mais les tensions côté mémoire et l’assemblage majoritairement chinois peuvent rapidement repropager la hausse si la restriction perdure.

Source : VideoCardz

ASRock ouvre des revues internes après des Ryzen 9000 morts, flou sur les BIOS et réglages

Par :Wael.K
5 février 2026 à 18:35

Des processeurs grillés et une communication minimale ; les possesseurs d’AM5 attendent des consignes claires tandis qu’ASRock enclenche des revues internes.

ASRock admet une enquête, sans mode d’emploi pour les utilisateurs

ASRock a publié sur son site une déclaration indiquant l’ouverture d’enquêtes et de processus de vérification internes concernant des défaillances de CPU Ryzen 9000 sur ses cartes mères. Le constructeur ne détaille pas la nature des tests ni l’étendue des vérifications.

Le point critique reste l’absence de directives opérationnelles. Aucun conseil n’est donné sur l’opportunité d’installer les derniers BIOS, souvent en pré-release, ni sur les réglages à privilégier ou à désactiver. Les utilisateurs n’ont pas d’indication pour sécuriser une configuration stable à court terme.

Graphique barre verticale carte mère affectées modèles variés fond blanc peu contrasté

Signalements en hausse sur Ryzen 9000, moins fréquents sur Ryzen 7000

Les cas recensés touchent majoritairement la série Ryzen 9000, avec moins de retours sur Ryzen 7000. Le megathread du subreddit ASRock fait état de plus de 183 cas concernant des Ryzen 7 9800X3D sur cartes ASRock, ainsi que 50 cas pour le Ryzen 7 9700X et 29 pour le Ryzen 5 9600X. Les cartes mères de série 800 sont les plus citées.

Graphique barre verticale CPU affectés Ryzen fond blanc peu contrasté

Des signaux récents mentionnent cinq 9600X défaillants en deux semaines, puis cinq SKU différents de la gamme 9000 sur une seule journée. Ces chiffres suggèrent un problème qui ne se limite pas aux modèles X3D.

Impact potentiel sur l’écosystème AM5

Sans guidance immédiate d’ASRock, les intégrateurs et power users AM5 restent dans l’incertitude sur les profils BIOS à adopter. À défaut de correctifs officiels, la prudence s’impose sur les firmwares préliminaires et les options susceptibles d’accentuer les contraintes électriques. La réponse d’ASRock déterminera rapidement la confiance autour des cartes 800-series avec les Ryzen 9000.

Source : VideoCardz

Intel Core G3 Panther Lake pour handhelds repoussé au T2, deux puces 14 cœurs et iGPU Arc B380/B360

Par :Wael.K
5 février 2026 à 18:29

Le calendrier d’Intel se tend sur le segment des consoles PC portables. Les processeurs Core G3 Panther Lake, initialement attendus plus tôt, seraient désormais repoussés au deuxième trimestre 2026. En cause, des ajustements de planning côté partenaires, alors que deux puces 14 cœurs intégrant des iGPU Arc B380 et B360 sont prévues pour motoriser la prochaine génération de handhelds x86.

Intel Core G3 pour handhelds : fenêtre de lancement décalée

Annoncée au CES 2026 en déclinaison dédiée aux consoles PC, la famille Panther Lake destinée au segment handheld voit son annonce repoussée du T1 au T2, d’après Golden Pig Upgrade. Le Q1 était la cible initiale, mais la série ne se montrerait plus ce trimestre.

Capture texte Weibo sur retard sortie Panther Lake, fond blanc avec photo en miniature

Intel n’a pas officiellement confirmé l’appellation Core G3. Le constructeur a toutefois évoqué une version spécifique pour handhelds impliquant MSI, GPD, Acer et même Microsoft, face à des acteurs comme ASUS ou LG qui exploitent aujourd’hui des Ryzen Z2.

Deux puces 14 cœurs Panther Lake, iGPU Arc B380/B360

Deux modèles sont en préparation : Core G3 Extreme et Core G3. Tous deux reposent sur un die Panther Lake 4-8-4 totalisant 14 cœurs CPU. Le package embarque jusqu’à 12 cœurs Xe3 côté iGPU sur la version Extreme, contre 10 Xe3 pour le modèle standard.

Côté graphique, des iGPU Arc B380 et B360 seraient annoncés en parallèle. La nouvelle dénomination viendrait de fréquences GPU légèrement inférieures à la gamme Panther Lake classique. Les documents internes qualifient la série de milieu de gamme, laissant espérer des machines plus abordables que les handhelds Intel actuels, souvent onéreux.

Reste l’incertitude sur les tickets d’entrée. Si Intel maintient un positionnement mid-range, on peut s’attendre à des configurations moins coûteuses que les solutions premium, sans garantie d’un basculement massif face aux plateformes AMD déjà ancrées sur ce segment.

Source : VideoCardz

NVIDIA pointe le correctif Windows 11 KB5074109 pour artefacts en jeu et suggère la désinstallation

Par :Wael.K
5 février 2026 à 13:53

Des joueurs signalent des artefacts visuels, des écrans noirs et des chutes de performances après l’installation d’un correctif Windows 11. Face à ces retours, NVIDIA recommande provisoirement de désinstaller la mise à jour KB5074109 sur les systèmes concernés.

KB5074109 pointé du doigt par NVIDIA

Sur le forum officiel GeForce, Manuel Guzman (NVIDIA) relie des soucis de stabilité en jeu à une mise à jour Windows 11. Le contournement connu à ce stade consiste à désinstaller le correctif KB5074109. Les premiers signalements proviennent d’un fil centré sur Forza Horizon 5, mais les symptômes décrits ne semblent pas exclusifs à ce titre.

Capture de discussion forum sur problème mise à jour Windows 11 et jeu Forza Horizon 5

Les problèmes évoqués : corruption visuelle et artefacts, chutes de performance, et parfois écran noir. Tous les PC ne sont pas touchés, mais le volume de retours a suffi pour une prise de parole publique indiquant qu’une investigation est en cours. NVIDIA précise que l’origine exacte reste à confirmer, d’autant que les retours coïncident avec un nouveau pilote GeForce.

État des lieux et conduite à tenir

La recommandation est de ne retirer KB5074109 que si les symptômes sont présents. Désinstaller manuellement un patch reste déconseillé hors cas avéré. NVIDIA cherchera à corriger via un futur pilote si nécessaire, le lien avec Windows 11 n’étant pas définitivement établi.

Si la cause se confirme côté OS, Microsoft devra ajuster le correctif. Si le pilote est en cause, on peut s’attendre à une révision rapide chez NVIDIA, la latence d’intervention étant critique sur des titres à large base de joueurs comme Forza Horizon 5.

Source : VideoCardz

Apex Thermal Putty X1 : la pâte thermique malléable d’Alphacool remplace les pads

Par :Wael.K
5 février 2026 à 12:10

Fini le casse-tête des épaisseurs de pads, place à un gel thermique qui comble les écarts sans forcer. Alphacool mise sur une pâte non durcissante pour sécuriser GPU, VRM et mémoire tout en abaissant les températures.

Une alternative technique crédible aux pads

Alphacool présente l’Apex Thermal Putty X1, un gel silicone non durcissant et électriquement non conducteur destiné à remplacer les pads thermiques classiques. La matière s’adapte aux irrégularités et aux tolérances d’assemblage avec une faible pression de contact, ce qui améliore le couplage thermique et évite le choix d’une épaisseur de pad.

Pot ouvert de Apex Thermal Putty X1 avec contenu gris visible.

La consistance a été calibrée pour épouser des hauteurs de jeu variables tout en restant dimensionnellement stable. Résultat : un pont thermique homogène entre source de chaleur et dissipateur, sans écrasement excessif des composants sensibles comme les puces mémoire ou les régulateurs de tension.

Vue de dessus du contenu gris de la Apex Thermal Putty X1.

Apex Thermal Putty X1 : stabilité verticale et BLT réduite

Le matériau revendique une forte stabilité verticale et des propriétés stables dans le temps : pas d’affaissement, pas de fissuration, pas de contamination des composants adjacents. Alphacool met en avant une conductivité thermique élevée avec une BLT (Bond Line Thickness) réduite, facteur clé pour limiter la résistance thermique dans les montages denses ou verticaux.

Exemple d'application de Apex Thermal Putty X1 sur une carte mère.

Fonctionnellement, l’Apex Thermal Putty X1 vise explicitement les cartes graphiques modernes et autres cartes d’extension où les tolérances et la diversité des composants rendent les pads hétérogènes peu fiables. Les points clés : remplacement direct des pads, adaptation aux irrégularités, tenue en chaleur et en montage vertical.

Graphisme promotionnel de Apex Thermal Putty X1 avec pot ouvert et carte mère.

Si la promesse se confirme en pratique, ce type de gel pourrait devenir un standard pour les waterblocks et backplates multi-niveaux, en particulier sur les GPU actuels aux topologies complexes. Le gain se joue autant sur la thermique pure que sur la réduction des risques mécaniques lors du serrage.

Source : TechPowerUp

Mistral Voxtral Transcribe 2 : modèle temps réel 4B open source et Mini V2

Par :Wael.K
5 février 2026 à 09:22

Mistral AI lance Voxtral Transcribe 2 avec deux modèles distincts : Voxtral Mini Transcribe V2 pour les lots et Voxtral Realtime pour la dictée continue. Ce dernier est publié avec des poids sous licence Apache 2.0, un geste rare sur ce segment, et vise des intégrations embarquées ou des services temps réel où la latence est critique.

Un modèle temps réel à 4B axé sur la latence

Voxtral Realtime affiche un gabarit de 4 milliards de paramètres et une architecture de streaming repensée. Le moteur démarre la transcription à l’arrivée du flux audio et revendique une latence inférieure à 200 ms, compatible avec les cas d’usage interactifs, les overlays de sous-titres et l’assistance vocale in-app.

Le modèle couvre 13 langues, dont le chinois. L’API est facturée 0,006 $/min, soit environ 0,006 € TTC/min aux taux actuels (conversion indicative).

Un « Mini V2 » calibré pour le volume

Voxtral Mini Transcribe V2 vise le coût par minute et la longueur de contexte. Mistral annonce une précision supérieure à GPT‑4o mini Transcribe et Gemini 2.5 Flash, avec des imports continus jusqu’à 3 heures par requête, utile pour des rushs, des conférences ou des archives podcasts.

L’API est annoncée à 0,003 $/min, soit environ 0,003 € TTC/min en conversion directe. Le modèle supporte également 13 langues, dont le chinois, ce qui simplifie les pipelines multilingues sans changer d’outil.

Ouverture et implications

L’ouverture des poids de Voxtral Realtime sous Apache 2.0 met une pression directe sur les offres cloud fermées en temps réel. Entre un coût plancher pour les traitements massifs et un moteur réactif intégrable on-prem ou en edge, Mistral couvre les deux extrêmes du marché de la transcription, avec un angle agressif sur la latence et le TCO.

Source : ITHome

GTA VI sans IA générative : Take-Two assume un monde 100 % façonné à la main

Par :Wael.K
5 février 2026 à 08:52

Rockstar avance sur GTA VI en revendiquant un monde entièrement façonné à la main, là où l’industrie multiplie les pilotes d’IA générative. Signal clair sur la méthode et la promesse de finition.

GTA VI : aucune IA générative dans la production

Strauss Zelnick, CEO de Take-Two Interactive, affirme que l’IA générative n’a « zéro part » dans le développement de GTA VI. Il insiste sur des mondes « handcrafted », bâtis « building par building, street par street, neighborhood par neighborhood », sans génération procédurale.

Le dirigeant estime par ailleurs que l’IA ne peut pas, seule, créer de « great entertainment properties ». Le signal est double : maintien d’un pipeline artisanal pour Rockstar et prudence visible sur l’intégration d’actifs générés.

Take-Two reste pro-IA côté outils

Malgré cette position sur GTA VI, Zelnick se dit enthousiaste sur l’IA et le machine learning. Il évoque « des centaines de pilotes et d’implémentations » en cours dans le groupe, avec des gains de coûts et de délais déjà mesurés via des outils génératifs.

Le secteur bouge : Embark a utilisé des outils génératifs pour accélérer le voice acting d’Arc Raiders, Ubisoft teste des coéquipiers contrôlés à la voix, et EA a annoncé un pivot vers des outils de genAI multi-usages, malgré une base de développeurs souvent opposée à ces pratiques.

La ligne Take-Two dessine une coexistence pragmatique : pipelines internes optimisés par l’IA là où elle réduit la friction, mais bannie des assets et systèmes centraux d’un titre clé comme GTA VI. Pour les joueurs, cela signifie une direction artistique et un level design fermement maîtrisés, avec un risque moindre d’artefacts systémiques liés aux modèles génératifs.

Source : TechPowerUp

Part de marché Intel sur Steam : première hausse en janvier, AMD marque le pas

Par :Wael.K
5 février 2026 à 08:51

Après des mois de repli, Intel remonte légèrement chez les joueurs Steam. Le mouvement est ténu mais symbolique, avec un impact direct sur la dynamique face à AMD.

Part de marché Intel : premier frémissement positif

La mise à jour de janvier de la Steam Hardware & Software Survey crédite Intel de 56,64 % de parts de CPU, soit +0,25 % par rapport à décembre (56,39 %). AMD recule à 43,34 %, en baisse de 0,19 % après 43,53 % en décembre.

Tableau des parts de marché des processeurs Intel, AMD et Microsoft de septembre à janvier

Sur les derniers mois, Intel passait de 58,61 % en septembre à 57,82 % en octobre, 57,30 % en novembre, 56,39 % en décembre. La séquence baissière s’interrompt. Côté AMD, la progression amorcée de 41,31 % en septembre à 43,53 % en décembre subit une correction minimale à 43,34 %.

Facteurs récents et fenêtre de tir pour Arrow Lake Refresh

La traction d’AMD reste tirée par l’adoption des Ryzen 9000X3D, très populaires auprès des enthousiastes. En face, le lancement Arrow Lake d’Intel a été pénalisé par des performances gaming inférieures aux attentes, malgré des améliorations via microcodes et baisses tarifaires.

La communauté attend désormais Arrow Lake Refresh, annoncé pour mars ou avril, avec des fréquences plus élevées et un tuning revu. Des premières fuites évoquent un gain de l’ordre de 10 % pour un Core Ultra 9 290K+ face au 285K, ce qui pourrait stabiliser, voire renforcer, la position d’Intel sur Steam si les tarifs restent agressifs.

À ce stade, le signal est modeste mais intéressant : la sensibilité des parts sur Steam traduit des arbitrages rapides côté joueurs. Si Arrow Lake Refresh délivre le niveau de performance annoncé hors du carton, la reprise pourrait se confirmer à court terme, surtout avec un pipeline de correctifs firmware déjà en place.

Source : TechPowerUp

Toxic Commando : nouveau trailer gameplay, démo datée et sortie le 12 mars 2026

Par :Wael.K
5 février 2026 à 08:50

Un shooter coop inspiré des années 80 qui assume la surenchère gore, et une démo jouable immédiate pour éprouver le flux d’ennemis. Les amateurs de hordes à déchiqueter ont de quoi occuper leurs soirées.

Toxic Commando détaille son gameplay et sa coop

Saber Interactive et Focus Entertainment publient un trailer « Gameplay Overview » pour John Carpenter’s Toxic Commando, nouvelle licence signée par l’équipe derrière Warhammer 40,000: Space Marine 2, World War Z et SnowRunner. Le jeu sortira le 12 mars 2026 sur PlayStation 5, Xbox Series X|S et PC.

Capture d'écran de gameplay avec une créature géante enflammée.

Le titre mise sur une coop à 4 joueurs avec matchmaking ou salon privé, et un cross-play complet entre plateformes. Les missions s’enchaînent dans un monde semi-ouvert infesté de « Swarm » technologique, générant des vagues simultanées de mutants.

Quatre classes sont annoncées : Strike, Medic, Operator et Defender. Côté arsenal, 16 types d’armes principales et de nombreuses secondaires, du shotgun au SMG, fusil de précision, pistolets, machettes et pieds-de-biche. Les véhicules, annoncés « slime-proof », servent autant à la mobilité qu’au broyage.

Démo limitée et éditions au lancement

Une première démo jouable sera disponible sur Steam du 19 février au 2 mars. Le jeu sera proposé en Standard Edition et Blood Edition, en précommande sur PS5, Xbox Series X|S et PC via Steam et Epic Games Store.

Scène de combat rapproché avec des zombies aux yeux lumineux.

Toute précommande débloque gratuitement le DLC « Leon’s Secret Stash ». La Blood Edition ajoute le « Bloody Pass » comprenant 2 DLC post-lancement (skins personnages, armes et véhicules), un Cosmetic Pack Gold Color pour les armes, un porte-bonheur et 1 skin par personnage.

Le trailer met l’accent sur la densité d’ennemis à l’écran et l’importance du contrôle de foule via classes et équipements. Les séquences montrent des compositions orientées burst et du crowd control lourd, avec une emphase sur la complémentarité des rôles et la gestion de mobilité en convoi.

Personnages armés affrontant des zombies et une créature, forêt en arrière-plan.

Pour un segment saturé par les shooters coop à hordes, l’angle old-school 80s, la conduite de véhicules et le cross-play total donnent au projet une identité claire. La tenue technique en scénarios de vagues simultanées et l’équilibrage des 16 armes seront déterminants pour la rétention.

Personnages visant un monstre géant avec des armes modernes.
Vue depuis un véhicule attaqué par des zombies sur une route.
Personnages tirant sur des zombies devant un bâtiment délabré.
Affiche promotionnelle pour John Carpenter's Toxic Commando avec détails sur précommande.

Source : TechPowerUp

OpenScholar vise les citations zéro bullshit face à GPT-4o, validé par des experts

Par :Wael.K
5 février 2026 à 08:50

Suivre le flux de littérature scientifique est devenu ingérable à l’échelle humaine. Sur ce terrain, OpenScholar, un modèle open source mis au point par l’Université de Washington et l’Allen Institute for AI (AI2), s’attaque frontalement au talon d’Achille des LLM généralistes : les citations inventées. L’équipe annonce une précision de référence comparable à celle de spécialistes humains, validée en double à la fois par un benchmark dédié et par des évaluations à l’aveugle de chercheurs.

Un modèle taillé pour la littérature scientifique, pas pour le web généraliste

Contrairement aux assistants grand public, OpenScholar s’adosse à un corpus de 45 millions d’articles académiques et à un pipeline de retrieval-augmented generation. Résultat : le modèle reste raccord avec des publications postérieures à son entraînement, intègre les nouveautés via la recherche documentaire et normalise les références. L’approche tranche avec les modèles qui s’appuient sur des sources web généralistes, souvent responsables de citations faibles, hors sujet, ou de « billets de blog » aspirés à la place d’articles évalués par les pairs.

Les auteurs pointent un contraste net avec GPT-4o : un audit externe chiffre à 78–90 % la part de références fabriquées par ce dernier dans un scénario de synthèse de recherche, quand OpenScholar maintient une exactitude des citations au niveau d’experts. Publié dans Nature, le projet arrive avec code, datasets et démo en libre accès.

Un benchmark de domaine et des préférences d’experts en aveugle

Pour sortir des évaluations génériques, l’équipe a bâti ScholarQABench, un jeu d’essai orienté recherche: 3000 requêtes et 250 réponses longues rédigées par des spécialistes en informatique, physique, biomédecine et neurosciences. Mesures automatiques et jugements humains portent sur l’exactitude, la qualité rédactionnelle et la pertinence documentaire.

OpenScholar surclasse les modèles testés, dont GPT-4o et deux systèmes de Meta. Lors d’une évaluation en double aveugle menée auprès de 16 scientifiques, 51 % des jugements favorisent les réponses d’OpenScholar face à celles d’experts humains. En combinant le workflow de citation d’OpenScholar avec un grand modèle comme GPT-4o, la préférence grimpe à 70 %, quand GPT-4o seul plafonne à 32 %.

Itérations et trajectoire produit

Les concepteurs décrivent un démarrage peu concluant avec des signaux issus de moteurs de recherche généralistes, avant d’opter pour une base strictement académique et un système de requêtes itératives. La feuille de route mentionne DR Tulu, une évolution en cours de développement qui ajoute des étapes de recherche multiples et d’agrégation pour étoffer les synthèses. La forte demande sur la démo confirme l’appétence des laboratoires pour des outils ouverts, auditables et extensibles.

Si l’on replace OpenScholar dans le paysage, l’enjeu dépasse la qualité de texte: il s’agit d’établir une chaîne de traçabilité des sources compatible avec les exigences de la recherche. La combinaison d’un index académique large, d’un RAG rigoureux et d’un protocole d’évaluation spécialisé constitue aujourd’hui un socle plus crédible que les approches fermées. Reste à voir comment l’écosystème alignera ce type d’outils avec les workflows des revues, les dépôts préprint et les bases bibliométriques, sans recréer des « boîtes noires » sous d’autres formes.

Source : ITHome

Infineon accélère l’IA : 500 M$ avancés pour l’alimentation des data centers

Par :Wael.K
5 février 2026 à 08:49

Infineon accélère sa poussée dans l’IA. Dans ses résultats du premier trimestre de l’exercice 2026 (équivalent au T4 2025 calendaire), le groupe allemand a avancé de plusieurs trimestres un volet d’investissements de 500 millions de dollars initialement prévus plus tard, afin de renforcer dès cet exercice ses capacités dédiées aux solutions d’alimentation pour data centers IA. L’enveloppe totale engagée sur ce segment atteint ainsi 2,7 milliards de dollars sur l’exercice.

Le fabricant vise environ 1,5 milliard d’euros de revenus liés à l’IA sur l’exercice 2026, puis près de 2,5 milliards de dollars en 2027, soit une multiplication par dix en trois ans selon ses projections internes. Le cœur de la rampe concerne la chaîne d’alimentation des accélérateurs et serveurs IA, où Infineon fournit des semiconducteurs de puissance, drivers et modules de conversion haute efficacité.

Capex, perspectives et exécution industrielle

Sur le trimestre, Infineon a publié 3,662 milliards d’euros de chiffre d’affaires, en hausse de 7 % sur un an et en recul de 7 % en séquentiel. Le bénéfice s’établit à 655 millions d’euros, soit une marge de 17,9 %. Le groupe estime que l’automobile et l’industriel ont franchi le point bas du cycle, sans reprise franche de la demande à ce stade.

La ligne produits communication doit accueillir « la première » puce Wi‑Fi 7 tri‑bande en 20 MHz, positionnée pour des équipements compacts et contraints en énergie. Côté portefeuille, Infineon a annoncé l’acquisition des capteurs analogiques / mixte non optiques d’ams OSRAM et la cession de ses sites de production de Bangkok et de la province de Nonthaburi en Thaïlande, ajustant son empreinte industrielle.

Ce que cela change pour le marché

Le choix d’avancer le capex sur l’alimentation des data centers IA confirme que le goulot se déplace des GPU vers l’infrastructure électrique et la conversion haute densité. Si Infineon exécute son plan, l’écosystème bénéficiera de briques plus efficientes pour des baies à très forte densité, un point critique alors que la consommation par rack explose. À court terme, la pression reste cyclique sur l’auto/industriel, mais la traction IA refaçonne déjà le mix de revenus et les priorités de capacité chez les fournisseurs de puissance.

Source : ITHome

Logiciels bousculés par les agents IA : le marché réévalue brutalement le risque

Par :Wael.K
5 février 2026 à 08:48

La correction s’est accélérée sur les logiciels et services: l’indice S&P 500 Software & Services a perdu près de 4 % mardi, encore 0,73 % mercredi, enchaînant six séances de baisse et effaçant environ 830 milliards de dollars de capitalisation depuis le 28 janvier. Les investisseurs arbitrent en urgence le risque que l’IA ne reste pas un simple moteur de productivité, mais devienne un concurrent direct des briques logicielles historiques.

Un déclencheur symbolique, une angoisse systémique

La goutte d’eau est venue d’Anthropic, qui a ajouté à Claude un agent orienté tâches juridiques, avec extensions sales/marketing et data. Le signal n’est pas tant fonctionnel que stratégique: les modèles s’invitent dans l’applicatif, exactement là où se loge la rente des éditeurs. D’où la crainte d’une intégration verticale façon Amazon: partir d’un point étroit, capter la valeur en amont et en aval, et attaquer les marges les plus grasses de l’entreprise.

Le marché a puni les détenteurs d’actifs et d’infrastructures de données « propriétaires » censées constituer une barrière. Thomson Reuters (Westlaw) a décroché de près de 16 % mardi avant un léger rebond mercredi. MSCI a reculé d’environ 7 % puis encore 1,8 %. RELX a plongé de 14 % puis -1,3 % supplémentaire. London Stock Exchange Group a abandonné près de 13 % puis -0,1 %. L’indice sectoriel S&P Software & Services accuse désormais -13 % sur six séances et -26 % depuis le pic d’octobre.

Les habituels acheteurs de creux ne se sont pas manifestés. La faiblesse a contaminé le reste de la tech: S&P 500 -0,51 %, Nasdaq -1,51 %; Nvidia -3,4 %, Meta -3,2 %, Alphabet -2 %, Oracle -5,1 %.

Le débat: données, « moats » et horizon de valorisation

Pour James St. Aubin (Ocean Park Asset Management), le mouvement entamé fin 2023 traduit une prise de conscience: la concurrence en IA générative fragilise des positions jusqu’ici perçues comme inexpugnables. Même si l’ampleur de la réaction paraît excessive, le risque doit être intégré dans les multiples. Il y voit aussi un signal avancé pour l’emploi qualifié.

À l’inverse, plusieurs voix relativisent la portée immédiate de ces agents IA. Sans données de référence sectorielles profondes et gouvernées, les modèles ne suffisent pas à remplacer des piles logicielles critiques. Jensen Huang (Nvidia) juge « illogique » l’idée d’un remplacement pur et simple des outils; Mark Murphy (JPMorgan) parle de « saut logique » à propos d’un plugin qui supplanterait toutes les couches d’un SI.

Le dilemme d’allocation est clair: les cycles d’IA raccourcissent l’horizon de prévisibilité au-delà des 3 à 5 ans utilisés pour valoriser les éditeurs. Les investisseurs réévaluent la prime de risque, avec effet ricochet sur la chaîne de financement. Oppenheimer note que la faiblesse des logiciels a pesé sur les alternatifs: Apollo, Ares, Blackstone, Blue Owl, Carlyle, KKR ont perdu de 3 % à 11 % mardi avant un rebond technique mercredi. Chez Ares Capital, la direction estime l’exposition au risque de disruption « très limitée » et n’identifie pas de menace sur le cœur des logiciels d’entreprise.

Automatisation vs marges: la ligne de crête

La pression vient précisément de ce qui a longtemps soutenu la tarification: l’automatisation des tâches récurrentes. Si Claude et ses pairs absorbent une part croissante du « run », les marges des éditeurs sont questionnées. D’autres rappellent que les mêmes outils abaissent les coûts R&D, accélèrent la mise sur le marché et pourraient, in fine, améliorer la profitabilité. Le marché tranche, pour l’instant, en faveur de la prudence.

Au-delà du bruit de court terme, l’enjeu se jouera sur la capacité des éditeurs à verrouiller des actifs de données différenciants, à intégrer nativement des modèles dans leurs workflows et à faire accepter une tarification fondée sur la valeur créée plutôt que sur le siège. Ceux qui orchestrent l’IA au niveau du produit, de la sécurité et de la gouvernance garderont la main; ceux qui la subissent verront leurs multiples converger vers des commodités.

Source : ITHome

RentAHuman : des agents IA qui « louent » des humains pour exécuter des tâches

Par :Wael.K
5 février 2026 à 08:46

Un développeur américain, Alexander Liteplo, a discrètement mis en ligne le 2 février « RentAHuman », une place de marché où des agents IA peuvent réserver des humains pour exécuter des tâches dans le monde physique. L’idée, devenue virale en quelques jours, sert d’interface entre IA sans corps et réalités logistiques, administratives ou matérielles.

Page d'accueil de RentAHuman avec statistiques de visiteurs et humains loués.

Une couche de compatibilité entre agents et monde réel

Le service accepte la connexion d’agents via MCP (Model Context Protocol) ou API, puis permet de formuler une demande en une instruction, sans négociation additionnelle. Les utilisateurs humains s’enregistrent avec leurs compétences, leur localisation et leurs tarifs, et deviennent des ressources mobilisables par les IA pour des interventions concrètes.

Capture d'écran Twitter avec personne tenant une pancarte pour l'IA, devant un groupe.

Les catégories annoncées couvrent la logistique (récupération ou dépôt d’objets), la présence à des rendez-vous, la signature de documents, les visites de site, la maintenance de matériel et la vérification in situ. L’angle est assumé : « si votre agent IA veut “louer” une personne pour traiter une action dans le monde réel, un seul appel MCP suffit », résume Liteplo dans sa présentation.

Traction initiale et premiers cas d’usage

Au lancement, la plateforme comptait 130 inscrits. Elle revendique désormais plus de 94 000 personnes en liste d’attente. Un utilisateur connu sous le pseudo @Form_young affirme avoir accepté une mission de porteur de pancarte pour 100 dollars, rémunération confirmée comme reçue.

Cette dynamique tient à une proposition simple : externaliser, pour des agents, les derniers mètres non automatisables. Reste à voir comment le service gèrera la vérification d’identité, la conformité locale des actes délégués, la responsabilité en cas d’incident et les mécanismes d’arbitrage sur des tâches sensibles.

Si le modèle tient, il pourrait devenir l’un des maillons manquants de nombreuses chaînes d’outils, de l’agent planificateur à l’exécution physique. À court terme, les intégrations MCP/API et la qualité d’orchestration compteront plus que l’effet buzz ; à moyen terme, l’avantage se jouera sur la densité de prestataires par zone, la conformité légale et la tarification transparente, conditions sine qua non pour passer du gadget viral à un véritable back-end humain pour agents.

Source : ITHome

Positron Asimov : ASIC d’inférence mémoire-first face aux GPU Nvidia Rubin

Par :Wael.K
5 février 2026 à 08:45

La start-up Positron a dévoilé sa seconde génération d’ASIC pour l’inférence, Asimov, avec une promesse agressive : jusqu’à cinq fois plus efficace par dollar et par watt que les GPU Nvidia Rubin sur le coût par token. Le positionnement est clair : attaquer le goulot d’étranglement mémoire des Transformers plutôt que d’empiler du FLOPS.

Serveur rack Positron Asimov avec modules d'extension visibles

Architecture et mémoire au centre

Asimov regroupe une paire de modules de calcul autour d’un réseau de type systolique compatible avec des formats de données variés. Chaque module est adossé à 432 Go de mémoire LPDDR5X, et peut étendre un cache de clés/valeurs jusqu’à 720 Go via PCIe 6.0 / CXL 3.0. Positron revendique une utilisation de 90 % de la bande passante mémoire grâce à une organisation limitant les déplacements de données à longue portée.

La puce affiche un TDP de 400 W, pour un total de 2 304 Go de mémoire accessible et 2,76 To/s de bande passante cumulée, avec un refroidissement par air. L’interconnexion entre puces atteint 16 Tb/s et s’adapte à des topologies multiples, de quoi viser des déploiements denses sans dépendre uniquement d’un maillage fixe.

Plateforme Titan et échelle

Positron proposera Asimov dans un serveur d’inférence Titan au format 19 pouces 4U, réunissant quatre puces. La société annonce la prise en charge de modèles jusqu’à 16 T de paramètres et des fenêtres de contexte de 10 M de tokens, avec la possibilité d’agréger jusqu’à 4 096 nœuds Titan au sein d’un même déploiement.

Le calendrier reste ambitieux : tape-out visé fin 2026 et production début 2027. À ce stade, les comparaisons avec Rubin relèvent de la projection, mais la logique mémoire-first répond à une contrainte devenue centrale en inférence longue-contexte. Si Positron tient ses promesses d’efficacité et d’échelle, les opérateurs de services LLM pourraient disposer d’une alternative crédible aux GPU généralistes pour réduire le coût par token.

Source : ITHome

Overwatch 2 abandonne le “2” : 10 nouveaux héros et refonte des rôles dès le 10 février

Par :Wael.K
5 février 2026 à 08:43

Image chahutée sur Steam, calendrier resserré et cap sur le jeu-service narratif annuel. Blizzard change de braquet et renomme Overwatch 2 en « Overwatch » tout en retouchant le cœur du gameplay.

Overwatch : nouveau cycle, nouvelle structure

Le titre adopte un modèle annuel découpé en six saisons. La première itération démarre avec la Saison 1 le 10 février, sous l’arc narratif « Reign of Talon ». L’histoire se déploiera via cinématiques, événements en jeu, trailers de héros, nouvelles courtes et comics, avant de repartir sur une nouvelle Saison 1 l’année suivante.

Overwatch redevient « Overwatch » : 10 nouveaux héros et refonte des rôles dès le 10 février

Le repositionnement intervient alors que le jeu est noté « Mostly Negative » sur Steam, avec 34 % d’avis positifs. Blizzard multiplie les showcases début février pour cadrer les ajouts et la feuille de route.

10 nouveaux héros et refonte des classes

Dix héros rejoignent le roster en 2026. Cinq arrivent dès la Saison 1 en février : Domina (tank), Emre (damage), Mizuki (support), Anran (damage, jouable à l’essai du 5 au 10 février) et Jetpack Cat, un chat en appui aérien capable de repositionner les alliés depuis les airs. Les cinq restants seront étalés sur les saisons suivantes, en phase avec le récit annuel.

Le système de rôles est scindé en sous-classes avec bonus associés. Tanks : initiator, bruiser, stalwart. Damage : specialist, flanker, recon, sharpshooter. Support : medic, tactician, survivor. Blizzard prévoit aussi des reworks de héros historiques plus tard en 2026, sans liste nominative pour l’instant.

Si le calendrier tient, ce découpage par sous-classes devrait clarifier les attentes par rôle en file classée et encourager des compositions plus lisibles, tout en évitant la rigidité des triades classiques. L’alignement des sorties de héros avec l’arc narratif annuel donne enfin une colonne vertébrale aux saisons, déterminante pour la rétention.

Source : TechPowerUp

Silicon Motion enchaîne un T4 2025 solide et vise une accélération en 2026

Par :Wael.K
5 février 2026 à 08:14

Chiffres en hausse et nouveaux contrôleurs PCIe 5 au menu, avec un démarrage 2026 annoncé au-dessus du saisonnier. Le spécialiste des contrôleurs NAND poursuit ses gains en eMMC/UFS et SSD client.

Silicon Motion accélère sur le T4 2025

Au quatrième trimestre 2025, le chiffre d’affaires (GAAP) atteint 278,5 millions de dollars, en hausse séquentielle depuis 242,0 millions au T3 2025. Le résultat net (GAAP) progresse à 47,7 millions de dollars, soit 1,41 $ par ADS dilué, contre 39,1 millions et 1,16 $ au trimestre précédent.

Tableau des résultats financiers GAAP et non-GAAP du T4 2025 de Silicon Motion

Hors GAAP, le résultat net s’établit à 42,7 millions de dollars, soit 1,26 $ par ADS dilué, contre 33,8 millions et 1,00 $ au T3 2025. Les dépenses d’investissement du trimestre s’élèvent à 7,8 millions de dollars, dont 6,2 millions pour équipements de test, logiciels et outils de conception, et 1,6 million pour des travaux immobiliers à Hsinchu, Taïwan.

Résultats financiers clés de Silicon Motion pour le T4 2025 comparés au T4 2024

La direction cite une croissance >25 % des ventes de contrôleurs SSD client en séquentiel, tirée par ses 8 canaux phares et ses nouveaux 4 canaux PCIe 5. Les gammes eMMC et UFS progressent encore grâce à des gains de parts. Le segment automobile s’étoffe via diversification produit et nouveaux clients, tandis que des ventes initiales de solutions de boot drive vers un grand fabricant de GPU marquent l’extension vers l’entreprise.

Estimations financières GAAP et non-GAAP de Silicon Motion pour l'année 2025

Dividende et perspectives 2026

Le 27 octobre 2025, le conseil a déclaré un dividende annuel de 2,00 $ par ADS, versé en quatre acomptes de 0,50 $. Le 26 novembre 2025, 16,7 millions de dollars ont été payés au titre du premier acompte. Le second paiement interviendra le 26 février 2026 pour les actionnaires enregistrés au 11 février 2026.

Pour le premier trimestre 2026, Silicon Motion anticipe un démarrage sensiblement supérieur au saisonnier, porté par un carnet de commandes déjà constitué et la montée en puissance des nouveaux produits sur l’ensemble des lignes, y compris l’entreprise et l’automobile.

La combinaison d’un ramp PCIe 5 sur 4 canaux, d’une position renforcée en eMMC/UFS et d’entrées chez un fabricant de GPU pour des boot drives place l’entreprise en situation de capter la demande SSD client et embarqué. Si les prix NAND restent volatils, l’élargissement du mix et la traction automobile/entreprise offrent un levier de marge et de visibilité supplémentaires en 2026.

Source : TechPowerUp

Intern‑S1‑Pro : modèle scientifique open source 1T params, MoE et SAGE détaillés

Par :Wael.K
4 février 2026 à 19:51

Le Shanghai AI Laboratory a dévoilé le 4 février Intern‑S1‑Pro, un grand modèle scientifique multimodal open source affichant 1 000 milliards de paramètres au total. L’équipe revendique le plus grand modèle scientifique open source du moment et met en avant une montée nette des capacités cœur en mathématiques, en raisonnement logique avancé et en agents orientés flux de recherche, avec des résultats de premier plan sur les benchmarks AI4S.

Tableau comparatif des performances de modèles scientifiques multi-modaux

Intern‑S1‑Pro est bâti sur une architecture Mixture of Experts avec 512 experts. À l’inférence, le routage n’active que 8 experts, soit 22 milliards de paramètres effectifs par appel. Le laboratoire indique avoir co‑entraîné compétences générales et scientifiques, et revendique deux percées d’architecture au socle SAGE : introduction d’un encodage de position de type Fourier couplé à un encodeur temporel reconstruit pour renforcer une « intuition physique » couvrant signaux biologiques et phénomènes cosmologiques ; et un mécanisme de routage optimisé pour franchir les goulots de stabilité et d’efficacité de calcul sur un MoE au trillion de paramètres.

Architecture SAGE, routage et stabilité d’entraînement

Le pilier SAGE sert ici de trame « généraliste‑spécialiste » : la modulation temporelle et l’encodage Fourier visent à mieux lier modalités et échelles physiques, tandis que le routage hiérarchique réduit le coût mémoire et les oscillations de gradients typiques des très grands MoE. Le laboratoire affirme avoir verrouillé la robustesse de l’entraînement à très grande échelle sur base de calcul domestique, validant la chaîne complète de l’architecture au déploiement open source.

Côté usages, le modèle cible des tâches scientifiques multimodales et des agents capables d’orchestrer des étapes de recherche réelles. Le positionnement est explicite : rester dans le premier peloton open source pour les workflows scientifiques, tout en gardant un budget d’inférence contenu grâce à l’activation partielle des experts.

Ressources et disponibilité

Une instance en ligne est disponible : chat.intern-ai.org.cn. Le code et les poids sont proposés sur GitHub, HuggingFace et ModelScope. Aucune tarification n’est mentionnée, l’annonce s’inscrivant dans une logique d’ouverture pour la recherche et l’ingénierie d’AGI orientée sciences.

Si les chiffres d’échelle sont marquants, l’intérêt concret repose sur l’équilibre entre spécialisation scientifique et coût effectif d’inférence du MoE. Dans un paysage où les modèles fermés dominent sur certaines tâches de raisonnement, la diffusion d’un 1T param. open source orienté science pourrait accélérer la reproductibilité et les benchmarks d’agents scientifiques, à condition que les jeux de tests et les pipelines d’évaluation soient publiés avec la même rigueur que l’architecture.

Source : ITHome

❌