↩ Accueil

Vue lecture

84 Go de mémoire GDDR7 pour la Nvidia RTX PRO 6000D

Petit détour vers une carte graphique professionnelle avec la Nvidia RTX PRO 6000D, une carte que l’on ne verra sans doute jamais chez nous. En effet c’est en Chine qu’elle a été observée, et le suffixe « D » laisse en effet supposer qu’elle est destinée au marché chinois où les cartes graphiques sont limitées matériellement par rapport aux modèles globaux.

Nous trouvons sur cette RTX PRO 6000D pas moins de 28 modules de 3 Go de mémoire GDDR7, pour un total de 84 Go de VRAM. Autant dire qu’ici on ne cherche pas à jouer. Cette carte a été pensée pour l’intelligence artificielle, le rendu 3D, les simulations, …
Du côté du processeur ça sera une puce comportant 19968 CUDA cores, répartis sur 156 SMs.

nvidia rtx 6000d pcb
RTX PRO 6000D
nvidia rtx 6000d pcb 2
RTX PRO 6000D 84 Go

Cette RTX PRO 6000D a cependant été castrée par rapport à la version complète, qui comporte elle 24064 CUDA cores et 32 modules de 3 Go pour un total de 96 Go.
Nvidia a également réduit l’interface mémoire de cette version chinoise, avec un bus de 448 bits au lieu de 512 bits pour la version classique.

nvidia rtx 6000 96 go pcb
RTX PRO 6000 96 Go

RTX PRO 6000D, du très lourd en termes de performances, mais bridée pour le marché chinois

Et ce n’est pas tout. Car pour aller encore plus loin dans les limitations de cette carte graphique professionnelle destinée au marché chinois, à priori les fréquences n’atteignent pas les 2600 MHz du modèle d’origine. Le TDP maximal de 600 W aurait également réduit à environ 420 W, mais pour répondre à d’autres critères.

En effet, cette RTX PRO 6000D n’a pas vocation a être installée dans un boîtier PC classique. Il s’agit d’un modèle conçu pour être monté dans un rack. Ce qui fait qu’on ne retrouve pas de ventilateur, mais un système de refroidissement passif. La vidéo du site Bilibili le montre d’ailleurs très bien.

rtx pro 6000 vs rtx pro 6000d
Comparaison entre RTX PRO 6000 et RTX PRO 6000D

Toutes ces restrictions ont un impact sur les performances, avec par exemple une chute en FP32 de 126 TFLOPS à 97,04 TFLOPS.

Aucune idée du tarif, mais au vu de la conjoncture actuelle, nul doute que les tarifs doivent être prohibitifs.

Retrouvez l’actualité hardware ici

  •  

QD‑OLED Penta Tandem : Samsung Display pousse ses dalles moniteurs à 1 300 nits et double la durée de vie

Nouvelle pile organique, nouveaux chiffres qui comptent : 1,3× d’efficacité lumineuse annoncée et une durée de vie doublée. Les moniteurs QD‑OLED grimpent officiellement jusqu’à 1 300 nits en pic à 3 % OPR.

QD‑OLED Penta Tandem, cap sur l’empilement à cinq couches

Samsung Display dépose et généralise la marque QD‑OLED « Penta Tandem » pour désigner une structure d’émission organique à cinq couches dans ses dalles QD‑OLED pour moniteurs et téléviseurs. Le passage de quatre à cinq couches s’accompagne de nouveaux matériaux organiques.

Par rapport aux QD‑OLED quatre couches de l’an dernier, le constructeur annonce 1,3× d’efficacité lumineuse et 2× de durée de vie. Les pics revendiqués atteignent jusqu’à 4 500 nits sur TV et 1 300 nits sur moniteurs, mesurés à 3 % OPR (ratio de pixels effectivement allumés au moment T).

Rappel de contexte technique : QD‑OLED utilise une source OLED bleue et des quantum dots pour convertir la couleur, à la différence des piles RGB OLED classiques ou des filtres colorés. Le « tandem OLED » décrit l’empilement de multiples couches d’émission pour accroître luminance, efficacité et longévité ; la mise en œuvre « Penta » de Samsung porte l’empilement bleu à cinq couches.

Densité de pixels, HDR et feuille de route 2026

Samsung Display met en avant la montée en densité rendue plus complexe par la réduction de l’aire émissive à l’échelle du pixel. La société cite sa dalle moniteur QD‑OLED de 27 pouces UHD (3840×2160) à 160 PPI, présentée comme la seule 27 pouces UHD auto‑émissive produite en volume à ce niveau de densité.

Les panneaux QD‑OLED Penta Tandem sont annoncés compatibles avec les cibles VESA DisplayHDR True Black 500. Samsung Display prévoit un déploiement sur l’ensemble des diagonales durant 2026, à destination de produits phares chez des clients majeurs.

Dans la gamme, on retrouve la dalle 27 pouces UHD de l’an passé, puis des modèles 31,5 pouces UHD et 34 pouces WQHD introduits plus tôt en 2026, avec un 49 pouces Dual QHD (5120×1440) à venir.

Si les valeurs à 3 % OPR reflètent des fenêtres APL faibles typiques des mesures de pic, l’intérêt pour le PC est clair : plus d’enveloppe de luminance pour le HDR en jeu et en création, avec un bénéfice attendu sur la tenue du blanc et la stabilisation de la luminosité en usage mixte.

Source : VideoCardz

  •  

Google DeepMind vise un âge d’or scientifique en 10-15 ans avec l’IA Gemini

Demis Hassabis, tout juste nobélisé en chimie et patron de Google DeepMind, voit poindre un « âge d’or des découvertes » sur 10 à 15 ans, porté par une IA suffisamment mûre pour systématiser la méthode scientifique et attaquer des problèmes rétifs depuis des décennies. Il assume un cycle de transformation heurté d’environ dix ans pour Google, nécessaire selon lui pour absorber la rupture des modèles génératifs et repositionner les produits phares du groupe.

DeepMind aux commandes, cap sur l’IA appliquée à la science

La fusion Google Brain–DeepMind, effective depuis 2023, a recentré les moyens de calcul et le pilotage sous Hassabis. Il parle d’un branchement sur un « moteur central » qui alimente Search, YouTube et les autres piliers produits, avec des cycles d’entraînement massifs sur Gemini en priorité stratégique. Après Gemini 3 et l’outil de génération d’images Nano Banana, Alphabet a gagné environ 65 % en Bourse sur l’année, signe d’un seuil de capacité perçu comme franchi pour l’IA en tant qu’assistant de recherche avancée.

Pour Hassabis, l’enjeu dépasse la productivité logicielle. L’IA doit catalyser une « abondance radicale »: personnalisation des soins, traitements ciblés, espoirs concrets sur de grandes pathologies. Côté énergie, l’espoir est mis sur la découverte de nouveaux matériaux via modèles et simulation, avec des incidences possibles sur la fusion et le rendement solaire, jusqu’à ouvrir des perspectives d’exploration spatiale.

Biologie computationnelle, levier de rupture

AlphaFold a réglé l’énigme du repliement des protéines et prédit plus de 200 millions de structures, désormais exploitées par une communauté de plus de trois millions de chercheurs. Ce socle lui vaut un Nobel de chimie 2024 et installe l’IA comme outil de base en biologie structurale.

Isomorphic Labs, filiale orientée drug discovery, tente de substituer des étapes d’expérimentation par la simulation pour viser un facteur 1 000 sur l’efficacité. Des candidats contre le cancer sont en phase préclinique, avec un passage en clinique visé d’ici la fin de l’année. Le rythme reste soutenu côté direction: seconde plage de travail nocturne et pics d’idéation autour de 1 h du matin, selon l’intéressé.

Un pari industriel sous contrainte de disruption

La montée des IA génératives bouscule le cœur économique de Google fondé sur la recherche d’information. Hassabis n’élude pas l’alternative: « si nous ne nous disruptrons pas nous-mêmes, d’autres le feront ». La consolidation des équipes et du calcul vise à capter le flux de valeur sur les modèles de fondation et leurs verticales scientifiques, tout en amortissant le choc sur Search et la monétisation.

La fenêtre 10–15 ans esquissée reste ambitieuse mais crédible si l’itération modèle–données–compute se maintient et si les verrous de validation clinique et réglementaire ne s’éternisent pas. La trajectoire place Google en position de plate-forme scientifique et thérapeutique autant que de géant publicitaire, avec une prime à ceux qui sauront industrialiser l’IA de manière fiable, traçable et énergétiquement soutenable.

Source : ITHome

  •  

Amazon pousse Kiro en interne et restreint Claude Code, malgré son lien AWS

Selon Business Insider, Amazon pousse en interne son assistant de programmation Kiro et encadre l’usage de solutions tierces comme Claude Code d’Anthropic. Sans approbation formelle, les équipes n’ont plus le droit d’employer Claude Code pour écrire du code ou en production, une consigne apparue dès l’automne dernier dans des directives internes.

Le paradoxe n’a pas échappé aux salariés : Amazon reste un investisseur clé d’Anthropic et promeut ses modèles auprès des clients via AWS, tout en restreignant leur emploi en interne. Kiro, présenté comme prioritaire, repose pourtant sur Claude mais s’intègre plus finement aux outils maison, notamment les services AWS, ce qui sert d’argument à l’IT interne pour rationaliser les flux et la conformité.

Sur les forums internes, des équipes de vente interrogent la crédibilité du discours client si Claude Code n’est pas validé pour un usage quotidien chez Amazon. D’autres pointent un écart de performances perçu entre Claude Code et Kiro, estimant que forcer un outil jugé moins efficace ralentit les cycles de développement.

La ligne officielle privilégie l’outillage propriétaire, soutenu par l’infrastructure AWS et des garde‑fous de sécurité. Mais le terrain réclame une cohérence entre l’offre commerciale et la pratique interne, surtout quand il s’agit de vendre de l’IA générative à des clients exigeant des preuves d’usage réel. Le fait que Kiro s’appuie sur Claude complique encore la frontière entre différenciation produit et verrouillage interne.

Pour Amazon, la bascule vers Kiro vise la maîtrise de la chaîne outillage‑données‑déploiement. Le risque, s’il est mal exécuté, tient à la perception d’un écosystème AWS qui privilégie le « maison » au détriment de la performance pure, alors que la concurrence aligne des assistants de code itératifs et ouverts. La capacité de Kiro à égaler durablement Claude Code sur la qualité et la vitesse de génération décidera en grande partie de l’adhésion des développeurs… et de la crédibilité du discours d’Amazon auprès des clients.

Source : ITHome

  •  

GeForce NOW arrive sur Fire TV avec streaming 1080p60 H.264 et prise en charge manette

Le cloud de NVIDIA s’invite au salon et rend un simple dongle capable de streamer des jeux PC en 1080p60. De quoi ouvrir la porte du jeu sans PC ni console dédiée, pour peu que la connexion suive.

GeForce NOW sur Fire TV : déploiement et specs

NVIDIA étend GeForce NOW aux appareils Amazon Fire TV à l’occasion des six ans du service. L’application est disponible dès maintenant sur Fire TV Stick 4K Max (2e gén.) et Fire TV Stick 4K Plus (2e gén.) sous Fire OS 8.1.6.0 ou ultérieur, ainsi que sur Fire TV Stick 4K Max (1re gén.) sous Fire OS 7.7.1.1 ou ultérieur.

Divers appareils électroniques sur fond de lignes vertes, écrans affichant des jeux.

Le streaming atteint jusqu’à 1080p à 60 fps en H.264, avec vidéo en SDR et audio stéréo. La lecture se fait avec une manette compatible. L’offre s’ajoute aux plateformes déjà supportées, dont PC, Mac, smartphones, navigateurs, smart TV et, plus récemment, Linux.

Catalogue de la semaine et mises à jour

Huit titres rejoignent le service : Disciples: Domination (12 février), REANIMAL (13 février), Kingdom Come: Deliverance (Xbox, Game Pass, 13 février), Capcom Beat ’Em Up Bundle, Capcom Fighting Collection, Mega Man 11, Street Fighter 30th Anniversary Collection et Torment: Tides of Numenera (Steam et Xbox, Game Pass).

NVIDIA met en avant Torment: Tides of Numenera pour illustrer l’intérêt du passage fluide entre appareils, un RPG narratif ancré dans le “Ninth World” où les choix, les dialogues et les compagnons dominent la progression.

Pour les joueurs, l’arrivée sur Fire TV réduit la barrière d’accès au cloud gaming du PC, avec une contrainte claire : 1080p60 en H.264, SDR et stéréo uniquement pour le moment. Reste la perspective d’un élargissement graduel des appareils compatibles au fil des itérations Fire OS et des mises à jour côté client GeForce NOW.

Source : VideoCardz

  •  

Avalue EMX-PTLP Thin Mini-ITX avec Intel Panther Lake H, PCIe 5.0 et 180 TOPS

Une Thin Mini-ITX annoncée pour Q3 2026 promet jusqu’à 180 TOPS et du PCIe 5.0 sur un format de 25 mm de hauteur. De quoi muscler des plateformes IA et d’automation sans revoir l’empreinte mécanique.

Avalue EMX-PTLP : Panther Lake H et PCIe 5.0 au service de l’embarqué

Avalue Technology (TPEx : 3479.TWO) dévoile l’EMX-PTLP, une carte mère Thin Mini-ITX intégrant des Intel Core Ultra (Series 3) Panther Lake H en BGA : Core Ultra 5 322/325 et Core Ultra 7 355/356H/358H. Le positionnement cible l’IA embarquée, l’automatisation industrielle et l’HPC léger.

Vue de dessus de la carte mère Avalue EMX-PTLP montrant les composants internes

La mémoire grimpe à 64 Go via 2 slots DDR5 SoDIMM/CSoDIMM jusqu’à 7200 MHz (non-ECC). La plateforme annonce jusqu’à 180 TOPS d’accélération IA et introduit le PCIe 5.0 pour doubler la bande passante et réduire la latence sur les cartes d’extension.

Côté affichage, jusqu’à quatre écrans indépendants : 1 HDMI, 3 DisplayPort (dont 2 via USB4 Type-C), plus eDP ou LVDS pour la rétrocompatibilité industrielle. Les résolutions montent jusqu’à 8K selon la combinaison de sorties.

Connectivité et stockage taillés pour l’industriel

Le réseau s’appuie sur deux contrôleurs Intel : I226LM 2,5 GbE et I210AT 1 GbE, pensés pour AOI, DCS et synchronisation de robots SCARA. La connectique comprend 2 USB4 (Type-C), 4 USB 3.2 et 3 USB 2.0 via headers, plus cinq ports série RS-232 dont deux configurables en RS-422/485.

Face arrière de la carte mère Avalue EMX-PTLP avec circuit imprimé bleu visible

Le stockage exploite deux M.2 Key M 2280 avec RAID 0/1 pour combiner débit et redondance, même avec des CPU basse conso. Un M.2 Key B 2242/3042/3052 et un M.2 Key E 2230 couvrent modem, Wi-Fi/Bluetooth et extensions ; un slot SIM ou interface SIM FPC facilite la gestion distante.

Un slot PCIe x8 Gen5 permet l’extension haut débit. L’audio repose sur un codec Realtek ALC888S et un ampli TI TPA3113D2PWP (6 W x2). L’alimentation 12–24 V DC et le TPM 2.0 complètent l’orientation industrielle, avec 16 GPIO pour le pilotage temps réel.

Spécifications clés et disponibilité

Format Thin Mini-ITX, USB4 en double (Type-C), quatre sorties indépendantes, double LAN Intel, PCIe 5.0, DDR5 7200 jusqu’à 64 Go et compatibilité eDP/LVDS. La production de masse est prévue au troisième trimestre 2026 pour des déploiements IA et d’automatisation de prochaine génération.

Dans un marché où l’IA embarquée impose des interconnexions rapides et un cycle de vie stable, l’ensemble Panther Lake H + PCIe 5.0 + USB4 et RAID M.2 place l’EMX-PTLP en solution compacte et pérenne pour postes opérateur, vision industrielle haute résolution et passerelles de calcul en périphérie.

Source : TechPowerUp

  •  

OpenAI déploie un ChatGPT interne pour traquer les fuites dans Slack et Docs

Selon The Information, OpenAI a déployé en interne une version personnalisée de ChatGPT pour traquer les fuites. L’outil ingère chaque article de presse portant sur le fonctionnement de l’entreprise, puis croise ces contenus avec des données internes afin d’identifier les vecteurs possibles de divulgation.

D’après les sources citées, la sécurité d’OpenAI alimente ce modèle avec les textes publiés et lui autorise l’analyse de messages Slack, d’e‑mails et de documents déjà rendus publics au sein de l’organisation. L’assistant génère ensuite une liste des personnes ayant eu accès aux informations correspondantes, pour aider l’équipe sécurité à établir des hypothèses. Rien n’indique pour l’heure si cette méthodologie a permis d’identifier des auteurs de fuites.

Un agent interne orienté data et accès applicatifs

Des ingénieurs d’OpenAI ont récemment présenté l’architecture d’un agent interne capable d’exécuter, en langage naturel, des analyses de données complexes et d’accéder à des services comme Slack ou Google Docs. La brique utilisée pour la chasse aux fuites s’inscrit visiblement dans cette logique d’agents outillés, avec des connecteurs vers les systèmes collaboratifs de l’entreprise.

La frontière opérationnelle reste notable : The Information évoque l’exploitation de contenus internes et de canaux identifiés, sans préciser l’étendue des droits effectifs, le périmètre de conservation ni les garde-fous de conformité. OpenAI ne commente pas la performance du dispositif ni sa gouvernance.

Au‑delà du cas OpenAI, la mise en production d’agents capables de corréler presse, messageries et documents renforce un mouvement de fond dans la sécurité d’entreprise : internaliser des assistants dotés d’accès applicatifs fins, capables d’audit rétrospectif et de triage. La bascule ne tient plus tant au modèle qu’à l’orchestration, aux permissions et à la traçabilité, qui deviennent l’enjeu technique et réglementaire central.

Source : ITHome

  •  

ROG Strix Aiolos : boîtier SSD USB 3.2 Gen 2×2 à 20 Gbps avec gestion ROG

Un boîtier portable qui pousse l’USB 3.2 Gen 2×2 à 20 Gbps et ajoute un tableau de bord SSD en temps réel. Les créateurs et joueurs mobiles y voient un outil prêt pour des bibliothèques lourdes.

ROG Strix Aiolos : 20 Gbps, double M.2 et supervision en temps réel

ROG lance le Strix Aiolos, un boîtier SSD externe USB‑C 3.2 Gen 2×2 annonçant jusqu’à 20 Gbps. Il accepte les SSD M.2 NVMe PCIe et SATA aux formats 2242/2260/2280.

Vue du boîtier ROG Strix Aiolos avec SSD partiellement inséré.

La gestion logicielle passe par le ROG SSD Dashboard, une interface dédiée pour le suivi en temps réel du statut, des performances et des métriques clés. Le positionnement vise des transferts de gros médias et des bibliothèques de jeux sans frictions.

Refroidissement bi-couche et protection

Le châssis s’appuie sur un dispositif thermique à deux étages : pad thermique interne haute efficacité pour limiter le throttling et enveloppe externe en silicone liquide injecté, résistante à la chaleur, aux poussières et aux traces. L’objectif est de conserver des débits stables sous charge.

Intérieur du boîtier SSD ROG Strix Aiolos démonté, montrant les composants internes.

La coque reste « cool to the touch » en usage prolongé. Le tout est pensé pour les déplacements et les sessions intensives.

Personnalisation, ergonomie et accessoires

L’Aiolos intègre l’éclairage Aura RGB configurable via une interface web. Le montage est sans outil avec un mécanisme push‑to‑open pour installer ou échanger un SSD rapidement.

Un crochet métallique avec étiquette tissu facilite l’attache et le transport, avec une résistance à la traction annoncée cinq fois supérieure à celle du ROG Strix Arion. S’ajoutent une sangle ROG avec étiquette tissu et un câble tressé pour la durabilité.

Ouverture du boîtier ROG Strix Aiolos avec flèches pour le démontage.

Au-delà du débit de 20 Gbps, l’intérêt réside dans la compatibilité NVMe/SATA et le Dashboard propriétaire, rare sur ce segment. Sur un marché saturé de boîtiers Gen 2×2, ASUS pousse la différenciation par la supervision et le design thermique, un combo pertinent pour les usages nomades exigeants.

Tableau des spécifications techniques du ROG Strix Aiolos ESD-S1W.

Source : TechPowerUp

  •  

GLM-5 (Zhipu AI) grimpe 4e mondial et s’impose SOTA open source sur les agents

Zhiji (Zhipu AI) lance et ouvre GLM-5, un modèle qui grimpe directement à la 4e place mondiale du classement Artificial Analysis, premier parmi les solutions open source. Le fabricant met en avant un passage revendiqué du simple « vibe coding » à une approche d’ingénierie agentique, avec une compréhension plus systémique de la logique logicielle et des scénarios de développement complexes.

Scores open source de référence et positionnement face aux modèles propriétaires

GLM-5 signe des SOTA open source sur plusieurs bancs de test orientés programmation et agents. Sur SWE-bench-Verified et Terminal Bench 2.0, il affiche respectivement 77,8 et 56,2, des scores donnés comme supérieurs à Gemini 3 Pro sur ces métriques précises. Côté agents, il prend la tête sur BrowseComp (recherche en ligne et compréhension), MCP-Atlas (appel d’outils et tâches multi-étapes), τ²-Bench (planification/exécution multi-outils) et Vending Bench 2 (simulation de gestion).

Graphique index d'intelligence artificielle avec diverses plateformes comparées.

Adaptations matérielles et écosystème compute en Chine

Évaluation des performances agentiques LLM entre différents modèles IA.

Sur le volet déploiement, GLM-5 est annoncé comme profondément adapté à une large gamme de plateformes de calcul nationales : Ascend de Huawei, Moore Threads, Cambricon, Kunlunxin, Metax, Enflame et Hygon. L’objectif est de garantir des inférences efficaces et un déploiement stable dans des environnements hétérogènes, un point clé pour les parcs serveurs en Chine où la diversité GPU / NPU s’accentue.

Le constructeur souligne un « Day‑0 » côté Moore Threads pour l’accélération, signe d’une intégration prioritaire dans l’écosystème GPU local. Cette stratégie élargit les options de déploiement hors CUDA, tout en renforçant la compétitivité des alternatives nationales sur des charges agents et code.

Comparaison GLM-4.7 vs GLM-5 vs Claude Opus 4.5 sur divers paramètres.

Au-delà du signal open source, l’empilement d’adaptations sur Ascend, Cambricon et consorts reflète une volonté de sécuriser l’inférence domestique sur des workloads orientés agents et développement logiciel. Dans un contexte de fragmentation des accélérateurs, la capacité à tenir des SOTA open source tout en restant portable sur plusieurs ISA pourrait devenir un différenciateur clef pour les intégrateurs qui arbitrent entre dépendance CUDA, coûts d’adaptation et performances en production.

Source : ITHome

  •  

HBM4 en production de masse chez Samsung : 3,3 To/s par pile, jusqu’à 36 Go

Samsung expédie déjà des HBM4 commerciales alors que l’écosystème GPU attendait encore la bascule. Le coréen revendique la première mise en production de masse et des livraisons clients effectives.

HBM4 : 11,7 Gbps par pin, jusqu’à 3,3 To/s par pile

La HBM4 de Samsung atteint 11,7 Gbps par pin de manière stable, avec un tuning possible à 13 Gbps. Le constructeur chiffre ce débit à +46 % par rapport à un standard 8 Gbps et à 1,22× le maximum de pin speed qu’il attribue à la HBM3E.

Puce Samsung HBM4 sur fond blanc uni, moins contrasté.

Le débit agrégé par pile monte jusqu’à 3,3 To/s, soit 2,7× plus que la HBM3E selon Samsung. Les configurations annoncées couvrent des piles 12 couches de 24 à 36 Go, avec des versions 16 couches jusqu’à 48 Go alignées sur les plannings clients.

Process, efficacité et thermique

La DRAM s’appuie sur le procédé 1c (6e génération 10 nm-class) et un die logique en 4 nm. Le passage de 1 024 à 2 048 I/O est accompagné d’optimisations basse consommation ; Samsung annonce +40 % d’efficacité énergétique, +10 % de résistance thermique et +30 % de dissipation par rapport à la HBM3E.

Puce Samsung HBM4 sur fond doré texturé, éclairage professionnel, contrastes élevés.

La capacité industrielle doit croître rapidement : Samsung prévoit que ses ventes HBM totalisées en 2026 seront plus que triplées par rapport à 2025. Des échantillons HBM4E sont prévus pour le second semestre 2026, et des HBM custom en 2027, selon les spécifications clients.

Adoption côté GPU et accélérateurs

Samsung ne confirme pas le premier client. Côté utilisateurs déclarés de HBM4, NVIDIA intègre la HBM4 dans Rubin, AMD référence la HBM4 (432 Go) pour l’Instinct MI430X. Chez Intel, la HBM4 est associée à la prochaine génération Gaudi (Jaguar Shores), sans fiche technique publique équivalente pour l’instant.

L’avance sur la pin speed et la bande passante par pile change l’équation d’alimentation mémoire des accélérateurs IA haut de gamme. Si les 2 048 I/O et les gains thermiques annoncés se confirment en production, l’intégration côté packaging avancé et l’optimisation du power delivery deviendront les goulots d’étranglement majeurs, plus que la DRAM elle-même.

Source : VideoCardz

  •  

Doubao Seedance 2.0 : génération vidéo multi‑plans avec audio natif intégré

Doubao intègre Seedance 2.0 à son app mobile, au client desktop et au Web. Le modèle de génération vidéo propose des séquences de 5 ou 10 secondes à partir de simples invites, et un mode « vidéo de double » réservé aux utilisateurs vérifiés pour créer leur avatar vidéo.

Synchronisation audio native et narration multi‑plans

Seedance 2.0 aligne image et son d’origine, avec une piste audio générée nativement et des enchaînements multi‑plans cohérents. Le moteur analyse la logique narrative et conserve l’unité des personnages, des éclairages, du style et de l’ambiance sur toute la séquence.

La génération est multimodale et contrôlable : une invite textuelle assortie d’une image de référence suffit à produire une courte vidéo multi‑plans avec bande-son intégrée. Doubao précise que l’upload de photos de personnes réelles comme sujet de référence n’est pas encore pris en charge.

Accès et périmètre fonctionnel

L’entrée « Seedance 2.0 » apparaît dans la boîte de dialogue de l’app Doubao, ainsi que sur la version PC et la version Web. Les clips disponibles sont limités à 5 ou 10 secondes, avec une option « double vidéo » activée après vérification d’identité pour des usages créatifs plus poussés.

Le positionnement met l’accent sur la continuité visuelle inter‑plans et le calage fin de l’audio, deux points sensibles des modèles vidéo grand public. À court terme, l’absence de support des photos de personnes protège le cadre légal et réduit le risque d’abus, mais freinera certains cas d’usage commerciaux autour des avatars réalistes.

Source : ITHome

  •  

IA médicale sous pression : l’outil TruDi lié à une hausse d’incidents graves

Selon une enquête de Reuters relayée le 9 février, l’intégration d’algorithmes d’IA dans le système de navigation chirurgicale TruDi d’Acclarent, utilisé pour la chirurgie des sinus, coïncide avec une flambée des signalements d’incidents. Après trois ans sur le marché et seulement huit défaillances rapportées, la version « augmentée » par l’IA est liée à au moins 100 cas de pannes et d’événements indésirables, soit une hausse de 1150 %.

Graphique montrant la croissance des dispositifs médicaux autorisés utilisant l'IA de 1995 à 2026.

Incidents graves et actions en justice

Les incidents documentés incluent des fuites de liquide céphalo-rachidien, des perforations de la base du crâne, des lésions artérielles majeures et des AVC. Deux cas retiennent particulièrement l’attention : la patiente Erin Ralph accuse TruDi d’avoir induit le chirurgien en erreur en positionnant l’instrumentation près de la carotide, entraînant un caillot puis un AVC. Elle a passé cinq jours en réanimation, a subi une craniectomie partielle et suit encore une rééducation un an après.

Autre dossier, Donna Fernihough a vu sa carotide se rompre en peropératoire, provoquant une hémorragie massive et un nouvel AVC. Les avocats des plaignantes qualifient le système d’IA d’« inconstant, inexact et peu fiable ». Acclarent est accusée d’avoir assoupli ses critères de sécurité pour accélérer la mise sur le marché, avec des objectifs d’exactitude qui auraient été fixés à seulement 80 % pour certaines fonctions.

Un débat plus large sur l’IA médicale

Au-delà de TruDi, d’autres dispositifs d’IA en santé sont interrogés sur leur robustesse. Sonio Detect, dédié à l’analyse d’images fœtales, est pointé pour des erreurs d’identification anatomique. Le moniteur cardiaque implantable Medtronic LINQ est, lui, accusé d’omissions de troubles du rythme ou d’asystolies. Aucun préjudice patient n’a été officiellement rapporté pour ces deux produits à ce stade, mais la fiabilité perçue est déjà entamée.

La séquence révèle un angle mort connu des systèmes d’assistance opératoire dopés à l’IA : la validation clinique en conditions réelles, la mesure d’erreurs de navigation en environnement anatomique variable et la « vérité terrain » des algorithmes face aux artefacts, aux variations de flux et aux écarts de protocole. Les régulateurs vont devoir trancher la ligne de crête entre itérations rapides et garanties minimales de performance, en particulier lorsque la cible d’exactitude affichée frôle explicitement le seuil d’acceptabilité clinique.

Source : ITHome

  •  

MiniMax M2.5 : modèle coding & agentic 10B, 100 TPS face à Claude 4.6

MiniMax lance M2.5, un modèle de programmation présenté comme son nouveau fleuron et conçu nativement pour des usages Agent. La société aligne sa cible face à Claude Opus 4.6, avec la promesse d’un niveau de performance comparable en codage et en orchestration d’agents, et une couverture des cas d’usage PC, applications et développement full-stack.

Fiche technique et positionnement

Le M2.5 revendique un paramétrage « activé » de 10 milliards de paramètres, un choix qui met l’accent sur l’efficience plutôt que sur la course au gigantisme. MiniMax insiste sur une occupation mémoire réduite et un meilleur ratio performance par watt en inférence, avec un débit annoncé à 100 TPS et une latence inférieure aux modèles internationaux de pointe selon l’éditeur.

Le modèle est positionné sur des tâches bureautiques avancées souvent négligées dans les benchmarks publics : traitement poussé d’Excel, recherches approfondies et génération de présentations. MiniMax parle de performances SOTA sur ces volets, tout en mettant en avant des capacités de génération et de refactorisation de code adaptées aux pipelines multi-plateformes.

Cible fonctionnelle : Coding & Agentic

Présenté comme le « premier modèle de production nativement pensé pour les Agents », le M2.5 vise l’exécution outillée et la coordination de chaînes d’outils, plutôt que le simple dialogue. MiniMax promet une intégration fluide dans des environnements PC, applications mobiles et projets cross-plateforme, avec une emphase sur l’automatisation des tâches métiers et la gestion de workflows complexes.

Ce positionnement frontal face à Claude Opus 4.6 sous-entend des ambitions sur les marchés entreprise et développeurs, où la vitesse d’inférence et la capacité à supporter des charges soutenues (débit de 100 TPS) priment autant que la qualité de génération.

Signal marché

À la suite de l’annonce, le cours de MiniMax a progressé en séance de plus de 20 %, portant la capitalisation au-delà de 1 800 milliards HKD. Ce pic reflète l’appétit du marché pour des modèles plus efficients et orientés production, dans un contexte où les coûts d’inférence pèsent sur les déploiements à grande échelle.

Si les chiffres bruts (10B de paramètres, 100 TPS) et la promesse d’un avantage en mémoire et en énergie se confirment sur des bancs indépendants, M2.5 pourrait accélérer la bascule vers des architectures plus compactes optimisées pour l’outillage et l’agentisation, avec un impact direct sur le TCO des intégrateurs et des éditeurs de solutions productives.

Source : ITHome

  •  

Discord alternative : la vérification d’âge propulse les joueurs vers Matrix, Stoat et cie

Basculer tous les comptes existants en mode ado par défaut a déclenché un réflexe immédiat chez les joueurs. Les requêtes “Discord alternative” ont explosé.

Vague de recherches pour une Discord alternative

Google Trends montre un pic brutal le 9 février, dans la foulée de la nouvelle politique de vérification d’âge. Les termes connexes gagnent aussi : Matrix, Root, Stoat (ex-Revolt), Ventrilo et TeamSpeak.

Graphique des tendances de recherche pour

Sur Reddit, un post de r/pcmasterrace appelant à une “vraie alternative à Discord” cumule 16 000 upvotes et plus de 2 000 commentaires. Stoat, open source, concentre une grande partie des recommandations.

Selfie vidéo, pièce d’identité ou modèle d’inférence

Le dispositif impose un mode adolescent par défaut aux comptes non vérifiés. Pour lever ces restrictions, Discord s’appuie sur un modèle d’inférence d’âge, ou demande une vérification via selfie vidéo ou pièce d’identité.

Tableau comparatif des principales requêtes liées à

La réaction tient aussi au contexte : le partenaire de vérification de Discord a connu une fuite en octobre 2025. Les utilisateurs dénoncent un cumul de contraintes et une monétisation jugée agressive.

Matrix, Stoat, Ventrilo, TeamSpeak : des choix par usage

Matrix attire pour le chiffrement et l’architecture fédérée. Stoat progresse côté communautés gaming open source. Ventrilo et TeamSpeak, plus anciens, restent appréciés pour la voix à latence stable et la gestion fine des permissions.

Si le durcissement de Discord se confirme à l’échelle globale début mars 2026, on peut s’attendre à une fragmentation des communautés. Les plateformes capables d’absorber des guildes entières avec des ponts bots/APIs et une modération granulaire pourraient capitaliser rapidement.

Source : TechPowerUp

  •  

Wood Bakeneko65 : clavier mécanique 65 % en bois, vendu à prix d’or par CannonKeys

Un 65 % en bois massif passe en kit à 380 $ et pousse un design simple vers un niveau fini premium. De quoi repositionner le Bakeneko65 sur un segment plus artisanal.

Wood Bakeneko65 : collaboration CannonKeys x Functional.co

CannonKeys propose un Bakeneko65 habillé bois, conçu avec l’atelier seattleite Functional.co. Le kit démarre à 380 $ (environ 355 €) pour un châssis en bois sur-mesure et un PCB, avec lancement en group buy sur le site de CannonKeys annoncé « bientôt ».

Châssis en bois de clavier mécanique avec différentes finitions colorées

Le design reste en tray-mount avec O-rings fournis, plaque FR4 et finition bois Rubio Monocoat Pure 2C avec durcisseur. Le clavier est livré dans une boîte en bois dédiée.

Châssis deux parties, essences et PCB au choix

Le boîtier adopte deux éléments : un outer case en érable (maple) et un inner case faisant office de cadre. L’inner est configurable en maple, walnut, purple heart ou paduak.

Vue latérale du châssis en bois pour clavier mécanique

Tarifs du kit avec PCB filaire : 380 $ pour inner en maple ou walnut, 410 $ pour purple heart ou paduak. L’option sans-fil ajoute 10 $ à chaque configuration. Un PCB filaire ou wireless Bakeneko65 est proposé selon préférence.

Positionnement et intérêt pour les claviers bois

Ce Wood Bakeneko65 cible les amateurs de 65 % recherchant une signature acoustique bois et une finition artisanale, sans changer l’ADN tray-mount du modèle d’origine. Les O-rings et la plaque FR4 devraient maintenir une frappe contrôlée et prévisible malgré le passage au châssis bois.

Source : TechPowerUp

  •  

State of Play février 2026 : 60 minutes d’annonces PS5 le 12 février à 23h

Plus de 60 minutes d’annonces et de gameplay tombent cette semaine, avec un focus PS5 qui mêle studios internes et éditeurs tiers. Timing serré, fenêtre optimale pour caler les sorties de mi-année.

State of Play : format, horaires, diffusion

Sony diffuse un State of Play de plus de 60 minutes ce jeudi 12 février à 23h (11pm CEST), soit 14h PT / 17h ET, et le 13 février à 7h JST. La présentation mettra en avant des jeux tiers et indés à venir sur PS5, ainsi que les dernières nouveautés des équipes PlayStation Studios.

Le live sera accessible sur YouTube et Twitch, avec un flux en anglais et des sous-titres japonais disponibles. Sony indique Tim Turi (Content Communications Manager, SIE) côté communication officielle.

Co-streaming et VOD : attention aux musiques sous licence

Sony prévient que des contenus protégés, notamment des musiques sous licence non contrôlées par PlayStation, peuvent impacter les co-streams et les archives VOD. Pour les créateurs qui comptent publier des récapitulatifs ou des extraits, il est recommandé de couper toute musique protégée afin d’éviter les blocages ou revendications.

Au-delà du rappel légal, la fenêtre de plus d’une heure laisse anticiper un mélange de mises à jour de gameplay et de reveals ciblés sur l’écosystème PS5, avec une place affirmée pour les indés. Les annonces first-party donneront le ton du calendrier interne, tandis que les tiers calibreront la pression concurrentielle avant l’E3-like de mi-année.

Source : TechPowerUp

  •  

Omen Gaming Subscription : HP lance une location de laptops à 49,99 à 129,99 €/mois

Une offre d’abonnement aux PC portables gaming avec contrat de 12 mois, des frais d’annulation élevés et un rachat au prix fixe. HP pousse le modèle locatif sur Omen et Victus, accessoires compris.

Spoiler : ne sortez pas votre carte bancaire tout de suite. L’OMEN Gaming Subscription est actuellement verrouillée sur le territoire américain, avec obligation de résidence US et vérification de crédit TransUnion (score 650 minimum). HP reste muet sur une éventuelle expansion en France ou en Europe, et rien n’indique un lancement prochain de ce côté de l’Atlantique. Pour l’instant, cette formule d’abonnement gaming reste donc un concept à moquer… de loin.

Omen Gaming Subscription : trois paliers, engagement annuel et options de rachat

HP déploie l’Omen Gaming Subscription, une location mensuelle d’ordinateurs portables Omen/Victus et d’accessoires (moniteurs, casques, micros, hubs USB, souris HyperX). L’inscription passe par un soft credit check, renouvelable annuellement avec du nouveau matériel à chaque reconduction. HP inclut un essai de 30 jours et une garantie continue.

Quatre offres d'abonnements Omen Gaming avec divers modèles de laptops et prix.

Trois niveaux sont proposés.

  • À 49,99 €/mois : Victus 15 « Everyday Gaming with Great Performance » avec AMD Ryzen 7 8845HS, 16 Go DDR5-5600, GeForce RTX 4050 Laptop.
  • À 79,99 €/mois : Omen 17 « Immersive Gaming Experiences » avec Ryzen AI 7 350, RTX 5060 8 Go Laptop, 32 Go DDR5-5600, 1 To PCIe.
  • À 129,99 €/mois : Omen Max 16 « High-End Gaming with no Compromises » avec Intel Core Ultra 9 275HX, RTX 5080 16 Go Laptop, 32 Go DDR5-5600, 1 To PCIe.
Tableau comparatif des options d'achat, location et abonnement pour Omen Gaming.

L’engagement minimum est de 12 mois. En cas de résiliation après deux mois d’utilisation avec restitution du matériel, des frais s’appliquent entre 549,99 € et 1 429,99 €. Pour conserver l’appareil, HP facture un montant fixe : 1 199 € pour le Victus 15, 3 299 € pour l’Omen Max 16, indépendamment de l’ancienneté d’abonnement.

Tableau des frais d'annulation et des coûts mensuels de l'abonnement Omen.

Le fonctionnement rappelle le programme All-In des imprimantes HP, démarrant à 7,99 €/mois pour 20 pages avec un engagement de deux ans. La réception en ligne est déjà critique, à l’image des réactions précédentes autour de l’offre Flex PC d’NZXT.

Si vous jouez autant à Valorant qu’à Cyberpunk 2077, l’intérêt du forfait à 129,99€/mois dépend de vos habitudes. Certes, vous obtenez une RTX 5080 Laptop et un Core Ultra 9 275HX récents, mais le budget annuel grimpe vite à plus de 1 500€, sans compter le rachat final élevé. L’abonnement est cohérent pour ceux qui veulent du matériel neuf chaque année, mais attention : rompre le contrat avant terme coûte cher. Notre verdict ? À éviter.

Source : TechPowerUp

  •  

DeepSeek porte sa fenêtre à 1M de tokens et actualise sa base à mai 2025

DeepSeek teste en gris une fenêtre de contexte portée à 1 million de tokens, selon de multiples retours d’utilisateurs ce 11 février. Interrogée, la société confirme ce chiffre aussi bien sur l’app que sur le Web. Pour mémoire, DeepSeek V3.1 avait étendu sa fenêtre à 128 k tokens en août dernier.

Autre changement notable, la base de connaissances hors ligne est actualisée jusqu’en mai 2025 : le modèle parvient à restituer correctement des informations datées d’avril 2025, sans connexion. Le système reste non multimodal : pas d’entrée image, uniquement texte et traitement de la voix.

1M tokens : usages et limites

deepseek 1m fenetre de contexte

Passer de 128 k à 1 M tokens ouvre la voie à des prompts incluant des dépôts de code entiers, des corpus réglementaires volumineux ou des historiques de conversation très longs, avec moins de découpage et de gestion externe du contexte. Reste l’inconnue sur le coût d’inférence, la latence et la politique d’accès : la phase de test en gris suggère une activation progressive et potentiellement restreinte.

Le positionnement reste clair : DeepSeek privilégie l’empilement contextuel et la mise à jour de la mémoire factuelle, sans basculement vers une prise en charge native de la vision. Les annonces récentes autour d’architectures et de modules mémoire propriétaires cadrent avec cette montée en capacité, en attendant d’éventuels détails techniques publics sur l’implémentation et la gestion de l’index interne.

Si la barre du million tient ses promesses en production, l’impact sera immédiat sur les workflows R&D et code audit, où la réduction du pré-processing et des heuristiques de chunking compte autant que la qualité de génération. La concurrence sur les très longues fenêtres s’intensifie, et la question ne sera plus seulement « combien de tokens », mais « à quel coût et avec quelle stabilité de rappel ».

Source : ITHome

  •  

Google bloque les prompts Disney dans Gemini après une mise en demeure

Deux mois après une mise en demeure musclée de Disney, Google a commencé à bloquer les prompts visant ses personnages sous Gemini et certains outils connexes comme Nano Banana, selon Deadline. Là où des requêtes testées en janvier renvoyaient encore des visuels de haute qualité, les mêmes instructions sont désormais filtrées avec un message évoquant des « préoccupations de fournisseurs de contenus tiers ». À noter qu’un contournement subsiste : l’upload d’une image d’un personnage Disney, combiné à un prompt texte, peut encore produire du contenu dérivé.

À l’origine, une lettre de 32 pages signée par l’avocat externe de Disney, David Singer, adressée en décembre à Google. Elle accuse Gemini, Veo et Nano Banana de faciliter à grande échelle la génération d’images protégées (exemples à l’appui, de Dark Vador à Iron Man) et réclame l’arrêt immédiat des usages incriminés, y compris l’entraînement des modèles sur des IP Disney. Le groupe rappelle avoir déjà signalé ses inquiétudes sans constater d’évolution satisfaisante.

Google, de son côté, met en avant une relation « de long terme et mutuellement bénéfique » avec Disney et renvoie à ses mécanismes de contrôle de droits, de Google-extended à YouTube Content ID. La firme assure entraîner ses modèles sur des données publiques issues du web ouvert, tout en laissant aux éditeurs et ayants droit des options de gestion de leurs contenus. Le timing interpelle d’autant plus que Disney a quasi simultanément officialisé un accord d’environ 1 milliard de dollars (environ 927 M€) avec OpenAI pour autoriser l’usage de ses personnages dans Sora, l’app vidéo générative.

Un filtrage plus strict côté Google, une fenêtre contractuelle côté concurrents

Le basculement opéré entre janvier et début février suggère un durcissement ciblé des garde-fous dans les pipelines de génération de Gemini et des outils associés. Techniquement, la différence entre génération ex nihilo et transformation guidée d’une image fournie par l’utilisateur reste un angle mort juridique fréquent, et un point de friction opérationnel pour les filtres d’IP. En pratique, le blocage des prompts texte purs réduit l’exposition immédiate de Google, mais n’éteint pas le risque de contournement.

Sur le plan industriel, l’accord Disney–OpenAI illustre une ligne de partage plus nette entre plateformes acceptant des licences IP coûteuses afin de sécuriser l’offre, et acteurs misant sur des filtres dynamiques adossés à des mécanismes d’opt-out. À court terme, les outils grand public de Google perdent en permissivité graphique, tandis que l’accès sous licence confère à OpenAI un avantage de vitrine sur le contenu brandé. Pour les éditeurs et studios, la tendance conforte la valeur d’accords-cadres et de garde-fous d’ingestion explicites dans les chaînes d’entraînement multimodales.

Source : ITHome

  •  

Musk veut des satellites d’IA depuis la Lune avec mass driver via xAI/SpaceX

Elon Musk pousse xAI sur un terrain plus radical encore : un site industriel lunaire dédié à la fabrication de satellites d’IA, catapultés en orbite via un « lanceur de masse » de type mass driver, afin d’alimenter une capacité de calcul hors normes. Lors d’une réunion interne, il a indiqué que la Lune serait la clé pour doter xAI d’un avantage massif en ressources de calcul, sans détailler de feuille de route concrète.

Cette prise de parole intervient après l’annonce du rapprochement entre xAI et SpaceX pour développer des data centers d’IA en orbite. Le discours élargit désormais l’ambition à une base lunaire, avec à terme une « ville autosuffisante », puis un relais vers Mars et, au-delà, l’exploration interstellaire pour la recherche de vie. Deux ex-cadres de SpaceX rappellent toutefois que la Lune n’était pas jusqu’ici un axe stratégique central de l’entreprise.

SpaceX préparerait par ailleurs une introduction en Bourse, potentiellement dès juin selon des éléments évoqués localement. Musk, qui a fondé SpaceX en 2002 sur l’hypothèse d’une présence humaine multi-planétaire, a récemment multiplié sur X les références à la Lune comme tremplin opérationnel et logistique vers Mars.

Satellites d’IA, mass driver et cap sur la Lune

Le scénario évoqué par Musk conjugue production in situ et lancement par lanceur électromagnétique, ce qui contournerait le coût des vols de ravitaillement depuis la Terre et maximiserait le débit de mise sur orbite. L’idée rejoint des concepts d’ingénierie spatiale connus, rarement sortis du laboratoire faute d’infrastructures et d’énergie en site lunaire. Aucune indication n’a été donnée sur le cycle industriel, l’assemblage des charges utiles ou la couche logicielle d’IA visée.

Sur le volet plateformes, la galaxie SpaceX dispose d’atouts immédiats : cadence de tir, architecture Starship pour le fret lourd, et maîtrise d’une constellation à grande échelle. Reste l’écart entre une ligne d’assemblage lunaire de satellites d’IA et l’état de l’art actuel, qui implique extraction, énergie, robotique autonome et contrôle qualité en environnement lunaire, autant de briques non trivialement industrialisables.

X revendique 600 millions de MAU

Au même moment, Musk affirme que X compte environ 600 millions d’utilisateurs mensuels actifs, un chiffre non vérifié indépendamment. Lors du rachat de Twitter en 2022, la plateforme publiait 237,8 millions d’utilisateurs actifs quotidiens. L’écosystème X/xAI/SpaceX apparaît de plus en plus imbriqué, avec un récit commun autour de l’échelle, de l’autonomie et de l’intégration verticale.

Si Musk parvient à orchestrer un pipeline « Lune → orbite » pour des satellites spécialisés IA, l’avantage compétitif viendrait moins du silicium isolé que de l’intégration bout en bout : fabrication, lancement, réseau et énergie. Les concurrents devront alors répondre sur la densité de calcul orbitale, la latence inter-DC et la supply chain spatiale, un terrain où la barrière à l’entrée est plus réglementaire et industrielle que purement R&D.

Source : ITHome

  •  

Zowie Performance Mode réduit la latence de clic de plus de 3 ms sur les DW

Un simple boot caché, un gain mesurable. Zowie débloque un mode qui fait tomber la latence de clic de plus de 3 ms sur ses souris DW.

Zowie Performance Mode sur les souris DW

Le nouveau firmware des modèles sans fil DW ajoute un Performance Mode activable en maintenant le clic gauche lors de l’allumage. L’objectif est clair : réduire au maximum le délai entre l’action du switch et le report USB.

Interface de téléchargement du firmware Zowie Performance Mode pour souris S2-DW sur site officiel.

Sur une ZA13-DW en polling 4 kHz, AimAdept a mesuré via un testeur Xlat une latence minimale de 0,468 ms, contre 3,898 ms avec l’ancien firmware en « Fast response ». Le gain dépasse donc 3 ms, avec un impact immédiat sur la sensation de réactivité.

Capture d'écran tweet avec instructions d'installation du Zowie Performance Mode et détails de latence.

Mesures, activation et contexte compétitif

L’activation ne nécessite aucun logiciel : maintenir le bouton gauche au power-on suffit. Les premiers retours confirment une amélioration nette de la latence de clic, sans autre changement annoncé côté capteur ou autonomie.

Cette mise à jour intervient peu après la sortie de la Logitech G Pro X2 Superstrike, qui revendique une réduction de 30 ms grâce à des switches inductifs. Zowie répond côté firmware en optimisant la pile entrée/USB, une approche pertinente pour les joueurs qui utilisent déjà des taux d’interrogation élevés.

Le gain de plus de 3 ms sur la latence de clic est significatif, surtout à 4 kHz. Passer d’environ 3,9 ms à moins de 0,5 ms place la ZA13-DW à un niveau de réactivité qui devient perceptible pour les joueurs compétitifs, en particulier en FPS où le délai clic → tir est critique. À ces valeurs, on n’est plus dans l’optimisation marginale mais dans une réduction franche du chemin critique entre le switch et le report USB.

L’approche est aussi intelligente d’un point de vue produit. Zowie choisit une optimisation firmware, sans logiciel résident ni modification matérielle, ce qui colle parfaitement à sa philosophie minimaliste. Le fait que l’activation passe par un simple boot caché évite toute couche logicielle supplémentaire, donc tout risque de latence induite ou de conflit système.

La comparaison avec la Logitech G Pro X2 Superstrike est intéressante, mais elle joue sur un autre terrain. Les switches inductifs promettent des gains bien plus élevés sur le papier, mais au prix d’un changement matériel, d’un positionnement tarifaire différent et d’une dépendance plus forte à l’écosystème. Zowie démontre ici qu’en optimisant la pile entrée/USB, il reste encore beaucoup à gagner sans toucher au hardware.

Dans un contexte 4 kHz, ce type de mise à jour a d’autant plus de sens que chaque milliseconde économisée sur le clic s’additionne aux gains déjà apportés par le polling élevé. Pour les joueurs équipés d’écrans très rapides et sensibles à la chaîne complète de latence, c’est un vrai bonus, gratuit, et immédiatement exploitable.

En résumé, ce n’est pas révolutionnaire au sens marketing, mais techniquement pertinent, mesurable, et parfaitement aligné avec l’usage compétitif visé par la gamme DW.

Source : TechPowerUp

  •  

ChatGPT renforce la recherche approfondie avec viewer plein écran et GPT‑5.2

OpenAI met à jour l’outil de « recherche approfondie » de ChatGPT avec un nouveau mode de visualisation en plein écran, conçu pour parcourir des rapports générés par l’IA, naviguer par sections et accéder rapidement aux sources citées. L’interface peut s’ouvrir dans une fenêtre dédiée avec un sommaire à gauche et la liste des références à droite.

Introduit l’an dernier, ce module permet à ChatGPT d’agréger des informations issues du web pour produire un document structuré sur un sujet donné. La mise à jour apporte un filtrage par domaines et applications partenaires, afin de borner précisément le périmètre de collecte. Les utilisateurs peuvent suivre l’avancement en temps réel, ajuster le cadrage de la recherche en cours de route ou injecter de nouvelles sources avant la finalisation.

Une fois le rapport prêt, le nouveau viewer autorise l’export en Markdown, Word et PDF. OpenAI indique également que l’outil tourne désormais sur GPT‑5.2, itération qui alimente la génération et l’agrégation des contenus consultés.

La disponibilité commence dès aujourd’hui pour les abonnés Plus et Pro. Le récent abonnement ChatGPT Go, ainsi que la version gratuite, recevront progressivement l’actualisation de l’outil de recherche approfondie dans les prochains jours.

Au‑delà du confort de lecture, l’alignement sur GPT‑5.2 et le contrôle fin des sources jouent directement sur la valeur éditoriale des rapports générés. Entre la traçabilité des références et l’export multi‑format, OpenAI encadre mieux un usage professionnel où la vérifiabilité et le cycle d’itération rapide priment sur la simple génération de texte.

Source : ITHome

  •  

Mesa 26.0 arrive avec un gros gain en ray tracing sur Radeon et un socle Vulkan 1.4

Gros coup d’accélérateur sur le ray tracing Radeon côté Linux. Les changements de pipeline RADV dans Mesa 26.0 débloquent des gains concrets en jeu.

Mesa 26.0 : socle API et périmètre de pilotes élargis

Mesa 26.0.0 est disponible comme nouvelle version majeure du stack graphique open source pour Linux et autres environnements, y compris le Windows Subsystem for Linux. Cette mouture consolide la prise en charge de Vulkan 1.4, OpenGL 4.6, OpenGL ES 3.2 et OpenCL 3.0.

Le calendrier officiel pointe une sortie au 11 février 2026 pour 26.0.0. Mesa 25.3.6 est programmé au 18 février 2026 comme ultime correctif pour la branche 25.3.

I’m happy to announce a new feature release, Mesa 26.0.0!

Mesa is the open source 3D graphics library, which includes implementations of Vulkan 1.4, OpenGL 4.6, OpenGL ES 3.2, OpenCL 3.0, and more APIs.

Since Mesa 25.3, RADV has seen significant raytracing performance improvements.

Its `RADV_DEBUG` environment variable has removed the following deprecated options: invariantgeom, nodynamicbounds, nongg_gs and splitfma. Use the driconf variables radv_invariant_geom, radv_no_dynamic_bounds, radv_disable_ngg_gs, and radv_split_fma instead.

RadeonSI switched to ACO by default for better and faster ISA code generation and better GPU performance and better compile times.

This release also introduces KosmicKrisp, a Vulkan to Metal layered driver for macOS.

Users can expect the usual flurry of improvements across all drivers and components, including these new extensions & features highlighted by their developers (in no particular order):

  • VK_KHR_relaxed_block_layout on pvr
  • VK_KHR_storage_buffer_storage_class on pvr
  • VK_EXT_external_memory_acquire_unmodified on panvk
  • VK_EXT_discard_rectangles on NVK
  • VK_KHR_present_id, VK_KHR_present_id2 on HoneyKrisp
  • VK_KHR_present_wait, VK_KHR_present_wait2 on HoneyKrisp
  • VK_KHR_maintenance10 on ANV, NVK, RADV
  • VK_EXT_shader_uniform_buffer_unsized_array on ANV, HK, NVK, RADV
  • VK_EXT_device_memory_report on panvk
  • VK_VALVE_video_encode_rgb_conversion on radv
  • VK_EXT_custom_resolve on RADV
  • GL_EXT_shader_pixel_local_storage on Panfrost v6+
  • VK_EXT_image_drm_format_modifier on panvk/v7
  • VK_KHR_sampler_ycbcr_conversion on panvk/v7
  • sparseResidencyImage2D on panvk v10+
  • sparseResidencyStandard2DBlockShape on panvk v10+
  • VK_KHR_surface_maintenance1 promotion everywhere EXT is exposed (anv, hk, lvp, nvk, radv, tu, v3dv, vn)
  • VK_KHR_swapchain_maintenance1 promotion everywhere EXT is exposed (anv, hk, lvp, nvk, radv, tu, v3dv, vn)
  • VK_KHR_dynamic_rendering on PowerVR
  • VK_EXT_multisampled_render_to_single_sampled on panvk
  • VK_KHR_pipeline_binary on HoneyKrisp
  • VK_KHR_incremental_present on pvr
  • VK_KHR_xcb_surface on pvr
  • VK_KHR_xlib_surface on pvr
  • VK_KHR_robustness2 promotion everywhere EXT is exposed (panvk v10+, HoneyKrisp, hasvk, NVK, Turnip, lavapipe, venus)
Eric Engestrom

Ray tracing RADV : compilation repensée, perfs en hausse

Le cycle met l’accent sur le ray tracing Vulkan pour AMD Radeon via RADV. Depuis Mesa 25.3, plusieurs optimisations ont été intégrées, avec des contributions liées aux travaux Linux de Valve. Natalie Vock a détaillé en janvier les changements de compilation RT dans Mesa 26.0 : passage à de vrais appels de fonctions et désinlining d’éléments shader auparavant fusionnés.

Sur son parcours de test, Ghostwire Tokyo affiche des passes RT plus de 2× rapides. L’impact exact varie selon jeux, shaders et GPU, mais la direction est claire pour RADV.

Vulkan 1.4 et mises à jour pilotes multi-vendeurs

Au-delà d’AMD, Mesa 26.0 aligne une longue liste d’ajouts Vulkan sur plusieurs GPU. Des fonctionnalités jusqu’ici optionnelles basculent en standard quand le support était déjà présent. Intel ANV, NVIDIA NVK et AMD RADV reçoivent des mises à jour de maintenance, avec côté RADV une option de custom resolve et, pour NVK, la prise en charge des discard rectangles.

Côté plateformes, « KosmicKrisp » fait son entrée comme couche Vulkan‑to‑Metal pour macOS. Sur mobile, les pilotes Qualcomm Adreno, PowerVR et PanVK évoluent, avec des correctifs liés au HDR.

La publication amont fournit tarball source et signature sur l’archive du projet. La majorité des utilisateurs recevront Mesa 26.0 via les mises à jour classiques des distributions.

Pour le jeu sous Linux, le combo Vulkan 1.4 et les gains RT de RADV devraient surtout profiter aux titres récents et aux moteurs à pipelines RT complexes. Les studios qui ciblent Proton et Steam Deck/PC Linux auront intérêt à réévaluer leurs profils de shaders et les chemins de compilation RT avec cette 26.0.

Source : VideoCardz

  •  

Intel Arc B390 : 12x de perf et 8x d’efficacité vs Gen9, bond générationnel mesuré

Dix ans d’iGPU Intel aboutissent à un saut net : les mesures récentes placent la dernière génération très loin devant les UHD Gen9 de 2016, avec un impact direct sur les usages GPU sans dGPU.

Intel Arc B390 : 12x de performance, 8x par watt

Phoronix a comparé une décennie d’iGPU Intel, du Gen9 « Kaby Lake » (UHD Graphics 620) au récent Arc B390 en Xe3 de « Panther Lake ». Résultat : un gain géométrique de 11,97x en performance et un +8x en performance par watt entre le 14 nm FinFET et TSMC N3E.

Graphique comparatif des performances Intel Xe3 Arc B390 vs Gen9 Skylake

Le panel de tests couvre les modèles haut de gamme Core/Utra : Core i7‑8550U « Kaby Lake », i7‑8565U « Whiskey Lake », i7‑1065G7 « Ice Lake », i7‑1185G7 « Tiger Lake », i7‑1280P « Alder Lake », Core Ultra 7 155H « Meteor Lake », Core Ultra 7 258V « Lunar Lake » et Core Ultra X7 358H « Panther Lake ».

Sur la consommation, « Lunar Lake » reste le plus sobre avec 13,82 W en moyenne (36,97 W max). « Panther Lake » monte à 26,86 W en moyenne (55,59 W max) pour un score quasi doublé, signe d’une meilleure densité et d’un rendement accru par watt malgré une enveloppe plus large.

Graphique de la consommation énergétique des CPU Intel Xe3 Arc B390

L’Arc B390 en Xe3 se détache grâce au passage de nœuds et aux optimisations architecturales récentes. Les mesures agrégées par Phoronix confirment une progression continue, avec une accélération nette sur les deux dernières générations.

Contexte de test et chiffres clés

La moyenne géométrique des benchmarks agrégés affiche 11,97x de mieux entre Gen9 et Xe3 B390. L’efficacité grimpe de 8x, aidée par TSMC N3E et un meilleur travail par watt. Entre « Lunar Lake » (13,82 W moy.) et « Panther Lake » (26,86 W moy.), le second délivre près du double de performance pour un pic de 55,59 W.

Pour les portables sans dGPU, ce palier place enfin l’iGPU Intel dans une zone crédible pour des charges graphiques soutenues et des workloads GPGPU légers, avec une marge d’efficacité qui dépendra surtout de la gestion des limites de puissance par châssis.

Source : TechPowerUp

  •  
❌