↩ Accueil

Vue normale

AMD openSIL arrive sur AM5 grand public via Coreboot, cap sur Zen 6 en 2026-2027

Par :Wael.K
13 février 2026 à 00:42

Un boot réussi d’une carte mère MSI B850 sous Coreboot et openSIL met AM5 dans la boucle, tandis qu’AMD prépare la bascule d’AGESA vers openSIL à l’horizon Zen 6. Les serveurs ouvrent la voie, le desktop suit pas à pas.

openSIL vise Zen 6 et s’invite sur AM5 via Coreboot

AMD prévoit de publier les sources openSIL pour les EPYC « Venice » basés sur Zen 6 en 2026, avec un objectif de remplacement progressif d’AGESA. L’implémentation openSIL la plus avancée côté Zen 5 concerne aujourd’hui les EPYC 9005 « Turin ».

Logo d'AMD openSIL en noir et blanc

Dans ce contexte, 3mdeb a mené une expérimentation sur desktop AM5 : « enabling AMD AM5 ‘Phoenix’ support in Coreboot » sur une MSI PRO B850-P. Le statut actuel est « just enough to boot », preuve de faisabilité mais encore loin d’un usage production.

Écran montrant le processus de démarrage Linux avec services système

Le billet détaille une complexité côté PSP : sur AM5 desktop, un même répertoire PSP peut couvrir plusieurs familles CPU, là où les plateformes serveurs utilisent un répertoire distinct par famille. Il faut donc distinguer correctement les répertoires PSP et les CPU supportés.

Graphisme Zen 6 avec texte sur l'architecture

Prochaine étape annoncée par 3mdeb : ajouter un support de base pour différencier les Phoenix desktop des Phoenix mobiles dans Coreboot, socle nécessaire pour gérer les écarts entre SoC/APU. Le projet reste un Proof of Concept, non destiné à la production.

Serveur en tête : EPYC Turin et SEV-SNP validés

Financé par NLnet, 3mdeb a déjà porté openSIL/Coreboot sur la Gigabyte MZ33-AR1, avec une démonstration publique d’attestation SEV-SNP d’un invité sur EPYC Turin initialisé par Coreboot + AMD openSIL. La pile sécurité côté serveur est donc opérationnelle.

La transposition au desktop révèle les écarts d’architecture firmware entre segments. Les images combinées AM5 et la multiplicité CPU côté PSP allongent la chaîne d’intégration, mais les premiers boots sur B850 confirment l’alignement progressif avec la feuille de route openSIL.

Impact pour les cartes mères AM5

Si AMD tient l’échéance Zen 6 en 2026 et un déploiement élargi en première moitié 2027, les OEM pourront viser une pile d’initialisation unifiée et auditable. Côté desktop, l’arrivée d’un support Coreboot/openSIL sur des modèles grand public comme la MSI PRO B850-P ouvrirait la voie à des BIOS plus légers, une validation sécurité plus transparente et, potentiellement, des cycles de mise à jour plus courts.

Source : TechPowerUp

Razer BlackShark V3 pour Xbox White Edition : nouvelle finition, mêmes performances

Par :Wael.K
13 février 2026 à 00:40

Un casque orienté compétition gagne une déclinaison blanche soignée, sans toucher à l’acoustique ni à la latence. L’objectif est clair : élargir le choix sans diluer les performances.

BlackShark V3 pour Xbox : finition blanche, spécifications inchangées

Razer ajoute une White Edition à son BlackShark V3 pour Xbox. Le châssis conserve l’ergonomie et l’isolation plébiscitées, avec une exécution blanche homogène sur métaux, plastiques et textiles, travaillée pour la durabilité et une teinte uniforme.

Vue avant du casque Razer BlackShark V3 pour Xbox White Edition

La silhouette reste identique au modèle existant, pensée performance en priorité. Le parti pris esthétique ne modifie ni la réponse des transducteurs ni l’architecture micro.

Connectivité et audio

La liaison s’appuie sur Razer HyperSpeed Wireless Gen‑2, annoncée à très faible latence avec un plancher à 10 ms. La compatibilité est large : Xbox en priorité, mais aussi 2,4 GHz, Bluetooth, USB‑A filaire ou jack 3,5 mm pour d’autres appareils.

Casque Razer BlackShark V3 pour Xbox White Edition avec micro visible

Les drivers Razer TriForce Titanium 50 mm visent des aigus plus clairs, des médiums plus présents et des graves fermes pour une meilleure précision spatiale en jeu. Le micro détachable HyperClear Super Wideband de 9,9 mm cible une voix naturelle et lisible pour le shotcall.

L’arceau et les coussinets sont conçus pour de longues sessions sur console, avec une priorité au confort prolongé. La White Edition n’ajoute pas de fonction, elle peaufine la présentation sans compromis sur le comportement en partie classée.

Vue latérale du casque Razer BlackShark V3 pour Xbox White Edition

Sur un segment où les références multiplient les éditions limitées, ce coloris élargit l’offre sans fragmenter la gamme. Les joueurs Xbox disposent ainsi d’un choix esthétique supplémentaire tout en conservant la pile technique éprouvée : HyperSpeed Gen‑2 à 10 ms, micro large bande 9,9 mm et transducteurs 50 mm TriForce Titanium.

Casque Razer BlackShark V3 White Edition en position de profil

Source : TechPowerUp

Seedance 2.0 : génération vidéo multimodale, API fin février chez Volcengine

Par :Wael.K
13 février 2026 à 00:39

Volcengine a mis en ligne Seedance 2.0 sur l’Ark Experience Center, avec une ouverture API annoncée pour la seconde moitié de février.

Cette version du modèle de génération vidéo « Doubao » bascule sur une architecture de génération audio-vidéo multimodale et accepte quatre types d’entrées: texte, image, audio, vidéo.

L’éditeur promet une nette montée en qualité par rapport à la 1.5, en particulier sur les scènes à forte dynamique et sur les interactions complexes, avec une meilleure fidélité physique et une exécution plus contrôlable.

Multimodalité poussée et référence de contenus

Seedance 2.0 gère jusqu’à 9 images, 3 vidéos et 3 pistes audio en référence, pour des sorties de 15 s au maximum. Les références image verrouillent finement sujet, éléments et décor, jusqu’à la restitution de la composition et des détails de personnages. Côté vidéo, le modèle réplique langage de cadrage, mouvements de caméra, actions complexes et effets sonores, transformant des actifs existants (packshot produit, spot publicitaire, musique de marque, personnages) en matériaux de départ cohérents.

This was a 2 line prompt in seedance 2. If the hollywood is cooked guys are right maybe the hollywood is cooked guys are cooked too idk. pic.twitter.com/dNTyLUIwAV

— Ruairi Robinson (@RuairiRobinson) February 11, 2026

Le moteur accepte des combinaisons mixtes. Exemple donné: images d’environnement et de personnages couplées à une chanson générée par un modèle musical pour produire un clip, avec synchronisation précise du chant et des percussions à l’image. Seedance 2.0 ajoute par ailleurs des capacités d’édition: modification ciblée d’un plan, d’un rôle, d’un geste ou d’un segment narratif, et fonction d’extension de vidéo pour enchaîner des plans « en continu » selon les indications de l’utilisateur.

Godzilla vs King Kong.

Hollywood is so cooked.

Seedance 2.0 is the beginning of the new era of AI filmmaking. pic.twitter.com/yj5X4Dxn0n

— Heisenberg (@rovvmut_) February 12, 2026

Fidélité physique, suivi d’instructions et cas d’usage

La restitution visuelle gagne en réalisme, avec des trajectoires conformes aux lois physiques et une tenue meilleure en multi-sujets. Les exemples citent des séquences sportives où la cinématique respecte gravité, inertie et biomécanique. Le modèle se montre également plus discipliné sur les prompts longs, conserve l’identité des sujets et peut planifier une grammaire de plans de manière autonome, jusqu’à exécuter des scripts complexes (styles, effets, mouvements de caméra, séquences temporelles) comme un long plan en style encre, du décollage à l’atterrissage après survol des nuages et rase-mottes sur l’eau.

Volcengine présente cette itération comme un levier de réduction de coûts et de délais pour la production audio-vidéo professionnelle, en substitution partielle d’effets complexes et de tournages. Les secteurs visés vont de l’e-commerce à la publicité, en passant par la création ciné/TV, les formats courts et l’éducation en ligne.

Disponibilité

Seedance 2.0 est accessible dès aujourd’hui sur le centre d’expérience Ark, avec une bibliothèque de médias intégrée et des prompts modèles pour accélérer la prise en main. L’API est annoncée pour un lancement en ligne à la fin février, sans tarif communiqué à ce stade.

Pour l’écosystème IA vidéo, l’approche « référence multimodale d’actifs existants » est stratégiquement clé: elle réduit la friction d’adoption en entreprise en exploitant directement les bibliothèques internes et elle répond aux contraintes de brand safety via un meilleur contrôle stylistique et narratif. Si les gains de fidélité physique et de stabilité se confirment en production, la bascule de la prévisualisation vers des livrables finaux deviendra concrète sur des segments où 15 secondes suffisent, notamment le social et la publicité.

Source : ITHome

Anthropic financera la hausse d’électricité liée à l’IA pour protéger les ménages

Par :Wael.K
13 février 2026 à 00:22

Anthropic a annoncé le 11 février qu’il prendrait à sa charge la part de hausse des tarifs d’électricité imputable à ses data centers, en réponse à l’explosion attendue de la demande énergétique pour l’entraînement de modèles IA de pointe.

La société estime que l’apprentissage des prochaines générations de modèles frôlera des besoins au niveau du gigawatt, et que l’IA aux États-Unis pourrait réclamer au moins 50 GW de capacité dans les prochaines années. Cette montée en puissance implique un déploiement massif de centres de données et, mécaniquement, des tensions sur le réseau qui se répercutent sur les factures des ménages via les coûts d’infrastructure et l’effet offre-demande.

Quatre leviers financiers et industriels

Anthropic s’engage à financer les renforcements de réseau nécessaires au-delà du tarif de base, en réglant les dépenses d’upgrade de l’infrastructure électrique. L’entreprise prévoit aussi d’acheter de nouvelles capacités de production d’énergie pour couvrir la consommation de ses sites, plutôt que de puiser davantage dans l’existant.

Le plan inclut des investissements dans des systèmes de délestage et des outils d’optimisation du réseau pour limiter les pics et réduire la pression sur la distribution. Enfin, la société promet d’investir localement autour de ses implantations, avec des emplois directs et un soutien élargi aux communautés d’accueil.

Anthropic indique en parallèle étudier comment compenser l’impact tarifaire de ses charges de travail lorsqu’elle loue de la capacité dans des data centers tiers, un point sensible à mesure que les opérateurs multiplient les extensions de sites et les conversions de baies à haute densité.

Contexte sectoriel

Cette position fait écho aux annonces récentes de Microsoft, qui dit vouloir assumer intégralement le coût de l’électricité liée à l’IA et refuser les exonérations fiscales locales pour ses projets. La pression sur les réseaux s’intensifie avec la généralisation de baies GPU à très forte densité, l’augmentation des puissances unitaires par rack et des besoins en watercooling, qui imposent des renforcements lourds côté transport et distribution.

Si ces engagements se traduisent contractuellement avec les utilities et les régulateurs, ils pourraient accélérer l’ajout de nouvelles capacités de production et stabiliser les tarifs grand public. La question clé reste la temporalité: la mise en service de GW de capacité électrique prend des années, alors que la demande des clusters IA grimpe trimestre après trimestre.

Source : ITHome

Xbox Dev Summit : « next generation » détaillée le 11 mars à la GDC 2026

Par :Wael.K
13 février 2026 à 00:13

La GDC 2026 servira de rampe pour une session « next generation » portée par Xbox, avec un rendez-vous calé au 11 mars. Les équipes de Microsoft promettent un aperçu concret de ce qui attend les développeurs, et donc les joueurs.

Xbox Dev Summit : cap sur la « next generation » le 11 mars

Organisée au Moscone Convention Center de San Francisco du 9 au 13 mars, la GDC 2026 accueillera pour la première fois le Xbox Dev Summit, avec six sessions sponsorisées. Le coup d’envoi est prévu le mercredi 11 mars à 10 h 10 avec Jason Ronald, VP of Next Gen, dans le West Hall Room 3001/3003.

Affiche du Festival of Gaming à San Francisco, mars 2026

Microsoft met en avant des outils et services destinés à accélérer le time-to-market, abaisser les barrières techniques et élargir la portée des jeux sur tous les appareils. Les équipes d’Xbox, Windows, Activision, Bethesda, Blizzard et King interviendront, avec des contenus adaptés autant aux indépendants qu’aux studios établis.

Console portable ROG avec écran affichant Xbox Game Pass

Sur place, le Xbox Lounge (Moscone South Lobby) proposera un parcours retraçant 25 ans d’histoire Xbox, des rencontres avec des experts techniques et des informations pratiques pour préparer les prochains projets. Les visiteurs pourront également s’inscrire à une newsletter communautaire.

Xbox Series X, écran Samsung et appareils mobiles avec interface Xbox

Pour ceux qui suivront à distance, Microsoft oriente vers le Game Development Resource Hub et un hub dédié GDC 2026. Microsoft Gaming sponsorisera par ailleurs des événements comme les IGF Awards et l’ESA Foundation’s Nite to Unite.

Agenda et enjeux pour les développeurs

La programmation complète des sessions Microsoft Gaming est disponible via le portail officiel. Les échanges mettront l’accent sur le développement multi‑device, la distribution et la réduction des frictions techniques, avec un fil rouge clair : préparer la prochaine phase de l’écosystème Xbox côté outils, pipelines et publication.

Le positionnement de Jason Ronald en ouverture, en qualité de VP of Next Gen, laisse attendre des orientations produit utiles pour les roadmaps internes des studios, sans garantie de spécifications publiques immédiates. Les partenaires tiers présents (Activision, Bethesda, Blizzard, King) cadrent une approche intégrée des workflows sur PC et console, avec un focus prévisible sur la portabilité et l’accès à de larges bases de joueurs.

Dans un contexte de cycles matériels plus longs et d’outillage unifié PC/console, cette séquence GDC peut donner le ton côté SDK, services et exigences de certification, éléments qui conditionnent indirectement les performances perçues et la qualité des sorties day one. Les studios attentifs aux gains de productivité et à la couverture cross‑platform y trouveront des signaux concrets pour stabiliser leurs plannings 2026–2027.

Source : TechPowerUp

Blades of Fire arrive sur Steam le 14 mai avec la Version 2.0 et une démo jouable

Par :Wael.K
13 février 2026 à 00:08

Un action-RPG exigeant gagne une seconde vie sur PC, et il n’arrive pas les mains vides. Entre une Version 2.0 riche en contenu et une démo dont la progression sera conservée, le terrain est préparé.

Blades of Fire sur Steam le 14 mai, démo disponible

505 Games et MercurySteam datent l’arrivée de Blades of Fire sur Steam au 14 mai 2026. Une démo jouable est disponible dès maintenant, intégrée au Steam Next Fest, avec plusieurs heures de jeu et la possibilité d’affronter un troll géant. La progression de la démo sera transférée vers la version finale au lancement.

Combat dans une cathédrale entre un chevalier et un adversaire en armure.

On y incarne Aran de Lira, dernier forgeron capable de travailler l’acier véritable dans un monde où le métal se pétrifie. La boucle de gameplay met l’accent sur la patience, le choix des matériaux et la lisibilité des timings : les armes sont forgées avec intention et marquées de manière permanente par les décisions du joueur, tandis que le combat reste lourd, méthodique et punitif.

Version 2.0 : contenu, qualité de vie et DLSS 4

La sortie Steam inclut la Version 2.0, mise à jour gratuite le 14 mai, plus l’Adventurer Pack, l’Artbook et la bande originale signée Óscar Araujo. Côté contenu : New Game Plus, niveau de défi Titanium, nouvelles pièces et skins d’armes (exclusifs au New Game Plus), transmutation d’éléments pour changer les types de matériaux, mode Photo, Boss Revival Mode avec récompenses, et sorts d’Adso appliqués aux armes pour enrichir les effets en combat. On peut même caresser le bœuf.

Forgeron manipulant une épée incandescente sur une enclume.

Améliorations notables : variations étendues de morts et mutilations, transitions d’animation revues, et NVIDIA DLSS 4 pour l’upscaling. Autres ajouts : remappage complet des touches clavier/souris, nouveaux Succès, et prise en charge Steam Deck.

Blades of Fire : un portage PC qui coche les cases clés

L’ensemble dessine un lancement PC solide : transfert de sauvegarde depuis la démo, NG+ à la sortie, mode Boss Revival pour grinder des récompenses, et DLSS 4 pour tenir des fréquences stables sur GPU NVIDIA. Le support natif Steam Deck élargit l’usage mobile, tandis que la transmutation d’éléments et les sorts d’armes devraient nourrir la méta de craft à long terme.

Deux personnages affrontant un géant vert dans un environnement rocheux.

Pour un titre centré sur la maîtrise des timings et l’itération d’armes, l’équilibre entre nouveaux modes, QoL et optimisation technique est pertinent : de quoi capter à la fois les curieux via la démo et les joueurs engagés via NG+ et Titanium, sans sacrifier les performances grâce au DLSS 4.

Source : TechPowerUp

Corsair change l’emballage des Vengeance DDR5 pour contrer les retours frauduleux

Par :Wael.K
12 février 2026 à 23:23

La flambée du DRAM ravive les arnaques au retour. Corsair resserre les boulons sur Vengeance DDR5 avec un packaging scellé et vérifiable d’un coup d’œil.

Nouvelle coque scellée pour Corsair Vengeance DDR5

Les kits Vengeance DDR5 2 modules basculent d’une boîte carton vers une coque plastique scellée, en plastique recyclé, avec protection ESD intégrée. Sont concernés les modèles non-RGB, RGB et RGB RS.

La coque transparente permet de visualiser les barrettes avant ouverture. Une étiquette « belly label » inviolable se déchire dès l’ouverture, rendant toute tentative de reconditionnement visible.

Corsair cible explicitement deux vecteurs de fraude : le retour de modules non authentiques et la substitution par des Light Enhancement Kits présentés comme de la RAM opérationnelle.

Déploiement progressif et étiquetage renforcé

Certaines références DRAM restent provisoirement en carton. Elles recevront un étiquetage de sécurité actualisé le temps que le déploiement des coques scellées s’étende.

Selon les SKU et les régions, les acheteurs verront coexister anciens et nouveaux packagings durant la transition. Objectif affiché : protéger clients et revendeurs face à la montée des retours « dummy » liée à la pression sur les prix DRAM.

Ce verrouillage en amont limite les échanges litigieux et devrait accélérer la vérification en magasin. Sur un segment DDR5 encore sensible aux marges, réduire la fraude soulage la chaîne retail sans pénaliser l’expérience d’achat grâce à la visibilité directe des modules.

Source : VideoCardz

Test MSI RTX 5090 Lightning Z : +10 % devant la Founders Edition, mais à 5 300 €

Par :Wael.K
12 février 2026 à 21:20

MSI vient de repousser les limites avec la RTX 5090 Lightning Z, un monstre de puissance 1 vendu à un prix qui dépasse l’entendement.

Cette nouvelle carte signée MSI, vient d’être testée par TechPowerUp. Verdict : c’est la RTX 5090 la plus rapide jamais conçue, avec un gain de 10 % sur la Founders Edition. Mais à 5 300 € et seulement 1 300 exemplaires dans le monde, elle redéfinit la notion de carte graphique haut de gamme.

Après des mois de rumeurs et une présentation remarquée au CES 2026, la MSI RTX 5090 Lightning Z est enfin passée entre les mains de W1zzard, le fondateur de TechPowerUp, l’un des testeurs les plus respectés de l’industrie. Le verdict est clair : trois badges d’un coup : Editor’s Choice, Innovation et But Expensive. Difficile de mieux résumer cette carte.

Une RTX 5090 Ti qui ne dit pas son nom

Le chiffre qui retient l’attention, c’est ce gain de +10 % en performances brutes par rapport à la RTX 5090 Founders Edition, sans ray tracing ni DLSS. Pour une carte basée sur le même GPU GB202, c’est considérable. À titre de comparaison, la plupart des RTX 5090 custom ne dépassent pas 2 à 4 % de gain sur la FE. Même l’ASUS ROG Astral Liquid, pourtant très haut de gamme, plafonne à +5 %. L’ASUS ROG Matrix, son principal concurrent à 4 400 €, atteint +8 à 9 %.

Écran d'affichage avec statistiques de performance de la MSI RTX 5090 Lightning Z.

W1zzard le dit lui-même : on est dans le territoire d’une hypothétique RTX 5090 Ti. Et ce n’est pas qu’une question de fréquence. Pour atteindre ce résultat, MSI a combiné plusieurs éléments. D’abord, un overclock usine massif de +323 MHz portant le boost à 2 730 MHz, soit 13 % au-dessus de la référence NVIDIA. Ensuite, une limite de puissance par défaut de 800 W au lieu de 600 W. Et enfin, un refroidissement AIO 360 mm capable de maintenir des températures suffisamment basses pour que l’algorithme NVIDIA Boost exploite pleinement sa marge.

Par rapport à la RTX 4090 de génération précédente, le gain atteint presque 50 %. Et face à la RX 9070 XT d’AMD, le flagship actuel de la concurrence, la Lightning Z est tout simplement plus de deux fois plus rapide.

Design et construction : du sérieux à tous les étages

La Lightning Z ne ressemble à aucune autre carte graphique. La face avant est dominée par l’écran LCD de 8 pouces sous une vitre, tandis que l’arrière arbore un backplate métal avec un insert en fibre de carbone. L’ensemble pèse 2 955 g pour la carte seule, et 4 094 g avec le radiateur — on est clairement dans la catégorie poids lourd. Les dimensions restent relativement contenues : 26 x 15 cm pour la carte, qui occupe trois slots en largeur (60 mm). Fait intéressant, elle est légèrement plus courte que la Founders Edition, mais un peu plus haute.

Carte graphique MSI GeForce RTX™ 5090 32G LIGHTNING Z box 01
Carte graphique MSI GeForce RTX™ 5090 32G LIGHTNING Z box 02
Carte graphique MSI GeForce RTX™ 5090 32G LIGHTNING Z box 03
Carte graphique MSI GeForce RTX™ 5090 32G LIGHTNING Z box 04
Carte graphique MSI GeForce RTX™ 5090 32G LIGHTNING Z box 05

Côté connectique, MSI propose trois DisplayPort 2.1b et deux HDMI 2.1b, plus un port USB-C dédié à l’alimentation de l’écran intégré (à relier à la carte mère via le câble USB-C vers USB-A fourni). Le packaging est à la mesure du produit : une énorme boîte qui s’ouvre de manière spectaculaire pour révéler la carte, accompagnée de ses accessoires dans des boîtes séparées.

cooler1

Le démontage, analysé en détail par W1zzard, révèle une conception soignée. Le waterblock couvre non seulement le GPU, mais fait aussi un contact direct avec la mémoire et le VRM, ce qui explique en partie les excellentes températures. La pompe intégrée tourne en permanence, MSI justifie ce choix par le risque de surchauffe si une charge de 1 000 W survient alors que la pompe est à l’arrêt, le délai de démarrage moteur étant trop long. En idle, elle tourne à bas régime et accélère quand les ventilateurs du radiateur dépassent 1 000 RPM. Le switch de BIOS (OC 800 W / Extreme 1 000 W) est malheureusement un peu difficile d’accès une fois la carte installée, même si un outil est fourni.

Le refroidissement de la MSI RTX 5090 Lightning Z, véritable point fort

C’est peut-être l’aspect le plus impressionnant de cette carte. En mode 800 W par défaut, la Lightning Z n’émet que 29 dBA en pleine charge. C’est plus silencieux que la quasi-totalité des RTX 5090 testées à ce jour, y compris des modèles consommant bien moins.

Carte graphique MSI GeForce RTX™ 5090 32G LIGHTNING Z cooler 01

Dans le test normalisé à 35 dBA de TechPowerUp, le refroidissement de la Lightning Z affiche 31 °C de moins que la Founders Edition, 15 °C de moins qu’une « bonne » RTX 5090 custom, et même 5 °C de moins que les modèles watercoolés premium. En mode 1 000 W (BIOS Extreme), le bruit monte à 36 dBA, ce qui reste inférieur à la FE en utilisation normale.

radiator1

La solution repose sur un waterblock full cuivre couvrant GPU, VRM et mémoire, relié à un radiateur 360 mm équipé de trois ventilateurs haute performance. L’ensemble est proprement intégré : pas de câbles de ventilateurs à brancher sur la carte mère, contrairement à certains concurrents. On branche les deux connecteurs 16 broches et c’est parti.

Double alimentation 16 broches et VRM 33 phases

La Lightning Z est l’une des très rares RTX 5090 à embarquer deux connecteurs 12V-2×6. Chaque connecteur gère 500 W en mode 1 000 W, soit 100 W de moins que ce que subit un connecteur unique sur une RTX 5090 standard. Cela réduit considérablement le risque de surchauffe des connecteurs, un problème récurrent sur les cartes à forte consommation.

front

Le VRM se compose de 33 phases (40 phases selon certaines sources MSI incluant les phases mémoire), alimentées par un PCB 14 couches en cuivre 3 oz. MSI annonce une capacité de 1 000 W en continu, et un BIOS XOC à 2 500 W pour l’overclocking sous azote liquide. Ce dernier a déjà permis d’atteindre 3 742 MHz sous LN2, battant 17 records mondiaux avant même le lancement commercial.

back

L’overclocking au rendez-vous

Au-delà de l’overclock usine déjà conséquent, TechPowerUp a obtenu +6,5 % de gain supplémentaire en overclocking manuel. En ajoutant le contrôle de tension via MSI Afterburner, le gain monte encore de 1 à 2 %, faisant de la Lightning Z la RTX 5090 la plus rapide après overclocking, sans contestation.

Carte graphique MSI GeForce RTX™ 5090 32G LIGHTNING Z vue ensemble

Seul bémol : NVIDIA limite artificiellement l’overclocking mémoire GDDR7 à +375 MHz via le driver, une restriction inhabituelle qui bride le potentiel de la carte sur cet aspect.

Consommation et alimentation requise

En mode par défaut (800 W), la carte consomme 38 % de plus que la Founders Edition. Le mode Extreme à 1 000 W n’apporte qu’environ 1 % de performances en plus, mais permet d’encaisser des pics de consommation lors de charges brèves sans throttling.

Carte graphique MSI GeForce RTX™ 5090 32G LIGHTNING Z rgb demo

W1zzard recommande une alimentation de 1 000 W minimum, et 1 200 W si vous prévoyez d’utiliser le BIOS Extreme, voire davantage avec un processeur gourmand. Un point important : la consommation au repos et en lecture vidéo reste élevée, un défaut partagé avec la plupart des RTX 5090.

Écran LCD 8 pouces et finition premium

Carte graphique MSI GeForce RTX™ 5090 32G LIGHTNING Z lcd

MSI intègre un écran LCD de 8 pouces sur la face de la carte, qui apparaît comme un moniteur secondaire dans Windows. Via MSI Afterburner et Lightning Hub, il peut afficher des statistiques en temps réel, du contenu personnalisé, ou toute information souhaitée. La carte est numérotée individuellement, et la qualité de fabrication est saluée par tous les testeurs : châssis métal, fibre de carbone, tubing gainé.

5 300 Euros : pour qui ?

Le prix est évidemment le point de friction. À 5 300 €, on est à 2,5 fois le MSRP de la RTX 5090 standard. Mais comme le souligne W1zzard, la RTX 5090 ne se trouve pas à son MSRP de 2 099 € : le prix réel sur le marché tourne autour de 3 000 € actuellement. L’écart réel est donc d’environ +80 % pour obtenir la meilleure carte du marché.

MSI GeForce RTX 5090 LIGHTNING 1300

Et encore faut-il pouvoir l’acheter. MSI ne produit que 1 300 unités dans le monde, chacune numérotée. Aux États-Unis, l’achat passe par un tirage au sort sur le site MSI. Taïwan n’a reçu que 100 unités. Au Royaume-Uni, les rares exemplaires sont apparus à 4 999 £ chez Scan et Overclockers. En Inde, certains revendeurs l’affichent déjà à plus de 9 000 $. Pour la France, aucune information officielle concernant l’allocation à ce stade, mais TopAchat, groupe LDLC, l’a déjà référencé à 5 299,99 €.

GeForce RTX 5090 32G LIGHTNING Z box

Face à elle, l’ASUS ROG Matrix Platinum RTX 5090 à 4 400 € offre des performances similaires (+8-10 %), mais sous forme air cooling sans radiateur additionnel, ce qui la rend plus compatible avec davantage de boîtiers. C’est le principal concurrent direct avant l’arrive de la AORUS GeForce RTX 5090 INFINITY 32G.

Ce qu’il faut retenir

La MSI RTX 5090 Lightning Z est objectivement la carte graphique gaming la plus performante jamais fabriquée. Le gain de 10 % sur la FE, le refroidissement exceptionnel et les capacités d’overclocking en font un produit d’ingénierie remarquable. Mais à plus de 5 000 $ pour 1 300 exemplaires, c’est un objet de collection autant qu’une carte graphique.

MSI GeForce RTX 5090 Lightning Z
Crédit image : TechPowerUp

Pour les joueurs qui cherchent simplement la meilleure expérience en 4K, W1zzard rappelle que la RTX 5090 standard fait déjà le travail, et que le gameplay reste identique quel que soit le modèle choisi. L’écart se mesure en FPS, pas en plaisir de jeu. Les prochains GPU NVIDIA ne sont d’ailleurs pas attendus avant 2027 voire 2028, ce qui laisse à la RTX 5090 et à cette Lightning Z le temps de régner.


Source : TechPowerUp – Test complet par W1zzard. Crédits images : TechPowerUp / MSI.

AMD décroche un Lumiere Award pour ses EPYC Zen 5 et Threadripper Pro

Par :Wael.K
12 février 2026 à 20:25

Un poste de travail de 2005 mettrait 131 ans à rendre Toy Story 5 ; aujourd’hui, c’est l’affaire de quelques heures. La distinction décernée à AMD acte ce saut de génération dans les pipelines de production.

AMD EPYC et Threadripper Pro salués par l’AIS

Le 9 février 2026, l’Advanced Imaging Society a remis à AMD un Production Technology Lumiere Award pour ses processeurs serveur EPYC basés sur Zen 5 et ses stations Ryzen Threadripper Pro. Evan Jacobs, vice‑président de l’AIS chez Marvel Studios, a illustré l’écart de performance en rappelant qu’un poste de 2005 exigerait 131 ans pour rendre Toy Story 5, là où l’architecture actuelle permet d’y parvenir en quelques heures.

Deux processeurs AMD Threadripper et Threadripper Pro sur fond orange.

Avec jusqu’à 192 cœurs sur EPYC et jusqu’à 96 cœurs sur Threadripper Pro, ces plateformes offrent une densité de calcul élevée, un fort débit et une efficacité énergétique mise en avant par AMD. Objectif concret : consolider des workloads lourds, accélérer l’itération créative et sécuriser les plannings de production.

Processeur AMD EPYC sur design de circuit intégré sur fond bleu.

Rendu temps réel, simulations complexes et IA

Les studios migrent vers des nœuds compute denses et sobres pour le rendu temps réel, les simulations volumétriques et des workflows dopés à l’IA. Les plateformes EPYC et Threadripper Pro soutiennent ce virage en fournissant la capacité CPU nécessaire aux étapes critiques des pipelines VFX et animation, sans compromis côté direction artistique.

La remise a réuni des responsables AMD clés : Kumaran Siva (CVP, Enterprise AI), John Canning (Director, Strategic Partnerships — M&E), Jack Huynh (SVP/GM, Computing and Graphics Group), Raghu Nambiar (CVP, SW Solutions Engineering) et Herman Nakamura (Director, Enterprise AI). L’AIS, soutenue par Disney, Warner Bros Discovery, HBO, Lucasfilm, Pixar, Sony, Amazon Prime et Universal, distingue chaque année les contributions technologiques marquantes aux plus grands films et séries.

Ce prix valide la stratégie d’AMD sur le CPU hautement multithreadé en post‑production, au moment où la part du rendu et des simulations CPU reste critique malgré la montée du GPU et de l’IA générative. Pour les studios, la combinaison densité/efficacité énergétique devient un critère d’achat structurant, tant pour le rendu batch en ferme que pour les stations créatives locales.

Source : TechPowerUp

Microsoft veut des modèles IA maison pour réduire sa dépendance à OpenAI

Par :Wael.K
12 février 2026 à 20:23

Microsoft veut diminuer sa dépendance à OpenAI en internalisant des modèles de pointe et en sécurisant sa chaîne d’entraînement de bout en bout. Mustafa Suleyman, patron de l’IA chez Microsoft, évoque une stratégie « d’autosuffisance réelle » rendue plus urgente par la réorganisation du partenariat avec OpenAI en octobre, qui a élargi la latitude de chaque partie… et le risque de concurrence frontale.

Le groupe rappelle disposer d’une capacité de calcul au niveau du gigawatt et d’équipes d’entraînement parmi les plus aguerries, et injecte massivement du capital dans les données: collecte, nettoyage, gouvernance, tout ce qui conditionne la qualité d’un modèle fondation haut de gamme. L’objectif est clair: mettre sur le marché des modèles maison dès cette année, sans renoncer pour autant aux accords existants avec OpenAI.

Partenariat redessiné, terrain de jeu élargi

Microsoft reste l’investisseur historique majeur d’OpenAI et conserve un droit d’usage sur des modèles avancés jusqu’en 2032, tout en gardant une participation valorisée 135 milliards de dollars. En face, OpenAI gagne en liberté sur le financement et les infrastructures, de quoi pousser plus fort… y compris hors de l’ombre d’Azure si nécessaire.

Pour lisser le risque, Redmond multiplie les options: tickets chez Anthropic et Mistral, et accélération de ses propres modèles. La communication est volontairement minimaliste sur l’architecture et les jeux de données, mais le calendrier est posé pour 2026 fiscal, avec un capex annoncé de 140 milliards de dollars jusqu’en juin pour muscler data centers, réseaux et GPU/ASIC d’entraînement.

Signal-prix et discours de contrôle

Malgré l’euphorie IA, le titre Microsoft a reculé de plus de 13 % sur un mois, signe que le marché scrute le point d’inflexion entre dépenses et monétisation. Suleyman parie sur un rattrapage à cinq ans, misant sur la conversion des usages Copilot/verticalisés en revenus récurrents.

Microsoft pousse en parallèle des cas d’usage sensibles, notamment la santé, avec l’ambition d’un « super-intelligent médical ». L’éditeur revendique déjà des scores supérieurs à ceux de praticiens sur certaines tâches de diagnostic, en enrobant le tout d’un credo de « super-intelligence humaniste »: systèmes subordonnés, contrôlables et encadrés avant déploiement en conditions réelles.

Ce que cela change concrètement

La bascule vers l’autosuffisance n’est pas qu’un message aux investisseurs: c’est une manœuvre d’intégration verticale pour sécuriser données, compute et talent, réduire la prime payée aux partenaires modèles et mieux aligner l’IA sur les priorités produits d’Azure et Windows. Si Microsoft tient le calendrier, le rapport de force avec OpenAI s’équilibrera, et la compétition pour capter les workloads d’entraînement et d’inférence sur Azure pourrait s’intensifier, avec à la clé des gains de marge si les modèles maison atteignent l’état de l’art.

Source : ITHome

Huano Nuo : des switchs optiques débarquent dans une souris gaming d’entrée de gamme

Par :Wael.K
12 février 2026 à 20:23

Huano, fabricant reconnu pour ses switches abordables destinés aux claviers et aux souris, semble vouloir monter en gamme avec son nouveau switch optique Huano Nuo. Celui-ci a récemment été aperçu dans une vidéo de test publiée sur Bilibili, consacrée à la souris gaming Xinmeng Zero 1 Pro, proposée à un prix particulièrement attractif d’environ 5 euros.

Huano Nuo dans la Xinmeng Zero 1 Pro

Le modèle Xinmeng Zero 1 Pro repéré en vidéo sur Bilibili intègre les nouveaux switchs optiques Huano Nuo. Jusqu’ici, hors Razer et Logitech, l’optique se limitait surtout aux offres Kailh et Omron sur le marché grand public.

Circuit imprimé de souris avec roue de défilement et batterie visible.

D’après une fiche technique partagée par @PhalangesCo sur X, les Huano Nuo affichent une durée de vie annoncée de 100 millions de clics. C’est supérieur à nombre de références mécaniques Huano, et au niveau des options déjà vues sur des souris performantes d’entrée de gamme.

Le prix est le point saillant : RMB 39, soit environ 5 €. À ce tarif, l’intégration de l’optique suggère une montée en volume rapide vers d’autres modèles abordables destinés aux marchés internationaux.

Tableau comparatif des caractéristiques techniques des souris Xinmeng ZERO1.

Durabilité et latence à bas coût

L’intérêt des switchs optiques reste double : latence réduite et absence de rebond électrique, avec une usure mécanique limitée. Voir ces caractéristiques arriver sur un produit hyper-budget élargit l’accès à des clics plus propres sans surcoût marqué.

Si Huano confirme l’approvisionnement à grande échelle, les fabricants de souris low-cost pourraient rapidement s’aligner pour proposer des clics plus fiables au long cours. La pression concurrentielle sur Kailh et Omron devrait s’intensifier sur ce segment tarifaire.

Source : TechPowerUp

Clair Obscur: Expedition 33 – Un artbook saisi en Irak, vérification patrimoniale en cours

Par :Wael.K
12 février 2026 à 20:14

Un colis collector a déclenché une procédure patrimoniale en Irak. L’artbook inclus a été isolé pour expertise, avec un délai annoncé de 1 à 2 semaines.

Clair Obscur: Expedition 33 saisi pour vérification culturelle

Un utilisateur Reddit en Irak, Ahmed15252, affirme que sa commande collector de Clair Obscur: Expedition 33 a été retenue par les douanes. Les documents joints mentionnent un « art book avec dessins de valeur monétaire » et un transfert du dossier vers le ministère de la Culture et des Antiquités, zone de Diwaniyah.

Selon l’auteur des posts, le livre a été envoyé à un comité technique de musée pour vérification. Le retour annoncé serait de 1 à 2 semaines avant restitution potentielle.

Document officiel irakien texte flou avec sceau en filigrane, mauvais éclairage

Plusieurs commentaires relèvent que les papiers ne qualifient pas explicitement l’objet d’antiquité. La procédure ressemble à un contrôle standard des biens culturels plutôt qu’à une suspicion d’artefact ancien.

Contenu de l’édition et objet concerné

L’ouvrage visé semble être The Expeditioner’s Journal. Le site officiel décrit un artbook cartonné de 48 pages inclus dans le « Monolith Set », avec une statuette carillon en résine de 20,3 cm, un Steelbook et un boîtier premium.

Lettre officielle irakienne texte flou avec sceau, contraste faible, lumière réfléchie

Le caractère récent du livre rend l’anachronisme évident. Reste que la présentation et la valeur déclarée suffisent parfois à déclencher un contrôle renforcé dans certains points d’entrée.

Procédure et contexte local

La saisine par Diwaniyah illustre un cadrage administratif strict autour des œuvres à valeur culturelle. Dans ces cas, l’expertise par un comité rattaché à un musée sert d’arbitre avant libération ou mesures complémentaires.

Source : VideoCardz

84 Go de mémoire GDDR7 pour la Nvidia RTX PRO 6000D

12 février 2026 à 18:18

Petit détour vers une carte graphique professionnelle avec la Nvidia RTX PRO 6000D, une carte que l’on ne verra sans doute jamais chez nous. En effet c’est en Chine qu’elle a été observée, et le suffixe « D » laisse en effet supposer qu’elle est destinée au marché chinois où les cartes graphiques sont limitées matériellement par rapport aux modèles globaux.

Nous trouvons sur cette RTX PRO 6000D pas moins de 28 modules de 3 Go de mémoire GDDR7, pour un total de 84 Go de VRAM. Autant dire qu’ici on ne cherche pas à jouer. Cette carte a été pensée pour l’intelligence artificielle, le rendu 3D, les simulations, …
Du côté du processeur ça sera une puce comportant 19968 CUDA cores, répartis sur 156 SMs.

nvidia rtx 6000d pcb
RTX PRO 6000D
nvidia rtx 6000d pcb 2
RTX PRO 6000D 84 Go

Cette RTX PRO 6000D a cependant été castrée par rapport à la version complète, qui comporte elle 24064 CUDA cores et 32 modules de 3 Go pour un total de 96 Go.
Nvidia a également réduit l’interface mémoire de cette version chinoise, avec un bus de 448 bits au lieu de 512 bits pour la version classique.

nvidia rtx 6000 96 go pcb
RTX PRO 6000 96 Go

RTX PRO 6000D, du très lourd en termes de performances, mais bridée pour le marché chinois

Et ce n’est pas tout. Car pour aller encore plus loin dans les limitations de cette carte graphique professionnelle destinée au marché chinois, à priori les fréquences n’atteignent pas les 2600 MHz du modèle d’origine. Le TDP maximal de 600 W aurait également réduit à environ 420 W, mais pour répondre à d’autres critères.

En effet, cette RTX PRO 6000D n’a pas vocation a être installée dans un boîtier PC classique. Il s’agit d’un modèle conçu pour être monté dans un rack. Ce qui fait qu’on ne retrouve pas de ventilateur, mais un système de refroidissement passif. La vidéo du site Bilibili le montre d’ailleurs très bien.

rtx pro 6000 vs rtx pro 6000d
Comparaison entre RTX PRO 6000 et RTX PRO 6000D

Toutes ces restrictions ont un impact sur les performances, avec par exemple une chute en FP32 de 126 TFLOPS à 97,04 TFLOPS.

Aucune idée du tarif, mais au vu de la conjoncture actuelle, nul doute que les tarifs doivent être prohibitifs.

Retrouvez l’actualité hardware ici

QD‑OLED Penta Tandem : Samsung Display pousse ses dalles moniteurs à 1 300 nits et double la durée de vie

Par :Wael.K
12 février 2026 à 17:44

Nouvelle pile organique, nouveaux chiffres qui comptent : 1,3× d’efficacité lumineuse annoncée et une durée de vie doublée. Les moniteurs QD‑OLED grimpent officiellement jusqu’à 1 300 nits en pic à 3 % OPR.

QD‑OLED Penta Tandem, cap sur l’empilement à cinq couches

Samsung Display dépose et généralise la marque QD‑OLED « Penta Tandem » pour désigner une structure d’émission organique à cinq couches dans ses dalles QD‑OLED pour moniteurs et téléviseurs. Le passage de quatre à cinq couches s’accompagne de nouveaux matériaux organiques.

Par rapport aux QD‑OLED quatre couches de l’an dernier, le constructeur annonce 1,3× d’efficacité lumineuse et 2× de durée de vie. Les pics revendiqués atteignent jusqu’à 4 500 nits sur TV et 1 300 nits sur moniteurs, mesurés à 3 % OPR (ratio de pixels effectivement allumés au moment T).

Rappel de contexte technique : QD‑OLED utilise une source OLED bleue et des quantum dots pour convertir la couleur, à la différence des piles RGB OLED classiques ou des filtres colorés. Le « tandem OLED » décrit l’empilement de multiples couches d’émission pour accroître luminance, efficacité et longévité ; la mise en œuvre « Penta » de Samsung porte l’empilement bleu à cinq couches.

Densité de pixels, HDR et feuille de route 2026

Samsung Display met en avant la montée en densité rendue plus complexe par la réduction de l’aire émissive à l’échelle du pixel. La société cite sa dalle moniteur QD‑OLED de 27 pouces UHD (3840×2160) à 160 PPI, présentée comme la seule 27 pouces UHD auto‑émissive produite en volume à ce niveau de densité.

Les panneaux QD‑OLED Penta Tandem sont annoncés compatibles avec les cibles VESA DisplayHDR True Black 500. Samsung Display prévoit un déploiement sur l’ensemble des diagonales durant 2026, à destination de produits phares chez des clients majeurs.

Dans la gamme, on retrouve la dalle 27 pouces UHD de l’an passé, puis des modèles 31,5 pouces UHD et 34 pouces WQHD introduits plus tôt en 2026, avec un 49 pouces Dual QHD (5120×1440) à venir.

Si les valeurs à 3 % OPR reflètent des fenêtres APL faibles typiques des mesures de pic, l’intérêt pour le PC est clair : plus d’enveloppe de luminance pour le HDR en jeu et en création, avec un bénéfice attendu sur la tenue du blanc et la stabilisation de la luminosité en usage mixte.

Source : VideoCardz

Google DeepMind vise un âge d’or scientifique en 10-15 ans avec l’IA Gemini

Par :Wael.K
12 février 2026 à 16:26

Demis Hassabis, tout juste nobélisé en chimie et patron de Google DeepMind, voit poindre un « âge d’or des découvertes » sur 10 à 15 ans, porté par une IA suffisamment mûre pour systématiser la méthode scientifique et attaquer des problèmes rétifs depuis des décennies. Il assume un cycle de transformation heurté d’environ dix ans pour Google, nécessaire selon lui pour absorber la rupture des modèles génératifs et repositionner les produits phares du groupe.

DeepMind aux commandes, cap sur l’IA appliquée à la science

La fusion Google Brain–DeepMind, effective depuis 2023, a recentré les moyens de calcul et le pilotage sous Hassabis. Il parle d’un branchement sur un « moteur central » qui alimente Search, YouTube et les autres piliers produits, avec des cycles d’entraînement massifs sur Gemini en priorité stratégique. Après Gemini 3 et l’outil de génération d’images Nano Banana, Alphabet a gagné environ 65 % en Bourse sur l’année, signe d’un seuil de capacité perçu comme franchi pour l’IA en tant qu’assistant de recherche avancée.

Pour Hassabis, l’enjeu dépasse la productivité logicielle. L’IA doit catalyser une « abondance radicale »: personnalisation des soins, traitements ciblés, espoirs concrets sur de grandes pathologies. Côté énergie, l’espoir est mis sur la découverte de nouveaux matériaux via modèles et simulation, avec des incidences possibles sur la fusion et le rendement solaire, jusqu’à ouvrir des perspectives d’exploration spatiale.

Biologie computationnelle, levier de rupture

AlphaFold a réglé l’énigme du repliement des protéines et prédit plus de 200 millions de structures, désormais exploitées par une communauté de plus de trois millions de chercheurs. Ce socle lui vaut un Nobel de chimie 2024 et installe l’IA comme outil de base en biologie structurale.

Isomorphic Labs, filiale orientée drug discovery, tente de substituer des étapes d’expérimentation par la simulation pour viser un facteur 1 000 sur l’efficacité. Des candidats contre le cancer sont en phase préclinique, avec un passage en clinique visé d’ici la fin de l’année. Le rythme reste soutenu côté direction: seconde plage de travail nocturne et pics d’idéation autour de 1 h du matin, selon l’intéressé.

Un pari industriel sous contrainte de disruption

La montée des IA génératives bouscule le cœur économique de Google fondé sur la recherche d’information. Hassabis n’élude pas l’alternative: « si nous ne nous disruptrons pas nous-mêmes, d’autres le feront ». La consolidation des équipes et du calcul vise à capter le flux de valeur sur les modèles de fondation et leurs verticales scientifiques, tout en amortissant le choc sur Search et la monétisation.

La fenêtre 10–15 ans esquissée reste ambitieuse mais crédible si l’itération modèle–données–compute se maintient et si les verrous de validation clinique et réglementaire ne s’éternisent pas. La trajectoire place Google en position de plate-forme scientifique et thérapeutique autant que de géant publicitaire, avec une prime à ceux qui sauront industrialiser l’IA de manière fiable, traçable et énergétiquement soutenable.

Source : ITHome

Amazon pousse Kiro en interne et restreint Claude Code, malgré son lien AWS

Par :Wael.K
12 février 2026 à 16:25

Selon Business Insider, Amazon pousse en interne son assistant de programmation Kiro et encadre l’usage de solutions tierces comme Claude Code d’Anthropic. Sans approbation formelle, les équipes n’ont plus le droit d’employer Claude Code pour écrire du code ou en production, une consigne apparue dès l’automne dernier dans des directives internes.

Le paradoxe n’a pas échappé aux salariés : Amazon reste un investisseur clé d’Anthropic et promeut ses modèles auprès des clients via AWS, tout en restreignant leur emploi en interne. Kiro, présenté comme prioritaire, repose pourtant sur Claude mais s’intègre plus finement aux outils maison, notamment les services AWS, ce qui sert d’argument à l’IT interne pour rationaliser les flux et la conformité.

Sur les forums internes, des équipes de vente interrogent la crédibilité du discours client si Claude Code n’est pas validé pour un usage quotidien chez Amazon. D’autres pointent un écart de performances perçu entre Claude Code et Kiro, estimant que forcer un outil jugé moins efficace ralentit les cycles de développement.

La ligne officielle privilégie l’outillage propriétaire, soutenu par l’infrastructure AWS et des garde‑fous de sécurité. Mais le terrain réclame une cohérence entre l’offre commerciale et la pratique interne, surtout quand il s’agit de vendre de l’IA générative à des clients exigeant des preuves d’usage réel. Le fait que Kiro s’appuie sur Claude complique encore la frontière entre différenciation produit et verrouillage interne.

Pour Amazon, la bascule vers Kiro vise la maîtrise de la chaîne outillage‑données‑déploiement. Le risque, s’il est mal exécuté, tient à la perception d’un écosystème AWS qui privilégie le « maison » au détriment de la performance pure, alors que la concurrence aligne des assistants de code itératifs et ouverts. La capacité de Kiro à égaler durablement Claude Code sur la qualité et la vitesse de génération décidera en grande partie de l’adhésion des développeurs… et de la crédibilité du discours d’Amazon auprès des clients.

Source : ITHome

GeForce NOW arrive sur Fire TV avec streaming 1080p60 H.264 et prise en charge manette

Par :Wael.K
12 février 2026 à 16:21

Le cloud de NVIDIA s’invite au salon et rend un simple dongle capable de streamer des jeux PC en 1080p60. De quoi ouvrir la porte du jeu sans PC ni console dédiée, pour peu que la connexion suive.

GeForce NOW sur Fire TV : déploiement et specs

NVIDIA étend GeForce NOW aux appareils Amazon Fire TV à l’occasion des six ans du service. L’application est disponible dès maintenant sur Fire TV Stick 4K Max (2e gén.) et Fire TV Stick 4K Plus (2e gén.) sous Fire OS 8.1.6.0 ou ultérieur, ainsi que sur Fire TV Stick 4K Max (1re gén.) sous Fire OS 7.7.1.1 ou ultérieur.

Divers appareils électroniques sur fond de lignes vertes, écrans affichant des jeux.

Le streaming atteint jusqu’à 1080p à 60 fps en H.264, avec vidéo en SDR et audio stéréo. La lecture se fait avec une manette compatible. L’offre s’ajoute aux plateformes déjà supportées, dont PC, Mac, smartphones, navigateurs, smart TV et, plus récemment, Linux.

Catalogue de la semaine et mises à jour

Huit titres rejoignent le service : Disciples: Domination (12 février), REANIMAL (13 février), Kingdom Come: Deliverance (Xbox, Game Pass, 13 février), Capcom Beat ’Em Up Bundle, Capcom Fighting Collection, Mega Man 11, Street Fighter 30th Anniversary Collection et Torment: Tides of Numenera (Steam et Xbox, Game Pass).

NVIDIA met en avant Torment: Tides of Numenera pour illustrer l’intérêt du passage fluide entre appareils, un RPG narratif ancré dans le “Ninth World” où les choix, les dialogues et les compagnons dominent la progression.

Pour les joueurs, l’arrivée sur Fire TV réduit la barrière d’accès au cloud gaming du PC, avec une contrainte claire : 1080p60 en H.264, SDR et stéréo uniquement pour le moment. Reste la perspective d’un élargissement graduel des appareils compatibles au fil des itérations Fire OS et des mises à jour côté client GeForce NOW.

Source : VideoCardz

Avalue EMX-PTLP Thin Mini-ITX avec Intel Panther Lake H, PCIe 5.0 et 180 TOPS

Par :Wael.K
12 février 2026 à 16:20

Une Thin Mini-ITX annoncée pour Q3 2026 promet jusqu’à 180 TOPS et du PCIe 5.0 sur un format de 25 mm de hauteur. De quoi muscler des plateformes IA et d’automation sans revoir l’empreinte mécanique.

Avalue EMX-PTLP : Panther Lake H et PCIe 5.0 au service de l’embarqué

Avalue Technology (TPEx : 3479.TWO) dévoile l’EMX-PTLP, une carte mère Thin Mini-ITX intégrant des Intel Core Ultra (Series 3) Panther Lake H en BGA : Core Ultra 5 322/325 et Core Ultra 7 355/356H/358H. Le positionnement cible l’IA embarquée, l’automatisation industrielle et l’HPC léger.

Vue de dessus de la carte mère Avalue EMX-PTLP montrant les composants internes

La mémoire grimpe à 64 Go via 2 slots DDR5 SoDIMM/CSoDIMM jusqu’à 7200 MHz (non-ECC). La plateforme annonce jusqu’à 180 TOPS d’accélération IA et introduit le PCIe 5.0 pour doubler la bande passante et réduire la latence sur les cartes d’extension.

Côté affichage, jusqu’à quatre écrans indépendants : 1 HDMI, 3 DisplayPort (dont 2 via USB4 Type-C), plus eDP ou LVDS pour la rétrocompatibilité industrielle. Les résolutions montent jusqu’à 8K selon la combinaison de sorties.

Connectivité et stockage taillés pour l’industriel

Le réseau s’appuie sur deux contrôleurs Intel : I226LM 2,5 GbE et I210AT 1 GbE, pensés pour AOI, DCS et synchronisation de robots SCARA. La connectique comprend 2 USB4 (Type-C), 4 USB 3.2 et 3 USB 2.0 via headers, plus cinq ports série RS-232 dont deux configurables en RS-422/485.

Face arrière de la carte mère Avalue EMX-PTLP avec circuit imprimé bleu visible

Le stockage exploite deux M.2 Key M 2280 avec RAID 0/1 pour combiner débit et redondance, même avec des CPU basse conso. Un M.2 Key B 2242/3042/3052 et un M.2 Key E 2230 couvrent modem, Wi-Fi/Bluetooth et extensions ; un slot SIM ou interface SIM FPC facilite la gestion distante.

Un slot PCIe x8 Gen5 permet l’extension haut débit. L’audio repose sur un codec Realtek ALC888S et un ampli TI TPA3113D2PWP (6 W x2). L’alimentation 12–24 V DC et le TPM 2.0 complètent l’orientation industrielle, avec 16 GPIO pour le pilotage temps réel.

Spécifications clés et disponibilité

Format Thin Mini-ITX, USB4 en double (Type-C), quatre sorties indépendantes, double LAN Intel, PCIe 5.0, DDR5 7200 jusqu’à 64 Go et compatibilité eDP/LVDS. La production de masse est prévue au troisième trimestre 2026 pour des déploiements IA et d’automatisation de prochaine génération.

Dans un marché où l’IA embarquée impose des interconnexions rapides et un cycle de vie stable, l’ensemble Panther Lake H + PCIe 5.0 + USB4 et RAID M.2 place l’EMX-PTLP en solution compacte et pérenne pour postes opérateur, vision industrielle haute résolution et passerelles de calcul en périphérie.

Source : TechPowerUp

OpenAI déploie un ChatGPT interne pour traquer les fuites dans Slack et Docs

Par :Wael.K
12 février 2026 à 12:33

Selon The Information, OpenAI a déployé en interne une version personnalisée de ChatGPT pour traquer les fuites. L’outil ingère chaque article de presse portant sur le fonctionnement de l’entreprise, puis croise ces contenus avec des données internes afin d’identifier les vecteurs possibles de divulgation.

D’après les sources citées, la sécurité d’OpenAI alimente ce modèle avec les textes publiés et lui autorise l’analyse de messages Slack, d’e‑mails et de documents déjà rendus publics au sein de l’organisation. L’assistant génère ensuite une liste des personnes ayant eu accès aux informations correspondantes, pour aider l’équipe sécurité à établir des hypothèses. Rien n’indique pour l’heure si cette méthodologie a permis d’identifier des auteurs de fuites.

Un agent interne orienté data et accès applicatifs

Des ingénieurs d’OpenAI ont récemment présenté l’architecture d’un agent interne capable d’exécuter, en langage naturel, des analyses de données complexes et d’accéder à des services comme Slack ou Google Docs. La brique utilisée pour la chasse aux fuites s’inscrit visiblement dans cette logique d’agents outillés, avec des connecteurs vers les systèmes collaboratifs de l’entreprise.

La frontière opérationnelle reste notable : The Information évoque l’exploitation de contenus internes et de canaux identifiés, sans préciser l’étendue des droits effectifs, le périmètre de conservation ni les garde-fous de conformité. OpenAI ne commente pas la performance du dispositif ni sa gouvernance.

Au‑delà du cas OpenAI, la mise en production d’agents capables de corréler presse, messageries et documents renforce un mouvement de fond dans la sécurité d’entreprise : internaliser des assistants dotés d’accès applicatifs fins, capables d’audit rétrospectif et de triage. La bascule ne tient plus tant au modèle qu’à l’orchestration, aux permissions et à la traçabilité, qui deviennent l’enjeu technique et réglementaire central.

Source : ITHome

ROG Strix Aiolos : boîtier SSD USB 3.2 Gen 2×2 à 20 Gbps avec gestion ROG

Par :Wael.K
12 février 2026 à 10:48

Un boîtier portable qui pousse l’USB 3.2 Gen 2×2 à 20 Gbps et ajoute un tableau de bord SSD en temps réel. Les créateurs et joueurs mobiles y voient un outil prêt pour des bibliothèques lourdes.

ROG Strix Aiolos : 20 Gbps, double M.2 et supervision en temps réel

ROG lance le Strix Aiolos, un boîtier SSD externe USB‑C 3.2 Gen 2×2 annonçant jusqu’à 20 Gbps. Il accepte les SSD M.2 NVMe PCIe et SATA aux formats 2242/2260/2280.

Vue du boîtier ROG Strix Aiolos avec SSD partiellement inséré.

La gestion logicielle passe par le ROG SSD Dashboard, une interface dédiée pour le suivi en temps réel du statut, des performances et des métriques clés. Le positionnement vise des transferts de gros médias et des bibliothèques de jeux sans frictions.

Refroidissement bi-couche et protection

Le châssis s’appuie sur un dispositif thermique à deux étages : pad thermique interne haute efficacité pour limiter le throttling et enveloppe externe en silicone liquide injecté, résistante à la chaleur, aux poussières et aux traces. L’objectif est de conserver des débits stables sous charge.

Intérieur du boîtier SSD ROG Strix Aiolos démonté, montrant les composants internes.

La coque reste « cool to the touch » en usage prolongé. Le tout est pensé pour les déplacements et les sessions intensives.

Personnalisation, ergonomie et accessoires

L’Aiolos intègre l’éclairage Aura RGB configurable via une interface web. Le montage est sans outil avec un mécanisme push‑to‑open pour installer ou échanger un SSD rapidement.

Un crochet métallique avec étiquette tissu facilite l’attache et le transport, avec une résistance à la traction annoncée cinq fois supérieure à celle du ROG Strix Arion. S’ajoutent une sangle ROG avec étiquette tissu et un câble tressé pour la durabilité.

Ouverture du boîtier ROG Strix Aiolos avec flèches pour le démontage.

Au-delà du débit de 20 Gbps, l’intérêt réside dans la compatibilité NVMe/SATA et le Dashboard propriétaire, rare sur ce segment. Sur un marché saturé de boîtiers Gen 2×2, ASUS pousse la différenciation par la supervision et le design thermique, un combo pertinent pour les usages nomades exigeants.

Tableau des spécifications techniques du ROG Strix Aiolos ESD-S1W.

Source : TechPowerUp

GLM-5 (Zhipu AI) grimpe 4e mondial et s’impose SOTA open source sur les agents

Par :Wael.K
12 février 2026 à 10:39

Zhiji (Zhipu AI) lance et ouvre GLM-5, un modèle qui grimpe directement à la 4e place mondiale du classement Artificial Analysis, premier parmi les solutions open source. Le fabricant met en avant un passage revendiqué du simple « vibe coding » à une approche d’ingénierie agentique, avec une compréhension plus systémique de la logique logicielle et des scénarios de développement complexes.

Scores open source de référence et positionnement face aux modèles propriétaires

GLM-5 signe des SOTA open source sur plusieurs bancs de test orientés programmation et agents. Sur SWE-bench-Verified et Terminal Bench 2.0, il affiche respectivement 77,8 et 56,2, des scores donnés comme supérieurs à Gemini 3 Pro sur ces métriques précises. Côté agents, il prend la tête sur BrowseComp (recherche en ligne et compréhension), MCP-Atlas (appel d’outils et tâches multi-étapes), τ²-Bench (planification/exécution multi-outils) et Vending Bench 2 (simulation de gestion).

Graphique index d'intelligence artificielle avec diverses plateformes comparées.

Adaptations matérielles et écosystème compute en Chine

Évaluation des performances agentiques LLM entre différents modèles IA.

Sur le volet déploiement, GLM-5 est annoncé comme profondément adapté à une large gamme de plateformes de calcul nationales : Ascend de Huawei, Moore Threads, Cambricon, Kunlunxin, Metax, Enflame et Hygon. L’objectif est de garantir des inférences efficaces et un déploiement stable dans des environnements hétérogènes, un point clé pour les parcs serveurs en Chine où la diversité GPU / NPU s’accentue.

Le constructeur souligne un « Day‑0 » côté Moore Threads pour l’accélération, signe d’une intégration prioritaire dans l’écosystème GPU local. Cette stratégie élargit les options de déploiement hors CUDA, tout en renforçant la compétitivité des alternatives nationales sur des charges agents et code.

Comparaison GLM-4.7 vs GLM-5 vs Claude Opus 4.5 sur divers paramètres.

Au-delà du signal open source, l’empilement d’adaptations sur Ascend, Cambricon et consorts reflète une volonté de sécuriser l’inférence domestique sur des workloads orientés agents et développement logiciel. Dans un contexte de fragmentation des accélérateurs, la capacité à tenir des SOTA open source tout en restant portable sur plusieurs ISA pourrait devenir un différenciateur clef pour les intégrateurs qui arbitrent entre dépendance CUDA, coûts d’adaptation et performances en production.

Source : ITHome

HBM4 en production de masse chez Samsung : 3,3 To/s par pile, jusqu’à 36 Go

Par :Wael.K
12 février 2026 à 10:38

Samsung expédie déjà des HBM4 commerciales alors que l’écosystème GPU attendait encore la bascule. Le coréen revendique la première mise en production de masse et des livraisons clients effectives.

HBM4 : 11,7 Gbps par pin, jusqu’à 3,3 To/s par pile

La HBM4 de Samsung atteint 11,7 Gbps par pin de manière stable, avec un tuning possible à 13 Gbps. Le constructeur chiffre ce débit à +46 % par rapport à un standard 8 Gbps et à 1,22× le maximum de pin speed qu’il attribue à la HBM3E.

Puce Samsung HBM4 sur fond blanc uni, moins contrasté.

Le débit agrégé par pile monte jusqu’à 3,3 To/s, soit 2,7× plus que la HBM3E selon Samsung. Les configurations annoncées couvrent des piles 12 couches de 24 à 36 Go, avec des versions 16 couches jusqu’à 48 Go alignées sur les plannings clients.

Process, efficacité et thermique

La DRAM s’appuie sur le procédé 1c (6e génération 10 nm-class) et un die logique en 4 nm. Le passage de 1 024 à 2 048 I/O est accompagné d’optimisations basse consommation ; Samsung annonce +40 % d’efficacité énergétique, +10 % de résistance thermique et +30 % de dissipation par rapport à la HBM3E.

Puce Samsung HBM4 sur fond doré texturé, éclairage professionnel, contrastes élevés.

La capacité industrielle doit croître rapidement : Samsung prévoit que ses ventes HBM totalisées en 2026 seront plus que triplées par rapport à 2025. Des échantillons HBM4E sont prévus pour le second semestre 2026, et des HBM custom en 2027, selon les spécifications clients.

Adoption côté GPU et accélérateurs

Samsung ne confirme pas le premier client. Côté utilisateurs déclarés de HBM4, NVIDIA intègre la HBM4 dans Rubin, AMD référence la HBM4 (432 Go) pour l’Instinct MI430X. Chez Intel, la HBM4 est associée à la prochaine génération Gaudi (Jaguar Shores), sans fiche technique publique équivalente pour l’instant.

L’avance sur la pin speed et la bande passante par pile change l’équation d’alimentation mémoire des accélérateurs IA haut de gamme. Si les 2 048 I/O et les gains thermiques annoncés se confirment en production, l’intégration côté packaging avancé et l’optimisation du power delivery deviendront les goulots d’étranglement majeurs, plus que la DRAM elle-même.

Source : VideoCardz

Doubao Seedance 2.0 : génération vidéo multi‑plans avec audio natif intégré

Par :Wael.K
12 février 2026 à 10:03

Doubao intègre Seedance 2.0 à son app mobile, au client desktop et au Web. Le modèle de génération vidéo propose des séquences de 5 ou 10 secondes à partir de simples invites, et un mode « vidéo de double » réservé aux utilisateurs vérifiés pour créer leur avatar vidéo.

Synchronisation audio native et narration multi‑plans

Seedance 2.0 aligne image et son d’origine, avec une piste audio générée nativement et des enchaînements multi‑plans cohérents. Le moteur analyse la logique narrative et conserve l’unité des personnages, des éclairages, du style et de l’ambiance sur toute la séquence.

La génération est multimodale et contrôlable : une invite textuelle assortie d’une image de référence suffit à produire une courte vidéo multi‑plans avec bande-son intégrée. Doubao précise que l’upload de photos de personnes réelles comme sujet de référence n’est pas encore pris en charge.

Accès et périmètre fonctionnel

L’entrée « Seedance 2.0 » apparaît dans la boîte de dialogue de l’app Doubao, ainsi que sur la version PC et la version Web. Les clips disponibles sont limités à 5 ou 10 secondes, avec une option « double vidéo » activée après vérification d’identité pour des usages créatifs plus poussés.

Le positionnement met l’accent sur la continuité visuelle inter‑plans et le calage fin de l’audio, deux points sensibles des modèles vidéo grand public. À court terme, l’absence de support des photos de personnes protège le cadre légal et réduit le risque d’abus, mais freinera certains cas d’usage commerciaux autour des avatars réalistes.

Source : ITHome

IA médicale sous pression : l’outil TruDi lié à une hausse d’incidents graves

Par :Wael.K
12 février 2026 à 10:02

Selon une enquête de Reuters relayée le 9 février, l’intégration d’algorithmes d’IA dans le système de navigation chirurgicale TruDi d’Acclarent, utilisé pour la chirurgie des sinus, coïncide avec une flambée des signalements d’incidents. Après trois ans sur le marché et seulement huit défaillances rapportées, la version « augmentée » par l’IA est liée à au moins 100 cas de pannes et d’événements indésirables, soit une hausse de 1150 %.

Graphique montrant la croissance des dispositifs médicaux autorisés utilisant l'IA de 1995 à 2026.

Incidents graves et actions en justice

Les incidents documentés incluent des fuites de liquide céphalo-rachidien, des perforations de la base du crâne, des lésions artérielles majeures et des AVC. Deux cas retiennent particulièrement l’attention : la patiente Erin Ralph accuse TruDi d’avoir induit le chirurgien en erreur en positionnant l’instrumentation près de la carotide, entraînant un caillot puis un AVC. Elle a passé cinq jours en réanimation, a subi une craniectomie partielle et suit encore une rééducation un an après.

Autre dossier, Donna Fernihough a vu sa carotide se rompre en peropératoire, provoquant une hémorragie massive et un nouvel AVC. Les avocats des plaignantes qualifient le système d’IA d’« inconstant, inexact et peu fiable ». Acclarent est accusée d’avoir assoupli ses critères de sécurité pour accélérer la mise sur le marché, avec des objectifs d’exactitude qui auraient été fixés à seulement 80 % pour certaines fonctions.

Un débat plus large sur l’IA médicale

Au-delà de TruDi, d’autres dispositifs d’IA en santé sont interrogés sur leur robustesse. Sonio Detect, dédié à l’analyse d’images fœtales, est pointé pour des erreurs d’identification anatomique. Le moniteur cardiaque implantable Medtronic LINQ est, lui, accusé d’omissions de troubles du rythme ou d’asystolies. Aucun préjudice patient n’a été officiellement rapporté pour ces deux produits à ce stade, mais la fiabilité perçue est déjà entamée.

La séquence révèle un angle mort connu des systèmes d’assistance opératoire dopés à l’IA : la validation clinique en conditions réelles, la mesure d’erreurs de navigation en environnement anatomique variable et la « vérité terrain » des algorithmes face aux artefacts, aux variations de flux et aux écarts de protocole. Les régulateurs vont devoir trancher la ligne de crête entre itérations rapides et garanties minimales de performance, en particulier lorsque la cible d’exactitude affichée frôle explicitement le seuil d’acceptabilité clinique.

Source : ITHome

❌