↩ Accueil

Vue normale

RTX 5090 Ti ou TITAN Blackwell ? Une rumeur peu étayée évoque le T3 2026

Par :Wael.K
9 février 2026 à 09:21

Un GPU positionné au-dessus de la GeForce RTX 5090 refait surface dans certaines discussions, avec un calendrier évoquant le troisième trimestre 2026. Une hypothèse qui circule, mais qui repose pour l’instant sur des bases fragiles.

Overclocking.com avance que NVIDIA travaillerait sur une carte « halo » au-dessus de la RTX 5090, en s’appuyant sur des sources industrielles multiples. Aucun document, visuel ou élément technique concret ne vient toutefois étayer cette information à ce stade. Le média évoque un projet qui dépasserait le simple stade conceptuel, sans lien avec un refresh de type RTX 50 SUPER (toujours pas annoncé), et dont le positionnement oscillerait entre une hypothétique TITAN Blackwell ou une RTX 5090 Ti.

RTX 5090 Ti ou TITAN Blackwell : une rumeur sans fondations solides

Le point central reste l’absence totale de données vérifiables. Aucun détail sur le die, la configuration mémoire, le TGP ou même la capacité visée n’est mentionné. Or, historiquement, les véritables fuites concernant des modèles ultra-haut de gamme s’accompagnent toujours d’indices techniques précis, ce qui n’est pas le cas ici.

Le contexte actuel fragilise également cette hypothèse. Les contraintes persistantes sur la GDDR7, la priorité donnée aux puces Blackwell pour les marchés IA et l’absence de pression concurrentielle directe au-dessus de la RTX 5090 réduisent fortement l’intérêt économique d’un tel lancement. D’autant que les partenaires proposent déjà des modèles custom extrêmes occupant pleinement le segment ultra-premium.

Comme lors de la génération précédente avec les prototypes TITAN Ada ou RTX 4090 Ti jamais commercialisés, l’existence de travaux internes ne préjuge en rien d’un produit retail. En l’état, cette rumeur ressemble davantage à une spéculation recyclée qu’à une information solide.

Source : VideoCardz

IA batterie: prédire la durée de vie en 50 cycles grâce à un modèle physique

Par :Wael.K
9 février 2026 à 09:10

Des chercheurs de l’université du Michigan annoncent un cadre d’IA capable de prédire la durée de vie d’une batterie après seulement 50 cycles, contre des centaines voire des milliers en essais classiques. À la clé, des campagnes de validation écourtées de plusieurs mois, une consommation énergétique divisée jusqu’à 20 et une itération plus rapide sur les chimies et formats de cellules.

Un framework « agentique » qui résonne avec la physique

Publiée dans Nature, la méthode portée par Ziyou Song (assistant professor) et le doctorant Jiawei Zhang s’appuie sur une architecture multi-agents spécialisée : un « apprenant » sélectionne les designs prometteurs et lance des tests courts sous contraintes de température et de courant ; un « interprète » analyse ces 50 cycles via un simulateur physiquement informé ; un « oracle » agrège ces sorties avec la connaissance existante pour estimer la durée de vie complète.

Le système n’exploite pas seulement des signatures superficielles (courbes de tension, régimes de charge). Il remonte aux paramètres électrochimiques pertinents et à leur évolution sous chaleur, contrainte et cyclage, ce qui lui permet de généraliser à travers formats et usages. En pratique, l’équipe indique une réduction jusqu’à 95 % du temps et de l’énergie nécessaires aux tests de durabilité.

Validation sur données réelles et transfert de format

Farasis Energy USA a financé l’étude et fourni des données opérationnelles ainsi que des cellules pouch pour la validation. Même entraîné uniquement sur des cellules cylindriques, le modèle a correctement prédit les performances de grands formats souples, indice que la couche physique capture des lois d’agnostisme vis-à-vis du facteur de forme. Là où une campagne de 1000+ cycles prend des mois, quelques jours d’essais suffisent ici à dégager une projection fiable de la durée de vie.

Le pipeline itère : chaque prédiction s’intègre au corpus, ce qui renforce la précision et permet, une fois la base suffisante, de s’affranchir d’une partie des expériences. Les auteurs y voient l’émergence d’une capacité de raisonnement scientifique autonome appliquée aux matériaux électrochimiques.

Au-delà du cyclage : sécurité, charge et matériaux

Si la première démonstration cible la durée de vie en cycle, l’équipe ouvre déjà trois fronts : bornage des limites de sécurité, optimisation des profils de charge et présélection de matériaux pour les prochaines générations Li‑ion. Le principe, inspiré de la « discovery learning », est transposable à d’autres disciplines où l’expérimentation longue et coûteuse freine l’exploration, de la chimie à la science des matériaux.

Pour l’industrie, l’impact potentiel est direct : baisse du coût de validation, compression des boucles R&D, arbitrages plus rapides entre chimies, séparateurs et liants, et capacité à sécuriser des roadmaps pack et module avec moins d’incertitudes. Dans un contexte où l’avance se mesure en cycles économisés et en itérations par trimestre, une modélisation physiquement guidée et parcimonieuse en données coche les bonnes cases.

Source : ITHome

Anthropic édite sa pub Super Bowl : privacy affirmée, pique à OpenAI retirée

Par :Wael.K
9 février 2026 à 09:08

Anthropic a retouché son spot du Super Bowl pour calmer le jeu face à OpenAI. La version pré-diffusée, qui glissait « La pub entre dans l’IA, mais pas dans Claude » en référence directe aux projets publicitaires d’OpenAI, a été remplacée à l’antenne par une formule plus neutre : « La publicité a son temps et son lieu, mais vos conversations avec une IA n’en font pas partie. »

Le changement intervient après la réaction publique de Sam Altman, qui avait qualifié le message initial de « clairement malhonnête ». En creux, Anthropic maintient le positionnement privacy-first de Claude, tout en évitant l’attaque frontale le soir le plus exposé de l’année publicitaire.

Dans un marché où les modèles se différencient de plus en plus par l’UX et la gouvernance, ce virage sémantique illustre une ligne stratégique : affirmer un cadre éthique et de non-interopération avec la publicité ciblée, sans transformer l’argument en conflit de marque. Le signal est lisible pour les entreprises qui arbitrent entre intégrations publicitaires et canaux conversationnels « propres ».

Source : ITHome

Intel On Demand abandonné : Intel archive SDSi pour Xeon, fin du paywall matériel

Par :Wael.K
9 février 2026 à 09:05

Projet rangé au placard et site nettoyé ; le verrou payant sur des fonctions CPU n’a pas trouvé preneur chez les clients qui achètent à l’échelle.

Intel On Demand : GitHub archivé, modèle abandonné

Intel a déréférencé son initiative Software Defined Silicon (SDSi), rebaptisée Intel On Demand, en archivant le dépôt GitHub dédié aux Xeon. Le mécanisme devait activer, contre paiement unique, des blocs matériels déjà présents au sein des puces serveur.

Intel On Demand abandonné : Intel archive SDSi pour Xeon, fin du paywall matériel

Le site Intel On Demand ne conserve plus que quelques documents et paragraphes, l’essentiel des informations ayant été retiré. L’entretien irrégulier du projet et l’absence d’adhésion des grands comptes ont scellé son sort.

Accélérateurs visés, absence d’adoption hyperscaler

Les fonctions ciblées comprenaient Quick Assist, Dynamic Load Balancer, Data Streaming Accelerator, Software Guard Extensions et In-Memory Analytics Accelerator. Le positionnement était clair : une « activation unique de certains accélérateurs et fonctionnalités de sécurité » déjà présents dans le silicium.

Pour les hyperscalers, payer un surcoût pour débloquer du matériel déjà acquis n’avait pas de sens économique à grande échelle. Le modèle se distingue d’un abonnement logiciel mensuel, ici absent au profit d’une activation one-shot, qui n’a pas convaincu.

La crainte d’une extension au grand public retombe. Un précédent existait avec l’Intel Upgrade Service au début des années 2010, déjà de courte durée, et l’arrêt d’On Demand réduit la probabilité d’un retour proche sur les CPU grand public.

La décision confirme que sur serveur, la valeur des accélérateurs doit être captée en amont, via le binning, les SKU et la tarification, pas en aval par des clés d’activation. Les fabricants conserveront le levier logiciel et services, mais verrouiller des fonctions matérielles post-achat reste difficile à justifier pour des opérateurs à effet de volume.

Source : TechPowerUp

PlayStation préparerait une console portable à 24 Go de mémoire et une PS6 à 30 Go en GDDR7

Par :Wael.K
9 février 2026 à 09:05

Une hausse franche des capacités mémoire se profilerait chez PlayStation. Si elle se confirme, la prochaine génération viserait plus large côté bande passante et budgets RAM.

Mémoire : 24 Go en portable, 30 Go en console de salon

Leaker régulier sur le hardware Sony, KeplerL2 évoque une future PlayStation de salon équipée de 30 Go de GDDR7. Sony utiliserait des modules de 3 Go en « clamshell », avec un bus ramené de 256‑bit à 160‑bit, mais compensé par des puces à 32 Gb/s pour atteindre 640 Go/s, soit environ +11 % par rapport à la PS5 Pro.

ps6 gpu amd udna playstation 6

Côté portable, la rumeur pointe 24 Go de LPDDR5X, alignés sur les configurations des PC handheld sous Windows. Une telle enveloppe mémoire laisse entrevoir l’exécution de jeux current‑gen sans contrainte majeure côté RAM.

Playstation Handheld IA

Bus 160‑bit, 10 canaux × 16‑bit : un choix atypique mais viable

Le total de 30 Go cadre avec une interface 10 canaux de 16‑bit chacun. La topologie est inhabituelle, mais reste exploitable si le contrôleur mémoire et le packaging gèrent proprement la disposition asymétrique induite par des modules de 3 Go.

Capture discussion forum sur la mémoire GDDR7, texte vert sur blanc

En pratique, l’augmentation de bande passante via la GDDR7 pourrait compenser la réduction de largeur de bus, tout en libérant de la marge pour des résolutions et effets plus lourds, notamment en ray tracing.

AMD et Sony ont confirmé leur collaboration sur Project Amethyst. Officieusement, la prochaine génération s’appuierait sur RDNA5, un alignement évoqué aussi côté Xbox autour d’un silicium « Magnus ».

Si ces paramètres se matérialisent, Sony optimiserait le rapport bande passante/coût en GDDR7 tout en poussant la capacité utile au‑delà des 16–24 Go rencontrés jusqu’ici, avec un impact direct sur les budgets streaming d’actifs, la taille des caches logiciels et la stabilité des fréquences en scènes lourdes.

Source : VideoCardz

Intel Z990 et Z970 sur LGA1954 : nouveaux chipsets desktop pour Nova Lake-S fin 2026

Par :Wael.K
9 février 2026 à 08:53

Nouveau palier sur desktop chez Intel avec deux chipsets haut de gamme en préparation, et un socket LGA1954 qui impose un renouvellement de cartes mères.

Intel Z990 et Z970 pour LGA1954

Intel a ajouté Z990 et Z970 à sa feuille de route chipsets visant le socket LGA1954. Aucune fiche technique détaillée n’est partagée pour l’instant : I/O, dénombrement de lignes et différenciation fonctionnelle restent inconnus.

Les deux PCH accompagneront la plateforme desktop Nova Lake-S, attendue sous l’appellation Core Ultra 400S. Le passage à LGA1954 implique de nouvelles cartes mères pour toute la gamme.

Positionnement, héritage H-series et segmentation

Intel n’a pas lancé de H870 pour Arrow Lake-S. Z970 prendrait ce rôle sur la nouvelle génération, avec un maintien d’un palier desktop de classe H mais sous une nouvelle dénomination.

Selon les informations disponibles, Z970 partagerait la base silicium de B960. La segmentation se ferait donc via firmware et fonctionnalités cartes mères plutôt que par un die distinct. L’arbitrage pourrait concerner les options d’overclocking, sans positionnement officiel pour l’instant.

Calendrier et cadence de sortie

Intel a indiqué une arrivée de Nova Lake fin 2026. Z990 et Z970 s’alignent sur cette fenêtre, sauf changement de planning.

Pour les fabricants de cartes mères, le timing laisse de la marge pour caler les designs LGA1954 et affiner la segmentation Z990/Z970/B960 en amont des lancements retail.

Source : VideoCardz

AYANEO NEXT 2 Strix Halo : jusqu’à 4 500€, 1,43 kg et expéditions en juin 2026

Par :Wael.K
8 février 2026 à 16:54

1,43 kg, 116 Wh et des prix qui tutoient les 4 500 € : le prochain handheld Windows d’AYANEO vise la démesure et s’assume comme un produit de niche.

AYANEO NEXT 2 Strix Halo : configurations, prix et calendrier

AYANEO fixe l’expédition internationale à juin 2026 et décline trois configurations sous Ryzen AI Max+ 395 et Ryzen AI Max 385. Les tarifs placent le NEXT 2 tout en haut du segment Windows, au-dessus d’annonces concurrentes initialement environ 400 $ moins chères, un écart partiellement imputé par la marque à la hausse récente des coûts DRAM.

AYANEO NEXT 2 with Ryzen AI Max+ “Strix Halo” costs up to $4,299, weighs 1.4kg, and may require airline approval forms

Modèles annoncés : Ryzen AI Max+ 395 en « Polar Black » avec 64 Go + 1 To à 2 299 $ (early bird) / 2 699 $ (retail) et 128 Go + 2 To à 3 499 $ (early bird) / 4 299 $ (retail). Un Ryzen AI Max 385 en 32 Go + 1 To est listé 1 799 $ (early bird) / 1 999 $ (retail). Remise anticipée : 200 à 800 $ selon le SKU. À titre indicatif, cela équivaut environ à 1 670–3 950 € selon les configurations et le taux de change du jour, hors taxes et frais.

Écran, mémoire et stockage

Dalle OLED 9,06 pouces en 2400×1504 jusqu’à 165 Hz, avec une luminosité annoncée à 1 155 nits. Mémoire LPDDR5X‑8533 en 32/64/128 Go selon SKU. Stockage sur deux emplacements PCIe 4.0 x4 : un M.2 2280 et un M.2 2230, avec options 512 Go, 1 To et 2 To, sans mini‑SSD propriétaire.

AYANEO NEXT 2 with Ryzen AI Max+ “Strix Halo” costs up to $4,299, weighs 1.4kg, and may require airline approval forms

Le châssis intègre une batterie de 116 Wh, un double ventilateur avec ailettes VC, deux ports USB‑C complets en USB4 40 Gb/s avec DP 1.4 et PD 3.0, Wi‑Fi/Bluetooth 5.4, capteur d’empreintes au bouton d’alimentation et Windows 11 64‑bit Home. Poids annoncé : ~1 426 g.

AYANEO NEXT 2 with Ryzen AI Max+ “Strix Halo” costs up to $4,299, weighs 1.4kg, and may require airline approval forms

Contraintes pratiques et périmètre marché

Le fondateur a rappelé que la batterie de 116 Wh dépasse le seuil de 100 Wh appliqué par de nombreuses compagnies aériennes ; un formulaire d’approbation pourrait être requis avant l’embarquement.

AYANEO NEXT 2 with Ryzen AI Max+ “Strix Halo” costs up to $4,299, weighs 1.4kg, and may require airline approval forms

À noter, les handhelds actuels n’embarquent pas le Ryzen AI Max+ 388 récemment officialisé et aucun modèle du segment ne descend sous 1 000 $.

AYANEO NEXT 2 with Ryzen AI Max+ “Strix Halo” costs up to $4,299, weighs 1.4kg, and may require airline approval forms
AYANEO NEXT 2 with Ryzen AI Max+ “Strix Halo” costs up to $4,299, weighs 1.4kg, and may require airline approval forms
AYANEO NEXT 2 with Ryzen AI Max+ “Strix Halo” costs up to $4,299, weighs 1.4kg, and may require airline approval forms
AYANEO NEXT 2 with Ryzen AI Max+ “Strix Halo” costs up to $4,299, weighs 1.4kg, and may require airline approval forms
AYANEO NEXT 2 with Ryzen AI Max+ “Strix Halo” costs up to $4,299, weighs 1.4kg, and may require airline approval forms
AYANEO NEXT 2 with Ryzen AI Max+ “Strix Halo” costs up to $4,299, weighs 1.4kg, and may require airline approval forms
AYANEO NEXT 2 with Ryzen AI Max+ “Strix Halo” costs up to $4,299, weighs 1.4kg, and may require airline approval forms

AYANEO traîne une réputation contrastée en SAV et communication. La direction a reconnu le besoin d’amélioration le mois dernier, tout en liant la hausse tarifaire à la mémoire. Le positionnement premium, l’embarquement d’un duo M.2 standard et l’OLED 165 Hz constituent des atouts techniques, mais le ticket d’entrée et le poids ancrent clairement le NEXT 2 dans une cible ultra‑enthousiaste.

Source : VideoCardz

FSR 4 INT8 : AMD reste muet pour RDNA 2/3 tandis que les builds non officiels tournent

Par :Wael.K
8 février 2026 à 16:47

Des nouveaux éléments publics indiquent que FSR 4 fonctionne en INT8 sur RDNA 2 et RDNA 3. Dans l’immédiat, cela relance les appels à une ouverture officielle, une position qu’AMD ne confirme toujours pas.

FSR 4 INT8 : statut officiel inchangé

AMD n’a rien à ajouter sur FSR 4 pour les Radeon antérieures à RDNA 4, confirme HardwareUnboxed. La documentation maintient FSR 4 comme exclusif aux Radeon RX 9000, avec un repli automatique vers FSR 3.1.5 sur tout autre GPU.

Capture texte échange sur statut FSR 4 INT8 support, carte blanche en arrière-plan

Le verrou technique affiché reste identique : FSR 4 s’appuie sur l’accélération matérielle FP8 Wave Matrix Multiply Accumulate des GPU RDNA 4, indisponible sur les générations précédentes. La logique rappelle l’alignement des itérations DLSS sur les générations de Tensor Cores chez NVIDIA.

Builds INT8 non officiels et contraintes d’intégration

En août 2025, une publication éclair du code FSR 4 dans le FidelityFX SDK 2.0, ensuite retirée, a exposé une implémentation sans FP8. Des communautés ont exploité ces fichiers pour produire un build INT8 fonctionnel sur RDNA 3 et parfois RDNA 2, via un échange de DLL dans des titres compatibles FSR 3.1.

Les tests publiés indiquent une image supérieure à FSR 3.1, avec un coût de performance variable selon le GPU et le jeu. ComputerBase a également documenté l’impact sur RDNA 3/4. Ce fonctionnement reste toutefois officieux et hors périmètre support.

Graphique comparatif performances RX 7900 XTX et RX 9070 XT FSR 4 INT 8 Cyberpunk 2077

AMD a récemment expliqué avoir « coupé la ligne » pour certaines fonctions Redstone afin d’éviter une expérience dégradée sur anciens GPU, en laissant la porte ouverte à une approche graduelle. Une déclinaison type FSR4-Lite a été évoquée au CES, sans suite depuis.

Le maintien de l’exclusivité RX 9000 intervient alors que les prix de cette série montent, ce qui restreint l’adoption. Le chemin d’upgrade au niveau pilote reste en outre limité : il ne couvre que les jeux DirectX 12 ayant intégré correctement une DLL FSR 3.1 signée, et ne s’applique pas aux titres Vulkan.

Sollicitée dès septembre sur la prise en charge de FSR 4 sur RDNA 2 et RDNA 3, AMD n’a pas répondu, même brièvement. L’absence de position officielle prolonge l’incertitude côté studios et joueurs.

Si AMD officialise un mode INT8, elle devra gérer une fragmentation de performances et de qualité entre RDNA 4 en FP8 et les générations précédentes. À défaut, la pression se reporte sur les intégrations FSR 3.1 propres et sur la capacité du pilote à mettre à jour sans casser les pipelines existants, avec un angle mort persistant côté Vulkan.

Source : VideoCardz

NVIDIA : 30 000 ingénieurs dopent leur production de code x3 avec l’IA générative

Par :Wael.K
8 février 2026 à 02:11

Production triplée, taux de bugs stable. NVIDIA généralise l’IA générative en interne à une échelle rarement vue dans l’industrie.

30 000 ingénieurs outillés par l’IA générative

NVIDIA déploie des outils d’IA générative auprès de 30 000 ingénieurs via un partenariat avec Anysphere (San Francisco) et une version personnalisée de l’IDE Cursor, focalisée sur la conception de code assistée par IA. La production de code a été multipliée par trois par rapport à l’ancien pipeline, sans dérive rapportée du taux de bugs.

Processeur Nvidia avec flux d'éléments multicolores symbolisant la technologie avancée et l'intelligence artificielle.

Le groupe applique des garde-fous adaptés à des composants critiques comme les pilotes GPU, qui soutiennent aussi bien le jeu vidéo que l’entraînement et l’inférence IA à grande échelle. Les nouveaux flux intègrent vraisemblablement des batteries de tests renforcées avant mise en production, condition indispensable au maintien du niveau de fiabilité.

Des gains déjà visibles dans l’écosystème NVIDIA

Ce déploiement s’inscrit dans la continuité des usages internes de l’IA chez NVIDIA : un supercalculateur dédié améliore en continu DLSS depuis des années, et des modèles internes ont déjà permis d’optimiser des blocs de conception avec, à la clé, des circuits jusqu’à 25 % plus compacts que des solutions standard de l’industrie. L’itération récente autour de DLSS 4 illustre ces boucles d’amélioration guidées par l’IA.

Si la cadence de livraison progresse nettement, l’enjeu reste la robustesse logicielle sur des piles critiques. À court terme, les utilisateurs finaux pourraient bénéficier d’optimisations plus fréquentes des pilotes et des fonctionnalités IA côté gaming, tandis que l’entreprise sécurise sa vélocité R&D sans dégrader la qualité mesurée par le bug rate.

Source : TechPowerUp via Cursor

GeForce RTX 5070 Ti : un acheteur Amazon reçoit… des cailloux à la place d’une Zotac blanche

Par :Wael.K
8 février 2026 à 15:59

Un acheteur sur Reddit affirme avoir reçu un carton rempli de cailloux à la place d’une Zotac GeForce RTX 5070 Ti blanche commandée sur Amazon. Après signalement, le remboursement aurait été effectué sans difficulté.

À force de voir ce genre d’histoires se multiplier, on finirait presque par croire qu’Amazon se reconvertit dans l’exploitation de carrière plutôt que dans la distribution de matériel informatique.

GeForce RTX 5070 Ti remplacée par des cailloux

Le post Reddit évoque une Zotac GeForce RTX 5070 Ti White Edition livrée par Amazon, remplacée par des galets. L’auteur indique qu’Amazon a traité le remboursement sans exiger le renvoi du colis, transformant l’arnaque initiale en distribution involontaire de cailloux.

Le cas n’est pas vérifiable de manière indépendante, mais s’inscrit dans un schéma déjà observé sur des commandes à forte valeur. Ces fraudes au retour consistent à échanger le produit avant renvoi, en visant un traitement rapide où le contenu erroné ne serait pas détecté si le poids reste cohérent.

Un schéma connu dans les retours Amazon

La méthode repose souvent sur un reconditionnement soigné : réapposition de scellés, films protecteurs remplacés, et packaging remis en état pour simuler du neuf. Les CPU et GPU sont des cibles récurrentes, où l’inertie logistique peut laisser passer des substitutions grossières.

Des précédents récents cités en ligne mentionnent une RTX 5080 livrée avec une brique, une carte d’entrée de gamme réétiquetée et expédiée dans une boîte haut de gamme, ou encore une RTX 5090 arrivée avec des pâtes et du riz accompagnant un ancien GPU. Les cailloux ont déjà servi de remplaçant, notamment sur un cas de RTX 5090.

Pour les acheteurs, l’ouverture filmée et la vérification immédiate du numéro de série restent des réflexes utiles. Côté vendeurs, le chaînage des numéros de série et le contrôle pondéral fin par modèle limitent le risque de validation automatique de retours frauduleux.

Source : VideoCardz

RTX 3080 Ti Colorful fracassée : PCB fendu, VRAM brûlée, mais un swap de GPU la remet en service

Par :Wael.K
8 février 2026 à 07:30

Une RTX 3080 Ti sérieusement cabossée a quitté l’atelier sur ses deux pieds, malgré un PCB fendu et une section VRAM carbonisée. Le technicien a tranché : inutile de sauver la carte, mais le GPU méritait une seconde vie.

Transplantation risquée d’un GA102 sur carte donneuse

Le réparateur chinois Brother Zhang a reçu une Colorful RTX 3080 Ti iGame Advanced avec backplate enfoncée, PCB tordu et une fissure nette en bout de carte. La note du propriétaire indique un choc initial, confirmé ensuite : la carte a été frappée deux fois PC éteint, puis le système a été allumé une fois après.

Carte graphique GeForce RTX en gros plan, doigt pointé, fond neutre

Contrôle de base avant mise sous tension : mesures de résistance à la masse sur l’entrée PCIe 12 V et sur plusieurs rails 12 V, puis décision de ne pas alimenter la carte pour éviter d’emporter le die et la mémoire. Au démontage, constat aggravé : zone d’alimentation de la GDDR6X brûlée, composants craterisés près des MOSFETs, pli prononcé du PCB.

Vue arrière carte GeForce RTX tenue en main, fond neutre

Section mémoire en « no go », sauvetage par swap de GPU

Le technicien classe la partie VRAM comme à haut risque de dégâts collatéraux sur les RTX 3080-series. Plutôt que de patcher à l’aveugle, il extrait le package GA102, le nettoie, le rebille, puis le soude sur un PCB donneur de classe RTX 3080 déjà peuplé en VRAM.

Réparation carte graphique sur établi bleu, texte incrusté

Après quelques reprises locales sur la carte donneuse, la plateforme boote, passe sous Windows et tient des vérifications de stabilité et des runs de validation courts. Seul compromis : le refroidissement final est de type blower.

Carte graphique GeForce RTX déformée sur établi, texte incrusté
Gros plan circuit imprimé carte graphique, texte incrusté
Capture d'écran test de performance GPU sur fond bureau Windows
Carte graphique GeForce RTX sur établi, texte incrusté

Rappel specs : la GeForce RTX 3080 Ti s’appuie sur Ampere avec 10 240 cœurs CUDA, 12 Go de GDDR6X sur bus 384 bits et un power target de 350 W. Le potentiel restait donc suffisant pour justifier l’opération.

Ce que montre vraiment cette réparation de RTX 3080 Ti

Cas d’école : entre un PCB structurellement compromis et une régulation mémoire endommagée, l’alimentation directe aurait pu achever le GA102 et les puces GDDR6X. La voie raisonnable était la transplantation, qui confirme que la valeur se concentre sur le package GPU et la pile mémoire associée du donneur, pas sur une carte hôte irrécupérable.

Source : VideoCardz

ASRock déploie un BIOS bêta X870/X870E 4.07.AS01 pour corriger des échecs de boot

Par :Wael.K
7 février 2026 à 22:45

Un nouveau BIOS bêta débarque chez ASRock, avec une promesse claire : éliminer des pannes de démarrage sur certaines configurations CPU. La mise à jour cible huit cartes mères AMD série 800 et ajuste aussi la compatibilité mémoire.

ASRock BIOS X870 : correctif de boot et AGESA 1.3.0.0a

ASRock publie le BIOS 4.07.AS01 en bêta pour huit modèles X870/X870E. Les notes de version listent AGESA ComboAM5 PI 1.3.0.0a, une optimisation de la compatibilité mémoire et la résolution d’un échec de démarrage sur certaines configurations CPU.

Aucune communication dédiée n’accompagne ce firmware. La dernière prise de parole publique d’ASRock remonte au 5 février, évoquant des investigations internes sur les problèmes Ryzen 9000 et un travail conjoint avec AMD pour valider les performances tout en « optimisant le BIOS ».

Capture mise à jour BIOS ASRock pour modèles X870 avec descriptions et liens de téléchargement.

Le périmètre exact du correctif de « boot failure » n’est pas précisé. Les cartes mères AMD série 800 prennent en charge les Ryzen 7000, 8000 et 9000, et la note n’identifie aucune famille en particulier.

Voici la liste des cartes répertoriées avec le BIOS 4.07.AS01 (bêta) au 7 février :

  • X870 Pro RS
  • X870 Pro RS WiFi
  • X870 Pro-A WiFi
  • X870 Riptide WiFi
  • X870 Steel Legend WiFi
  • X870E Nova WiFi
  • X870E Taichi
  • X870E Taichi Lite

Contexte AM5 : instabilités remontées, focus sur les Ryzen 9000

La communauté Reddit centralise les signalements d’instabilité et de défaillances sur AM5. Le suivi mentionne actuellement 183 cas pour des Ryzen 7 9800X3D défaillants uniquement, sans certitude que le 4.07.AS01 cible spécifiquement ces incidents.

Pour les utilisateurs impactés par des pannes de démarrage, ce firmware pourrait constituer une première étape pragmatique. La présence d’AGESA 1.3.0.0a et d’ajustements mémoire suggère un travail de fond sur l’initialisation plateforme, élément critique sur AM5 avec DDR5 et profils EXPO.

Si ce correctif stabilise effectivement le POST sur un spectre large de CPU AM5, ASRock pourrait réduire la pression communautaire le temps que des microcodes ultérieurs affinent la gestion des tensions et timings mémoire sur les X870/X870E.

Lire aussi : ASRock ouvre des revues internes après des Ryzen 9000 morts, flou sur les BIOS et réglages

Source : VideoCardz

MSI RTX 5090 Lightning Z : BIOS 800W et 1000W leaké, cross-flash confirmé sur d’autres cartes

Par :Wael.K
7 février 2026 à 21:57

Les BIOS de la MSI GeForce RTX 5090 Lightning Z ont fuité avant la sortie officielle prévue la semaine prochaine. Deux versions circulent désormais : 800W (profil OC) et 1000W (profil Extreme), déjà testées avec succès sur plusieurs modèles concurrents par la communauté overclocking. Une situation rare qui ouvre des perspectives pour les passionnés, mais non sans risques.

Deux BIOS en circulation : une escalade rapide

La fuite a débuté il y a environ 24 heures avec le BIOS 800W, comme l’a confirmé slovak_killer, overclocker reconnu sur XOC HWBot. La situation a rapidement évolué : le BIOS 1000W est apparu sur TechPowerUp il y a quelques heures seulement, accessible au téléchargement via la base de données VGA BIOS.

Capture d'écran tableau BIOS RTX 5090 informations techniques détaillées
msi lightning 5090 bios 1000w

Slovak_killer précise avoir dû contacter un journaliste qui partageait déjà des résultats de benchmarks avant l’embargo, soulignant que ces cartes ont été reçues en avance par certains testeurs. La communauté OverclockersNet teste actuellement les deux versions de manière intensive.

Compatibilité cross-flash : plusieurs modèles concernés

Selon UNIKO’s Hardware, source fiable sur Twitter/X, plusieurs RTX 5090 non-MSI parviennent à booter avec le BIOS Lightning. Les modèles confirmés incluent :

  • ASUS ROG Astral White
  • ASUS ROG Astral Black
  • Gigabyte Gaming OC
  • Zotac ArcticStorm

Attention toutefois : booter ne signifie pas fonctionnement optimal. Des utilisateurs rapportent des comportements d’alimentation inattendus et des problèmes de contrôle des ventilateurs sur certaines configurations.

With the recent MSI RTX5090 Lightning 1000W BIOS leak I decided to give it a quick try on the Zotac RTX5090
With this BIOS only ONE fan is active (Far Left fan), the other two are not spinning!
Here's a Clockspeed, Power and Voltage comparison against the ASUS MATRIX BIOS https://t.co/GXn6MTpbn1 pic.twitter.com/wkLka9D5wn

— Madness! (@Madness727) February 7, 2026

Contexte overclocking et limites pratiques

Depuis plusieurs générations, les BIOS verrouillés freinent l’overclocking GPU. Pour repousser les limites de puissance, les adeptes recouraient à des shunt mods ou à des BIOS extrêmes non officiels. L’arrivée de flagships orientés OC rouvre des marges d’expérimentation, avec des garanties potentiellement invalidées.

Vu le tarif des RTX 5090 et les risques d’un flash non officiel, ces tentatives doivent rester l’apanage d’utilisateurs aguerris acceptant les conséquences. À stock, la 5090 est déjà très rapide.

Si ce BIOS 800 W marque une vraie latitude pour l’OC sur la RTX 5090, la cohérence du VRM, des connecteurs et du refroidissement reste déterminante. Les cartes nativement prévues pour ces enveloppes thermiques conserveront un net avantage en stabilité et en contrôle fin des courbes de puissance.

Source : VideoCardz

Data centers AWS en Europe : jusqu’à 7 ans d’attente pour se raccorder au grid

Par :Wael.K
7 février 2026 à 20:56

En Europe, Amazon constate désormais jusqu’à sept ans d’attente pour raccorder de nouveaux data centers au réseau électrique. D’après Pamela McDougall, en charge des marchés de l’énergie pour AWS en Europe, Moyen‑Orient et Afrique, ces délais repoussent mécaniquement l’entrée en service de sites pourtant construits en deux ans, rendant improbable toute mise en exploitation avant 2030 sans connexion au réseau.

Un réseau sous tension, accéléré par l’IA

Le goulot d’étranglement provient d’une demande énergétique qui explose, tirée par l’infrastructure IA. Des data centers historiquement dimensionnés à 6 à 12 kW par rack doivent encaisser des charges multipliées, avec à la clé une pression inédite sur la capacité locale et les postes sources. La Commission européenne anticipe une consommation des data centers passant de 96 TWh en 2024 à 168 TWh en 2030, un bond qui ne cadre ni avec le rythme d’évolution des réseaux, ni avec les cycles d’investissement des opérateurs de transport et de distribution.

La chaîne d’approvisionnement n’arrange rien : les délais pour des transformateurs de puissance s’allongent jusqu’à quatre ans, verrouillant les calendriers de renforcement et de raccordement. À cette contrainte matérielle s’ajoutent des files d’attente saturées par des projets « fantômes » qui réservent de la capacité sans avancer réellement, surtout en Italie et en Espagne, où les gestionnaires voient affluer des demandes cumulant des dizaines de GW.

Files d’attente polluées et capacité immobilisée

Ces réservations spéculatives bloquent de facto des projets matures ayant terrain, financement et permis, dont ceux d’Amazon. Sur le papier, la capacité est prise ; dans les faits, elle dort en file d’attente, créant une rareté artificielle. Les opérateurs de réseau doivent trier et purger, mais les mécanismes d’allocation et de pénalités restent hétérogènes selon les pays, ralentissant le tri et allongeant les horizons de mise sous tension.

Pour les hyperscalers, l’équation devient doublement complexe : sécuriser l’accès à une électricité décarbonée conforme aux trajectoires ESG, tout en composant avec des délais qui dépassent la durée de construction des bâtiments et des salles IT. Le décalage entre l’appétit IA et le pas de temps des infrastructures de réseau atteint un point critique.

Si la situation perdure, l’arbitrage pourrait se déplacer vers des localisations avec files d’attente nettoyées, schémas de « connect and manage » plus souples, contrats de flexibilité et autoproduction sur site pour soulager le raccordement initial. À court terme, les investissements dans les transformateurs de puissance, la régulation anti-spéculative des demandes de connexion et la priorisation des projets avancés seront déterminants pour éviter que l’IA ne bute sur un plafond électrique avant 2030.

Source : ITHome

Crypto.com rachète AI.com pour lancer des agents IA grand public

Par :Wael.K
7 février 2026 à 20:54

Crypto.com change d’échelle hors crypto. Selon le Financial Times, Kris Marszalek a acquis le domaine AI.com pour 70 millions de dollars, une transaction intégralement réglée en cryptomonnaies via le courtier GetYourDomain.com. Le montant, confirmé par le broker Larry Fischer, établit un record public pour un nom de domaine. L’adresse servira de rampe de lancement à une plateforme d’agents IA grand public, dévoilée à l’occasion du Super Bowl.

Le projet vise un assistant unique capable d’échanger par messages, d’orchestrer des applications et de piloter des opérations de bourse, avec une barrière d’entrée minimale. Marszalek évoque une expérience comparable à OpenClaw, agent viral à la mode à San Francisco ces dernières semaines, mais pensée pour un usage plus simple et plus large.

L’entrepreneur, qui a fondé Crypto.com en 2016 et revendique environ 1,5 milliard de dollars de revenus annuels, assume le ticket d’entrée : « nous voulons maîtriser l’accès, sinon on se fait commoditiser ». Plusieurs offres « délirantes » lui auraient déjà été faites pour racheter AI.com. Il écarte pour l’instant toute revente, misant sur l’effet de marque et la confiance dans l’un des marchés les plus rapides du moment.

Un actif rare, une stratégie d’accès

Le vendeur reste anonyme, mais le broker confirme que « des actifs comme AI.com n’ont pas de substitut ». Au-delà de la spéculation sur les noms de domaine, l’approche rappelle la trajectoire de Crypto.com, parti dans un océan de milliers d’exchanges avant de s’imposer grâce à un marketing agressif et des deals de visibilité. Marszalek estime que l’IA s’imposera comme vague structurante sur 10 à 20 ans et veut verrouiller un point d’entrée mémorable dès maintenant.

La bascule d’un exchange crypto vers un agent IA transposable à la finance de détail pose des questions de conformité, de garde d’actifs et d’exécution, surtout si l’assistant initie des ordres. Si l’intégration tient la route côté sécurité et UX, l’association d’un domaine ultra-liant et d’un cas d’usage immédiatement monétisable pourrait accélérer l’adoption bien au-delà de la sphère tech.

Source : ITHome

OpenAI Dime : un casque audio IA plutôt qu’un quasi-smartphone en 2026

Par :Wael.K
7 février 2026 à 20:05

Selon une fuite relayée sur X par Smart Pikachu (Weibo), OpenAI préparerait un premier matériel baptisé « Dime », un casque audio au format intra rappelant les AirPods d’Apple. Le projet marquerait un recentrage net par rapport aux rumeurs antérieures d’un appareil « quasi-smartphone » doté d’une puissance de calcul embarquée et d’un BOM comparable à celui d’un terminal mobile haut de gamme.

Un pivot stratégique dicté par les coûts

La source évoque la mise entre parenthèses d’une architecture ambitieuse, avec compute local et composants premium, sur fond de tension persistante sur l’approvisionnement en mémoire. Les prix des puces mémoire resteraient élevés, rendant difficile tout modèle économique viable pour un « casque à haute puissance de calcul ».

Yesterday my good friends at DS report on Weibo that CNIPA国知局 patent filing for Openai hardware become public yesterday for new IP rule for big Usa Ai companys operating in China

Document confirm a detail I am already hearing: consumer name for Sweetpea airpod product will be…

— 智慧皮卡丘 Smart Pikachu (Weibo) (@zhihuipikachu) February 6, 2026

OpenAI privilégierait une approche « d’abord simple » avec un produit audio plus traditionnel, centré sur l’IA côté audio et une feuille de route graduelle. Ce Dime, envisagé dans une première déclinaison « de base », viserait à établir une présence matérielle, collecter des retours d’usage et ajuster le produit avant d’éventuelles itérations plus ambitieuses.

Fenêtre de lancement et séquencement

La fenêtre viserait 2026 pour la commercialisation de la version initiale. Le calendrier reflète l’état du marché des composants et l’objectif de contenir les coûts. Aucun prix, spécification détaillée ni partenaire industriel n’est mentionné dans la fuite.

Si ce scénario se confirme, il signera une entrée pragmatique d’OpenAI sur le matériel, à contre-pied des paris « tout-en-un » très capitalistiques. Un casque IA sans surenchère silicium, s’appuyant davantage sur l’orchestration cloud et l’optimisation logicielle, réduit le risque industriel et teste la désirabilité d’un assistant audio en continu. La suite dépendra de la détente sur la mémoire et de la capacité d’OpenAI à verrouiller une chaîne d’approvisionnement stable avant d’escalader en compute embarqué.

Source : ITHome

DLSS 4 arrive dans Nioh 3, Sea of Remnants, Vampires et deux titres DLSS SR cette semaine

Par :Wael.K
7 février 2026 à 19:09

Semaine chargée pour les joueurs GeForce RTX : trois jeux adoptent DLSS 4 avec Multi Frame Generation tandis que deux autres s’en tiennent au DLSS Super Resolution. De quoi pousser les fréquences d’images et la netteté d’image dès leur sortie ou en accès anticipé.

DLSS 4 et Multi Frame Generation dans les nouveaux titres

Nioh 3 sort le 6 février avec DLSS 4 et Multi Frame Generation. Une démo est déjà disponible et la progression se transfère vers le jeu complet. Le jeu d’action RPG de KOEI TECMO passe à un monde ouvert, avec alternance de styles Samurai/Ninja, combats contre des yokai et défis du Crucible.

Guerrier face à une créature avec logo Nioh 3 enflammé.

Sea of Remnants ouvre sa Closed Alpha PC “Wanderer Test” du 5 au 12 février. Le test intègre le path tracing et DLSS 4 avec Multi Frame Generation. Exploration en monde ouvert, combats navals, équipage modulable et réactions dynamiques des factions composent la boucle de jeu.

Personnage féminin au chapeau pirate, fond rose, logo Sea of Remnants.

Vampires: Bloodlord Rising est disponible en accès anticipé. Le titre de Mehuman Games et Toplitz Productions prend en charge DLSS 4 avec Multi Frame Generation. Les utilisateurs de l’application NVIDIA peuvent en outre activer DLSS 4.5 Super Resolution pour une qualité d’image supérieure.

Trois personnages vampires devant un château, logo Vampires Bloodlord Rising.

DLSS Super Resolution pour deux lancements

Carmageddon: Rogue Shift arrive le 6 février avec DLSS Super Resolution et DLAA. Via l’application NVIDIA, il est possible de passer à DLSS 4.5 Super Resolution, utile notamment en modes Performance et Ultra Performance pour gagner en fidélité.

Nightmare Frontier, en accès anticipé, prend en charge DLSS Super Resolution et DLAA. Là encore, l’application NVIDIA permet d’activer DLSS 4.5 Super Resolution pour améliorer l’expérience.

Le rythme d’intégration des technologies RTX reste soutenu, avec une bascule progressive des nouveaux titres vers DLSS 4 et la génération multi-images quand la charge GPU/CPU l’exige. Les options via l’application NVIDIA (surcouche DLSS 4.5 SR) deviennent un levier pertinent pour uniformiser la qualité d’image entre les jeux.

Source: NVIDIA

MSI GeForce RTX 4080 SUPER : une carte d’occasion brûle sur banc de test, PCB percé

Par :Wael.K
7 février 2026 à 18:00

Une RTX 4080 SUPER d’occasion a fini calcinée dès l’allumage. Résultat : un trou net dans le PCB au niveau de l’alimentation.

Incident documenté sur une MSI RTX 4080 SUPER

Un technicien, actif sur Reddit sous le pseudo TwistedCollossus, a publié les photos d’une MSI GeForce RTX 4080 SUPER 16G VENTUS 3X OC arrivée en lot de reprise. La carte n’a montré aucune consommation sur un premier banc, puis a lâché instantanément au démarrage d’un second système.

Circuit imprimé graphique MSI RTX 4080 endommagé, composants brûlés, fond bois

La carte n’avait pas été ouverte avant l’incident. Le refroidisseur a été déposé ensuite pour constater une carbonisation localisée et une perforation du PCB dans la zone d’étage d’alimentation, à proximité de la région du connecteur 16 broches.

Selon l’auteur, la défaillance proviendrait d’un court-circuit « dans une des puces qui délivre la puissance au core », suivi d’une accumulation d’énergie et d’une rupture d’un condensateur. Le scénario évoque clairement une avarie de VRM.

Section de carte graphique MSI RTX 4080, connecteurs brûlés, gros plan, fond flou
Circuit imprimé MSI RTX 4080 avec brûlure, fond bois, perspective large

Contexte et éléments à retenir

La carte provenait d’un revendeur habituel de GPU d’occasion ; la charge antérieure reste inconnue. Le dommage est strictement localisé, sans indication de fonte du connecteur 12VHPWR/16 broches lui‑même sur les clichés partagés.

À ce stade, il s’agit d’un cas isolé, sans lien établi avec une série précise ni avec une mauvaise insertion du câble. L’absence de consommation initiale puis la défaillance immédiate sur un autre banc pointent davantage vers un composant d’alimentation interne déjà compromis.

Pour le marché du reconditionné haut de gamme, ce type d’incident rappelle l’importance d’un contrôle approfondi des VRM et des condensateurs avant remise en circulation, surtout sur des modèles performants comme la MSI RTX 4080 SUPER où la densité de puissance est élevée.

Source : VideoCardz

Intel Arc G3 pour consoles portables : LPDDR5X-8533 ciblé

Par :Wael.K
7 février 2026 à 16:35

Intel affine discrètement sa stratégie pour les consoles PC portables. Les configurations Arc G3 basées sur Panther Lake visent prioritairement de la LPDDR5X-8533, un choix qui confirme une approche pragmatique orientée volumes et coûts maîtrisés, plutôt qu’une course à la bande passante maximale réservée aux déclinaisons plus haut de gamme.

Dans la pile Panther Lake, le plafond mémoire grimpe bien jusqu’à LPDDR5X-9600, mais uniquement sur les Core Ultra X9 388H, X7 368H et X7 358H, tous associés à un iGPU Arc B390. À l’inverse, le Core Ultra 5 338H, équipé d’un Arc B370, est listé en LPDDR5X-8533, tandis que les modèles LPDDR5X-6800 couvrent notamment les Core Ultra 7 365/355 et Core Ultra 5 335/325. Cette segmentation mémoire recoupe clairement la hiérarchie CPU, iGPU et les cibles tarifaires.

Intel Core Ultra Series 3 specs

Nomenclature encore mouvante, mais fenêtre de tir plus claire

La série pourrait apparaître sous l’appellation Core G3 ou Arc G3. Les roadmaps les plus récentes privilégient cette dernière, et certains documents internes évoquent même un Arc B390 en remplacement du B380, signe d’une nomenclature encore en transition.

Côté calendrier, la feuille de route actuelle pointe un lancement au T2 2026 pour les plateformes G3. Aucun constructeur n’a pour l’instant confirmé de machine commerciale, malgré l’intérêt supposé de plusieurs partenaires historiques du segment handheld.

Ce que cela change concrètement pour les consoles portables

Sur un design à iGPU, la bande passante mémoire reste un facteur clé, mais pas unique. En ciblant la LPDDR5X-8533, Intel favorise des configurations plus généreuses en capacité, limite les coûts plateforme et réduit le risque de tarifs premium. Les performances réelles dépendront toutefois autant du niveau d’iGPU Arc B390/B370 que des PL, des profils thermiques et du tuning OEM. Sur ce terrain, chaque watt comptera.

Le retard confirmé des Core G3 Panther Lake pour handhelds, désormais attendus au T2 2026, avec deux puces 14 cœurs et des iGPU Arc B380/B360, un report qui illustre les ajustements en cours côté Intel face à une concurrence AMD déjà bien installée.

ZOTAC GAMING Alloy : le premier boîtier PC de ZOTAC, réservé à l’Asie

Par :Wael.K
7 février 2026 à 16:13

On connaissait ZOTAC pour ses cartes graphiques RTX, ses mini-PC et plus récemment sa console portable Zone. En revanche, personne ne l’attendait sur le terrain des boîtiers PC. Pourtant, la marque vient de franchir le pas avec l’ALLOY, un premier châssis gaming au format microATX qui assume clairement son ADN orienté performances… mais sans viser l’Europe pour l’instant.

Un premier boîtier ZOTAC GAMING, pensé pour les GPU massifs

Avec l’ALLOY, ZOTAC ne joue pas la carte du boîtier compact contraignant. Malgré son format microATX, le châssis accepte des cartes graphiques jusqu’à 41 cm de long, de quoi loger sans difficulté des modèles triple slot haut de gamme. Le positionnement est clair : permettre des configurations gaming puissantes dans un volume plus contenu qu’une tour ATX classique, sans compromis sur le refroidissement.

zotac alloy matx case gold white

Les dimensions restent maîtrisées, tout en laissant de l’espace pour un ventirad CPU de 170 mm et une alimentation de 180 mm. Un choix cohérent pour viser les joueurs exigeants, notamment ceux qui cherchent un setup performant sans basculer vers le Mini-ITX.

Flux d’air au centre de la conception

L’ALLOY mise fortement sur la ventilation. Jusqu’à dix emplacements pour ventilateurs de 120 mm sont annoncés, avec trois ventilateurs fournis d’origine sur certaines versions. Le watercooling n’est pas oublié, avec un support pour radiateur jusqu’à 360 mm, idéalement positionné sur le dessus du boîtier.

zotac alloy vue eclatee

La façade avant adopte une large grille favorisant l’entrée d’air, complétée par un déflecteur interne destiné à diriger le flux directement vers la carte graphique. Un détail qui montre que le châssis a été pensé pour encaisser les contraintes thermiques des GPU modernes, souvent très gourmands en refroidissement.

Un design clivant, très marqué ZOTAC

Visuellement, l’ALLOY ne cherche pas à faire l’unanimité. La version noire, avec ses accents jaune-or, reprend clairement les codes esthétiques des cartes graphiques ZOTAC GAMING. Une déclinaison blanche et argentée est également prévue pour des configurations plus sobres. Le boîtier combine acier, plastique ABS, aluminium et verre trempé, avec une identité visuelle assumée, pensée pour s’intégrer dans un setup full ZOTAC.

boitier pc microatx zotac alloy black gold
boitier pc microatx zotac alloy white

La connectique en façade reste en revanche minimaliste, avec un port USB-C et un USB-A, un choix qui pourra diviser selon les usages.

boitier pc microatx zotac alloy white vue back
boitier pc microatx zotac alloy black gold vue back

Prix agressif… mais lancement très limité

C’est peut-être l’aspect le plus frustrant du dossier. L’ALLOY est pour l’instant réservé à la zone APAC, sans annonce de commercialisation en Europe ou en France. En Asie, les premiers tarifs évoqués tournent autour de l’équivalent de 60 € TTC, un positionnement très agressif pour un boîtier orienté gaming et compatible avec de très grosses cartes graphiques. Une version dépourvue de ventilateurs serait même prévue à un prix encore inférieur.

Aucune date ni prix officiel n’ont été communiqués pour un lancement mondial, laissant planer le doute sur une éventuelle arrivée chez nous.

Un signal fort, même sans sortie européenne

Avec l’ALLOY, ZOTAC envoie un message clair : la marque ne veut plus se limiter aux composants, mais construire un véritable écosystème gaming. Ce premier boîtier pose des bases solides sur le papier, tant en compatibilité GPU qu’en refroidissement, tout en affichant un tarif potentiellement très compétitif.

Reste désormais la question clé : ZOTAC osera-t-il franchir le pas et proposer l’ALLOY hors de l’Asie, ou s’agit-il d’un simple test grandeur nature avant une expansion plus large. Les joueurs européens, eux, peuvent déjà commencer à regarder ce boîtier… avec un certain goût amer.


Caractéristiques générales
FormatTour microATX
MatériauxAcier, aluminium, ABS, verre trempé
Commandes et connectiqueBouton Power, USB 3.2 Gen 1 x1, USB 3.2 Gen 2 Type-C x1, combo casque/micro
Dimensions458 × 222 × 433 mm (L × l × H)
Compatibilité et dégagements
Cartes mèresMicro-ATX, Mini-ITX
Compatibilité connecteurs arrièreNon compatible
Longueur maximale alimentation≤ 180 mm (format ATX)
Hauteur maximale ventirad CPU≤ 170 mm
Longueur maximale carte graphique≤ 412 mm
Support radiateursHaut : 120 / 140 / 240 / 280 / 360 mm • Arrière : 120 mm
Slots et stockage
Slots PCIe5
Baies 3,5″1
Baies 2,5″1
Ventilation
Façade3 × 120 mm
Dessus3 × 120 mm ou 2 × 140 mm
Plaque intermédiaire2 × 120 mm
Cache alimentation1 × 120 mm
Arrière1 × 120 mm
Filtres à poussièreFaçade, dessous
Ventilateurs fournis
TypePWM
Vitesse1350 à 1450 tr/min
Longueur des câbles550 mm

source : Zotac

AYANEO KONKR FIT : Ryzen AI 9 HX 370/470, OLED 7″ 144 Hz, précommandes ouvertes

Par :Wael.K
7 février 2026 à 15:54

Précommandes ouvertes pour le AYANEO KONKR FIT version Ryzen AI 9, livraisons en avril : AYANEO vise le segment 7 pouces hautes performances avec une fiche technique sans compromis.

AYANEO KONKR FIT : Ryzen AI 9 HX 370/470 et écran OLED 144 Hz

Personne jouant à la console AYANEO KONKR FIT en ambiance détente

Premier modèle Windows de la sous‑marque KONKR, le KONKR FIT démarre en précommande avant une expédition annoncée en avril. L’appareil adopte un OLED de 7 pouces en 1920 × 1080, 144 Hz, HDR, avec quatre modes de rafraîchissement et une luminance maximale de 800 nits.

KONKR Pocket FIT specs

Deux options CPU sont listées : AMD Ryzen AI 9 HX 370 ou HX 470. Le modèle HX 370 s’accompagne de 16 Go de LPDDR5x et d’un SSD M.2 2230 PCIe 4.0 ×4 de 512 Go ; la version HX 470 monte à 32 Go de LPDDR5x et 1 To de stockage.

Collage de fonctionnalités KONKR FIT avec texte explicatif

La connectique comprend un lecteur microSD UHS‑II, un USB‑C 40 Gbps, un USB‑C 10 Gbps et une prise jack 3,5 mm. Un lecteur d’empreintes est intégré au bouton d’alimentation.

Console AYANEO KONKR FIT sur fond de surface hexagonale argentée

Ergonomie, commandes et autonomie

Gros plan console AYANEO KONKR FIT sur texture hexagonale
Détail de joystick console AYANEO KONKR FIT sur fond orange lumineux
Console AYANEO KONKR FIT grise avec éclairage professionnel sur fond gris métallisé

AYANEO annonce des joysticks TMR, des gâchettes double mode (effet Hall ou micro‑switch), deux boutons arrière et des touches supplémentaires remappables. Un moteur de vibration et une poignée travaillée sont également au programme.

ayaneo konkr fit batterie

Le châssis mesure 270,8 × 100,4 × 25,1 mm pour environ 738 g. La batterie atteint 80,85 Wh, avec charge rapide PD et bypass charging.

Tarifs, configurations et disponibilité

Les prix mondiaux en précommande sont fixés à 999 $ pour le HX 370 et 1 299 $ pour le HX 470, soit environ 1099 € et 1 399 € TTC estimés selon conversions indicatives. La disponibilité des coloris varie selon la configuration.

Console AYANEO KONKR FIT orangée sur fond blanc pur
Console AYANEO KONKR FIT grise avec éclairage rouge sur fond blanc

Positionné face aux 7 pouces x86 les plus rapides, ce modèle combine OLED 144 Hz, I/O rapide (USB‑C 40 Gbps) et gros pack batterie. Le choix HX 470 avec 32 Go/1 To paraît cohérent pour des jeux lourds et l’IA locale, tandis que le lecteur microSD UHS‑II et le format M.2 2230 assurent une marge d’évolution concrète.

Source : AYANEO

RTX 5090 Lightning Z : MSI déploie déjà tout l’écosystème logiciel

Par :Wael.K
7 février 2026 à 15:35

La GeForce RTX 5090 Lightning Z n’est toujours pas disponible à l’achat. En dehors d’une loterie très limitée organisée à Taïwan, la carte graphique la plus extrême de MSI reste inaccessible au grand public. Pourtant, un élément clé est déjà public, maintenu et officiellement distribué : le Lightning Hub Launcher. Une situation inhabituelle qui révèle beaucoup sur la stratégie adoptée par MSI pour sa gamme Lightning.

Un logiciel officiel déjà publié… sans la carte

Le MSI Lightning Hub Launcher est disponible sur le Microsoft Store depuis le 26 décembre 2025. L’application, d’un poids d’environ 130 Mo, a reçu une mise à jour début février 2026, preuve d’un développement actif. Elle est éditée directement par MSI et ne se présente ni comme un outil interne ni comme une simple version de démonstration.

MSI Lightning Hub Launcher 01

Sa description officielle détaille clairement son rôle : permettre le suivi des performances GPU, l’ajustement de l’overclocking, la gestion du refroidissement liquide et de l’éclairage, ainsi que l’accès aux interfaces web et mobile de l’écosystème Lightning.

Le Lightning Hub Launcher, cœur du système

Un point essentiel ressort des informations publiées par MSI : le Lightning Hub Launcher est indispensable. La mention visible sur la page officielle est explicite : l’accès aux fonctions web nécessite l’installation préalable de l’application Windows.

lightninghub msi

MSI a également publié Lightning Overdrive, son application mobile dédiée à la gamme Lightning, confirmée sur Android. Les captures officielles montrent des fonctions de monitoring et de réglage avancé, mais là encore, le fonctionnement repose sur le Lightning Hub Launcher actif sur la machine hôte.

msi lightning overdrive

Cela permet d’établir un schéma clair et factuel :

  • le Lightning Hub Launcher est la brique centrale
  • les interfaces web et mobile ne sont pas autonomes
  • toute communication avec la carte passe par ce logiciel installé sur le PC

Autrement dit, le Launcher agit comme un pont local entre le GPU et les interfaces distantes.

Une approche assumée du très haut de gamme

La Lightning Z ne se limite pas à un PCB surdimensionné et à un refroidissement liquide AIO couvrant GPU, VRM et mémoire GDDR7. Elle s’inscrit dans une logique d’objet premium, pensé dès l’origine autour d’un écosystème logiciel dédié. Le Lightning Hub Launcher n’est pas un simple utilitaire de monitoring à la manière de MSI Afterburner ou du MSI Center classique, mais le socle d’une expérience multi-plateforme.

MSI LIGHTNING hub launcher MENU

Ce que l’on peut affirmer aujourd’hui

Sans extrapolation, les faits sont clairs :

  • l’écosystème logiciel Lightning est déjà déployé publiquement
  • le Lightning Hub Launcher est obligatoire pour activer les fonctions web et mobile
  • MSI a publié cette brique centrale avant la commercialisation effective de la carte

La RTX 5090 Lightning Z reste un objet rare et volontairement inaccessible. Mais sur le plan logiciel, tout est déjà en place. Un signal discret, mais révélateur, de l’ambition de MSI de transformer sa carte graphique extrême en un produit d’exception, où le logiciel occupe un rôle aussi structurant que le hardware.

Radeon RX 9070 XT NITRO+ Crimson Desert Edition : édition co-brandée, design inchangé côté specs

Par :Wael.K
7 février 2026 à 13:26

Édition spéciale, habillage minimal. Sapphire signe une RX 9070 XT NITRO+ aux couleurs de Crimson Desert sans toucher, a priori, aux caractéristiques.

Radeon RX 9070 XT NITRO+ Crimson Desert Edition

Après une fuite sur son existence, relayée dans nos colonnes il y a quelques jours, le modèle fait désormais sa première apparition officielle à travers des rendus. Aucune photo du produit final n’a encore été publiée.

Le carter NITRO+ conserve son design et sa palette de couleurs habituels, avec un discret logo Crimson Desert apposé près du moyeu du ventilateur central.

Your next action adventure awaits👀 pic.twitter.com/fD0cTitLOv

— SAPPHIRE Technology (@SapphireTech) February 6, 2026

La principale nouveauté visuelle se trouve sur la backplate : artwork thématique sur toute la surface et autocollants de ventilateurs dédiés. Aucune autre différence apparente avec le modèle NITRO+ d’origine.

Sapphire n’indique pas si la backplate est peinte, en décalcomanie ou remplaçable. La fiche technique n’est pas publiée, mais tout laisse penser à des spécifications identiques au NITRO+ classique, y compris l’alimentation 16 broches.

Prix et positionnement

La RX 9070 XT NITRO+ Crimson Desert Edition apparaît référencée chez un distributeur professionnel, avec un tarif indicatif de 779,46 € HT, soit environ 935 € TTC.

Ce prix, relevé sur une fiche B2B sans stock et en statut « sur commande », reste à considérer avec prudence et ne préjuge pas du tarif public final. Il traduit toutefois un positionnement nettement premium pour cette édition co-brandée, alors même qu’aucune évolution matérielle n’est annoncée par rapport à la NITRO+ standard.

Crimson Desert daté au 19 mars 2026

Révélé par Pearl Abyss en novembre 2019, le titre sortira le 19 mars 2026. Solo, monde ouvert, action-aventure sur le continent de Pywel, avec Kliff et les Greymanes au cœur du scénario.

Cette RX 9070 XT NITRO+ Crimson Desert Edition s’inscrit dans une logique d’image et de collection, à l’image des éditions thématiques récentes. Elle ne vise ni la performance supplémentaire ni l’innovation matérielle, mais un public déjà acquis à l’univers du jeu.

Core Ultra 200S Plus : tests des 270K Plus et 250K Plus attendus le 23 mars

Par :Wael.K
7 février 2026 à 13:07

Un nouvel embargo de tests tombe pour les puces desktop d’Intel, avec une date précise qui cible les modèles les plus vendables. Et un haut de gamme pressenti disparaît du tableau.

Embargo des tests et périmètre des modèles

Leaker HXL avance un embargo revue fixé au 23 mars 2026 à 6:00 AM Pacific Time pour les Core Ultra 7 270K Plus et Core Ultra 5 250K/250KF. Intel n’a rien officialisé à ce stade ; la date reste donc du registre de la fuite.

Core Ultra 7 270K Plus & Ultra 5 250K/KF review embargo at Mar/23, 2026 6AM PST.

— HXL (@9550pro) February 7, 2026

Le post mentionne uniquement deux références desktop, les Core Ultra 7 270K Plus et Core Ultra 5 250K Plus, avec variantes KF. Comme d’habitude chez Intel, les KF sont dépourvus d’iGPU, tandis que les K conservent l’iGPU actif.

Core Ultra 200S Plus : annulation du 290K Plus et positionnement

Nos informations concordantes indiquent qu’Intel a annulé le Core Ultra 9 290K Plus. Aucune communication publique n’a été faite par Intel, mais deux sources distinctes confirment cette décision.

Visuel illustrant l'annulation du processeur Intel Core Ultra 290K Plus

Le 290K Plus aurait conservé une configuration 24 cœurs avec 8 P-cores et 16 E-cores, des limites de puissance proches du Core Ultra 9 285K et de petits incréments de fréquence, incluant un pic Intel Thermal Velocity Boost supérieur. Avec un 270K Plus également attendu à 24 cœurs selon les fuites, l’annulation réduit le chevauchement en haut de gamme.

Si l’embargo du 23 mars se confirme, Intel ciblera d’abord le cœur de gamme enthusiast avec les 270K Plus et 250K Plus/KF, en laissant de côté, au moins pour l’instant, un Ultra 9 Plus qui aurait été trop proche en spécifications.

Source : VideoCardz

❌