Sélection de 8 coques minimalistes pour protéger son iPhone 16 Pro
![]()
![]()
![]()
![]()
NVIDIA, l’entreprise qui a largement déclenché l’accélération mondiale autour de l’intelligence artificielle, semble aujourd’hui appliquer à grande échelle ses propres technologies en interne. Selon les dernières informations, le géant du GPU aurait généralisé l’usage d’outils d’IA générative auprès d’environ 30 000 ingénieurs, dans le but d’augmenter fortement la productivité logicielle. Une évolution majeure, car NVIDIA […]
L’article NVIDIA déploie l’IA générative auprès de 30 000 ingénieurs : la production de code aurait triplé est apparu en premier sur HardwareCooking.
Alors même que la génération Arrow Lake Refresh n’a pas encore été officiellement lancée, Intel aurait déjà pris une décision radicale : annuler son processeur le plus ambitieux de cette vague de rafraîchissement. Selon un rapport relayé par VideoCardz, le Core Ultra 9 290K Plus, présenté comme le SKU phare de cette mise à jour […]
L’article Intel annulerait le Core Ultra 9 290K Plus : le flagship de l’Arrow Lake Refresh déjà abandonné est apparu en premier sur HardwareCooking.
![]()
Une RTX 3080 Ti sérieusement cabossée a quitté l’atelier sur ses deux pieds, malgré un PCB fendu et une section VRAM carbonisée. Le technicien a tranché : inutile de sauver la carte, mais le GPU méritait une seconde vie.
Le réparateur chinois Brother Zhang a reçu une Colorful RTX 3080 Ti iGame Advanced avec backplate enfoncée, PCB tordu et une fissure nette en bout de carte. La note du propriétaire indique un choc initial, confirmé ensuite : la carte a été frappée deux fois PC éteint, puis le système a été allumé une fois après.

Contrôle de base avant mise sous tension : mesures de résistance à la masse sur l’entrée PCIe 12 V et sur plusieurs rails 12 V, puis décision de ne pas alimenter la carte pour éviter d’emporter le die et la mémoire. Au démontage, constat aggravé : zone d’alimentation de la GDDR6X brûlée, composants craterisés près des MOSFETs, pli prononcé du PCB.

Le technicien classe la partie VRAM comme à haut risque de dégâts collatéraux sur les RTX 3080-series. Plutôt que de patcher à l’aveugle, il extrait le package GA102, le nettoie, le rebille, puis le soude sur un PCB donneur de classe RTX 3080 déjà peuplé en VRAM.

Après quelques reprises locales sur la carte donneuse, la plateforme boote, passe sous Windows et tient des vérifications de stabilité et des runs de validation courts. Seul compromis : le refroidissement final est de type blower.




Rappel specs : la GeForce RTX 3080 Ti s’appuie sur Ampere avec 10 240 cœurs CUDA, 12 Go de GDDR6X sur bus 384 bits et un power target de 350 W. Le potentiel restait donc suffisant pour justifier l’opération.
Cas d’école : entre un PCB structurellement compromis et une régulation mémoire endommagée, l’alimentation directe aurait pu achever le GA102 et les puces GDDR6X. La voie raisonnable était la transplantation, qui confirme que la valeur se concentre sur le package GPU et la pile mémoire associée du donneur, pas sur une carte hôte irrécupérable.
Source : VideoCardz
Les jeux vidéo rendent violent. Sérieusement ? En fucking 2026, y'a encore des gens pour sortir ça à table le dimanche ou piiiire en public sur le net ?
Aaaaannnh, c'est la honte quand même de dire ça, prem deug. C'est un peu comme ceux qui pensaient que le rock rendait sataniste ou que la BD poussait au crime dans les années 50. À chaque génération, les mêmes paniques… et à chaque fois, la science finit par leur donner tort, ce qui nous permet de nous foutre de leur gueule.
Alors parce que pour battre l'obscurantisme, y'a rien de mieux que de la science, des preuves, des choses tangibles et vraies, je vais vous en donner un peu pour votre argent…
Tenez, en 2019, une équipe d'Oxford (Przybylski et Weinstein, pour les curieux) a suivi 1004 adolescents britanniques pour mesurer l'impact des jeux violents sur leur comportement. Résultat… aucun lien. Ouais, que dalle, et c'était pas un petit sondage BFMTV ou je sais pas quoi, hein… Non, c'est l'une des études les plus rigoureuses sur le sujet, avec des données croisées entre les ados ET leurs parents.
En 2018, des chercheurs du Max Planck Institute à Berlin ont également fait jouer 90 adultes à GTA V pendant deux mois . Tous les jours, 30 minutes minimum sur la version PC. Ensuite, passage au scanner IRM. Aucune modification du comportement, aucune hausse d'agressivité. Rien du tout !
Et c'est pas fini. En 2022, Johannes et son équipe ont suivi 2580 joueurs d'Apex Legends et Outriders avec des données télémétriques Steam et Xbox Live (pas du déclaratif, de la vraie data serveur). Même résultat. Y'a waloooo !
Hé mais j'ai encore mieux les amis puisqu'une étude portant sur une durée de 10 ANS (!!!) publiée dans Cyberpsychology a suivi des gamins qui ont grandi avec GTA. De 10 à 20 ans, avec des questionnaires annuels ! Résultat, y'a pas plus de violence, pas plus de dépression, pas plus d'anxiété. En fait, les groupes ne diffèrent même pas sur les comportements prosociaux. Y'a eu un seul cas de figure où on observait un léger effet, c'est les gamins qui cumulaient jeux violents ET problèmes familiaux préexistants. Sauf que là, c'est le contexte familial le problème, pas la manette. Ce serait bien plus efficace de faire des lois pour interdire les familles de merde, en fait !
Du coup, si la science dit NON, alors pourquoi ce débat pour décérébrés continue ?
Le problème c'est qu'à une époque lointaine que seuls les profs de théâtre auraient pu connaitre, certaines méta-analyses (coucou Anderson et Bushman) trouvaient des corrélations minuscules entre les jeux vidéo et la violence… Genre r = 0,11, ce qui en gros signifie que les JV n'expliqueraient que 2 % du comportement violent d'une personne… Donc autant dire quasiment rien. C'est moins que l'effet de la météo sur votre humeur !!
Et surtout, d'autres chercheurs ont démontré un peu plus tard que ces résultats étaient biaisés . En gros, on publiait les études qui trouvaient un effet et on planquait celles qui trouvaient rien. C'est un cas particulier typique du biais de publication (et y'en avait un sacré paquet des études planquées).
D'ailleurs, même l'APA , la plus grande association de psychologie au monde, a revu sa position en 2020. Leur conclusion : pas de preuve suffisante d'un lien causal. Bon bah quand la plus grosse autorité en psycho vous dit que c'est du vent… normalement, on remballe.
Après, attention, hein, ça veut pas dire que laisser un gosse de 8 ans jouer à GTA Online 12 h par jour c'est une super idée. À la base, la classification PEGI 18 existe pour une raison. Sauf que là, c'est une question d'éducation et de contrôle parental… mais pas de violence virtuelle qui "contaminerait" le cerveau. Et ça, aucune étude sérieuse ne le conteste.
Et si vous voulez des chiffres qui parlent, en voilà. J'ai pas les chiffres en France, mais depuis les années 90, la violence juvénile aux USA a chuté de +80 % selon le Bureau of Justice Statistics. Pendant ce temps, GTA V a dépassé les 200 millions d'exemplaires vendus depuis sa sortie en septembre 2013. Call of Duty, toutes versions confondues depuis CoD 4 en 2007, c'est plus de 400 millions de copies.
Donc NORMALEMENT si les jeux rendaient violent, on devrait nager dans le sang h24, là non ?
Ah et j'oubliais… Le cas du Japon est encore plus parlant. C'est LE pays du gaming, premier marché de la planète par habitant… et un taux d'homicides de 0,2 pour 100 000 habitants en 2023 . Aux USA, c'est plus de 5 . VINGT-CINQ fois plus. Cherchez l'erreur. (Tips : y'en a pas, sauf si on considère que les Japonais sont secrètement immunisés contre les pixels violents.)
Une étude menée par Przybylski sur Animal Crossing a même montré que jouer pouvait être bénéfique pour le moral. Et le NIH a découvert en 2022 que les enfants qui jouent plus de 3 h par jour ont de meilleures performances cognitives que les autres (oui oui, vous avez bien lu). Du coup, non seulement les jeux vidéo ne rendent pas violents mais en plus, ils vous rendent plus malins. C'est diiiingue !
Allez, hop, un dernier clou dans le cercueil et après je vous laisse.
En 2011, la Cour suprême des États-Unis, c'est-à le plus haut tribunal de ce pays de fous, a examiné la question de savoir si les jeux vidéo violents représentaient un vrai danger . Verdict, par 7 voix contre 2, les juges ont conclu que non car les preuves scientifiques étaient insuffisantes pour établir un lien entre jeux vidéo et violence. C'est même le juge Scalia, pourtant connu pour ses positions ultraconservatrices, qui a rédigé la décision. Quand même, hein les gars !!! Autrement dit, même la justice américaine a fini par dire stop aux marchands de peur.
Et le CNRS le confirme , au cas où y'aurait encore des sceptiques.
Alors la prochaine fois qu'un tocard vous sortira le couplet "nia nia nia les jeux vidéo rendent nos enfants violents, nia nia nia", vous aurez une vision claire concernant le vide abyssal de ses connaissances sur ce sujet. Et dites-vous que si ça balance des conneries aussi grosses que ça et aussi débunkées que ça, mais putain qu'est-ce que ça doit être sur les autres sujets… Argh !
Perso, moi ce qui va finir par me rendre violent un jour, c'est la connerie humaine.

Un nouveau BIOS bêta débarque chez ASRock, avec une promesse claire : éliminer des pannes de démarrage sur certaines configurations CPU. La mise à jour cible huit cartes mères AMD série 800 et ajuste aussi la compatibilité mémoire.
ASRock publie le BIOS 4.07.AS01 en bêta pour huit modèles X870/X870E. Les notes de version listent AGESA ComboAM5 PI 1.3.0.0a, une optimisation de la compatibilité mémoire et la résolution d’un échec de démarrage sur certaines configurations CPU.
Aucune communication dédiée n’accompagne ce firmware. La dernière prise de parole publique d’ASRock remonte au 5 février, évoquant des investigations internes sur les problèmes Ryzen 9000 et un travail conjoint avec AMD pour valider les performances tout en « optimisant le BIOS ».

Le périmètre exact du correctif de « boot failure » n’est pas précisé. Les cartes mères AMD série 800 prennent en charge les Ryzen 7000, 8000 et 9000, et la note n’identifie aucune famille en particulier.
Voici la liste des cartes répertoriées avec le BIOS 4.07.AS01 (bêta) au 7 février :
La communauté Reddit centralise les signalements d’instabilité et de défaillances sur AM5. Le suivi mentionne actuellement 183 cas pour des Ryzen 7 9800X3D défaillants uniquement, sans certitude que le 4.07.AS01 cible spécifiquement ces incidents.
Pour les utilisateurs impactés par des pannes de démarrage, ce firmware pourrait constituer une première étape pragmatique. La présence d’AGESA 1.3.0.0a et d’ajustements mémoire suggère un travail de fond sur l’initialisation plateforme, élément critique sur AM5 avec DDR5 et profils EXPO.
Si ce correctif stabilise effectivement le POST sur un spectre large de CPU AM5, ASRock pourrait réduire la pression communautaire le temps que des microcodes ultérieurs affinent la gestion des tensions et timings mémoire sur les X870/X870E.
Lire aussi : ASRock ouvre des revues internes après des Ryzen 9000 morts, flou sur les BIOS et réglages
Source : VideoCardz
Les BIOS de la MSI GeForce RTX 5090 Lightning Z ont fuité avant la sortie officielle prévue la semaine prochaine. Deux versions circulent désormais : 800W (profil OC) et 1000W (profil Extreme), déjà testées avec succès sur plusieurs modèles concurrents par la communauté overclocking. Une situation rare qui ouvre des perspectives pour les passionnés, mais non sans risques.
La fuite a débuté il y a environ 24 heures avec le BIOS 800W, comme l’a confirmé slovak_killer, overclocker reconnu sur XOC HWBot. La situation a rapidement évolué : le BIOS 1000W est apparu sur TechPowerUp il y a quelques heures seulement, accessible au téléchargement via la base de données VGA BIOS.


Slovak_killer précise avoir dû contacter un journaliste qui partageait déjà des résultats de benchmarks avant l’embargo, soulignant que ces cartes ont été reçues en avance par certains testeurs. La communauté OverclockersNet teste actuellement les deux versions de manière intensive.
Selon UNIKO’s Hardware, source fiable sur Twitter/X, plusieurs RTX 5090 non-MSI parviennent à booter avec le BIOS Lightning. Les modèles confirmés incluent :
Attention toutefois : booter ne signifie pas fonctionnement optimal. Des utilisateurs rapportent des comportements d’alimentation inattendus et des problèmes de contrôle des ventilateurs sur certaines configurations.
With the recent MSI RTX5090 Lightning 1000W BIOS leak I decided to give it a quick try on the Zotac RTX5090
— Madness! (@Madness727) February 7, 2026
With this BIOS only ONE fan is active (Far Left fan), the other two are not spinning!
Here's a Clockspeed, Power and Voltage comparison against the ASUS MATRIX BIOS https://t.co/GXn6MTpbn1 pic.twitter.com/wkLka9D5wn
Depuis plusieurs générations, les BIOS verrouillés freinent l’overclocking GPU. Pour repousser les limites de puissance, les adeptes recouraient à des shunt mods ou à des BIOS extrêmes non officiels. L’arrivée de flagships orientés OC rouvre des marges d’expérimentation, avec des garanties potentiellement invalidées.
Vu le tarif des RTX 5090 et les risques d’un flash non officiel, ces tentatives doivent rester l’apanage d’utilisateurs aguerris acceptant les conséquences. À stock, la 5090 est déjà très rapide.
Si ce BIOS 800 W marque une vraie latitude pour l’OC sur la RTX 5090, la cohérence du VRM, des connecteurs et du refroidissement reste déterminante. Les cartes nativement prévues pour ces enveloppes thermiques conserveront un net avantage en stabilité et en contrôle fin des courbes de puissance.
Source : VideoCardz
En Europe, Amazon constate désormais jusqu’à sept ans d’attente pour raccorder de nouveaux data centers au réseau électrique. D’après Pamela McDougall, en charge des marchés de l’énergie pour AWS en Europe, Moyen‑Orient et Afrique, ces délais repoussent mécaniquement l’entrée en service de sites pourtant construits en deux ans, rendant improbable toute mise en exploitation avant 2030 sans connexion au réseau.
Le goulot d’étranglement provient d’une demande énergétique qui explose, tirée par l’infrastructure IA. Des data centers historiquement dimensionnés à 6 à 12 kW par rack doivent encaisser des charges multipliées, avec à la clé une pression inédite sur la capacité locale et les postes sources. La Commission européenne anticipe une consommation des data centers passant de 96 TWh en 2024 à 168 TWh en 2030, un bond qui ne cadre ni avec le rythme d’évolution des réseaux, ni avec les cycles d’investissement des opérateurs de transport et de distribution.
La chaîne d’approvisionnement n’arrange rien : les délais pour des transformateurs de puissance s’allongent jusqu’à quatre ans, verrouillant les calendriers de renforcement et de raccordement. À cette contrainte matérielle s’ajoutent des files d’attente saturées par des projets « fantômes » qui réservent de la capacité sans avancer réellement, surtout en Italie et en Espagne, où les gestionnaires voient affluer des demandes cumulant des dizaines de GW.
Ces réservations spéculatives bloquent de facto des projets matures ayant terrain, financement et permis, dont ceux d’Amazon. Sur le papier, la capacité est prise ; dans les faits, elle dort en file d’attente, créant une rareté artificielle. Les opérateurs de réseau doivent trier et purger, mais les mécanismes d’allocation et de pénalités restent hétérogènes selon les pays, ralentissant le tri et allongeant les horizons de mise sous tension.
Pour les hyperscalers, l’équation devient doublement complexe : sécuriser l’accès à une électricité décarbonée conforme aux trajectoires ESG, tout en composant avec des délais qui dépassent la durée de construction des bâtiments et des salles IT. Le décalage entre l’appétit IA et le pas de temps des infrastructures de réseau atteint un point critique.
Si la situation perdure, l’arbitrage pourrait se déplacer vers des localisations avec files d’attente nettoyées, schémas de « connect and manage » plus souples, contrats de flexibilité et autoproduction sur site pour soulager le raccordement initial. À court terme, les investissements dans les transformateurs de puissance, la régulation anti-spéculative des demandes de connexion et la priorisation des projets avancés seront déterminants pour éviter que l’IA ne bute sur un plafond électrique avant 2030.
Source : ITHome
Crypto.com change d’échelle hors crypto. Selon le Financial Times, Kris Marszalek a acquis le domaine AI.com pour 70 millions de dollars, une transaction intégralement réglée en cryptomonnaies via le courtier GetYourDomain.com. Le montant, confirmé par le broker Larry Fischer, établit un record public pour un nom de domaine. L’adresse servira de rampe de lancement à une plateforme d’agents IA grand public, dévoilée à l’occasion du Super Bowl.
Le projet vise un assistant unique capable d’échanger par messages, d’orchestrer des applications et de piloter des opérations de bourse, avec une barrière d’entrée minimale. Marszalek évoque une expérience comparable à OpenClaw, agent viral à la mode à San Francisco ces dernières semaines, mais pensée pour un usage plus simple et plus large.
L’entrepreneur, qui a fondé Crypto.com en 2016 et revendique environ 1,5 milliard de dollars de revenus annuels, assume le ticket d’entrée : « nous voulons maîtriser l’accès, sinon on se fait commoditiser ». Plusieurs offres « délirantes » lui auraient déjà été faites pour racheter AI.com. Il écarte pour l’instant toute revente, misant sur l’effet de marque et la confiance dans l’un des marchés les plus rapides du moment.
Le vendeur reste anonyme, mais le broker confirme que « des actifs comme AI.com n’ont pas de substitut ». Au-delà de la spéculation sur les noms de domaine, l’approche rappelle la trajectoire de Crypto.com, parti dans un océan de milliers d’exchanges avant de s’imposer grâce à un marketing agressif et des deals de visibilité. Marszalek estime que l’IA s’imposera comme vague structurante sur 10 à 20 ans et veut verrouiller un point d’entrée mémorable dès maintenant.
La bascule d’un exchange crypto vers un agent IA transposable à la finance de détail pose des questions de conformité, de garde d’actifs et d’exécution, surtout si l’assistant initie des ordres. Si l’intégration tient la route côté sécurité et UX, l’association d’un domaine ultra-liant et d’un cas d’usage immédiatement monétisable pourrait accélérer l’adoption bien au-delà de la sphère tech.
Source : ITHome
Selon une fuite relayée sur X par Smart Pikachu (Weibo), OpenAI préparerait un premier matériel baptisé « Dime », un casque audio au format intra rappelant les AirPods d’Apple. Le projet marquerait un recentrage net par rapport aux rumeurs antérieures d’un appareil « quasi-smartphone » doté d’une puissance de calcul embarquée et d’un BOM comparable à celui d’un terminal mobile haut de gamme.
La source évoque la mise entre parenthèses d’une architecture ambitieuse, avec compute local et composants premium, sur fond de tension persistante sur l’approvisionnement en mémoire. Les prix des puces mémoire resteraient élevés, rendant difficile tout modèle économique viable pour un « casque à haute puissance de calcul ».
Yesterday my good friends at DS report on Weibo that CNIPA国知局 patent filing for Openai hardware become public yesterday for new IP rule for big Usa Ai companys operating in China
— 智慧皮卡丘 Smart Pikachu (Weibo) (@zhihuipikachu) February 6, 2026
Document confirm a detail I am already hearing: consumer name for Sweetpea airpod product will be…
OpenAI privilégierait une approche « d’abord simple » avec un produit audio plus traditionnel, centré sur l’IA côté audio et une feuille de route graduelle. Ce Dime, envisagé dans une première déclinaison « de base », viserait à établir une présence matérielle, collecter des retours d’usage et ajuster le produit avant d’éventuelles itérations plus ambitieuses.
La fenêtre viserait 2026 pour la commercialisation de la version initiale. Le calendrier reflète l’état du marché des composants et l’objectif de contenir les coûts. Aucun prix, spécification détaillée ni partenaire industriel n’est mentionné dans la fuite.
Si ce scénario se confirme, il signera une entrée pragmatique d’OpenAI sur le matériel, à contre-pied des paris « tout-en-un » très capitalistiques. Un casque IA sans surenchère silicium, s’appuyant davantage sur l’orchestration cloud et l’optimisation logicielle, réduit le risque industriel et teste la désirabilité d’un assistant audio en continu. La suite dépendra de la détente sur la mémoire et de la capacité d’OpenAI à verrouiller une chaîne d’approvisionnement stable avant d’escalader en compute embarqué.
Source : ITHome
Semaine chargée pour les joueurs GeForce RTX : trois jeux adoptent DLSS 4 avec Multi Frame Generation tandis que deux autres s’en tiennent au DLSS Super Resolution. De quoi pousser les fréquences d’images et la netteté d’image dès leur sortie ou en accès anticipé.
Nioh 3 sort le 6 février avec DLSS 4 et Multi Frame Generation. Une démo est déjà disponible et la progression se transfère vers le jeu complet. Le jeu d’action RPG de KOEI TECMO passe à un monde ouvert, avec alternance de styles Samurai/Ninja, combats contre des yokai et défis du Crucible.

Sea of Remnants ouvre sa Closed Alpha PC “Wanderer Test” du 5 au 12 février. Le test intègre le path tracing et DLSS 4 avec Multi Frame Generation. Exploration en monde ouvert, combats navals, équipage modulable et réactions dynamiques des factions composent la boucle de jeu.

Vampires: Bloodlord Rising est disponible en accès anticipé. Le titre de Mehuman Games et Toplitz Productions prend en charge DLSS 4 avec Multi Frame Generation. Les utilisateurs de l’application NVIDIA peuvent en outre activer DLSS 4.5 Super Resolution pour une qualité d’image supérieure.

Carmageddon: Rogue Shift arrive le 6 février avec DLSS Super Resolution et DLAA. Via l’application NVIDIA, il est possible de passer à DLSS 4.5 Super Resolution, utile notamment en modes Performance et Ultra Performance pour gagner en fidélité.
Nightmare Frontier, en accès anticipé, prend en charge DLSS Super Resolution et DLAA. Là encore, l’application NVIDIA permet d’activer DLSS 4.5 Super Resolution pour améliorer l’expérience.
Le rythme d’intégration des technologies RTX reste soutenu, avec une bascule progressive des nouveaux titres vers DLSS 4 et la génération multi-images quand la charge GPU/CPU l’exige. Les options via l’application NVIDIA (surcouche DLSS 4.5 SR) deviennent un levier pertinent pour uniformiser la qualité d’image entre les jeux.
Source: NVIDIA
![]()
Une RTX 4080 SUPER d’occasion a fini calcinée dès l’allumage. Résultat : un trou net dans le PCB au niveau de l’alimentation.
Un technicien, actif sur Reddit sous le pseudo TwistedCollossus, a publié les photos d’une MSI GeForce RTX 4080 SUPER 16G VENTUS 3X OC arrivée en lot de reprise. La carte n’a montré aucune consommation sur un premier banc, puis a lâché instantanément au démarrage d’un second système.

La carte n’avait pas été ouverte avant l’incident. Le refroidisseur a été déposé ensuite pour constater une carbonisation localisée et une perforation du PCB dans la zone d’étage d’alimentation, à proximité de la région du connecteur 16 broches.
Selon l’auteur, la défaillance proviendrait d’un court-circuit « dans une des puces qui délivre la puissance au core », suivi d’une accumulation d’énergie et d’une rupture d’un condensateur. Le scénario évoque clairement une avarie de VRM.


La carte provenait d’un revendeur habituel de GPU d’occasion ; la charge antérieure reste inconnue. Le dommage est strictement localisé, sans indication de fonte du connecteur 12VHPWR/16 broches lui‑même sur les clichés partagés.
À ce stade, il s’agit d’un cas isolé, sans lien établi avec une série précise ni avec une mauvaise insertion du câble. L’absence de consommation initiale puis la défaillance immédiate sur un autre banc pointent davantage vers un composant d’alimentation interne déjà compromis.
Pour le marché du reconditionné haut de gamme, ce type d’incident rappelle l’importance d’un contrôle approfondi des VRM et des condensateurs avant remise en circulation, surtout sur des modèles performants comme la MSI RTX 4080 SUPER où la densité de puissance est élevée.
Source : VideoCardz
Intel affine discrètement sa stratégie pour les consoles PC portables. Les configurations Arc G3 basées sur Panther Lake visent prioritairement de la LPDDR5X-8533, un choix qui confirme une approche pragmatique orientée volumes et coûts maîtrisés, plutôt qu’une course à la bande passante maximale réservée aux déclinaisons plus haut de gamme.
Dans la pile Panther Lake, le plafond mémoire grimpe bien jusqu’à LPDDR5X-9600, mais uniquement sur les Core Ultra X9 388H, X7 368H et X7 358H, tous associés à un iGPU Arc B390. À l’inverse, le Core Ultra 5 338H, équipé d’un Arc B370, est listé en LPDDR5X-8533, tandis que les modèles LPDDR5X-6800 couvrent notamment les Core Ultra 7 365/355 et Core Ultra 5 335/325. Cette segmentation mémoire recoupe clairement la hiérarchie CPU, iGPU et les cibles tarifaires.

La série pourrait apparaître sous l’appellation Core G3 ou Arc G3. Les roadmaps les plus récentes privilégient cette dernière, et certains documents internes évoquent même un Arc B390 en remplacement du B380, signe d’une nomenclature encore en transition.
Côté calendrier, la feuille de route actuelle pointe un lancement au T2 2026 pour les plateformes G3. Aucun constructeur n’a pour l’instant confirmé de machine commerciale, malgré l’intérêt supposé de plusieurs partenaires historiques du segment handheld.
Sur un design à iGPU, la bande passante mémoire reste un facteur clé, mais pas unique. En ciblant la LPDDR5X-8533, Intel favorise des configurations plus généreuses en capacité, limite les coûts plateforme et réduit le risque de tarifs premium. Les performances réelles dépendront toutefois autant du niveau d’iGPU Arc B390/B370 que des PL, des profils thermiques et du tuning OEM. Sur ce terrain, chaque watt comptera.
Le retard confirmé des Core G3 Panther Lake pour handhelds, désormais attendus au T2 2026, avec deux puces 14 cœurs et des iGPU Arc B380/B360, un report qui illustre les ajustements en cours côté Intel face à une concurrence AMD déjà bien installée.
![]()
![]()
On connaissait ZOTAC pour ses cartes graphiques RTX, ses mini-PC et plus récemment sa console portable Zone. En revanche, personne ne l’attendait sur le terrain des boîtiers PC. Pourtant, la marque vient de franchir le pas avec l’ALLOY, un premier châssis gaming au format microATX qui assume clairement son ADN orienté performances… mais sans viser l’Europe pour l’instant.
Avec l’ALLOY, ZOTAC ne joue pas la carte du boîtier compact contraignant. Malgré son format microATX, le châssis accepte des cartes graphiques jusqu’à 41 cm de long, de quoi loger sans difficulté des modèles triple slot haut de gamme. Le positionnement est clair : permettre des configurations gaming puissantes dans un volume plus contenu qu’une tour ATX classique, sans compromis sur le refroidissement.

Les dimensions restent maîtrisées, tout en laissant de l’espace pour un ventirad CPU de 170 mm et une alimentation de 180 mm. Un choix cohérent pour viser les joueurs exigeants, notamment ceux qui cherchent un setup performant sans basculer vers le Mini-ITX.
L’ALLOY mise fortement sur la ventilation. Jusqu’à dix emplacements pour ventilateurs de 120 mm sont annoncés, avec trois ventilateurs fournis d’origine sur certaines versions. Le watercooling n’est pas oublié, avec un support pour radiateur jusqu’à 360 mm, idéalement positionné sur le dessus du boîtier.

La façade avant adopte une large grille favorisant l’entrée d’air, complétée par un déflecteur interne destiné à diriger le flux directement vers la carte graphique. Un détail qui montre que le châssis a été pensé pour encaisser les contraintes thermiques des GPU modernes, souvent très gourmands en refroidissement.
Visuellement, l’ALLOY ne cherche pas à faire l’unanimité. La version noire, avec ses accents jaune-or, reprend clairement les codes esthétiques des cartes graphiques ZOTAC GAMING. Une déclinaison blanche et argentée est également prévue pour des configurations plus sobres. Le boîtier combine acier, plastique ABS, aluminium et verre trempé, avec une identité visuelle assumée, pensée pour s’intégrer dans un setup full ZOTAC.


La connectique en façade reste en revanche minimaliste, avec un port USB-C et un USB-A, un choix qui pourra diviser selon les usages.


C’est peut-être l’aspect le plus frustrant du dossier. L’ALLOY est pour l’instant réservé à la zone APAC, sans annonce de commercialisation en Europe ou en France. En Asie, les premiers tarifs évoqués tournent autour de l’équivalent de 60 € TTC, un positionnement très agressif pour un boîtier orienté gaming et compatible avec de très grosses cartes graphiques. Une version dépourvue de ventilateurs serait même prévue à un prix encore inférieur.
Aucune date ni prix officiel n’ont été communiqués pour un lancement mondial, laissant planer le doute sur une éventuelle arrivée chez nous.
Avec l’ALLOY, ZOTAC envoie un message clair : la marque ne veut plus se limiter aux composants, mais construire un véritable écosystème gaming. Ce premier boîtier pose des bases solides sur le papier, tant en compatibilité GPU qu’en refroidissement, tout en affichant un tarif potentiellement très compétitif.
Reste désormais la question clé : ZOTAC osera-t-il franchir le pas et proposer l’ALLOY hors de l’Asie, ou s’agit-il d’un simple test grandeur nature avant une expansion plus large. Les joueurs européens, eux, peuvent déjà commencer à regarder ce boîtier… avec un certain goût amer.
| Caractéristiques générales | |
|---|---|
| Format | Tour microATX |
| Matériaux | Acier, aluminium, ABS, verre trempé |
| Commandes et connectique | Bouton Power, USB 3.2 Gen 1 x1, USB 3.2 Gen 2 Type-C x1, combo casque/micro |
| Dimensions | 458 × 222 × 433 mm (L × l × H) |
| Compatibilité et dégagements | |
|---|---|
| Cartes mères | Micro-ATX, Mini-ITX |
| Compatibilité connecteurs arrière | Non compatible |
| Longueur maximale alimentation | ≤ 180 mm (format ATX) |
| Hauteur maximale ventirad CPU | ≤ 170 mm |
| Longueur maximale carte graphique | ≤ 412 mm |
| Support radiateurs | Haut : 120 / 140 / 240 / 280 / 360 mm • Arrière : 120 mm |
| Slots et stockage | |
|---|---|
| Slots PCIe | 5 |
| Baies 3,5″ | 1 |
| Baies 2,5″ | 1 |
| Ventilation | |
|---|---|
| Façade | 3 × 120 mm |
| Dessus | 3 × 120 mm ou 2 × 140 mm |
| Plaque intermédiaire | 2 × 120 mm |
| Cache alimentation | 1 × 120 mm |
| Arrière | 1 × 120 mm |
| Filtres à poussière | Façade, dessous |
| Ventilateurs fournis | |
|---|---|
| Type | PWM |
| Vitesse | 1350 à 1450 tr/min |
| Longueur des câbles | 550 mm |
source : Zotac