↩ Accueil

Vue lecture

EA prépare un driver ARM64 pour Javelin Anticheat, en phase avec l’arrivée des NVIDIA N1

EA sécurise ses jeux côté Arm pendant que les puces NVIDIA N1 se rapprochent. Objectif : un anticheat noyau natif sur Windows on Arm, sans traduction x86.

ARM64 Windows, anticheat noyau et bascule vers le jeu sur Arm

EA recrute un « Senior Anti-Cheat Engineer, ARM64 » pour développer un driver natif ARM64 de Javelin Anticheat sous Windows. La fiche précise la gestion multi-cibles avec chargement conditionnel des versions d’anticheat selon le matériel, ainsi que la mise en place de pipelines d’intégration et de validation automatisés sur du hardware Arm.

EA driver ARM64 pour Javelin Anticheat fiche job

Le périmètre inclut une feuille de route vers d’autres OS et matériels, « tels que Linux et Proton ». Pour un composant noyau, cette compatibilité est l’un des verrous techniques majeurs, en particulier pour l’exécution de titres Windows sur des environnements hétérogènes.

Contexte matériel NVIDIA N1 et performances Cortex-X925

Côté silicium, le GB10 « Superchip » est déjà expédié dans le DGX Spark avec un CPU Arm 20 cœurs : 10 Cortex-X925 et 10 Cortex-A725. Une configuration proche, voire identique, est attendue sur la puce client NVIDIA N1.

Chips and Cheese a mesuré le Cortex-X925 tel qu’implémenté dans le GB10 : parité de performance en SPEC CPU2017 entier face à AMD Zen 5 et Intel Lion Cove, avec un avantage de Zen 5 en flottant. Le point bloquant reste toutefois l’émulation x86 pour les jeux Windows, d’où l’intérêt critique d’un anticheat noyau natif en ARM64.

Si les systèmes N1 et N1X arrivent rapidement, le travail ARM64 d’EA sur Javelin pourrait lever un obstacle pratique pour davantage de titres PC EA sur Windows on Arm. Le couplage performances CPU + support natif des composants sensibles au noyau conditionnera l’expérience réelle sur ces machines.

Source: EA JobsChips & Cheese

  •  

RayNeo Air 4 Pro HDR10 : lunettes AR avec édition Batman disponibles dès 27 février

HDR10, audio Bang & Olufsen et variantes Batman/Joker arrivent d’un coup sur des lunettes AR grand public. Conséquence directe : un positionnement média‑personal viewer assumé face aux écrans portables USB‑C.

RayNeo Air 4 Pro HDR10, audio B&O et 2D→3D

Présentées au MWC 2026 et disponibles depuis le 27 février 2026, les RayNeo Air 4 Pro se posent comme un « head‑mounted TV ». L’affichage HDR10, inédit sur des lunettes AR, promet des pics lumineux plus élevés, des noirs plus profonds et plus d’un milliard de couleurs.

Coffrets thématiques Batman avec accessoires et masques stylisés en arrière-plan.

Un SoC personnalisé Vision 4000 pilote l’upscaling HDR et la conversion temps réel des contenus 2D en 3D. Côté audio, quatre haut‑parleurs réglés avec Bang & Olufsen et des « tubes acoustiques » dirigent le son vers l’oreille en limitant les fuites.

Le châssis de 76 g adopte une ergonomie légère avec plaquettes nasales ajustables. La dalle simule un écran de 201 po vu à 6 m. La connexion passe par USB‑C DisplayPort Alt Mode, compatible smartphone, PC et Nintendo Switch 2 pour une utilisation nomade.

Éditions Batman et Joker, disponibilité et prix

La Batman Edition reprend l’intégralité des fonctions du modèle standard avec un design exclusif, un packaging dédié et un light shield spécifique. Ce dernier bloque la lumière ambiante et sert d’accessoire cosplay au quotidien.

Ensemble complet de coffrets Batman avec masques et accessoires sur fond noir.

Deux variantes thématiques sont proposées : Batman Edition et Joker Edition, chacune avec une identité visuelle propre. Les RayNeo Air 4 Pro et la série X3 sont exposées au MWC 2026 (Hall 2, stand 2M30, 2‑5 mars).

Commercialisation mondiale depuis le 27 février 2026 via Amazon et RayNeo.com. Tarifs : Standard Edition à 249 $ en early bird (MSRP 299 $, soit ~275–330 € à titre indicatif hors prix UE officiels), Batman Limited Edition à 269 $ early bird (MSRP 319 $). En Europe : 299 € early bird (MSRP 339 €). Royaume‑Uni : 249 £ early bird (MSRP 289 £). L’early bird s’applique le premier mois après lancement.

En visant la compatibilité USB‑C universelle et un rendu HDR10 assisté par un traitement dédié, RayNeo pousse le format lunettes‑écran vers un usage de remplacement ponctuel d’un moniteur portable. L’appui de Bang & Olufsen sur l’accordage audio crédibilise l’ensemble face aux viewers DP Alt Mode déjà établis, avec un différenciateur clair sur la conversion 2D→3D et les éditions sous licence.

Source : TechPowerUp

  •  

GTC 2026 : NVIDIA déroule sa pile IA complète à San Jose, 16–19 mars

San Jose s’apprête à basculer en campus IA : quatre jours, plus de 30 000 participants et une feuille de route technologique posée publiquement.

GTC 2026 : dates, format et keynote de Jensen Huang

La conférence GTC se tiendra du 16 au 19 mars à San Jose, Californie, avec plus de 30 000 inscrits issus de plus de 190 pays. Le 16 mars à 11 h PT, Jensen Huang donnera la keynote au SAP Center, retransmise en direct et à la demande sur nvidia.com, sans inscription requise.

Le discours couvrira l’empilement complet : calcul accéléré, “AI factories”, modèles ouverts, systèmes agents et “physical AI”, avec un cadrage sur l’année à venir.

Programme technique : 1 000+ sessions, cinq couches et ateliers pratiques

La GTC mettra en scène une approche en cinq couches : énergie, puces, infrastructure, modèles et applications. Plus de 1 000 sessions traiteront des AI factories, de l’inférence à grande échelle, de la robotique, des jumeaux numériques, du calcul scientifique, du quantique et des déploiements IA en entreprise.

Huang animera une discussion sur l’état de l’art des modèles ouverts “frontier” avec A16Z, AI2, AMP Coalition, Black Forest Labs, Cursor, Reflection AI et Thinking Machines Lab. Un préshow en ligne le 16 mars à 8 h PT abordera le computing accéléré au-delà de l’IA et la pile en cinq couches, avec Aravind Srinivas (Perplexity), Harrison Chase (LangChain), Deepak Pathak (Skild AI), Daniel Nadler (OpenEvidence) et Arthur Mensch (Mistral AI).

Le dispositif formation inclut neuf workshops d’une journée, plus de 60 labs pratiques et des certifications sur site. Des cours en autonomie, programmes pour enseignants et sessions 1:1 complètent l’offre.

Écosystème, startups et recherche

Plus de 240 startups NVIDIA Inception présenteront des solutions en physical AI, robotique, IA générative et applications entreprise, avec des sessions dédiées aux investisseurs, un “AI Day” avec des fonds de premier plan et des échanges NVentures.

Les tracks développeurs et recherche proposeront des deep dives techniques, des sessions CUDA et des ateliers d’infrastructure sur l’entraînement massif de modèles, l’optimisation de l’inférence et le déploiement multienvironnements (cloud, edge, souverain). Plus de 150 posters couvriront les innovations de modèles, la robotique, l’architecture systèmes et de nouveaux usages IA.

San Jose sera réparti sur 10 sites avec un Day and Night Market à Cesar Chavez Park. L’All-In Podcast enregistrera des interviews le mercredi 18 mars. La Student and Community Day du jeudi 19 mars ouvrira l’événement à tarif réduit. Une programmation virtuelle adaptée par région sera disponible via le catalogue en ligne.

Parmi les organisations présentes : Adobe, Agile Robots, Agility Robotics, AI2, AMP Coalition, Black Forest Labs, Canva, CodeRabbit, Cohere, Crusoe Energy Systems, Cursor, Dassault Systèmes, Decagon, General Motors, Genspark, Google DeepMind, Hugging Face, IBM Research, idealworks, Inception Labs, Johnson & Johnson, Kimi (Moonshot AI), L’Oréal, Lucid Motors, Magic AI, Meta, Microsoft, OpenAI, Poolside, Physical Intelligence, Reflection AI, Runway, Siemens, Shopify, Snap, Tesla, Together AI, Thinking Machines Lab, Uber Technologies, Universal Robots, le U.S. Department of Energy, Vention et d’autres.

NVIDIA tiendra une séance de Q&A investisseurs et analystes le mardi 17 mars à 9 h PT, en webcast sur investor.nvidia.com.

Pour les acteurs hardware et data center, l’axe “couches énergie/puces/infrastructure” pointe vers une montée en puissance coordonnée des capacités, avec un focus implicite sur l’efficacité énergétique et l’orchestration au niveau des AI factories. Les annonces côté modèles ouverts et systèmes agents donneront le ton pour les charges d’inférence 2026, avec des impacts directs sur le dimensionnement GPU, le réseau et le stockage.

Source : TechPowerUp

  •  

HBM4 NVIDIA : spécifications abaissées pour Vera Rubin VR200, bande passante à 20 TB/s

Objectif revu à la baisse et calendrier sous pression. Les GPU Vera Rubin VR200 ne viseront plus 22 TB/s mais environ 20 TB/s de bande passante HBM4, conséquence directe des limites actuelles chez les fournisseurs.

HBM4 NVIDIA : cibles abaissées et réalités industrielles

Selon des notes institutionnelles relayées par SemiAnalysis, NVIDIA assouplit les spécifications HBM4 pour Rubin. La cible initiale de 22 TB/s pour le système VR200 NVL72 laisserait place à des premiers lots autour de 20 TB/s, soit ~10 Gb/s par pin, SK hynix et Samsung peinant à tenir l’objectif maximal.

Carte mère HBM4 avec double modules de mémoire, tenue par une personne

Historique récent : en mars 2025, la cible système était de 13 TB/s, relevée à 20,5 TB/s en septembre, puis confirmée à 22 TB/s au CES 2026. Face aux 19,6 TB/s de l’Instinct MI455X d’AMD, NVIDIA avait compensé via une DRAM plus rapide et des interconnexions optimisées entre CPU, GPU et le châssis. Les livraisons initiales VR200 devraient néanmoins atterrir à ~20 TB/s pour l’ensemble du système.

Fourniture HBM4 : SK hynix en tête, Samsung en appui

Le split d’approvisionnement HBM4 pour VR200 NVL72 s’orienterait à 70 % pour SK hynix et 30 % pour Samsung. Micron sortirait de l’équation HBM4 et se repositionnerait sur la LPDDR5X des CPU « Vera », jusqu’à 1,5 TB par système, afin de compenser l’absence sur HBM4.

Cette inflexion de spécifications traduit surtout un lissage du ramp-up HBM4 : NVIDIA ancre la plateforme à un palier réaliste de ~20 TB/s à court terme, tout en gardant un headroom vers 22 TB/s lorsque les débits par pin et les rendements packaging HBM4 suivront chez SK hynix et Samsung.

Source : TechPowerUp

  •  

MSI RTX 5090D v2 Lightning : édition Chine 24 Go GDDR7, 575 W, AIO et série limitée

Édition Chinoise, refroidissement AIO et 24 Go de GDDR7 pour un TGP de 575 W. Le tout sur une série limitée qui risque de filer vite.

MSI RTX 5090D v2 Lightning : spécifications et positionnement

Une RTX 5090D v2 Lightning est apparue sur le marché chinois via un utilisateur Bilibili (Hardware Patrick Star). Ce modèle exclusif s’appuie sur le GPU GB202 en architecture Blackwell avec 21 760 cœurs CUDA et un TGP de 575 W, couplé à un AIO pour tenir les fréquences élevées.

Unboxing de la carte graphique MSI RTX 5090D v2 Lightning avec packaging détaillé

La mémoire passe à 24 Go de GDDR7 sur bus 384-bit, contre 32 Go et 512-bit auparavant. MSI évoque une limite de 1 300 unités pour la GeForce RTX 5090D Lightning ; cette variante dédiée à la Chine étant considérée comme une carte distincte, il est plausible qu’elle dispose elle aussi de 1 300 exemplaires. Un exemplaire vu porte le SKU n°909, signe que le reste circule déjà en retail.

Performances attendues et contexte

Sur la RTX 5090 Lightning « classique », nos confrères ont mesuré jusqu’à 1 000 W via un BIOS OC et une moyenne à 3 218 MHz grâce au watercooling. La RTX 5090D v2 Lightning pourrait approcher ces comportements, mais les tests indépendants devraient surtout provenir de la scène chinoise.

EXPreview rapporte des écarts très faibles en jeu entre RTX 5090D et 5090D v2, souvent dans la marge de 1 à 2 %, y compris en 4K. En IA et inférence, la réduction de VRAM entraîne des baisses à un chiffre voire bas double chiffre selon les modèles utilisés, là où la capacité mémoire prime.

La segmentation Chine avec 24 Go et bus 384-bit cible le gaming extrême tout en rognant sur les charges IA lourdes. Pour les joueurs 4K, l’impact restera minime ; pour la création et l’IA locale, les 32 Go conservent un avantage pratique non négligeable.

Source : TechPowerUp

  •  

Seagate Mozaic 4+ : disques durs HAMR jusqu’à 44 To validés chez deux hyperscalers

44 To par disque dur qui partent déjà en volume chez deux géants du cloud, et une trajectoire annoncée vers 10 To par plateau. Le stockage mécanique n’a pas dit son dernier mot.

Seagate Mozaic 4+ : HAMR à l’échelle, jusqu’à 44 To

Seagate valide sa plateforme Mozaic 4+ basée sur le HAMR en production chez deux hyperscalers, avec des capacités jusqu’à 44 To. Des qualifications supplémentaires sont en cours chez d’autres clients, signe d’un déploiement massif en environnements hyperscale.

Disque dur interne Seagate Exos Mozaic avec logo et design noir et vert

La feuille de route annonce une montée de 4+ To par disque aujourd’hui vers 10 To par disque, ce qui ouvre la voie à des disques durs jusqu’à 100 To. La plateforme s’appuie sur une nouvelle suspension et un SoC renforcé pour un enregistrement plus précis à plus haute densité, tout en conservant une fiabilité de niveau entreprise.

Photonique intégrée et gains d’efficacité

Seagate conçoit et fabrique en interne sa technologie laser HAMR, fruit d’années d’ingénierie nanophotonique. Cette intégration verticale vise le contrôle du rendement, de la fiabilité et de la résilience de la supply chain, avec des qualifications plus rapides et une économie de production stabilisée.

Pour les datacenters IA, Mozaic 4+ augmente la capacité par rack et par watt. À échelle exaoctet, Seagate revendique environ 47 % d’efficacité d’infrastructure en plus face à des déploiements 30 To, environ 100 ft² de surface en moins et près de 0,8 M kWh/an économisés.

Disponibilité et perspectives

Les disques Mozaic 4+ jusqu’à 44 To sont expédiés en volume à deux fournisseurs cloud majeurs. Une disponibilité élargie est prévue au fur et à mesure de la montée en production.

La montée en densité sans rupture d’architecture réduit le coût total de possession pour les charges massives d’archivage, de réactivation de données et d’entraînement IA. Si la cible des 10 To par plateau est tenue, la fenêtre vers 100 To mécaniques crédibilise une feuille de route HDD durable face à la pression NAND sur le coût par téraoctet.

Source : TechPowerUp

  •  

NAND Flash : revenus en hausse de 23,8 % au T4 2025, l’IA dope les SSD serveur

Des SSD d’entreprise arrachés par les déploiements IA, des HDD en rupture… et une addition salée pour tout le monde. La chaîne NAND encaisse, les prix montent, les revenus suivent.

NAND Flash : la demande IA fait sauter les compteurs

TrendForce chiffre les revenus consolidés des cinq premiers fournisseurs NAND à 21,17 milliards $ au T4 2025, en hausse de 23,8 % séquentiel. Le moteur principal vient des SSD d’entreprise pour serveurs IA, notamment chez les CSP nord-américains, tandis que la pénurie de HDD et des délais étirés ont détourné des commandes vers le NAND, resserrant davantage l’offre.

Tableau montrant le classement des fournisseurs de NAND Flash par revenus et part de marché.

Pour le T1 2026, TrendForce anticipe une hausse de prix NAND de 85–90 % QoQ, avec un chiffre d’affaires sectoriel encore en expansion. L’aspiration côté data centers crée un déséquilibre persistant qui alimente le pricing power des fournisseurs.

Cartographie fournisseurs et dynamique produits

Samsung reste numéro 1 avec 6,6 milliards $ (+10 % QoQ) et 28 % de part, mais recule en part de marché. Les ASP progressent nettement, alors que les bits expédiés baissent séquentiellement, impactés par un effet de base élevé au trimestre précédent et des pertes liées aux transitions de procédés.

SK Group (SK hynix + Solidigm) signe la plus forte croissance : ~5,21 milliards $ (+47,8 % QoQ) et 22,1 % de part, prenant solidement la 2e place. La demande mobile et les SSD d’entreprise portent les volumes.

Kioxia se classe 3e avec 3,31 milliards $ (+16,5 % QoQ). Chiffre d’affaires et bits expédiés atteignent des pics trimestriels historiques au T4 2025.

Micron occupe la 4e place, tout près des 3,03 milliards $ (+24,8 % QoQ). Le groupe étend la production QLC et accélère les expéditions en G9 NAND, de bon augure pour la croissance de bits en 2026.

Sandisk (Western Digital) ferme le top 5 avec ~3,03 milliards $ (+31,1 % QoQ). Profitant de la tension sur l’offre, le fournisseur pousse agressivement sur le segment serveur, traditionnellement plus faible, et voit son activité data center bondir.

Priorité aux SSD QLC haute capacité pour l’IA

Face à une capacité de production limitée à court terme et une demande IA en forte pente, les fournisseurs accélèrent les migrations technologiques et réorientent les efforts vers des SSD QLC d’entreprise à très forte densité, avec des modèles 122 To et 245 To cités. L’allocation privilégie le serveur, ce qui tend encore l’offre sur les produits grand public.

Si cette trajectoire se prolonge en 2026, les acteurs PC et gaming pourraient subir un renchérissement durable des SSD grand public, le segment data center absorbant l’essentiel des wafers et des nœuds avancés. Les intégrateurs auront tout intérêt à verrouiller tôt leurs approvisionnements, surtout sur les capacités élevées.

Source : TechPowerUp

  •  

HBM4E : Samsung revoit l’alimentation pour -97 % de défauts et -41 % d’IR drop

Des piles HBM plus rapides imposent une alimentation irréprochable, sinon la vitesse se paye en chauffe et en pertes. Samsung pousse le curseur avec HBM4E en retouchant en profondeur son réseau de puissance.

HBM4E : segmentation de la PDN et gains mesurés

Après avoir livré son premier HBM4 commercial à 11,7 Gbps soutenus avec une marge jusqu’à 13 Gbps il y a deux semaines, Samsung prépare HBM4E avec une densité de bumps en hausse : de 13 682 à 14 457 points d’alimentation dans la même emprise. Résultat, la densité de courant et la résistance augmentent, aggravant l’IR drop et l’échauffement en boucle.

Diagramme HBM et C4 avec annotations techniques en coréen.

Le MET4 central du die de base, auparavant organisé en larges mailles proches de l’interposeur, est scindé en quatre blocs plus petits. Les couches supérieures sont à leur tour fragmentées pour réduire la congestion et raccourcir les parcours. Samsung annonce -97 % de défauts métalliques par rapport à HBM4, et une amélioration de 41 % de l’IR drop, offrant plus de marge de tension pour la fréquence et la fiabilité.

Impact sur l’intégration et la tenue en fréquence

À câblage identique, la segmentation réduit les goulets du réseau d’alimentation et l’échauffement local, critique avec des fils plus fins et plus denses. La mécanique est simple : chemins plus courts, résistances moindres, chutes de tension contenues, et moins de défauts métal lors de la fabrication.

Images de dies brûlés avec annotations techniques en coréen.

Séparer HBM et GPU : pistes cuivre et optique

Samsung étudie la séparation physique HBM–GPU. Des interconnexions photoniques à débits de l’ordre du térabit par seconde, environ 1 000× plus rapides que le cuivre, visent à compenser la distance. Le constructeur évoque aussi des progrès de routage substrat pouvant placer HBM et GPU à plus de 5 cm, aidant la gestion thermique des modules denses.

Schéma de réorganisation PDN HBM4E avec comparaisons en coréen.

Si ces liaisons gardent une latence et une efficacité énergétique maîtrisées, l’empilement mémoire pourrait s’affranchir d’un packaging 2.5D/3D ultra contraint, avec des bénéfices directs sur les rendements, la dissipation et le binning des accélérateurs IA.

Comparaison du PDN initial et optimisé HBM4E avec carte IR-drop.
Schéma de connexion GPU et HBM avec distances et annotations en coréen.

Le découplage PDN côté HBM4E est une réponse pragmatique aux limites électriques actuelles, avec des chiffres solides à la clé. La voie d’une désagrégation HBM–GPU par l’optique, si elle passe l’épreuve industrielle, redistribuerait les contraintes de packaging et thermiques des accélérateurs IA de prochaine génération.

A lire : Samsung HBM4e vise 13 Gbps/pin et 3,25 To/s, production attendue fin 2025

Source : TechPowerUp

  •  

Apple M5 Pro/Max : nouveaux M-core, CPU 18 cœurs et 2.5D SoIC pour scaler CPU/GPU

Nouvelle hiérarchie de cœurs et premier vrai design chiplet chez Apple, avec à la clé des MacBook Pro mieux scalables et plus musclés en multi-thread. Le monolithique cède la place à un découplage CPU/NPU et GPU pensé pour grimper en cœur et en capacité mémoire.

Apple M5 : M-core, fréquences élevées et iGPU jusqu’à 40 cœurs

Les M5 Pro et M5 Max alignent un CPU 18 cœurs structuré en six « super cores » et des M-core intermédiaires, sans cœur d’efficacité. Les super cores montent à 4,61 GHz et les M-core à 4,38 GHz. Le M-core est un CPU out-of-order 7-wide délivrant environ 70 % des performances d’un P-core pour une consommation inférieure.

Schéma de puces logiques et capteurs intégrés

Selon des estimations préliminaires partagées sur des forums Baidu, le gain multi-thread atteindrait jusqu’à 20 % sur M5 Pro/Max. Le M5 Pro embarque 16 Mo de cache pour les super cores, 16 Mo pour les M-core et 24 Mo de cache mémoire. Le M5 Max reprend ces caches de cœur mais porte le cache mémoire à 48 Mo.

Côté GPU intégré à 1,62 GHz, le M5 Pro dispose de 20 cœurs, le M5 Max de 40 cœurs. La mémoire passe en LPDDR5X à 9 600 MT/s, jusqu’à 64 Go sur M5 Pro et 128 Go sur M5 Max.

Spécifications techniques détaillées des puces M5 Pro/Max

SoIC 2.5D : premier vrai chiplet Apple pour séparer CPU/NPU et GPU

Apple adopte le SoIC-MH 2.5D de TSMC et bascule d’un SoC monolithique vers un assemblage où le die CPU/NPU est séparé du die GPU. Contrairement aux anciennes puces « Ultra » qui fusionnaient deux dies massifs, ce packaging 2.5D permet de scaler indépendamment clusters CPU et matrice GPU, sans approcher la limite de réticule d’environ 830 mm².

À la clé, plus de déclinaisons produits, de meilleurs rendements en fabrication et moins de pertes liées aux gros dies. Cette marge de manœuvre devrait soutenir l’augmentation du nombre de cœurs CPU et GPU sur les prochaines itérations M.

Apple M5 dans la gamme

Le M5 standard conserve quatre super cores et six cœurs d’efficacité, alors que les M5 Pro/Max abandonnent totalement les cœurs d’efficacité au profit du duo super cores + M-core. Cette bascule explique l’orientation clairement performance des MacBook Pro équipés.

En combinant la nouvelle hiérarchie de cœurs et le découplage CPU/GPU par SoIC 2.5D, Apple M5 optimise son enveloppe thermique pour le portable tout en se laissant la possibilité d’augmenter fine-grain les ressources graphiques et la bande passante mémoire sur les variantes haut de gamme.

Source : TechPowerUp

  •  

Highguard fermera le 12 mars, moins de deux mois après son lancement

Deux millions de joueurs touchés en quelques semaines, puis le couperet : le serveur s’éteindra le 12 mars 2026. Un cycle de vie de 45 jours pour un shooter F2P ambitieux.

Highguard s’arrête le 12 mars

Wildlight Entertainment mettra fin définitivement à Highguard le 12 mars 2026. Sorti le 26 janvier 2026 sur PC, PlayStation 5 et Xbox Series X|S, le titre n’a pas réussi à constituer une base de joueurs « durable » malgré plus de 2 millions de comptes ayant testé le jeu.

Affiche jeu Highguard avec personnages et texte, couleurs neutres, peu contrastées

Un dernier patch est prévu avant l’arrêt. Il ajoutera un nouveau Warden, une arme inédite, une progression de niveau de compte et des arbres de compétences. Le déploiement est attendu le 3 ou le 4 mars.

La monétisation reposait sur des microtransactions cosmétiques. Le studio n’a pas communiqué de dispositif de remboursement à ce stade.

Chute d’activité documentée sur SteamDB

Sur PC, SteamDB illustre la dégringolade. Highguard a culminé à 97 249 joueurs simultanés le 26 janvier 2026, pour tomber à 302 joueurs au moment de la capture, avec un pic 24 h de 460.

Le jeu restera accessible jusqu’au 12 mars. L’arrêt si proche du lancement laisse des années de développement sans exploitation durable, même si l’accès free-to-play a limité le risque financier côté joueurs.

La fenêtre de 45 jours entre lancement et fermeture rappelle la fragilité des shooters F2P en 2026 : acquisition initiale forte, mais rétention et engagement insuffisants pour soutenir les coûts serveurs et le live ops, même avec une offre cosmétique.

Source : VideoCardz

  •  

Meilleure alimentation 1200W : notre sélection Platinum & Titanium ATX 3.1

Choisir une alimentation 1200W en 2026, ce n’est pas juste cocher la case « assez de watts ». Entre les certifications 80 PLUS qui ne racontent pas toute l’histoire, les constructeurs qui gonflent leurs specs et les GPU nouvelle génération qui avalent 600W d’un coup sur le seul rail 12V-2×6, le choix d’une alim peut faire la différence entre une config stable pendant 10 ans et un composant qui lâche au mauvais moment.

La norme ATX 3.1 n’est plus optionnelle en 2026. Elle impose une gestion des pics de puissance bien plus stricte que l’ATX 3.0, avec un connecteur 12V-2×6 natif capable d’encaisser jusqu’à 600W en transitoire. Si ton alim n’est pas ATX 3.1, tu prends un risque réel avec une RTX 5090 ou une RTX 5080 sous charge intensive.

Pour ce classement, on s’appuie exclusivement sur les scores Cybenetics, le laboratoire de référence qui teste chaque alimentation avec des instruments professionnels Chroma et Tektronix à 230V. On a filtré pour ne garder que les marques distribuées en France, toutes certifiées ATX 3.1 et PCIe 5.1, capables d’alimenter sereinement les configs les plus gourmandes du moment.

enermax platimax ii 1200df en test 01
corsair hx1200i shift grille dissipation
test bequiet dark power 14 1000w Hero
rog astral rtx 5080 rog thor 1000w platinum iii 02
Meilleures alimentations 1200W

Meilleures alimentations 1200W ATX 3.1

Classement basé sur les scores Cybenetics — Mis à jour mars 2026

⚡ Source : Cybenetics Lab — scores 230V
#1
🏆 Meilleur score
be quiet!
Dark Power 14 1200W
Titanium Bruit A++
89.66
Score
93.39%
Efficacité
14.8 dB
Bruit moy.
Score Cybenetics 89.66 / 100
La référence absolue du segment. Certification Titanium, silence remarquable, condensateurs japonais. Le choix des perfectionnistes.
309,69 € Amazon
Voir l’offre →
#2
🔇 Ultra silencieuse
Corsair
HX1200i ATX 3.1
Platinum Bruit A+
89.07
Score
91.78%
Efficacité
19.9 dB
Bruit moy.
Score Cybenetics 89.07 / 100
L’élite Corsair. Monitoring iCUE intégré, fully modulaire, condensateurs 105°C, 10 ans de garantie. Un classique indétrônable.
299,99 € Amazon
Voir l’offre →
#3
🎮 Gaming Premium
Asus
ROG Thor 1200W Platinum III
Platinum Bruit A++
88.23
Score
92.61%
Efficacité
10.5 dB
Bruit moy.
Score Cybenetics 88.23 / 100
Le plus silencieux du classement à 10.5 dB de moyenne. Écran OLED intégré, design ROG soigné. Pour les builds premium où tout compte.
399,00 € Amazon
Voir l’offre →
#4
⚡ Meilleur rapport Q/P
Enermax
PlatimaxII 1200DF
Platinum Bruit A
87.19
Score
92.69%
Efficacité
21.7 dB
Bruit moy.
Score Cybenetics 87.19 / 100
Le coup de coeur de la rédaction. Performances de haut vol à moins de 200€, condensateurs japonais, 13 ans de garantie et technologie Dust Free. Imbattable à ce prix.
181,00 € Amazon
Voir l’offre →
#5
🔇 Ultra silencieuse
Corsair
HX1200i Shift ATX 3.1
Platinum Bruit A++
86.75
Score
91.56%
Efficacité
14.8 dB
Bruit moy.
Score Cybenetics 86.75 / 100
La version avec connectique déportée sur le côté. Idéale pour les boîtiers compacts ou les câbles en façade. Très silencieuse, très solide.
289,90 € Corsair
Voir l’offre →
#6
💰 Bon rapport Q/P
Thermaltake
Toughpower PT 1200W
Platinum Bruit A
85.86
Score
92.07%
Efficacité
23.0 dB
Bruit moy.
Score Cybenetics 85.86 / 100
Fiable, silencieuse, compétitive. La Toughpower PT offre de solides performances Platinum à un prix raisonnable avec 10 ans de garantie.
196,00 € Amazon
Voir l’offre →

🔗 Les liens produits sont des liens affiliés Amazon. PauseHardware perçoit une commission sans surcoût pour vous.

Verdict

À 1200W, toutes les alimentations de ce classement sont taillées pour les configs les plus exigeantes du moment. La be quiet! Dark Power 14 s’impose comme la référence absolue si le budget n’est pas une contrainte.

La Corsair HX1200i reste le choix le plus polyvalent avec son monitoring iCUE. Et si tu veux le meilleur rapport qualité/prix du lot, l’Enermax PlatimaxII 1200DF à 181€ est tout simplement imbattable : des performances Platinum A, 13 ans de garantie, et un prix qui fait honte à la concurrence.

Quelle que soit ton config, avec une alim de cette liste, tu peux dormir tranquille.

FAQ

Une alimentation 1200W est-elle surdimensionnée ?

Pas en 2026. Avec une RTX 5090 qui consomme jusqu’à 600W en pic, un processeur haut de gamme à 200W, et les autres composants, une config premium peut atteindre 900-1000W sous charge. Une 1200W te laisse une marge saine et améliore l’efficacité à charge partielle.

1200W est-ce suffisant pour une RTX 5090 ?

Oui, largement. NVIDIA recommande 1000W minimum pour une config avec Ryzen 9 9950X. Une 1200W ATX 3.1 t’offre une marge confortable, même en overclocking.

1200W, est-ce trop pour une RTX 5080 ?

Non, c’est même idéal. La RTX 5080 consomme environ 360W. Une 1200W tournera entre 50 et 70% de charge, la plage où les alimentations sont les plus efficaces. Tu gagnes en silencieux et en longévité.

Comment calculer la puissance d’alimentation nécessaire pour mon PC ?

Additionne la consommation TDP de ton CPU et de ton GPU, ajoute 100W pour le reste des composants (RAM, stockage, carte mère), puis multiplie par 1,25 pour avoir une marge de sécurité. Pour une RTX 5080 + Core i9 : 360 + 253 + 100 = 713W x 1,25 = 891W. Une 1000W ou 1200W est donc recommandée.

Quelle est la différence entre Gold, Platinum et Titanium ?

Ce sont les certifications 80 PLUS qui mesurent l’efficacité énergétique à 20%, 50% et 100% de charge. Gold atteint 87% d’efficacité à mi-charge, Platinum 90%, Titanium 92%. En pratique, une Platinum bien conçue comme la PlatimaxII dépasse souvent les 92% en conditions réelles selon Cybenetics, ce qui la rapproche du niveau Titanium.

  •  

XnViewMP 1.10.3

Version améliorée de XNView, permettant d'explorer et de visionner toutes les photos sur votre ordinateur, mais aussi de les convertir dans d'autres formats...
  •  

ExifTool - Un PNG piégé peut pirater votre Mac

Si vous utilisez ExifTool sur macOS, j'ai une mauvaise nouvelle pour vous ! Une faille critique vient d'être découverte dans cet outil que tout le monde (moi y compris) utilise pour lire et modifier les métadonnées des fichiers et c'est pas joli joli.

Cette vulnérabilité, référencée en tant que CVE-2026-3102 , touche toutes les versions jusqu'à la 13.49 et c'est spécifique à macOS. Cela permet à un attaquant de planquer des commandes système dans les tags de métadonnées d'un fichier image et quand ExifTool traite le fichier avec le flag -n... les commandes s'exécutent directement sur votre machine.

L'exploitation est ridiculement simple et 2 étapes suffisent. On vous envoie une image qui a l'air parfaitement normale, vous la passez dans l'outil pour lire ses métadonnées, et l'injection de commande se déclenche. L'attaquant peut alors ensuite télécharger des payloads malveillants ou carrément se servir dans vos fichiers sensibles.

C'est l'équipe GReAT de Kaspersky qui a trouvé le problème. Bon après, la bonne nouvelle c'est que Phil Harvey, l'auteur du soft, a déjà sorti le correctif dans la version 13.50, et ça depuis le 7 février dernier... donc ça fait presque un mois que le patch est dispo.

Du coup, si vous avez des scripts qui traitent automatiquement des images avec ExifTool sur votre Mac, par exemple dans un pipeline de forensique ou d' analyse EXIF , vérifiez ILLICO la version installée (exiftool -ver pour checker). Comme la complexité d'exploitation est faible, n'importe quel script kiddie pourrait s'en servir, donc autant agir vite.

Pour mettre à jour, un petit brew upgrade exiftool et c'est réglé (sinon, le .pkg est dispo sur le site officiel ). Attention, pensez aussi à vos scripts automatisés qui lancent ExifTool en arrière-plan, car c'est souvent là que les vieilles versions trainent...

Allez, bonne soirée les amis !

Source

  •  

Keychron B11 Pro : clavier pliable Alice 65 % pour la productivité mobile

Un clavier à la disposition Alice 65 % qui tient dans un sac et se referme comme un livre : Keychron vise clairement les utilisateurs nomades qui refusaient de lâcher leur confort de frappe.

Keychron B11 Pro : format pliable, layout Alice 65 %

Le Keychron B11 Pro transpose le layout ergonomique Alice 65 % des K11 Max dans un châssis ultra‑portable à mécanisme ciseau. Plié, il mesure 196,3 × 143 mm, sans pavé numérique ni rangée de touches F, mais avec un cluster fléché dédié. Poids annoncé : 258 g.

Caractéristiques du clavier Keychron B11 Pro, compatibilité macOS et Windows, connectivité 2.4GHz et Bluetooth

Le ressenti vise clairement le clavier d’ordinateur portable grâce aux touches concaves et aux switches à ciseaux. Keychron ne mentionne pas de NKRO ; au vu du reste de la série B Pro, on peut raisonnablement supposer son absence.

Connectivité, autonomie et compatibilité

La double connectivité 2,4 GHz et Bluetooth 5.3 est de la partie. La batterie de 250 mAh est donnée pour environ 135 heures par charge. Un capteur détecte la fermeture pour couper automatiquement et préserver l’autonomie.

Le dos adopte un revêtement soft‑touch. Les touches de modification portent des légendes macOS et Windows, et le remapping passe par Keychron Launcher, comme sur la gamme mécanique de la marque.

Prix et disponibilité

Le Keychron B11 Pro est disponible sur la boutique officielle à 64,99 $ (environ 60 € TTC à titre indicatif), avec une arrivée probable sur Amazon ultérieurement.

En comblant l’écart entre clavier pliable grand public et layout ergonomique pour utilisateurs avertis, le Keychron B11 Pro cible les télétravailleurs et les créatifs en mobilité qui veulent un clavier au format Alice cohérent en déplacement, au prix d’un abandon des switches mécaniques et du NKRO.

Source : TechPowerUp

  •  

BenQ MA270S 5K : écran 27″ Glossy, 99 % P3 et TB4 pensé pour Mac

Un 27 pouces 5K Glossy, 500 nits et 99 % P3, avec contrôle direct depuis le clavier Mac : BenQ vise clairement l’extension naturelle du MacBook, sans compromis sur la netteté.

BenQ MA270S 5K : spécifications clés et rendu Mac-like

Le BenQ MA270S adopte une dalle Nano Gloss 27 pouces en vraie définition 5K 5120×2880, alignée sur la densité native de macOS pour une lisibilité de texte nette et des images précises. La luminance atteint 500 nits, la couverture s’établit à 99 % P3 avec un contraste annoncé de 2000:1.

Moniteur BenQ MA270S 5K à côté d'un MacBook, fond coloré.

BenQ intègre l’iKeyboard Control pour ajuster la luminosité et le volume depuis le clavier du MacBook. Le Display Pilot 2 ajoute l’Auto Brightness Sync, le FocuSync (adaptation par fenêtre) et l’iDevice Color Sync pour unifier le rendu entre Mac, iPad et autres appareils Apple.

Ergonomie et finition

La finition Nano Gloss cible les habitués des écrans Apple, avec une image plus incisive qu’un mat classique. Le design reste minimaliste et l’ergonomie propose un pied réglable sur 150 mm pour ajuster la hauteur.

Vue arrière du moniteur BenQ MA270S avec support argenté.

Connectique et flux multi-appareils

La connectique repose sur du Thunderbolt 4 avec 96 W de Power Delivery pour un branchement et la charge en mono-câble. Une sortie Thunderbolt 4 permet le chaînage, utile sur des postes Mac Mini ou Mac Studio multi-écrans.

Le Smart KVM autorise le pilotage de deux systèmes avec un seul couple clavier/souris. Le Picture-by-Picture facilite l’affichage simultané de plusieurs sources, pertinent pour croiser Mac et iPad ou une autre machine.

Ports et connectiques arrière du BenQ MA270S avec HDMI, USB-C et Thunderbolt.

La disponibilité est annoncée pour mars 2026 chez BenQ.com, Amazon.com, Adorama.com et Bhphotovideo.com, ainsi que chez certains revendeurs. Le prix public conseillé est de 999 $ (environ 920 – 980 € TTC estimés selon taxes et change). Une remise de 20 % s’applique sur l’achat d’un second écran durant la précommande, également valable sur le PD2730S 5K pour designers.

Moniteur BenQ MA270S en mode pivot vertical à 90 degrés avec dimensions.
Réglage en hauteur et inclinaison du moniteur BenQ MA270S avec mesures.
Vue du haut du moniteur BenQ MA270S montrant le pivotement latéral.

Face au Studio Display d’Apple, le BenQ MA270S coche les cases attendues côté définition native, luminosité et intégration Mac, tout en ajoutant le TB4 96 W, le Smart KVM et le PbP. À 999 $, BenQ pose une alternative 5K Glossy plus flexible pour les setups hybrides MacBook + desktop.

Source : TechPowerUp

  •  

RTX 5070 Laptop GPU listée en 12 Go GDDR7 chez ASUS et Lenovo, probablement une erreur

Deux fiches produits ont brièvement montré une RTX 5070 Laptop en 12 Go GDDR7. De quoi intriguer, même si tout pointe vers une simple coquille.

RTX 5070 Laptop GPU : 12 Go aperçus, 8 Go attendus

Des pages ASUS et Lenovo ont listé une GeForce RTX 5070 Laptop GPU avec 12 Go de GDDR7. L’entrée ASUS, repérée par Huang514613, semble résulter d’un décalage entre le nom du GPU et la ligne mémoire.

** Liste spécifications ASUS ROG Zephyrus, mention RTX 5070, texte sur fond blanc **
** Tableau Lenovo Yoga 7, mention RTX 5070, texte sur site web Lenovo Given your criteria, both images are captures, but choo

ASUS a déjà corrigé les spécifications du ROG Zephyrus G14 (2026) GU405 : la RTX 5070 Laptop y apparaît en 8 Go GDDR7, la RTX 5070 Ti Laptop en 12 Go GDDR7. Côté Lenovo, le texte marketing du Yoga Pro 7 15IPH11 (PSREF) mentionne toujours « jusqu’à » une RTX 5070 avec 12 Go, en contradiction avec la table de comparaison officielle NVIDIA.

Selon les informations publiques de NVIDIA, la RTX 5070 Laptop est associée à 8 Go et la RTX 5070 Ti Laptop à 12 Go. Rien n’indique donc un nouveau SKU ; l’hypothèse la plus solide reste la faute de saisie.

Ce que suggérerait un vrai modèle 12 Go

À titre purement théorique, une RTX 5070 Laptop 12 Go conserverait probablement un bus 128 bits, en adoptant des puces GDDR7 de densité supérieure. NVIDIA liste déjà une RTX 5090 Laptop à 24 Go sur 256 bits, ce qui implique des packages de 3 Go par puce en configuration 8 chips ; l’approche se transpose bien en 12 Go sur 128 bits.

Au-delà de la curiosité, un tel pas mémoire impacterait peu la segmentation si la 5070 Ti reste en 12 Go. Le signal marché reste donc faible tant que les pages officielles NVIDIA n’évoluent pas.

Source : VideoCardz via Huang514613

  •  

Micron 256GB LPDRAM SOCAMM2 : un module compact pour doper la capacité mémoire des serveurs IA

Une capacité maximale concentrée sur un seul module, dans un format compact. Micron augmente la densité mémoire pour répondre aux exigences des nœuds dédiés à l’IA et à l’analytique, tout en confirmant son recentrage stratégique après le retrait de Crucial, sa marque grand public.

LPDRAM haute densité pour serveurs IA

Micron présente un module LPDRAM SOCAMM2 de 256 Go destiné aux plateformes datacenter et serveurs IA. L’objectif est clair : augmenter la capacité par nœud tout en maîtrisant la consommation, un point critique pour les hyperscalers.

Puces Micron SOCAMM2 sur carte mère fond noir

Basé sur une technologie DRAM basse consommation adaptée au serveur, SOCAMM2 promet une densité supérieure à des RDIMM/LRDIMM traditionnels dans un encombrement réduit. Le format vise les charges de travail en mémoire, du machine learning à l’analytics in-memory.

Graphique performance Spark SVM avec modules LPDRAM couleurs grises et violettes

Performances et cas d’usage

D’après les tests internes de Micron, des serveurs généralistes équipés en 256 Go LPDRAM atteignent jusqu’à 4× d’accélération sur des workloads Apache Spark SVM. Le gain proviendrait d’une capacité accrue et d’une meilleure localité des données, réduisant les goulots d’étranglement liés au stockage.

Micron 256GB LPDRAM SOCAMM2 cible l’inférence IA, l’analytique et le cloud lorsque l’empreinte mémoire devient limitante. L’entreprise n’a pas encore communiqué la disponibilité ni la liste des plateformes supportées.

Graphique inférence LPDRAM avec cache KV couleurs grises et violettes

SOCAMM2 : densité et efficacité énergétique

Le positionnement SOCAMM2 vise à accroître la capacité totale par socket sans exploser le budget énergétique. Le format compact permet d’augmenter la mémoire installée par nœud tout en gardant un profil de puissance contenu, un levier direct sur le TCO en environnement scale-out.

Si la prise en charge plate-forme et les détails de disponibilité restent à préciser, la proposition est clairement pensée pour contourner les plafonds de densité des RDIMM/LRDIMM sur les serveurs IA actuels et limiter les allers-retours disque sur des jeux de données volumineux.

Source : VideoCardz

  •  

Elgato Wave Next : nouvelle génération audio avec Wave Link 3.0 gratuit et matériel MK.2

Logiciels gratuits, DSP à la source et contrôle physique réunis dans une même plateforme : Elgato aligne six produits avec son Elgato Wave Next pour rationaliser la capture, le traitement et le pilotage audio.

Wave Link 3.0 gratuit, DSP Wave FX et intégration Stream Deck

Wave Link 3.0, refonte complète du mixer d’Elgato, est désormais gratuit sur Windows et macOS et fonctionne avec pratiquement tout micro, mixeur ou interface. L’application agrège sources matérielles et logiciels, crée jusqu’à cinq sous-mix indépendants, applique des effets par canal (VST pris en charge) et introduit une table de routage horizontale claire. L’intégration native Stream Deck génère automatiquement des profils adaptés à chaque configuration.

Lineup Elgato Wave Next avec micro, contrôleurs et écran affichant le logiciel.

Associé au matériel Wave, Wave Link 3.0 déverrouille un panneau de contrôle dédié : réglages Wave FX Processor, sélection de mode de monitoring, Auto Gain Wizard et personnalisation des LED. Des effets propriétaires et tiers arrivent via Elgato Marketplace.

Au cœur du matériel, le Wave FX Processor, co‑développé avec Lewitt Audio, déporte le traitement critique sur le hardware et injecte les effets logiciels via VST Insert à faible latence. Le signal débute avec Clipguard 2.0 (ADC multiples, traitement interne 32‑bit float, limitation intelligente), puis cinq effets DSP embarqués (Low Cut Filter, Expander, Voice Tune, Compressor, EQ) opèrent en temps réel sans charge CPU. Le flux unique, déjà traité, arrive nativement dans toute application, sans périphériques audio virtuels.

Nouveaux matériels Wave : USB, XLR, dock et surface de contrôle

Le Wave:3 MK.2 (USB) adopte une capsule supercardioïde signée LEWITT pour une voix focalisée et détaillée avec réduction du bruit ambiant. Il y a aussi une molette multifonction à anneau LED, un mute capacitif, un Auto Gain Wizard, deux modes de monitoring (DSP seul ou audio intégrant VST), et un stockage de tous les réglages en mémoire interne pour une cohérence cross‑système.

Interface Elgato Wave XLR avec grand bouton rotatif lumineux.

Le Wave XLR MK.2 (interface XLR) apporte 80 dB de gain propre, une alimentation fantôme 48 V et 135 dB de plage dynamique pour couvrir des condensateurs sensibles comme des dynamiques broadcast exigeants. Au menu : sortie casque puissante, modes de monitoring sélectionnables, Auto Gain Wizard, Linear Mic Mix et Mic/PC Mix pour équilibrer micro et audio système en enregistrement, streaming ou appels.

Le XLR Dock MK.2 (pour Stream Deck +) intègre l’audio XLR pro directement au contrôleur modulaire Stream Deck + : 80 dB de gain, 48 V, effets DSP embarqués, VST Insert à faible latence, pilotage complet via molettes et touches LCD. L’ampli casque est revu avec doubles modes de mix. Il exige un Stream Deck + car il ne fonctionne pas seul.

Le Wave XLR Pro (expédition au T2 2026) vise les setups de production bureau avancés avec deux entrées XLR totalement indépendantes, 80 dB de gain propre chacune, et cinq mixes matériels à latence nulle pour séparer flux stream, enregistrement et monitoring personnel. Il comprend un maximizer intégré pour une loudness constante, un ducking par canal, des sorties casque haute puissance à l’avant et à l’arrière (3,5 mm et 6,3 mm, jusqu’à 600 ohms) pour animateur et co‑animateur.

Connectique arrière Elgato avec logo, ports USB et XLR.

La connectique inclut un USB Aux pour un second PC, une console ou un téléphone, des E/S ligne stéréo pour mixeurs externes ou moniteurs actifs, et un Standalone Mode qui conserve routage et DSP sans PC connecté. Le montage est facilité via un pas de vis 1/4 pouce. Couplé à un Stream Deck, l’ensemble propose une alternative compacte aux consoles traditionnelles.

Le Stream Deck + XL devient la surface de contrôle unifiée une fois l’audio routé par Wave Link et traité par Wave FX : 36 touches LCD personnalisables, 6 molettes multifonctions et une bande tactile ultra‑large. Réglage de niveaux, mutes, bascules d’effets, changement de mixes avec retour visuel en temps réel, sans ouvrir d’application. Au‑delà de l’audio, il reste un accélérateur de workflows multi‑apps.

Stream Deck Elgato avec boutons personnalisables et molettes de contrôle en bas.
Scène de podcast avec Stream Deck Elgato et deux intervenants.

La disponibilité est immédiate pour Wave:3 MK.2, Wave XLR MK.2, XLR Dock MK.2 et Stream Deck + XL sur elgato.com et chez les revendeurs agréés du réseau CORSAIR. Wave XLR Pro est attendu au T2 2026. Wave Link 3.0 est disponible en téléchargement gratuit sur elgato.com.

L’approche matérielle + logicielle + contrôle physique d’Elgato répond à une réalité de plateau hybride PC/console et de multi‑sources, où la réduction de latence, l’absence de périphériques virtuels et le rappel des mixes sont devenus critiques. L’arrivée d’un double XLR réellement intégré avec 80 dB de headroom et sous‑mixes matériels crédibilise l’option face aux interfaces studio classiques, tout en conservant l’ergonomie Stream Deck.

Source : TechPowerUp

  •  
❌