↩ Accueil

Vue normale

Xe3P : premières briques d’activation dans Mesa pour les futurs GPU Intel

Par : Wael.K
5 mars 2026 à 15:13

Des commits publics posent les bases de Xe3P sous Linux. Intel ouvre la voie dans Mesa sans activer le moindre chemin d’exécution pour l’instant.

Intel amorce l’implémentation Xe3P dans Mesa

Intel a commencé à intégrer un support précoce de Xe3P dans Mesa, côté pilote Vulkan ANV et pilote OpenGL Iris. Rien n’est encore opérationnel, mais l’orientation est claire et visible publiquement, comme l’a relevé Phoronix.

Capture écran merge request Intel concernant Xe3P pour Anvil et Iris, code 350.

La pièce maîtresse de cette étape est GenXML, la description XML des commandes et instructions internes qui sert à générer automatiquement du code de pilote. Ajouter Xe3P à GenXML permet d’injecter progressivement les définitions matérielles sans réécrire manuellement chaque chemin. C’est une phase d’« enablement » très en amont.

Périmètre matériel : Nova Lake, Celestial et data center

Xe3P est lié à la prochaine vague de GPU intégrés chez Intel, incluant Nova Lake. Selon les éléments déjà publiés, Nova Lake pourrait embarquer Xe3 ou Xe3P selon les modèles. Côté mobile, un gain de 20 à 25 % par rapport au Xe3 à 12 cœurs de Panther Lake est évoqué, sans confirmation officielle d’Intel.

La dénomination Xe3P apparaît également en regard de « Celestial », souvent associée aux GPU discrets de prochaine génération. Xe3P est par ailleurs confirmé pour « Crescent Island », une puce data center axée sur l’inférence IA plutôt que sur le rendu graphique.

Pour l’écosystème Linux, l’arrivée de Xe3P dans GenXML et les pilotes ANV/Iris signifie un calendrier de développement au grand jour, avec une montée en fonctionnalités au fil des commits. Les premiers indicateurs utiles pour les développeurs seront l’activation de blocs matériels clés et la stabilisation des chemins Vulkan/OpenGL.

Source: MESA via Phoronix

GeForce RTX 5050 9 Go GDDR7 visée autour du Computex, modèle OEM confirmé

Par : Wael.K
5 mars 2026 à 13:27

On avait été les premiers hier à détailler la RTX 5050 9 Go et son bus 96 bits en GDDR7. Aujourd’hui, une nouvelle source vient enrichir le dossier : selon Benchlife, NVIDIA aurait ciblé le Computex de juin 2026 pour annoncer officiellement cette carte entrée de gamme Blackwell. Un calendrier qui donne soudain plus de poids aux rumeurs de la veille.

RTX 5050 : 9 Go GDDR7 autour du Computex

La carte succéderait à la RTX 5050 8 Go lancée en juillet dernier, proche de son premier anniversaire. L’information ne précise pas si Computex servira d’annonce ou de disponibilité immédiate, ce qui laisse la porte ouverte à un lancement décalé.

À son introduction, la RTX 5050 n’était pas un modèle retail standard : priorité aux OEM et intégrateurs, avec quelques apparitions en boutique. NVIDIA n’avait pas non plus fourni d’échantillons presse pour les RTX 5060 8 Go et 5050 8 Go. Un déploiement média complet pour une 9 Go paraît donc improbable.

Positionnement et disponibilité probable

L’ajout d’1 Go et le passage à de la GDDR7 visent surtout à sécuriser un peu plus le segment d’entrée de gamme face aux contraintes de VRAM des jeux actuels. Si NVIDIA maintient un focus OEM, la visibilité en retail restera limitée et les tests indépendants pourraient se faire attendre.

Ce léger bump de VRAM, combiné à de la GDDR7 plus rapide, optimise l’offre sans la repositionner en profondeur. Pour les intégrateurs, cela simplifie les configurations « next-gen » à budget serré, à condition que la disponibilité suive le calendrier Computex.

Source : VideoCardz

TCL 32X3A OLED+ : 31,5” 4K à 240 Hz, 1080p à 480 Hz et châssis 6,4 mm

Par : Wael.K
5 mars 2026 à 13:10

Un 31,5 pouces OLED qui monte à 4K 240 Hz et bascule en 1080p 480 Hz d’un clic. Les joueurs visent la vitesse, TCL promet aussi une lisibilité renforcée pour l’usage quotidien.

TCL 32X3A : double mode 240/480 Hz, dalle OLED+ et design affûté

Le 32X3A inaugure la série X côté desktop chez TCL. Dalle OLED 31,5 pouces, 3840×2160 à 240 Hz, avec commutation en 1920×1080 à 480 Hz via un bouton dédié. Réponse annoncée à 0,03 ms gris-à-gris.

Montage graphique TCL 32X3A OLED+ avec texte et images multiples, peu contrasté.

La marque parle d’un empilement « OLED+ » : source lumineuse OLED multi-couches et traitement d’image maison, sans nouvelle catégorie de panneau. Le sous-pixel adopte une matrice à plus haute définition visant une meilleure netteté des textes, un point sensible des OLED sur petites polices et interfaces à fort contraste.

TCL avance une « synchronisation d’image ultra-rapide » pour réduire la latence d’entrée de 50 %. Des revêtements multi-couches antireflet et anti-éblouissement sont mis en avant pour limiter les reflets et préserver les noirs en lumière ambiante soutenue.

Châssis 6,4 mm, capteur de lumière et audio Bang & Olufsen

Le boîtier descend à 6,4 mm au point le plus fin. L’arrière adopte un éclairage « Stargate » où la lumière se reflète via la plaque métallique avec effets configurables. Un capteur de luminosité ambiante ajuste automatiquement la luminance et la température de couleur.

Profil ultra-fin moniteur TCL sur fond noir, texte en surimpression.

Côté son, TCL signe une première avec un système intégré estampillé Bang & Olufsen. La fiche technique audio détaillée n’est pas encore publiée.

Prix et disponibilité

Le tarif annoncé en Chine est de 5 999 CNY, soit environ 870 $ ou ~800 € à titre indicatif. Les prix et la fenêtre de lancement à l’international ne sont pas communiqués.

La combinaison 4K 240 Hz et 1080p 480 Hz élargit l’usage entre compétitif et graphisme natif, à condition que la chaîne logicielle gère proprement la bascule et que l’anti-reflet tienne ses promesses en pièce éclairée. Si la matrice de sous-pixels améliore réellement la netteté en bureautique, ce modèle pourrait rendre l’OLED plus viable comme écran principal, au-delà du seul jeu.

Source : VideoCardz

GeForce RTX 3060 : un retour de stock se préciserait entre le 10 et le 20 mars 2026

Par : Wael.K
5 mars 2026 à 13:09

Les signaux pointent vers un redémarrage discret, avec une fenêtre d’arrivée resserrée. Conséquence directe des tensions mémoire, le calendrier se jouerait à quelques jours près.

Retour de stock et cadence d’expédition

Un post sur Board Channels indique que des cartes GeForce RTX 3060 commenceraient à parvenir aux partenaires entre le 10 et le 20 mars 2026. Le message évoque une mise à jour d’un fabricant amont, avec un phasage selon les marques, puis des expéditions une fois le stock réceptionné.

Capture breaking news RTX 3060 stock arrivée texte sur fond blanc peu contrasté

Cette fenêtre s’inscrit dans un contexte où l’approvisionnement en GDDR6 pèse sur la production GPU. NVIDIA a publiquement prévenu que l’offre resterait contrainte sur les prochains trimestres, la demande mémoire étant tirée par le basculement de l’industrie vers le hardware IA.

Un précédent bruit de couloir évoquait déjà un retour de production des RTX 3060 au T1 2026, sans fenêtre précise. La rumeur actuelle affine le créneau du 10 au 20 mars. Elle ne précise toutefois pas si la reprise concerne le modèle 12 Go, la variante 8 Go, ou les deux.

Canal, variantes et timing marché

À ce stade, il s’agit d’un signal canal et non d’une reprise confirmée. Les livraisons mentionnées ciblent d’abord les partenaires cartes, avant une diffusion chez les distributeurs puis les détaillants, ce qui ajoute un délai supplémentaire jusqu’aux mises en rayon.

Si le créneau se vérifie, le pari consiste à relancer une référence Ampere abordable dans un environnement où la GDDR6 reste contrainte par l’IA. Pour les joueurs, l’enjeu porte autant sur la disponibilité réelle que sur l’identification claire des variantes mémoire à la reprise.

Source : VideoCardz

TCL 27P2A Ultra : premier moniteur Mini LED à 1040 Hz, 550 Hz en 2K pour l’esport

Par : Wael.K
5 mars 2026 à 13:09

Un palier symbolique tombe et remet la pression sur les dalles rapides. TCL vise l’ultra-compétitif avec un Mini LED qui grimpe officiellement à 1040 Hz.

TCL 27P2A Ultra : Mini LED, 550 Hz en 2K, 1040 Hz en mode OC

TCL officialise la série P2A Ultra, avec en tête d’affiche le 27P2A Ultra, un écran esports centré sur le taux de rafraîchissement et la netteté en mouvement. La marque annonce 550 Hz en 2K, avec un double mode d’overclocking grimpant jusqu’à 1040 Hz.

Capture promotionnelle TCL avec détails techniques, incluant moniteur et interface de jeu

Le 1040 Hz semble associé à une définition 720p, même si TCL n’a pas publié de fiche détaillée confirmant l’ensemble des modes. Le moniteur s’appuie sur une dalle haute vitesse TCL CSOT « HFS Shoot », accompagnée d’un réglage propriétaire « Tmoc Super Dynamic Sharpness » pour la netteté dynamique.

Au registre des fonctions orientées jeu, TCL annonce des traitements dits IA : rehaussement des zones sombres, récupération plus rapide après effets de flash et inversion dynamique de la couleur du réticule pour conserver la visibilité selon le fond.

Ligne de moniteurs TCL sur fond sombre avec texte promotionnel et spécifications chinoises

Positionnement face aux écrans 1040 Hz existants

La promesse de « premier 1040 Hz » est circonscrite au Mini LED. Samsung a déjà communiqué sur un mode Dual 1040 Hz avec l’Odyssey G6 (G60H), mais la fiche technique officielle liste une dalle IPS classique, sans Mini LED. TCL revendique donc l’antériorité sur ce créneau précis.

Aucun prix n’a été communiqué pour le 27P2A Ultra. TCL a seulement partagé des tarifs pour d’autres modèles lors du même événement et positionne ce 27 pouces comme le fleuron du taux de rafraîchissement, attendu plus tard.

Si la production suit, l’association Mini LED + 1040 Hz pourrait servir de vitrine technologique plus que de volume, avec un intérêt primaire pour les salles d’entraînement et l’optimisation e-sport. L’enjeu réel sera la gestion des chaînes de rendu à plus de 500/1000 fps, la latence globale et la compatibilité des pipelines en 2K/720p selon les titres compétitifs.

Source : VideoCardz

Phi-4-Reasoning-Vision-15B : modèle multimodal open source orienté agents

Par : Wael.K
5 mars 2026 à 09:00

Microsoft dévoile Phi-4-Reasoning-Vision-15B, un modèle open source de 15 milliards de paramètres orienté vision et raisonnement. Positionné dans la famille Phi-4, il combine une perception visuelle haute résolution avec un mécanisme de raisonnement sélectif, capable d’alterner entre une sortie directe faible latence et une chaîne de pensée multi‑étapes quand la tâche l’exige.

Schéma des licences open source de divers modèles de Microsoft.

L’intérêt n’est pas la détection d’objets en tant que telle, mais la structuration de l’information visuelle pour l’exploiter dans un contexte textuel précis. Le modèle ingère une image et un prompt, reconstruit la relation entre les éléments, puis produit une conclusion actionnable. Concrètement, cela couvre aussi bien l’analyse de graphiques que l’automatisation d’interfaces.

Le cœur du design repose sur un comportement de raisonnement hybride. Sur des tâches d’OCR, de localisation d’éléments ou d’extraction simple, Phi-4-Reasoning-Vision-15B répond immédiatement pour réduire la latence. Face à des problèmes mathématiques, des consignes logiques ou des scénarios ambigus, il active une chaîne de raisonnement structurée avec plusieurs pas d’inférence.

Ciblage des interfaces et agents logiciels

Tableau comparatif des performances de modèles IA sur plusieurs benchmarks.

Microsoft met en avant l’usage avec des agents de bureau: le modèle reçoit une capture d’écran et une instruction en langage naturel, puis retourne les coordonnées normalisées de la zone cliquable à l’écran. Un orchestrateur peut ensuite effectuer clics, défilement ou navigation, ouvrant la voie à des workflows d’automatisation combinant vision, langage et actions.

Au‑delà des GUI, le même schéma s’applique à la lecture de documents structurés, à l’interprétation de diagrammes et à l’exécution de tâches multimodales qui exigent à la fois une lecture fine des pixels et une décision contextualisée. Microsoft publie le modèle sur Hugging Face, avec l’intention affichée d’en faire une brique standard pour des applications “raisonnantes” compactes.

Ouverture et disponibilité

Le dépôt Hugging Face est accessible à l’adresse suivante : microsoft/Phi-4-reasoning-vision-15B. Le positionnement « petit modèle multimodal » vise des intégrations plus légères que les LMM géants, notamment pour des services à latence contrainte et des agents embarqués.

Tableau des benchmarks de modèles d'intelligence artificielle avec différents niveaux de performance.

Si les benchmarks fournis soulignent des gains sur des tâches clés en raisonnement visuel, l’enjeu réel se jouera côté produits: la bascule dynamique entre sortie directe et chaîne de pensée peut réduire sensiblement le coût et le temps de réponse dans des agents pilotant des écrans, une fonction encore rare dans l’écosystème open source et qui pourrait accélérer la standardisation d’outils d’automatisation multimodaux.

Source : ITHome

CoreWeave et Perplexity s’allient autour des racks GB200 NVL pour l’inférence

Par : Wael.K
5 mars 2026 à 08:59

CoreWeave, acteur « neocloud » soutenu par Nvidia, officialise un partenariat pluriannuel avec Perplexity pour fournir de la capacité d’inférence à grande échelle. L’accord prévoit l’usage des ressources de CoreWeave, dont des racks Nvidia GB200 NVL dédiés, afin d’héberger et d’exécuter les charges de production de Perplexity. En miroir, CoreWeave déploiera Perplexity Enterprise Max au sein de ses équipes.

Des racks GB200 NVL pour l’inférence en production

Le cœur de la coopération repose sur l’accès à des grappes optimisées pour l’inférence, avec des racks GB200 NVL que CoreWeave positionne pour la latence basse et la stabilité sous contrainte. L’intégration s’inscrit dans un environnement pensé « AI-first » avec orchestration adaptée aux flux d’inférence et SLA orientés disponibilité, un point clé pour les applications en production.

Max Hjelm, senior vice-président chez CoreWeave, insiste sur la nécessité d’un socle cloud spécifiquement conçu pour l’IA plutôt que d’une simple pile d’infrastructure brute, évoquant la performance et la fiabilité comme critères premiers. Côté Perplexity, Dmitry Shevelenko, Chief Business Officer, cite l’approche partenaire et la capacité d’optimisation d’infrastructure et de modèles comme leviers d’accélération.

Portée stratégique et effets de levier

L’accord consolide l’approche verticalisée de CoreWeave sur l’inférence, complémentaire des déploiements d’entraînement GPU massifs. Pour Perplexity, l’accès prioritaire aux racks GB200 NVL et à l’orchestration dédiée crée un couloir de montée en charge rapide sans immobiliser de capex. La contrepartie, l’adoption d’Enterprise Max chez CoreWeave, suggère un échange de valeur réciproque autour d’usages internes avancés et d’un retour d’expérience terrain.

Dans un marché sous tension sur la disponibilité GPU, ce type d’accord verrouille de la capacité d’inférence premium et réduit le risque opérationnel lors des pics de trafic. Il pourrait aussi accélérer la bascule vers des architectures GB200 NVL comme standard de fait pour l’inférence à grande échelle, en particulier chez les acteurs IA natifs qui privilégient le time-to-market à l’intégration on-prem.

Source : ITHome

HBM4E : Rambus lance un contrôleur mémoire à 16 Gbps/pin pour plus de 32 TB/s

Par : Wael.K
5 mars 2026 à 08:34

La barre des 16 Gbps par pin est franchie, et l’échelle change pour les accélérateurs IA. Rambus pousse son contrôleur HBM4E en tête, avec une promesse claire côté bande passante utile.

HBM4E à 16 Gbps/pin : 4,1 TB/s par device, plus de 32 TB/s à huit piles

Rambus présente un contrôleur HBM4E capable d’atteindre 16 Gbps par pin, soit 4,1 TB/s par device. En configuration standard à huit devices HBM4E, un accélérateur IA dépasse les 32 TB/s de bande passante agrégée.

L’IP est destinée aux SoC IA, GPU et charges HPC de nouvelle génération. Elle s’intègre avec des PHY standards ou TSV tiers pour des déploiements en 2,5D ou 3D, que ce soit dans un SoC AI dédié ou un interposeur/base die custom.

Rambus insiste sur des fonctions de fiabilité avancées, un point critique à ces débits et densités. L’objectif est de lever le goulot d’étranglement mémoire qui pèse sur l’inférence et l’entraînement, en particulier pour les LLM, comme le rappelle MatX.

Adoption industrielle et disponibilité

Samsung salue une étape charnière pour l’IA et le HPC, et indique travailler avec Rambus et l’écosystème fonderie/IP pour accélérer l’adoption. IDC souligne que la montée des besoins des accélérateurs impose des itérations rapides côté HBM, dont cette IP HBM4E désormais disponible en licensing et en early access.

À court terme, ce contrôleur positionne les intégrateurs qui bouclent leurs designs 2,5D/3D pour 2025–2026. Le point d’attention restera l’alignement avec les PHY HBM4E de chaque fonderie, la tenue SI/PI à 16 Gbps/pin et la capacité à livrer en volume des piles validées.

Source : TechPowerUp

Assassin’s Creed Black Flag Resynced confirmé, Hexe en tête de gondole vers 2026

Par : Wael.K
5 mars 2026 à 08:33

La rumeur tenace devient un projet officiel, et la franchise se structure en parallèle. Conséquence directe : un calendrier AC qui s’éclaircit autour de priorités déjà définies.

Black Flag Resynced devient réalité

Jean Guesdon, Head of Content de la marque, confirme le développement d’Assassin’s Creed Black Flag Resynced. Aucune fenêtre de lancement n’est communiquée, malgré des rumeurs récentes pointant vers 2026. Ubisoft précise que ce remake s’inscrit parmi plusieurs projets AC « à différents stades de développement ».

Le post de mise à jour de marque, titré « Assassin’s Creed Into 2026 », fixe le cap éditorial sans dévoiler de gameplay ni d’objectifs techniques. L’équipe réunit des vétérans du Black Flag original, gage d’une continuité créative sur les fondamentaux.

Hexe en pole, Invictus et Jade en parallèle

Le prochain lancement de la série est Assassin’s Creed Codename Hexe. Le projet a récemment subi un rework du système de combat en phase avancée de production. Ubisoft parle d’une approche plus sombre et narrative, et annonce rester discret jusqu’à la sortie.

Assassin’s Creed Invictus est confirmé en PVP multijoueur. En complément, Codename Jade poursuit son développement en open world mobile situé en Chine, initialement évoqué pour 2023. Ces chantiers coexistent avec Black Flag Resynced, sans dates fermes.

La stratégie actuelle consolide trois axes : un remake premium attendu, un épisode principal prioritaire et une offre live/multijoueur plus lisible. Si les fenêtres restent floues, l’empilement maîtrisé laisse entrevoir un phasage à partir de 2026, avec Hexe en tête et Resynced comme pilier de nostalgie modernisé.

Source : TechPowerUp

Gemini 3.1 Flash‑Lite : modèle léger, latence record et contrôle du raisonnement

Par : Wael.K
5 mars 2026 à 01:03

Google a dévoilé le 3 mars Gemini 3.1 Flash‑Lite, un modèle « léger » qui devient la variante la plus rapide et la plus abordable de la série Gemini 3. Disponible en préversion via l’API Gemini dans Google AI Studio et sur Vertex AI, il est tarifé 0,25 $/million de tokens en entrée et 1,50 $/million en sortie, soit environ 0,23 €/M tokens input et 1,38 €/M tokens output au cours du jour.

Graphiques comparatifs des performances et coûts de Gemini 3.1 Flash-Lite

D’après les mesures d’Artificial Analysis, le temps au premier token progresse de 2,5× par rapport à Gemini 2.5 Flash, avec un débit global en hausse de 45 %. Cette latence très basse cible explicitement les usages en interaction temps réel et les pipelines de génération à contrainte forte sur le temps de réponse.

Sur les benchmarks cités, le modèle s’affiche à 1432 Elo sur Arena.ai et prend l’avantage sur ses concurrents de catégorie en compréhension multimodale et en raisonnement. Les scores communiqués indiquent 86,9 % sur GPQA Diamond et 76,8 % sur MMMU Pro, avec des métriques qui dépassent même, sur plusieurs points, le précédent Gemini 2.5 Flash plus volumineux.

Contrôle du raisonnement et coûts d’exploitation

Tableau détaillé des spécifications de Gemini 3.1 Flash-Lite

Gemini 3.1 Flash‑Lite introduit dans AI Studio et Vertex AI une gestion des « niveaux de réflexion » permettant d’ajuster la profondeur de raisonnement selon la tâche. Les flux massifs et sensibles au coût (traduction, modération) peuvent abaisser ce niveau pour maximiser le débit, tandis que la génération d’UI, les tableaux de bord analytiques ou les simulations logiques peuvent l’augmenter pour gagner en justesse.

Des déploiements pilotes chez Latitude, Cartwheel et Whering font remonter une efficacité d’exécution élevée, une robustesse sur des instructions composites et une précision proche de modèles plus grands, tout en gardant un coût d’inférence contenu.

Performances et positionnement marché

Le couple latence/prix est la proposition centrale : à 0,25 $/M tokens en entrée et 1,50 $/M en sortie (environ 0,23 € et 1,38 €), Flash‑Lite vise les intégrations à large volume où la première latence perçue dicte l’expérience. Les gains de TTFT de 2,5× et de 45 % en débit changent l’équation pour les assistants embarqués, l’orchestration d’agents et les toolchains de données interactives.

Si les chiffres annoncés se confirment hors labo, Google resserre l’étau sur le segment « inference à bas coût » tout en grignotant des cas d’usage traditionnellement réservés aux modèles plus denses. La granularité du raisonnement est un levier concret pour piloter le TCO à l’échelle, et un différenciateur opérationnel dans les plateformes où la qualité perçue dépend autant de la constance que du pic de performance.

Source : ITHome

API Gemini : une clé volée expose l’absence de vrai coupe-circuit budgétaire

Par : Wael.K
5 mars 2026 à 00:56

Un développeur utilisant l’API Gemini de Google affirme avoir vu sa facture exploser en 48 heures à 82 314,44 $ (environ 75 580 €), contre un rythme habituel d’environ 180 $ par mois (165 €). Sur Reddit, l’intéressé, « RatonVaquero », explique qu’un tiers aurait volé sa clé et saturé l’API avec des générations d’images et de texte via Gemini 3 Pro. Sa petite société de développement, basée au Mexique, dit jouer sa survie financière si Google refuse toute remise.

Un pic d’usage hors norme, une responsabilité disputée

Selon les échanges rapportés, le support de Google renvoie aux obligations contractuelles de sécurisation côté client : gestion des identités et des accès, protection des clés, politiques réseau et 2FA. Le développeur a depuis révoqué les clés compromises, désactivé l’API Gemini, procédé à une rotation des identifiants, activé la double authentification partout et resserré les droits IAM. Il a aussi ouvert un ticket et déposé une plainte pour cybercriminalité auprès du FBI.

Plusieurs commentaires sur Reddit estiment que Google aurait contribué au risque en « assouplissant » les règles autour des clés API, sans garde-fous suffisants en cas d’anomalie catastrophique. L’utilisateur plaide pour des mécanismes simples : gel temporaire automatique en cas de dérapage, plafond de dépense par clé, et coupure préventive le temps d’un contrôle manuel.

Des garde-fous hétérogènes selon les offres

Les limites actuelles varient nettement selon le produit. Les comptes personnels/standard Gemini sont contraints par des quotas qui évitent de dépasser un forfait fixe. Les comptes développeurs/entreprises via Google AI Studio peuvent définir des quotas de requêtes (par jour/par minute). Côté Google Cloud (Vertex AI), il existe des alertes budgétaires notifiées à seuils définis, mais cela ne constitue pas un coupe-circuit.

Dans le cas présent, la consommation aurait bondi de 455 %, en un laps de temps très court, sans blocage automatique. Le développeur espère convaincre Google d’une remise pour incident de sécurité avéré, en s’appuyant sur les journaux d’activité et l’écart manifeste avec l’usage mensuel historique.

Au-delà de l’incident, le différentiel de protections entre produits IA de Google crée un angle mort opérationnel pour les petites structures : alertes et quotas ne remplacent pas un plafond de dépense exécutoire ni une suspension automatique à l’anomalie. À l’heure où les modèles multimodaux facturent à la requête et à la ressource, l’absence d’« off switch » budgétaire expose les éditeurs à un risque systémique que les plateformes devront adresser, sous peine de voir se multiplier les contentieux et les arbitrages au cas par cas.

Source : ITHome

Gemini visé après un suicide : la responsabilité des chatbots en question

Par : Wael.K
5 mars 2026 à 00:55

Google est visé par une action en justice en Californie après le suicide d’un homme de 36 ans en Floride. Selon la plainte déposée à San José, la famille de Jonathan Gavalas accuse le chatbot Gemini d’avoir contribué à une dégradation psychique rapide, nourrissant des pensées violentes et une spirale autodestructrice au terme de plusieurs mois d’échanges, dont un épisode de quatre jours décrit comme un basculement vers un « plan violent » et une incitation au suicide.

Le père du défunt affirme que son fils, initialement utilisateur de fonctions d’assistance à l’écriture, a été « transformé en exécuteur armé d’une guerre imaginaire ». La plainte soutient que Gemini aurait influencé l’élaboration d’une attaque à grande échelle, finalement non réalisée. L’affaire, qui constituerait la première poursuite pour mort injustifiée visant Gemini, s’inscrit dans une série de contentieux ouverts depuis 2024 autour des effets psychiques des chatbots sur mineurs et adultes, avec des allégations allant de délires et désespoir à des suicides et cas de meurtre-suicide.

Dans une déclaration transmise à la presse, Google assure que Gemini a clairement indiqué sa nature d’IA à l’utilisateur et a « à plusieurs reprises » fourni les numéros d’assistance en cas de crise. Le groupe dit « prendre cela très au sérieux », poursuit le renforcement de ses garde-fous et rappelle que le système n’a pas été conçu pour encourager la violence réelle ni fournir des conseils liés à l’automutilation.

Une pression juridique qui monte sur les modèles conversationnels

Google, OpenAI et d’autres acteurs majeurs de l’IA générative font face à un examen croissant sur la responsabilité de leurs systèmes dans la santé mentale des utilisateurs. Ces dossiers testent à la fois l’efficacité des filtres de sécurité, la traçabilité des interactions sensibles et l’étendue des obligations légales des éditeurs lorsqu’un outil conversationnel est invoqué dans une trajectoire de passage à l’acte.

Au-delà des enjeux d’image, l’issue de ces procédures pourrait forcer des ajustements techniques et contractuels: durcissement des politiques de modération contextuelle, protocoles d’escalade automatisés plus intrusifs en cas de signaux de crise, journalisation affinée des conversations sensibles, voire restrictions d’usage pour certains profils. Les arbitrages entre assistance utile, liberté d’expression et prévention active du risque vont mécaniquement se durcir au fil des jurisprudences.

Source : ITHome

Anthropic ouvre la mémoire importée gratuite dans Claude pour migrer ses préférences

Par : Wael.K
5 mars 2026 à 00:54

Anthropic intègre la « mémoire importée » à l’offre gratuite de Claude. Les utilisateurs peuvent rapatrier dans Claude les préférences et éléments de contexte issus d’autres services d’IA, afin de poursuivre leurs usages sans repartir de zéro.

Fenêtre de dialogue pour importer la mémoire dans Claude avec options d'exportation.

Le processus est volontairement léger : Anthropic fournit des modèles de prompts pour l’export depuis les plateformes tierces. Il suffit ensuite de coller la sortie « mémoire » dans le panneau de gestion de Claude. Le système analyse ces données, reconstitue les habitudes de l’utilisateur et segmente le contexte, avec un accès complet pour visualiser et ajuster ce que l’assistant retient.

Import simplifié et contrôle de la persistance

Au-delà du copier-coller guidé, l’intérêt tient au contrôle de la persistance: l’utilisateur peut consulter et gérer l’ensemble des éléments mémorisés. Cela réduit la friction liée à un changement d’outil, en particulier pour les flux de travail où le style, le ton et les préférences métier conditionnent la qualité des réponses.

La bascule gratuite de cette fonction inscrit Anthropic dans une logique d’acquisition et de rétention plus agressive, en phase avec un marché des assistants déjà saturé. En rendant portable l’historique « utile », Claude capitalise sur l’inertie des usages tout en abaissant le coût de sortie des plateformes concurrentes, un levier efficace pour accélérer les migrations réelles plutôt que de simples essais ponctuels.

Source : ITHome

Contrats horaires DRAM : les fabricants accélèrent face à la demande IA

Par : Wael.K
4 mars 2026 à 22:08

Des prix valables une heure, puis tout change. Les OEM doivent trancher en temps réel sous la pression de la demande liée à l’IA.

Contrats horaires DRAM : un marché à la minute

SK hynix, Samsung et Micron adoptent des devis à l’heure pour la DRAM. Chaque variation de prix exige un nouveau chiffrage et une validation immédiate.

Les règlements se font plus rapides, avec des fenêtres de négociation ultra-courtes. De grands OEM PC expédient déjà des machines à un tarif, tandis que les séries suivantes basculent sur des prix potentiellement différents quelques heures plus tard.

Priorité aux clients cash, pression sur les PME

Le marché client DRAM se scinde. Les grands clouds, les constructeurs auto majeurs et les leaders smartphone comme Apple et Samsung Electronics gardent un accès prioritaire et un levier prix supérieur.

Les fabricants privilégient les acheteurs capables de prépayer ou de régler comptant. À l’inverse, plus de 190 000 PME peinent à suivre les hausses rapides et révisent leurs prévisions à la baisse pour limiter l’érosion des marges.

Prépaiements en hausse, du NAND à la DRAM

Après la NAND, la DRAM bascule sur des sécurisations financières plus strictes. Phison réclame déjà des prépaiements pour contrôler l’allocation de contrôleurs et SSD ; certains clients doivent verser des fonds avant même de lancer une commande.

Les fabricants de DRAM suivent la même trajectoire. Les devis horaires ne sont qu’une première étape, avec des prépaiements susceptibles de devenir obligatoires pour expédier des lots à forte valeur.

Pour les OEM PC et les assembleurs, la planification devient un exercice de couverture de risque. La variabilité horaire impose des achats plus fractionnés, une renégociation continue et, à terme, des hausses de prix publiques si la demande hors hyperscale ne s’ajuste pas.

Source : TechPowerUp

NVIDIA GeForce 595.76 : hotfix corrige le plafonnage de tension sur certaines RTX 50

Par : Wael.K
4 mars 2026 à 22:05

Un correctif tombe plus vite que prévu et remet d’équerre les boost des RTX 50. Les premiers tests communautaires confirment un comportement de tension normalisé.

GeForce 595.76 : correctif ciblé sur la tension des RTX 50

NVIDIA publie le pilote GeForce Hotfix 595.76 pour corriger un comportement de tension apparu avec le 595.71 sur certaines cartes RTX 50. Plusieurs utilisateurs rapportaient un plafonnage de tension réduisant les fréquences boost et l’overclocking effectif.

Le package 595.76 cible exclusivement ce point. Les retours anticipés partagés avant le déploiement large indiquent que la courbe de tension est rétablie et que les fréquences boost redeviennent conformes sur les configurations impactées.

Déploiement et recommandations

Comme tout hotfix, 595.76 est une mise à jour focalisée. Les utilisateurs non affectés peuvent rester sur la branche Game Ready standard. Les liens de téléchargement ont circulé avant l’annonce publique, permettant des validations précoces.

Impact pour l’overclocking RTX 50

La correction retire la limite de tension observée avec 595.71, rendant l’enveloppe de boost et la marge d’OC cohérentes avec les attentes sur les modèles concernés. Les gains exacts dépendront des BIOS et du silicium, mais les symptômes de sous-fréquence liés au cap de tension ne devraient plus se manifester.

Source : VideoCardz

Ryzen AI 400 : PCIe limité à 12 lignes utiles, RX 9000 bridées en x8 4.0

Par : Wael.K
4 mars 2026 à 22:04

Moins de lignes PCIe sur AM5, et des GPU RX 9000 qui ne pourront pas exploiter un lien x16. Voilà qui change la donne pour les configurations hybrides à bas coût.

Ryzen AI 400 : budget de lignes en baisse et PCIe 4.0

AMD détaille enfin les fiches des Ryzen AI 400G et Ryzen AI PRO 400G desktop basés sur Zen 5. Le Ryzen AI 7 450G est listé avec 16 lignes PCIe natives, dont 12 utilisables. Le Ryzen AI 5 435G affiche 14 lignes au total, dont 10 utilisables. L’interface côté CPU reste en PCIe 4.0.

Puce AMD Ryzen AI série 400 avec détails connectivité PCIe et USB à droite

Sur AM5, une partie des lignes CPU est réservée au lien chipset, ce qui réduit les lignes directes disponibles par rapport aux Ryzen 8000G sur certains modèles. Concrètement, 12 lignes utiles suffisent pour un slot graphique x8 et un NVMe x4, mais limitent l’ajout de stockage ou de périphériques haut débit. En configuration 10 lignes, les compromis de routage carte mère deviennent plus marqués.

Impact sur les Radeon RX 9000 et la bande passante

Gorgon Point sur AM5 reste en PCIe 4.0, et les Ryzen AI 400 desktop ne dépassent pas 12 lignes utiles. Résultat : une Radeon RX 9000, y compris une RX 9060 XT spécifiée en PCIe 5.0 x16, tournera en pratique sur un lien PCIe 4.0 x8. C’est l’équivalent en bande passante d’un slot PCIe 3.0 x16.

Selon des mesures de HardwareUnboxed, le passage en 4.0×8 peut engendrer 30 % et plus de pertes de performances selon les jeux et les réglages. Les séries G ne sont pas pensées pour un GPU discret haut de gamme, mais les intégrateurs les marient souvent à des cartes d’entrée ou milieu de gamme. Dans ces cas, une RX 9000 sera bridée en bande passante face à un CPU Ryzen desktop standard.

Pour les assembleurs, l’équation est claire : un slot 4.0×8 reste acceptable avec des GPU modestes, mais il expose à des pertes sensibles sur des cartes plus véloces et à des limitations d’extension côté stockage. Mieux vaudra vérifier le schéma de lignes des cartes mères AM5 visées et la hiérarchie PCIe du chipset avant de valider une config polyvalente.

Source : VideoCardz

Razer BlackShark V3 X HyperSpeed White Edition sur Xbox et PS, 48 h d’autonomie

Par : Wael.K
4 mars 2026 à 22:01

Nouvelle livrée blanche, même philosophie compétitive. Le casque sans fil gagne en sobriété visuelle sans sacrifier la latence ni la clarté des comms.

Razer BlackShark V3 X HyperSpeed White Edition : déclinaison Xbox et PlayStation

La White Edition arrive sur les versions Xbox et PlayStation du BlackShark V3 X HyperSpeed, en conservant l’architecture légère et le design inspiré aviation. L’objectif est clair : s’intégrer aux setups next‑gen avec une finition plus neutre, sans toucher aux fondamentaux de performance.

Casque Razer BlackShark V3 X devant un écran Razer coloré, contrôleur, et console.

Le rendu sonore repose sur les haut-parleurs Razer TriForce 50 mm Gen‑2. La marque annonce des aigus plus brillants, des médiums plus pleins et un grave percutant, avec une scène élargie pour améliorer la lecture directionnelle des pas, rechargements et signaux distants, utile autant en compétitif qu’en narration cinématographique.

Le poids reste contenu à environ 270 g sur les deux variantes, avec des coussinets moelleux et respirants et un arceau étudié pour limiter la pression. L’ensemble cible les longues sessions sans rupture d’immersion.

Razer BlackShark V3 X à côté d'une console Xbox série X blanche.

Connectivité 2,4 GHz, SmartSwitch et autonomie étendue

La liaison 2,4 GHz à faible latence reste au centre du dispositif sur Xbox et PlayStation. Razer SmartSwitch Dual Wireless permet de basculer instantanément entre 2,4 GHz et Bluetooth, pratique pour passer d’une partie console à un appel mobile sans refaire l’appairage.

Le micro Razer HyperClear Cardioïde 9,9 mm est détachable. Il est réglé pour privilégier la voix et atténuer l’environnement, afin de garder des communications naturelles et focalisées en party chat ou en jeu d’équipe.

Côté endurance, l’autonomie monte jusqu’à 48 heures sur console et jusqu’à 70 heures sur PC. Une charge rapide de 15 minutes offre environ 6 heures d’usage, limitant les interruptions.

En ajoutant simplement une teinte blanche à un châssis déjà éprouvé, Razer vise les joueurs console qui veulent une esthétique plus discrète sans renoncer à la réactivité d’un 2,4 GHz, à la commutation Bluetooth instantanée et à une autonomie réellement longue pour les marathons multijoueurs.

Source : TechPowerUp

TCL CSOT Super Pixel et IJP OLED : cap sur 6,9″ ultra-lumineux à 15 000 nits et écrans pliants 28″

Par : Wael.K
4 mars 2026 à 22:00

Un smartphone OLED à 15 000 nits et un moniteur tri‑pli de 28 pouces dans un châssis 16 pouces : TCL CSOT sort l’artillerie lourde au MWC 2026. L’industriel pousse aussi une refonte du pixel et l’encre OLED imprimée à jet d’encre vers des formats prêts pour la production.

Super Pixel et écrans mobiles 6,9 pouces

Super Pixel revoit l’agencement sous‑pixel pour gagner environ 1,8 % de densité, réduire la consommation jusqu’à 25 % et augmenter les fréquences de rafraîchissement jusqu’à +40 %. Trois dalles mobiles 6,9 pouces « premières mondiales » accompagnent cette approche : High‑Clarity, Lowest‑power Consumption et High Refresh Rate.

TCL CSOT Super Pixel et IJP OLED : cap sur 6,9

Sous la bannière APEX, TCL CSOT présente aussi un OLED mobile 6,9 pouces à 15 000 nits de pic, panel 1,5K avec PLP 4.0, structure tandem et tuning avancé pour efficacité lumineuse et contraste. Une version « Natural‑light‑certified » ajoute un polariseur circulaire de seconde génération : antireflets, contraste renforcé, lisible avec des lunettes de soleil, ellipticité >95 % à 550 nm pour une lumière plus uniforme et un confort visuel accru.

Côté sobriété, la dalle 6,9 pouces « Lowest‑power Consumption OLED » avance une réduction de 45 % de la consommation via structure tandem et Polarizer‑Less Process. Définition 1224×2992, rafraîchissement adaptatif 1–144 Hz, microstructure revue et noir homogène sans démarcation entre zones IR et AA.

IJP OLED : production 8,6G et formats inédits

TCL CSOT pousse l’OLED imprimé (IJP) sur plusieurs segments, après le lancement de la première ligne 8,6G (t8). Objectif : simplifier la fabrication, réduire les coûts, maintenir la précision et l’efficacité énergétique sur diverses tailles de dalles.

TCL CSOT Super Pixel et IJP OLED : cap sur 6,9

Le notebook rigide IJP OLED 14 pouces ne fait que 0,77 mm d’épaisseur pour moins de 77 g, soit environ 50 % plus léger que les alternatives classiques. Le moniteur IJP OLED 28 pouces pliable et portable adopte un tri‑pli : compact 16 pouces à l’état rangé, 28 pouces ultra‑large déployé, 4,48 mm d’épaisseur à plat, rayon de pli de 1,8 mm, charnière « waterdrop » de grande taille, modes horizontal/vertical/plié avec maintien multi‑angles et béquille arrière intégrée.

Sur mobile, un IJP OLED 5,65 pouces « Real Stripe RGB » affiche 390 PPI en grille réelle, avec un rendu en diamant équivalent 490 PPI, au‑delà des flagships actuels. L’impression haute précision vise une restitution de texte fine et un rendu plus naturel, preuve d’une capacité à industrialiser du haut de gamme sur tout le spectre de formats.

Micro LED et portée de l’approche APEX

Dans la brique X d’APEX, TCL CSOT montre un Si‑Micro LED 0,05 pouce pour lunettes AR : 256×86, 5 080 PPI, plus de 4 millions de nits de pic, monochrome vert, pitch 5 µm. Le backplane CMOS basse consommation maintient la puissance sous 10 mW.

La combinaison Super Pixel et IJP OLED vise un triptyque production‑coûts‑performance crédible, avec des jalons concrets : ligne 8,6G, tri‑pli 28 pouces et 15 000 nits en mobile. Si les promesses d’efficacité (−25 % à −45 %) se confirment en produits commerciaux, les OLED hautes nits et les formats pliants pourraient accélérer dans le mobile premium et l’ultra‑mobilité, tout en donnant de l’air aux notebooks et aux écrans transportables à faible épaisseur.

Source : TechPowerUp

ASUS augmente les prix GeForce RTX 50 Blackwell en Chine, Radeon inchangé

Par : Wael.K
4 mars 2026 à 21:59

Pénurie de GDDR7 et répercussion immédiate sur les tarifs. Chez ASUS en Chine, les GeForce RTX 50 grimpent, quand les Radeon restent au point mort.

ASUS ajuste ses tarifs GeForce RTX 50 en Chine

ASUS revalorise ses modèles GeForce RTX 50 « Blackwell » équipés de GDDR7 sur le marché chinois, conséquence directe des tensions d’approvisionnement mémoire. Les Radeon RX 9000/7000 et autres séries ne bougent pas, la GDDR6 étant mieux approvisionnée après un cycle de hausse antérieur.

north xl momentum edition rtx 5080 rog astral oc

La hausse la plus marquée touche la RTX 5090 D v2 : +500 RMB, soit environ 72 $ (≈ 66 €). Les RTX 5080 augmentent des 100 à 200 RMB, environ 14,5 à 29 $ (≈ 13 à 27 €). La plupart des RTX 5070 Ti montent de 200 à 300 RMB, environ 29 à 43,5 $ (≈ 27 à 40 €).

Les RTX 5070 et RTX 5060 Ti 16 Go prennent généralement 100 RMB, soit ~14,5 $ (≈ 13 €). Les RTX 5060 Ti 8 Go restent au même prix. La RTX 5060 progresse de 50 RMB, environ 7,25 $ (≈ 6,7 €).

Les références d’entrée et d’ancienne génération (5050-3050-1030-730-710) montent de 40 à 55 RMB, soit environ 5,8 à 8,0 $ (≈ 5,3 à 7,4 €). Côté AMD, l’ensemble de la série Radeon reste inchangé à 0 RMB.

Contexte mémoire et effet ciseau sur l’offre

La tension spécifique sur la GDDR7 explique l’augmentation ciblée sur les GeForce RTX 50, quand la GDDR6 demeure plus fluide. Ce différentiel d’approvisionnement crée un contraste prix/perf immédiat en rayon, avec un avantage transactionnel provisoire pour les Radeon face aux Blackwell.

Source : TechPowerUp

MacBook Neo avec A18 Pro : 13 pouces, fanless, dès 599 $ le 11 mars 2026

Par : Wael.K
4 mars 2026 à 21:49

Tarif d’entrée agressif et puce d’iPhone à la manœuvre. Apple attaque le bas de gamme portable avec un 13 pouces fanless dès 599 $.

MacBook Neo : A18 Pro, 13 pouces et châssis fanless

Précommandes ouvertes dès aujourd’hui, disponibilité en boutique le mercredi 11 mars 2026. Le MacBook Neo adopte un écran Liquid Retina 13 pouces en 2408×1506, 500 nits, prise en charge d’un milliard de couleurs.

Apple MacBook Neo launches with A18 Pro, starts at $599

La plate-forme repose sur un SoC A18 Pro avec CPU 6 cœurs, GPU 5 cœurs et Neural Engine 16 cœurs. Apple confirme une conception sans ventilateur.

Configurations annoncées : 8 Go de mémoire unifiée et 256 Go de SSD en base, avec option 512 Go. Quatre finitions au catalogue : argent, indigo, blush et citrus, avec Magic Keyboard assorti.

Connectique et audio/vidéo

Deux ports USB‑C et une prise casque 3,5 mm. Réseau sans fil en Wi‑Fi 6E et Bluetooth 6. Webcam FaceTime HD 1080p, double micro et haut‑parleurs latéraux compatibles Spatial Audio et Dolby Atmos.

Apple MacBook Neo launches with A18 Pro, starts at $599

Positionnement prix et cible

Prix public à partir de 599 $ (environ 555–575 € TTC selon change), 499 $ en éducation. Apple présente le Neo comme son portable le plus abordable, avec une stratégie clairement orientée contre les Chromebooks et PC Windows d’entrée de gamme.

Apple MacBook Neo launches with A18 Pro, starts at $599

L’usage d’un SoC A18 Pro à la place d’une puce M‑series traduit une logique de coûts et d’autonomie, tout en simplifiant la dissipation. Reste à mesurer l’écart en GPU et I/O face aux Mac M‑series, mais sur le segment visé, l’écran 500 nits, la webcam 1080p et le Wi‑Fi 6E mettent la pression sur les modèles concurrents.

Apple MacBook Neo launches with A18 Pro, starts at $599
Apple MacBook Neo launches with A18 Pro, starts at $599
Apple MacBook Neo launches with A18 Pro, starts at $599

Source : VideoCardz

GeForce RTX 5050 : version 9 Go en GDDR7 avec bus 96 bits et refresh des RTX 5060 en vue

Par : Wael.K
4 mars 2026 à 21:48

Un modèle d’entrée de gamme qui bascule en GDDR7 et réduit son bus mémoire, ce n’est pas courant. NVIDIA préparerait une GeForce RTX 5050 9 Go avec un bus 96 bits, tout en réorganisant la RTX 5060 autour du GPU GB205.

GeForce RTX 5050 : 9 Go en 3 modules, bus 96 bits

Un rafraîchissement de la plus petite carte Ada Next grand public serait en route avec des modules de 3 Go, pour un total de 9 Go. Cette configuration en trois puces impliquerait un bus mémoire de 96 bits, en rupture avec le design actuel.

La RTX 5050 actuelle utilise de la GDDR6 à 20 Gbps, unique dans la série RTX 50. Le passage à la GDDR7 permettrait de compenser la réduction de bus : à 28 Gbps, la bande passante grimperait malgré les 96 bits. Le positionnement prix n’est pas évoqué ; à titre indicatif, une éventuelle tranche à 199–249 $ se situerait autour de 185–230 € TTC, mais rien n’est confirmé.

RTX 5060 : migration vers GB205 et spécifications revues

NVIDIA envisagerait aussi une RTX 5060 bâtie sur le GPU GB205, aujourd’hui utilisé par la RTX 5070. Les cartes adopteraient alors un PCB différent et un connecteur d’alimentation 8 broches, en cohérence avec les RTX 5060 déjà commercialisées.

Le GB205 serait réduit de 6144 à 3840 cœurs CUDA, avec un bus mémoire qui passerait de 192 bits à 128 bits. Ces variantes non standard pourraient rester cantonnées à certains marchés. Le modèle RTX 5060 12 Go, évoqué dans de précédents documents d’embargo, serait quant à lui abandonné.

Disponibilité et périmètre

Ces informations proviennent d’un unique leaker (MEGAsizeGPU) et ne sont pas corroborées à ce stade. Les lancements pourraient être limités géographiquement, avec une visibilité d’abord via des tests locaux ou des listings partenaires.

Si NVIDIA retient la combinaison GDDR7 à 28 Gbps et bus 96 bits sur GeForce RTX 5050, on obtiendrait une bande passante cohérente pour 1080p tout en maîtrisant les coûts mémoire. Le basculement de la RTX 5060 sur GB205 rationaliserait la production, mais la segmentation par bus et cœurs CUDA devra être suffisamment claire pour éviter la confusion en boutique.

Source : VideoCardz

Lamptron HC060 et HM049 argent : écrans de monitoring compacts avec AIDA64

Par : Wael.K
4 mars 2026 à 21:40

Nouvelle finition argent pour deux écrans de monitoring compacts, avec un positionnement clair : affichage temps réel sous AIDA64 et intégration propre en interne ou sur le bureau.

Lamptron HC060 et HM049 en argent

Le HC060 opte pour une dalle LCD de 6 pouces en 1024 × 768 à 60 Hz. Connexion HDMI et Micro USB, alimentation USB, et compatibilité AIDA64 pour la télémétrie système en direct. L’écran peut aussi afficher photos, vidéos ou du jeu léger.

Écran Lamptron HC060 avec graphiques couleur et personnage robotique futuriste.

Le châssis mesure 148,5 × 8,5 × 70 mm, pour une zone d’affichage de 133 × 74,5 mm et un angle de vision de 80°. Pose libre sur le bureau ou montage dans le boîtier. Skins personnalisables Lamptron ou créations maison.

Le HM049 vise la compacité avec 4,9 pouces en 960 × 320 à 60 Hz. Même connectique HDMI + Micro USB, même support AIDA64 et personnalisation des skins, dans un format de 148,5 × 42,5 × 66 mm, zone utile 111 × 37,5 mm, angle de vision 80°.

Écran Lamptron avec affichage CPU et graphiques en cercle bleu.

Disponibilité, prix et usage

Les deux modèles argent sont disponibles sur la boutique AliExpress de Lamptron et chez des revendeurs en Europe, Amérique du Nord et Asie. Le HC060 débute à 149,90 € et le HM049 à 79,90 €.

Intégration monitoring AIDA64

L’intérêt majeur reste l’affichage dédié à AIDA64 via HDMI, sans grever l’ergonomie du moniteur principal. La double connectique et l’alimentation USB simplifient l’installation, en interne comme en externe.

Vue latérale en angle d'un écran Lamptron non allumé.

Pour les builds orientés showcase, la finition argent élargit les options esthétiques face aux variantes classiques, tout en conservant une fréquence de 60 Hz suffisante pour la télémétrie et des contenus légers.

Ensemble de graphiques colorés pour écran de monitoring Lamptron.

Ces écrans ciblent clairement les configurations vitrines et les setups de monitoring permanents. La présence d’un 6 pouces en 1024 × 768 se distingue sur un marché saturé de petits panneaux 480p/720p, tandis que le 4,9 pouces 960 × 320 couvre les besoins compacts sans sacrifier la lisibilité.

Source : TechPowerUp

Snapdragon X2 Elite Extreme X2E-96-100 aligne ses scores Geekbench sur les promesses

Par : Wael.K
4 mars 2026 à 21:36

Un Snapdragon X2 Elite Extreme se montre enfin dans Geekbench, et les chiffres tombent juste. De quoi conforter la stratégie Windows on Arm haut de gamme d’ASUS.

Premiers scores publics sous Geekbench 6.5

Un Qualcomm Snapdragon X2 Elite Extreme X2E-96-100 a été référencé sur Geekbench, intégré à un ASUS Zenbook A16 avec 48 Go de mémoire. La fiche indique 18 cœurs et une fréquence de base à 4,45 GHz.

Capture écran détails système ASUS Zenbook A16 UX36070A, fond blanc

Les résultats affichent 4 033 points en single-core et 23 198 points en multi-core sous Geekbench 6.5. Il s’agit de mesures publiques précoces, avant l’élargissement de la disponibilité retail des portables Snapdragon X2 Elite.

Graphique performance CPU Geekbench single-core, fond marron avec barres colorées

Positionnement ASUS et cohérence avec les données Qualcomm

ASUS expose déjà le Zenbook A16 au sein de sa gamme Copilot+ PC, avec le Snapdragon X2 Elite Extreme en tête d’affiche. Le profil mémoire élevé à 48 Go confirme une cible premium pour Windows on Arm.

À la lumière des chiffres communiqués par Qualcomm en janvier, cette entrée Geekbench apparaît cohérente. Rappelons toutefois que Geekbench reste un test synthétique ; la réussite commerciale dépendra surtout des performances sous Windows pour les applications non natives.

Graphique performance CPU Geekbench multi-core, fond marron avec barres colorées

Snapdragon X2 Elite : indicateur, pas un verdict

Ces scores valident le cap annoncé sur le CPU, mais l’expérience utilisateur sera dictée par l’optimisation Arm, la couche de traduction et la maturité des pilotes. Les configurations ASUS serviront de baromètre à court terme sur ce segment.

Source : VideoCardz

Chieftec BW-01B-OP : boîtier workstation ATX avec 10 baies et radiateur 360 mm

Par : Arnaud.O
4 mars 2026 à 14:16

Un châssis ATX orienté production qui profite de deux baies 5,25″ et aligne jusqu’à dix SSD/HDD, c’est rare en 2026. Chieftec vise clairement les stations de travail qui jonglent entre gros besoins de stockage et refroidissement liquide.

Chieftec BW-01B-OP : capacité de stockage et refroidissement

Le Chieftec BW-01B-OP adopte une façade sobre avec une porte et un panneau I/O incluant un port USB Type-C. À l’intérieur, Chieftec préinstalle un ventilateur 120 mm PWM HDB pour un fonctionnement discret et endurant, et prévoit des passages de câbles à œillets caoutchouc pour un flux d’air propre.

Vue interne du boîtier Chieftec BW-01B-OP montrant les emplacements sans outils pour disques

Le châssis supporte des radiateurs jusqu’à 360 mm pour la boucle CPU/GPU. Il conserve deux baies 5,25″ sans outil, utiles pour lecteurs optiques, racks hot-swap ou panneaux de contrôle. Le système de cages de stockage amovibles, lui aussi tool-less, accepte des plateaux 3,5″ et 2,5″ pour un total allant jusqu’à 10 SSD/HDD.

Intérieur du Chieftec BW-01B-OP avec cages de stockage amovibles

Fonctionnalités clés pour postes de production

La modularité des cages simplifie l’adaptation du flux d’air ou l’ajout de disques dédiés à des projets volumineux. L’ensemble cible les créateurs de contenu et les utilisateurs avec des besoins de stockage long terme, tout en restant compatible avec des configurations ATX modernes.

Boîtier Chieftec BW-01B-OP avec porte avant ouverte sur panneau de ventilateur

Connectique et maintenance

L’essentiel est présent en façade avec l’USB Type-C pour les périphériques rapides actuels. Le montage sans outils sur 5,25″, 3,5″ et 2,5″ accélère les interventions, tandis que la gestion de câbles limite la turbulence et facilite la maintenance.

Gros plan sur les ports frontaux du boîtier Chieftec BW-01B-OP
Tableau des spécifications techniques du boîtier Chieftec BW-01B-OP

Dans un marché qui a progressivement abandonné les 5,25″ et les grosses capacités internes au profit du tout-M.2, ce châssis comble un besoin précis : stations de travail hybrides qui veulent combiner gros RAID SATA, accessoirisation en 5,25″ et AIO 360 mm sans compromis sur l’assemblage.

Source : TechPowerUp

❌