↩ Accueil

Vue normale

Highguard surprend avec un lancement immédiat et un mode raid PvP inédit

Par :Wael.K
26 janvier 2026 à 22:55

Un shooter où l’on capture une épée magique avant d’assaillir la base adverse à dos d’ours, ça change le tempo. Highguard vient de sortir et pose ses règles dès le premier jour.

Highguard pose sa boucle de jeu: raid PvP en 3v3

Nouveau « PvP raid shooter » signé Wildlight Entertainment, Highguard oppose deux équipes de trois joueurs qui fortifient leur base, partent en monture collecter des ressources, puis lancent des raids pour détruire la forteresse ennemie. Mélange de MOBA, survival shooter et reverse Capture the Flag, chaque manche s’articule autour du Shieldbreaker, une épée qui déclenche l’assaut une fois insérée dans l’un des points de la barrière magique adverse.

Cavalier sur cheval galopant à travers une cité médiévale avec dirigeables et montagnes

Le déroulé est cadencé: 1 minute initiale de fortification, exploration en monde ouvert pour looter et convertir des cristaux en améliorations, formation de tempêtes sur des zones prédéfinies où apparaît le Shieldbreaker. L’équipe qui ramène l’épée à la base ennemie ouvre une brèche via une tour de siège servant aussi de point de respawn. Objectif: percer des murs destructibles, armer une charge sur l’un des trois emplacements et tenir jusqu’à l’explosion. Deux cibles infligent de lourds dégâts au total de vie, la cible centrale détruit la base d’un coup.

Si aucune base ne tombe, le match réinitialise la phase et relance un Shieldbreaker plus tard, avec un équipement globalement meilleur disponible en map et en boutiques. Respawns et minutage sont stricts, pour des parties de 10 à 30 minutes, souvent à renversements tardifs.

Montures, arsenal et Wardens: l’ADN Respawn, version Wildlight

Né chez des vétérans d’Apex Legends, Titanfall et Call of Duty, le gunplay est net, la mobilité fluide (course, glissade, mantling) et la nouveauté tient aux montures invocables presque partout: chevaux, ours, panthères, griffons, différences cosmétiques mais impact macro clair pour couvrir de grandes distances et intercepter un porteur du Shieldbreaker.

Trois personnages en tenue de combat, armés, avec un ours, dans un environnement naturel

10 armes au lancement, deux emplacements, plus un outil de raid parmi trois (lance-roquettes, masse explosive, pistolet à tyrolienne) pour l’utilité et la démolition. Les personnages jouables, les Wardens, sont au nombre de huit au lancement, un par équipe, avec passif, tactique à cooldown et ultime à charge. Exemples cités: Atticus qui lance des lances électriques façon bobines Tesla, Una qui invoque des esprits étourdissants et un ultime arbre-guardian, Kai qui érige un mur de glace capital pour le contrôle des choke points.

Les bases elles-mêmes sont un choix d’équipe: six variantes votées puis injectées dans n’importe quelle carte. Hellmouth, suspendue au-dessus d’une fosse de lave avec ponts étroits, se combine parfaitement avec le mur de Kai. L’ensemble Wardens/bases/armes/outils ouvre un vrai terrain de méta et de synergies/counters dès le jour 1.

Vue à la première personne d'un joueur tirant dans une bataille dans un décor de ruines

Roadmap live service: chapitres de deux mois, contenu mensuel

Wildlight cadence Highguard en chapitres bimestriels, chacun scindé en deux. Concrètement, un ajout de contenu chaque mois: nouveaux Wardens, bases, cartes, armes, outils de raid et plus. Le premier update, attendu dans quelques semaines, introduira le classé et des modes alternatifs rotatifs, dont une course montée inspirée Mario Kart. Tout le contenu gameplay est gratuit, la monétisation est strictement cosmétique.

Personnages utilisant une arme géante à énergie près d'un bâtiment ancien
Cavaliers sur animaux chargeant dans une forêt avec des structures anciennes en arrière-plan
Personnage héroïque en cape brandissant une épée électrique avec un ciel orageux
Guerrier masqué avec créature en bois luminescent se tenant sur un champ
Vue à la première personne d'un combat avec un bouclier de glace et des armes à énergie
Chasse à cheval avec fusil à lunette dans une vallée verdoyante et des formations rocheuses

Le studio revendique une préparation spécifique à l’exploitation live, tirée de l’expérience Apex Legends où la phase post-lancement avait connu une latence de contenu. Ici, l’année 1 est déjà bien engagée en production, avec des Wardens non révélés en réserve.

Highguard est disponible gratuitement dès aujourd’hui sur PC/Steam, Xbox Series X|S et PlayStation 5.

Dans un marché saturé, l’originalité du mode raid PvP 3v3, combinée à un rythme de jeu en phases et un pipeline live déjà calé, donne à Wildlight une fenêtre pour s’installer au-delà des catégories établies battle royale/extraction. Le suivi mensuel sera l’arbitre de la rétention et du potentiel esportif, mais la base mécanique est suffisamment distincte pour créer sa niche.

Source : TechPowerUp

NVIDIA CoreWeave : 2 milliards de dollars et 5 GW d’usines d’IA d’ici 2030

Par :Wael.K
26 janvier 2026 à 22:54

Course contre la montre dans l’IA : CoreWeave vise plus de 5 GW de « factories » d’ici 2030. Conséquence immédiate, NVIDIA met 2 milliards de dollars sur la table pour verrouiller l’alignement technologique et l’accès aux capacités.

NVIDIA CoreWeave: cap sur 5 GW d’usines d’IA

NVIDIA et CoreWeave consolident leur partenariat pour accélérer le déploiement de plus de 5 gigawatts d’« AI factories » d’ici 2030. En parallèle, NVIDIA investit 2 milliards de dollars (environ 1,84 Md€) dans CoreWeave via des actions ordinaires de classe A au prix de 87,20 dollars par action.

NVIDIA CoreWeave: 2 milliards de dollars et 5 GW d’usines d’IA d’ici 2030

Objectif affiché: répondre à une demande exponentielle en calcul, du pré-training au post-training. Jensen Huang parle du « plus grand chantier d’infrastructure de l’histoire » et s’appuie sur l’exécution de CoreWeave pour industrialiser les usines d’IA basées sur la plateforme accélérée de NVIDIA.

Le plan comprend l’alignement infrastructure, software et plateforme: CoreWeave développera et opérera ces usines avec la pile NVIDIA, tandis que NVIDIA apportera sa puissance financière pour accélérer l’acquisition de foncier, d’énergie et de shells.

NVIDIA CoreWeave: 2 milliards de dollars et 5 GW d’usines d’IA d’ici 2030

Feuille de route technique et logicielle

Les deux acteurs testeront et valideront le software natif IA de CoreWeave et ses architectures de référence, dont SUNK et CoreWeave Mission Control, avec pour ambition de les intégrer dans les architectures de référence NVIDIA pour les partenaires cloud et les clients enterprise.

CoreWeave adoptera en avance plusieurs générations d’infrastructure NVIDIA: la plateforme Rubin, les CPU NVIDIA Vera et les systèmes de stockage NVIDIA BlueField. Côté inference, CoreWeave met en avant Blackwell comme architecture au coût au plus bas.

NVIDIA CoreWeave: 2 milliards de dollars et 5 GW d’usines d’IA d’ici 2030

Capacité, financement et exécution

Au-delà du silicium, l’accord porte sur la sécurisation du foncier et de la puissance électrique, points de tension clés pour des déploiements multi-gigawatts. CoreWeave capitalise sur son cloud spécialisé, son logiciel et son opérationnel orienté workloads IA intensifs.

L’enjeu pour l’écosystème est double: industrialiser la production d’IA à grande échelle et réduire le coût total d’exploitation des clusters. Si le calendrier 2030 est tenu, les 5 GW annoncés peseront sur l’accès aux GPU, aux CPU Vera et aux infrastructures réseau/stockage BlueField, avec un effet d’entraînement sur l’offre cloud GPU et les prix pour les studios IA comme pour les entreprises.

Source : TechPowerUp

NVIDIA Earth-2 : modèles météo-climat ouverts et accélérés pour la prévision IA

Par :Wael.K
26 janvier 2026 à 22:23

NVIDIA a dévoilé Earth-2, une série de modèles ouverts et accélérés dédiés à la météo et au climat, pensée pour couvrir toute la chaîne opérationnelle: assimilation des observations, prévisions globales à 15 jours et nowcasting kilométrique. Les modèles sont utilisables et déployables sur infrastructures propres, avec entraînement et affinage via le framework open source PhysicsNeMo.

Trois nouveaux modèles au cœur de la pile Earth-2

Earth-2 Medium Range s’appuie sur l’architecture Atlas pour une prévision globale jusqu’à 15 jours sur plus de 70 variables (température, pression, vent, humidité, etc.). Sur les benchmarks de référence, il surpasse les principaux modèles ouverts sur les variables les plus utilisées, tout en restant exploitable en production.

Carte satellite des prévisions météo des États-Unis avec échelle de couleurs

Earth-2 Nowcasting, basé sur StormScope, pousse la prévision de 0 à 6 heures à l’échelle kilométrique au niveau national. Le modèle simule directement la dynamique des systèmes convectifs, prédit images radar et satellite, et revendique des performances supérieures aux approches physiques traditionnelles pour les précipitations à court terme.

Earth-2 Global Data Assimilation, avec l’architecture HealDA, produit en quelques secondes sur GPU les conditions initiales globales à partir d’observations hétérogènes (satellites, radiosondages, stations). Couplé au modèle Medium Range, il constitue une chaîne de prévision entièrement IA, ouverte et optimisée pour l’exécution accélérée.

Intégration de la pile et écosystème

Les nouveautés complètent CorrDiff, génératif de descente d’échelle qui convertit des champs à résolution grossière en champs régionaux fins, avec un gain de vitesse annoncé de 500× par rapport aux méthodes classiques. FourCastNet3 reste positionné sur la prévision multi-variables (vent, température, humidité) avec une précision comparable aux meilleurs modèles de diffusion, tout en étant jusqu’à 60× plus rapide que les approches de référence.

Earth-2 agrège également des modèles ouverts de l’ECMWF, de Microsoft et de Google. L’ensemble se pilote via PhysicsNeMo, cadre Python open source pour le développement à grande échelle de modèles d’IA physique, facilitant entraînement, fine-tuning et déploiement.

La promesse est autant opérationnelle que scientifique: accélérer la production d’analyses initiales, améliorer la qualité des prévisions et standardiser un socle ouvert propice à la collaboration inter-instituts. Pour les centres météo nationaux et privés, la perspective d’une chaîne full-IA, portable et accélérée, peut réduire le coût d’entrée en prévision haute résolution et accélérer le transfert de la recherche vers l’opérationnel.

Source : ITHome

Ryzen 7 9850X3D : AMD préparerait un bundle CPU + DDR5 + ventirad pour la Chine

Par :Wael.K
26 janvier 2026 à 22:08

Ryzen 7 9850X3D en kit complet ? Une photo de boîte retail laisse penser qu’AMD prépare un bundle associant processeur, mémoire DDR5 et ventirad, destiné en priorité au marché chinois.

Ryzen 7 9850X3D : un pack multi‑marques repéré en Chine

D’après une image partagée par JustBuy sur Bilibili, la boîte arbore les logos AMD, Cooler Master et V-Color, signe d’un ensemble co‑marqué plutôt qu’un simple emballage CPU. La liste au dos mentionne un Ryzen 7 9850X3D, un kit V-Color DDR5 au timing CL36 en 32 Go (2 × 16 Go) et un ventirad Cooler Master Hyper 612 APEX PRO. La fréquence exacte de la mémoire n’est pas indiquée.

ryzen 7 9850x3d bundle

Pour situer les tarifs séparés, le Hyper 612 APEX a été vu autour de 79,99 dollars (environ 74 euros). Le kit V-Color Manta XFinity RGB DDR5‑6000 CL36 32 Go correspondant aux marquages et timings est apparu à 509,99 dollars sur Newegg, illustrant des prix DDR5 très variables selon les boutiques. AMD a déjà confirmé le Ryzen 7 9850X3D, référencé sur ses pages produits, avec un lancement annoncé au 29 janvier à 499 dollars (environ 460 euros).

Spécificités listées sur la boîte

  • Processeur : AMD Ryzen 7 9850X3D.
  • Mémoire : V-Color DDR5, 32 Go (2 × 16 Go), CL36, fréquence non spécifiée.
  • Refroidissement : Cooler Master Hyper 612 APEX PRO (aircooling).

Le concept existe déjà.

Le concept n’est pas inédit : aux États‑Unis, des enseignes comme Micro Center proposent régulièrement des combos CPU avec carte mère et mémoire à prix groupé. Reste l’inconnue de la disponibilité : selon JustBuy, ce kit « sera bientôt en vente », sans précision de lieu ni de tarif final. Il semblerait que ce pack vise d’abord la Chine, même si chaque composant est ou sera disponible mondialement.

Mais attention : il n’est pas exclu qu’il s’agisse simplement de kits presse, envoyés aux testeurs avant le lancement. Avec la tension actuelle sur la RAM, imposer un kit mémoire pourrait être délicat, au risque de brider le CPU. Sans compter l’ajout d’un ventirad qui ne conviendrait pas forcément à tous les usages ni à toutes les configurations.

Source : VideoCardz

Qwen3-Max-Thinking : le modèle reasoning d’Alibaba vise le niveau GPT-5

Par :Wael.K
26 janvier 2026 à 21:23

Alibaba a dévoilé ce soir Qwen3-Max-Thinking, nouveau modèle « reasoning » haut de gamme de la famille Qwen. La société annonce une architecture dépassant le millier de milliards de paramètres, un entraînement par renforcement élargi et des avancées nettes sur la factualité, le raisonnement complexe, l’alignement et l’utilisation native d’outils. Sur 19 benchmarks de référence, Alibaba revendique des performances du niveau de GPT-5.2-Thinking, Claude Opus 4.5 et Gemini 3 Pro.

Le modèle est disponible dans Qwen Chat avec une capacité de recours autonome au moteur de recherche, à la mémoire et à un interpréteur de code. L’API publique est ouverte sous l’identifiant « qwen3-max-2026-01-23 ».

Focus technique et perfs mesurées

Qwen3-Max-Thinking met l’accent sur deux briques. D’abord, une invocation d’outils auto-adaptative : le modèle choisit et orchestre seul la recherche, la mémoire et l’exécution de code, après un cycle de fine-tuning spécifique puis un entraînement supplémentaire guidé par retours hybrides (règles et feedback modèle). Alibaba indique une baisse sensible des hallucinations, un accès temps réel aux informations et des réponses mieux personnalisées.

Tableau comparatif des benchmarks pour différents modèles de reasoning, incluant Qwen3-Max-Thinking.

Ensuite, une stratégie de Test-Time Scaling itératif orientée « expérience cumulée ». Plutôt que d’augmenter simplement le nombre de trajectoires en parallèle, Qwen3-Max-Thinking limite ces chemins et réinvestit le budget de calcul dans des boucles de réflexion successives. Un mécanisme d’extraction d’« insights » issus des tours précédents évite les répétitions et concentre le raisonnement sur les zones d’incertitude, avec une meilleure utilisation de la fenêtre de contexte à consommation de tokens comparable.

Les gains annoncés, à méthodologie constante, sont chiffrés sur plusieurs suites: GPQA de 90,3 à 92,8, HLE de 34,1 à 36,5, LiveCodeBench v6 de 88,0 à 91,4, IMO-AnswerBench de 89,5 à 91,5, et HLE avec outils de 55,8 à 58,3. Alibaba met en avant des résultats en tête sur GPQA Diamond (sciences), IMO-AnswerBench (maths) et LiveCodeBench (code).

Graphique des performances sur divers tests, avec les scores de Qwen3-Max-Thinking et autres modèles.

Disponibilité et intégration

Qwen3-Max-Thinking est accessible via Qwen Chat (chat.qwen.ai), avec la sélection automatique d’outils activée, et via l’écosystème Alibaba Cloud Bailian. Le déploiement vise autant l’usage direct que l’intégration agentique, le modèle étant conçu pour raisonner tout en exécutant des appels outils de manière fluide.

Au-delà de la surenchère paramétrique, l’enjeu se déplace vers la chaîne de raisonnement et l’efficacité du calcul à l’inférence. La mise en avant d’un Test-Time Scaling mieux capitalisé et de capacités agent natives confirme la bascule des LLM généralistes vers des systèmes orientés tâches, où le pilotage d’outils et la discipline du raisonnement comptent autant que le score brut sur benchmarks.

Source : ITHome

Portage CUDA vers ROCm en 30 min avec IA : promesse ou mirage technique ?

Par :Wael.K
26 janvier 2026 à 21:12

Un développeur affirme avoir porté en 30 minutes un backend CUDA complet vers ROCm en s’appuyant exclusivement sur l’agent de programmation Claude Code. Publié le 22 janvier sur Reddit par « johnnytshi », le récit décrit une migration sans couche d’abstraction intermédiaire, avec une traduction directe des primitives CUDA vers leurs équivalents ROCm via un cadre d’agents capable d’inférer la logique bas niveau du code.

Selon l’auteur, l’interaction s’est faite en ligne de commande, sans mise en place d’un pipeline Hipify. Le seul obstacle notable aurait concerné le « data layout », point sensible dès qu’on touche à la hiérarchie mémoire et aux schémas d’accès. Pour le reste, l’IA aurait géré l’alignement des appels, la réécriture des kernels et l’adaptation des API, profitant du parallélisme conceptuel entre CUDA et ROCm.

La parenté entre les deux piles logicielles facilite les cas simples, mais les limites apparaissent dès qu’un codebase fortement couplé exploite des optimisations fines de cache, des patterns warp/onde spécifiques, ou des chemins critiques sensibles à la latence mémoire. L’auteur reconnaît que les optimisations « deep hardware » restent hors de portée de l’outil dans l’état, et que l’automatisation ne remplace ni la validation de performance ni le profiling ciblé.

La démonstration illustre une tendance: l’IA abaisse le coût d’entrée du portage CUDA→ROCm pour les projets modestes, au moins jusqu’à la compilation et aux tests fonctionnels. Pour des bibliothèques HPC, des runtimes d’entraînement ou des graphes complexes mêlant communications et kernels spécialisés, la barrière reste la stabilité des perfs et la maîtrise des topologies mémoire, deux sujets qui exigent encore des itérations manuelles, du profiling et une connaissance intime des GPU cibles.

À court terme, ce type d’assistance peut accélérer les explorations multi-vendeurs et la réduction de dette technique liée au verrou CUDA. À moyen terme, l’enjeu sera la capacité de ces agents à raisonner sur les modèles d’exécution, la coalescence des accès, l’occupation, et à proposer des transformations sûres au-delà de la simple correspondance d’API.

Source : reddit

GPT-5.2 visé : citations Grokipedia fragilisent l’usage pro et la traçabilité

Par :Wael.K
26 janvier 2026 à 21:01

OpenAI présente GPT-5.2 comme son modèle « le plus avancé pour le travail professionnel ». Une série de tests conduite par le Guardian met pourtant en cause sa fiabilité sur des sujets sensibles, pointant des réponses s’appuyant sur Grokipedia, l’encyclopédie en ligne de xAI déjà critiquée pour ses sources problématiques.

Le quotidien britannique a constaté que ChatGPT citait Grokipedia lorsqu’il répondait à des questions liées à l’Iran, notamment autour d’allégations sur des liens entre le gouvernement et MTN Iran, ainsi que sur des points touchant l’historien Richard Evans, expert lors du procès en diffamation impliquant le négationniste David Irving. En revanche, sur d’autres terrains inflammables comme un supposé biais médiatique en faveur de Donald Trump, l’outil n’aurait pas fait appel à Grokipedia.

Lancé en décembre, GPT-5.2 cible les usages pros, de la production de feuilles de calcul à la gestion de tâches complexes. Grokipedia, antérieure au modèle, a déjà suscité des critiques pour avoir agrégé des références issues de forums néonazis. Des travaux universitaires américains ont également relevé des citations « douteuses » et des sources « problématiques » dans cette encyclopédie générée par IA.

Interrogé, OpenAI explique que GPT-5.2 interroge « des sources et points de vue publiquement accessibles variés » tout en appliquant des filtres de sécurité destinés à réduire l’exposition à des contenus à risque. La formulation reste prudente et ne précise ni le poids accordé à chaque source ni les critères d’exclusion dynamiques.

Contexte et portée des tests

Le constat du Guardian ne vaut pas audit exhaustif du graphe de connaissances de GPT-5.2, mais souligne un angle mort : sur des sujets polarisés, les citations peuvent basculer vers un référentiel controversé sans signalisation claire. Le fait que Grokipedia ne soit pas invoquée de manière systématique renforce l’idée d’une pondération contextuelle, difficile à prédire.

Le différentiel de comportement selon le thème pose une question de gouvernance des sources, au-delà des garde-fous de sécurité. Dans un cadre professionnel, où traçabilité et conformité documentaire priment, l’absence d’explicitation des priorités de citation devient un point de friction.

Implications pour les usages pros

Pour des workflows qui exigent une chaîne de sources vérifiables, l’appel potentiel à une encyclopédie contestée affaiblit la valeur probante des sorties, même si celles-ci restent factuellement correctes. Les entreprises devront durcir les politiques d’attribution, imposer des listes blanches de référentiels et exiger la restitution des citations primaires plutôt que des méta-sources.

L’enjeu dépasse le filtrage des contenus à risque : il s’agit de hiérarchiser des corpus reconnus, de préférence à des agrégateurs dont la gouvernance éditoriale est mouvante. Sans granularité de contrôle côté modèle, le besoin se reporte sur l’orchestration applicative et l’audit humain des réponses sensibles.

À court terme, cette controverse rappelle que les modèles « généralistes » restent fragiles dès qu’ils mêlent assistance à la rédaction et autorité documentaire. Le marché ira vers des piles hybrides combinant LLM, moteurs de RAG verrouillés sur des sources certifiées et politiques d’archivage des citations, faute de quoi la promesse « pro » se heurte à des exigences de conformité que la seule modération automatisée ne couvre pas.

Source : ITHome

Atlas de Boston Dynamics vise l’usine: cadence stable, déploiement dès 2028

Par :Wael.K
26 janvier 2026 à 20:58

Au CES, les humanoïdes ont défilé. Puis Atlas est monté sur scène et la catégorie a changé d’échelle. Conçu par Boston Dynamics, désormais détenu à 80 % par Hyundai, ce robot de 1,5 m (2,3 m bras tendus) cible clairement l’industrie, loin du gadget dansant. Capable de se déplacer avec assurance, de manipuler des pièces fines et, au besoin, d’enchaîner des gestes complexes, Atlas s’inscrit comme le futur bras polyvalent des ateliers où l’automatisation classique cale encore.

Atlas de Boston Dynamics vise l'usine: cadence stable, déploiement dès 2028

Cadence industrielle, pas de « coup de mou »

Hyundai prévoit un démarrage en production au RMAC, son centre d’applications dédié, avec des déploiements dans plusieurs usines du groupe à partir de 2028 et un objectif de 30 000 unités à l’horizon 2030. Le message est limpide : la stabilité prime sur la vitesse. Là où un opérateur humain baisse de régime au fil de la journée, le robot maintient une cadence constante, sans supervision lourde.

Atlas de Boston Dynamics vise l'usine: cadence stable, déploiement dès 2028

Le démonstrateur sur le stand Hyundai à Las Vegas illustrait cette logique. Atlas transférait des composants d’auto entre bacs sans se déplacer, en pivotant le torse et les membres grâce à 56 degrés de liberté. Ses préhenseurs, assez précis pour saisir des objets fragiles, s’accompagnent d’une autonomie pensée pour le terrain : fonctionnement en extérieur, dock de changement de batterie que le robot rejoint seul, architecture modulaire avec bras, jambes et mains remplaçables en quelques minutes par du personnel formé.

Pourquoi un humanoïde, et pourquoi maintenant

Boston Dynamics assume l’option biped pour une raison prosaïque : l’essentiel du parc industriel occidental fonctionne dans des bâtiments de plus de 30 ans, conçus pour des humains. Automatiser sans refaire l’usine impose un gabarit et une cinématique compatibles avec l’existant. Atlas complète un portfolio déjà orienté métier, du chien Spot aux solutions de logistique type Stretch, mais vise le multi-tâches grâce aux progrès de l’IA, notamment sur les modèles de comportement développés avec DeepMind.

À court terme, l’effort porte sur l’intelligence motrice – course, saut, danse ne sont pas qu’un show, ce sont des marges de manœuvre cinématiques pour absorber les aléas des postes. La brique « comportement » suit, avec l’ajout d’outillages et de gestes métier comme le soudage ou la construction légère. L’ambition reste pragmatique : résoudre les tâches que les robots fixes n’attrapent pas, sans restructurer la ligne.

Une course à plusieurs, des positions déjà prises

La concurrence s’aligne : Tesla pousse Optimus, Figure AI, Agility Robotics ou Apptronik avancent leur copie, et en Chine, Zoomlion déploie déjà des humanoïdes en usines. Boston Dynamics oppose une chaîne d’industrialisation existante, financée et outillée par Hyundai, avec support terrain, intégration, maintenance et logistique. Reste la question des coûts : pour beaucoup d’ateliers, l’humain demeure aujourd’hui plus économique.

Le discours social s’ajuste en conséquence. BD parie sur la montée de postes d’« opérateur robot » plutôt que sur une substitution brute à court terme. Et pour le domicile, la réponse est claire : pas avant une décennie. Le ticket d’entrée, les exigences de sécurité et l’imprévisibilité d’un intérieur rendent le marché grand public inopportun. Le calendrier interne place les déploiements industriels massifs entre 2028 et 2030, puis un éventuel virage vers le foyer cinq ans plus tard.

Atlas de Boston Dynamics vise l'usine: cadence stable, déploiement dès 2028

Si Hyundai tient la rampe industrielle et si l’IA comportementale tient ses promesses, Atlas pourrait signer la bascule de l’automatisation vers les « zones grises » de l’usine, celles que l’on a laissées humaines faute de ROI et de flexibilité. Le vrai enjeu n’est pas de remplacer un poste isolé, mais de rendre reconfigurable et résiliente une production brune sans CAPEX massif. C’est là que l’humanoïde, plus qu’un format, devient une interface universelle avec l’existant.

Source : ITHome

Benchmark APEX-Agents : les IA de bureau plafonnent à 24 % de précision

Par :Wael.K
26 janvier 2026 à 20:56

Selon une étude relayée par Digital Trends et menée par Mercor, les grands modèles d’IA peinent à exécuter des tâches de bureau réalistes : aucun ne dépasse 25 % de précision sur le nouveau benchmark APEX-Agents. Ce protocole ne teste ni poésie ni équations, mais des workflows concrets de juristes, consultants et banquiers, avec des séquences multi‑étapes faisant appel à plusieurs sources d’information.

Le meilleur score revient à Gemini 3 Flash (24,0 %), suivi de GPT‑5.2 (23,0 %). Derrière, Claude Opus 4.5 et Gemini 3 Pro affichent 18,4 %, GPT‑5 18,3 %, Grok 4 15,2 %, puis un net décrochage pour GPT‑OSS‑120B (4,7 %) et Kimi K2 Thinking (4,0 %). Ces résultats confirment la difficulté des modèles à tenir une chaîne d’actions fiable lorsqu’il faut enchaîner consultation d’agendas, historiques de messagerie, PDF et feuilles de calcul.

Benchmark APEX-Agents : les IA de bureau plafonnent à 24 % de précision

Contexte et limites du protocole

Mercor attribue l’échec récurrent à la gestion du contexte et au passage d’une source à l’autre, où les modèles confondent, mélangent ou abandonnent des étapes critiques. Dans un environnement de bureau, cette fragilité les cantonne au rôle d’« assistant stagiaire » peu fiable plutôt qu’à celui d’opérateur autonome. La méthodologie APEX-Agents se distingue en imposant une coordination d’outils et de supports hétérogènes, un point névralgique des usages réels que les benchmarks classiques éludent encore trop souvent.

Progrès rapides mais insuffisants

Mercor souligne néanmoins une progression marquée : des tests comparables plafonnaient à 5–10 % il y a un an, contre 24 % aujourd’hui pour le meilleur modèle. L’accélération est nette, sans pour autant valider une substitution proche des travailleurs du savoir tant que la gestion multi‑tâches et les bascules de contexte resteront instables. Pour les déploiements en production, la fiabilisation passera autant par l’orchestration outil‑par‑outil et la vérification systématique que par de nouveaux entraînements focalisés sur l’exécution et la mémoire de travail.

Source : ITHome

Intel Arc Pro B70 et B65 Battlemage: 32 Xe2, jusqu’à 32 Go GDDR6, lancement imminent

Par :Wael.K
26 janvier 2026 à 20:10

Intel muscle ses cartes pro avant même de parler gaming. Les Arc Pro B65 et B70 s’annoncent avec 32 Go de GDDR6, mais la variante grand public reste au frigo.

Intel Arc Pro B70/B65 Battlemage: cap sur le pro

C’est confirmé, Intel délaisse les joueurs et vise les pros avec BMG-G31. Les Arc Pro B70 et Arc Pro B65 arrivent en Q1 de cette année, avec une fenêtre probable en février ou mars. Les deux cartes s’appuient sur le die BMG-G31 destiné au haut de gamme, priorisé pour la visualisation professionnelle et les workloads IA locaux.

L’Arc Pro B70 aligne 32 cœurs Xe2 et 32 Go de GDDR6 sur bus 256-bit, soit 4 096 cœurs FP32 dans sa configuration complète. C’est le double du nombre de cœurs de l’Arc Pro B60, et le double de sa capacité mémoire sur la version mono-GPU.

Tableau des versions Intel Arc Pro B65 et B70 avec détails de lancement

L’Arc Pro B65 coupe le BMG-G31 à 20 cœurs Xe2 pour 2 560 FP32, une configuration identique à l’Arc Pro B60 côté compute, mais avec 32 Go de GDDR6 fournis d’emblée, soit +8 Go par rapport au B60. De quoi viser les stations de travail et le développement LLM local avec un ratio capacité/prix agressif face au duo AMD/NVIDIA.

Photo illustrée d'une puce intel ARC Pro

Gaming en pause: B770 repoussé

Les partenaires cartes ont reçu des dies BMG-G31 pour tests et designs custom, mais uniquement pour les SKU Pro. Aucun échantillon gaming n’a été expédié: le lancement de la grande Arc B770 est retardé, sans fenêtre proche annoncée.

Positionnement et implications

En concentrant ses volumes BMG-G31 sur le pro-viz, Intel Arc Pro s’ouvre un boulevard: beaucoup de VRAM (32 Go GDDR6) et une offre compute lisible pour les studios et l’IA locale. Le revers est clair pour les joueurs: sans B770 à court terme, le segment gaming haut de gamme reste figé, tandis que le marché pro pourrait voir Intel grignoter des parts par la mémoire et le TCO, en attendant des drivers et outils qui scellent la bascule.

Source : TechPowerUp

Intel Arc B390 : l’iGPU qui dépasse le Radeon 890M et frôle une RTX 4050 basse conso

Par :Wael.K
26 janvier 2026 à 16:14

Intel n’avance plus à petits pas sur les iGPU, il impose désormais le tempo. Avec l’Arc B390, la firme affiche un écart de performances qui ne se discute plus vraiment face au Radeon 890M d’AMD, et ce dans des enveloppes de puissance réalistes pour le mobile. Les mesures indépendantes convergent : à 25 W comme à des limites plus élevées, l’iGPU Xe3 d’Intel s’installe nettement en tête, au point de brouiller la frontière avec certaines solutions graphiques dédiées basse consommation.

Face à la Radeon 8060S des Ryezn AI MAX+, il n’y a en revanche pas de débat possible. Mais Intel l’assume pleinement et l’a même revendiqué sans détour : la firme n’a jamais cherché à concevoir un iGPU géant, et n’en a toujours pas l’intention. Sa stratégie reste centrée sur un équilibre strict entre performances graphiques, enveloppe énergétique et intégration globale, quitte à laisser le très haut de gamme iGPU à AMD.

Derrière les chiffres, c’est surtout la cohérence du comportement énergétique et la maturité de la plateforme Core Ultra qui interrogent la stratégie graphique d’AMD sur le segment grand public mobile, alors que Panther Lake ne fait que poser les premières pierres de la génération Xe3.

Arc B390: Intel creuse l’écart en iGPU

Sur un Core Ultra X9 388H avec LPDDR5X-9600, ComputerBase mesure en Full HD un Arc B390 nettement devant le Radeon 890M, à 25 W comme à des plafonds plus élevés. À 24/25 W, l’écart atteint +63% en moyenne pour Intel. Le site note aussi peu de différence entre secteur et batterie dans ses tests orientés jeu.

Graphique comparaison performance CPUs AMD Ryzen et Intel Core fond blanc

Notebookcheck place l’Arc B390 au niveau de certaines configurations basse conso de la GeForce RTX 4050 Laptop, selon les jeux et limites de puissance. Le B390 distance les Arc 140T/140V et reste devant le 890M, tandis que les iGPU Strix Halo d’AMD demeurent plus rapides mais à des budgets énergétiques bien supérieurs.

Diagramme évaluation performances ordinateurs portables divers fond blanc

Échelle de puissance et comportement

Graphique performance FPS Cyberpunk 2077 fond noir contrasté

The Phawx montre une montée en performance régulière de 10 W à 35 W, avec des victoires sur l’iGPU du Ryzen AI 9 HX 370 à puissance équivalente, y compris sur les minima d’images. Au-delà de 20 W, la courbe se stabilise de manière prévisible. Hardware Canucks confirme des tendances similaires.

Benchmark FPS Steam Deck Cyberpunk 2077 fond noir
Benchmark performance jeu Cyberpunk 2077 avec divers appareils fond noir

Gamme, feuille de route et contexte AMD

Le tableau concerne le haut de gamme iGPU: Arc B390. En dessous, l’Arc B370 et des variantes Intel Graphics (4 ou 2 cœurs Xe3) chuteront nettement en jeu. Panther Lake inaugure Xe3, avec un Xe3P attendu l’an prochain aux côtés de Nova Lake, présenté comme l’implémentation complète.

Côté AMD, la feuille de route maintient le mainstream mobile sur RDNA 3.5, tandis que les mises à jour iGPU RDNA5 viseraient surtout le haut de gamme. En volume, la majorité resterait donc sur une base graphique plus ancienne, ce qui laisse de la marge à Intel sur ce segment.

Source : VideoCardz

Serveur AI Grace-Blackwell de Giga Computing en DLC : densité 2U sans refonte

Par :Wael.K
26 janvier 2026 à 17:38

Giga Computing, filiale de Gigabyte, lance le serveur AI XN24-VC0-LA61 en watercooling direct, bâti sur la plateforme Nvidia GB200 NVL4. Format 2U, double processeur, architecture hétérogène CPU + GPU, il vise les nœuds cœur d’infrastructures AI à haute densité sans imposer un déploiement rack complet.

Architecture Grace + Blackwell, refroidie en DLC

Vue interne du serveur AI Grace-Blackwell Giga Computing, montrant la carte NVIDIA GB200 NVL4

Le châssis intègre deux CPU Nvidia Grace (ARM) et quatre GPU Nvidia Blackwell, avec watercooling direct sur les composants critiques. Chaque Grace est associé à 480 Go de LPDDR5X ECC, tandis que les GPU montent jusqu’à 186 Go de HBM3E par carte. La conception modulaire permet d’augmenter la densité de calcul Blackwell sans refonte d’allée froide/chaude.

Côté réseau, le serveur s’aligne sur les fabrics Nvidia actuelles : Quantum-X800 en InfiniBand jusqu’à 800 Gb/s par port, ou Spectrum-X en Ethernet jusqu’à 400 Gb/s. L’objectif est clair : réduire la latence inter-nœuds tout en maintenant des débits soutenus pour l’entraînement distribué et l’inférence à grande échelle.

Arrière du serveur AI avec emplacements PCIe, ports OSFP et alimentation redondante

Stockage PCIe Gen5 et DPU en option

Jusqu’à 12 emplacements NVMe PCIe 5.0 sont disponibles pour le stockage local haute performance. Des DPU Nvidia BlueField peuvent être ajoutés pour le déchargement réseau/sécurité et l’isolement des flux, utile en multi-tenant ou pour la télémetry à large échelle. L’alimentation redondante certifiée 80 Plus Titanium sécurise la continuité en pleine charge.

Le positionnement est sans ambiguïté : offrir une brique compacte 2U capable de délivrer des perfs Blackwell en environnement data center existant, avec une enveloppe thermique maîtrisée grâce au DLC. Dans la course aux clusters AI hautement maillés, cet assemblage Grace + Blackwell + X800/Spectrum-X coche les cases d’échelle, d’efficacité énergétique et de débit est-ouest, tout en réduisant la dette d’intégration côté thermique.

Source : ITHome

Intel Core Ultra 300 : pas de rival Strix Halo prévu, Tom Petersen tacle l’efficacité iGPU d’AMD

Par :Wael.K
26 janvier 2026 à 17:31

Intel ne compte pas suivre AMD sur la voie des iGPU surdimensionnés. Face à Strix Halo, la réponse du fondeur est nette : ce n’est pas une direction qu’il juge pertinente.

Interrogé par Club386, Tom Petersen, fellow chez Intel et figure clé du pôle graphique, écarte explicitement l’idée d’un équivalent maison à Strix Halo. Selon lui, ce segment serait mieux servi par un GPU dédié compact que par un iGPU surdimensionné intégré au processeur.

Derrière cette déclaration se dessine une rupture stratégique assumée entre deux visions opposées du futur graphique en mobilité.

Pourquoi Intel refuse de suivre AMD

Intel ne remet pas en cause l’intérêt technique de Strix Halo. La plateforme Ryzen AI Max+ démontre qu’un iGPU peut atteindre des niveaux de performances jusque-là réservés à des GPU dédiés d’entrée de gamme. Mais pour Intel, le problème n’est pas technologique, il est structurel.

Un iGPU géant implique une surface de silicium importante, des coûts de production plus élevés et une pression thermique difficile à maîtriser dans des formats mobiles. À mesure que la taille du GPU intégré augmente, l’équilibre entre consommation, rendement et flexibilité se dégrade.

Tom Petersen l’exprime sans détour : dès lors que l’on sort du périmètre du graphique intégré classique, le GPU dédié redevient plus pertinent. Pour Intel, cette frontière ne doit pas être brouillée.

Les progrès récents des iGPU Intel changent la donne

Cette position serait difficile à défendre si les iGPU Intel restaient en retrait. Or, la génération Core Ultra récente marque un vrai tournant. Les graphiques intégrés Arc ont progressé de manière visible, offrant désormais une expérience correcte en jeu occasionnel et des performances solides pour les usages quotidiens.

Intel estime avoir atteint son objectif : proposer un iGPU suffisamment performant pour couvrir la majorité des usages, sans exploser les budgets énergétiques. Aller au-delà ne relèverait plus de l’iGPU, mais d’un autre produit.

Dans cette logique, Strix Halo apparaît moins comme un modèle à suivre que comme une exception volontairement extrême.

Strix Halo, une approche radicalement différente

Du côté d’AMD, la démarche est inverse. Strix Halo assume une approche brute : multiplier les unités de calcul, augmenter la surface GPU et viser des performances maximales, quitte à s’éloigner des standards habituels du graphique intégré.

Ce positionnement n’est pas pensé avant tout pour le gaming classique. AMD vise surtout les stations de travail mobiles, la création de contenu et certaines charges de calcul GPU, dans des machines où l’ajout d’un GPU dédié n’est pas toujours souhaitable.

Dans ce contexte, l’iGPU géant devient un compromis assumé plutôt qu’un non-sens technique.

Performance par watt, l’argument central d’Intel

Intel insiste sur un point clé : la performance par watt. Selon Tom Petersen, les solutions de type Strix Halo ne seraient pas compétitives sur ce terrain, un critère pourtant décisif en mobilité et dans les ultraportables premium.

Un GPU intégré de grande taille consomme davantage, chauffe plus et limite les marges d’optimisation thermique. À l’inverse, un GPU dédié compact peut être activé uniquement lorsque nécessaire, tout en laissant l’iGPU gérer les tâches légères.

Cette approche modulaire correspond davantage à la vision d’Intel, qui préfère multiplier les options plutôt que de tout concentrer dans un seul bloc de silicium.

Intel prépare la suite côté GPU dédiés

Refuser Strix Halo ne signifie pas abandonner le graphique. Intel continue d’investir lourdement dans ses GPU dédiés Arc, avec une attention particulière portée à l’efficacité énergétique et à l’intégration.

Les prochaines générations Battlemage doivent justement incarner cette stratégie : proposer des GPU dédiés plus compacts, capables de compléter efficacement un iGPU moderne, sans les compromis d’un iGPU géant intégré au CPU.

Pour Intel, l’avenir du graphique passe par une séparation claire des rôles, pas par leur fusion extrême.

Deux visions, un même objectif

AMD et Intel poursuivent finalement le même but : offrir plus de performances graphiques dans des machines toujours plus compactes. Mais leurs chemins divergent radicalement.

AMD pousse le concept d’iGPU jusqu’à ses limites. Intel préfère renforcer l’efficacité globale et s’appuyer sur des GPU dédiés lorsque la puissance devient critique.

Le marché décidera laquelle de ces visions s’imposera. Une chose est certaine : face à Strix Halo, Intel ne se justifie pas. Il tranche.

Si Intel refuse la surenchère « APU géant », le marché pourrait se scinder: d’un côté des laptops IA-first avec iGPU massifs à prix premium, de l’autre des plateformes plus équilibrées où un iGPU gaming « suffisant » s’adosse à des dGPU d’entrée de gamme. Le point dur restera l’efficacité: si AMD convertit les 2 560 SP du 8060S en gains réels par watt, l’équation tarif/performances pourrait rebattre les cartes en 2026.

Source : Club386 via VideoCardz

Intel Core Ultra 300 Panther Lake : premiers tests, CPU hybride et iGPU Xe3 en progrès

Par :Wael.K
26 janvier 2026 à 16:10

Intel Core Ultra 300 débarque enfin en test, et les premiers laptops confirment un cap : CPU hybride plus musclé, iGPU Xe3 en nette hausse et accélération IA sur plateforme client Intel 18A.

Intel Core Ultra 300 Panther Lake : la nouvelle vague mobile

Contrairement aux attentes initiales, la couverture ne se limite pas à une seule puce. La famille Panther Lake englobe plusieurs références Core Ultra X9, X7, Ultra 7 et Ultra 5, positionnées comme la Série 3 mobile d’Intel. Au cœur de l’offre, un design hybride avec un accent renforcé sur le GPU intégré et l’IA embarquée. Les configurations les plus hautes grimpent jusqu’à 16 cœurs CPU, répartis entre performances, efficience et ultra-basse consommation.

Côté graphique, les modèles supérieurs adoptent des iGPU Xe3 estampillés Intel Arc B-series. Le palier Arc B390 aligne jusqu’à 12 Xe-cores, le changement le plus stratégique aux yeux des testeurs. D’après la source, « il s’agit de la mise à niveau la plus importante » pour cette génération, avec des gains attendus sur l’affichage, les moteurs médias et le jeu en mobilité.

Intel Panther Lake : les premiers tests

  • ASCII – How does the PC equipped with the top-of-the-line Core Ultra X9 388H processor in the Core Ultra Series 3 perform?
  • Club386 – Intel Core Ultra Series 3 review: outstanding battery life and a great iGPU
  • ComputerBase – Core Ultra X9 388H review: Intel Panther Lake with Arc B390 is a graphics beast
  • ETA PRIME – Intel Panther Lake Is Here! Hands On With Their Most Powerful iGPU!
  • HardwareLuxx – ASUS Zenbook Duo (2026) in the test
  • Hot Hardware – Intel Core Ultra X9 388H Review: Panther Lake Tests Strong
  • NotebookcheckReviews – Intels Panther Lake X9 – delivered as promised! Asus Zenbook Duo 2026 review
  • Mark Linsangan – Asus Zenbook Duo 2026 – Intel Panther Lake is AMAZING!
  • PCMAG – First Tests: Intel’s ‘Panther Lake’ Flagship Chip for Laptops Is a Graphics Revelation | Lab Report
  • PC Watch – Twice as impressive as the previous generation! The new “Core Ultra X9 388H” redefines the concept of laptops
  • PC World – Intel’s Panther Lake points to a future where integrated graphics doesn’t suck
  • TechTablets – ASUS Zenbook DUO Review With NEW Intel Core Ultra X9 388
  • Tech Spurt – Dual-Screen Powerhouse! | ASUS Zenbook Duo (2026) laptop with Intel Core Ultra Series 3
  • The Phawx –  Intel Panther Lake is AMAZING – Asus Zenbook Duo 2026 Review
  • The Verge – Asus Zenbook Duo (2026) review: twice as nice — for a price
  • Wccftech – ASUS Zenbook Duo “Intel Core Ultra X9 388H” Laptop Review: Review In Progress
  • WIRED – Intel’s Panther Lake Chip Is Its Biggest Win in Year

Jeu portable et architecture commune

Intel prépare en parallèle une variante orientée consoles portables, la Core G3 series, basée sur la même architecture. Selon les informations partagées, ce dérivé vise à capitaliser sur les progrès du GPU Xe3 et le bloc IA local pour des usages ludiques et créatifs sur batterie.

Reste désormais à confronter ces premières observations aux prochains tests approfondis : performances CPU multi-clusters, montée en puissance de l’iGPU Arc B-series, efficacité sous Intel 18A et comportement en IA embarquée.

Source : VideoCardz

NEXTGEAR Clear Shift : le PC qui masque ses entrailles d’une pression

Par :Wael.K
26 janvier 2026 à 14:56

Un bouton, et la tour passe de showroom à sobre monolithe. De quoi calmer les LED en visio et faire disparaître le bazar RGB sans éteindre la machine.

NEXTGEAR Clear Shift, le boîtier qui change d’humeur

Mouse Computer commercialise au Japon un NEXTGEAR EG-series équipé d’un châssis « Clear Shift ». L’intérêt principal n’est pas la fiche technique, mais la caisse elle-même.

Deux panneaux en verre (façade et flanc gauche) intègrent une couche de gradation. Un bouton sur le dessus bascule entre un mode « Clear » transparent et un mode « Stealth » fumé qui dissimule les composants. Le basculement ne fonctionne que PC allumé ; éteint, les panneaux restent en Stealth.

Gros plan bouton boîtier Nextgear blanc fond blanc faible contraste

Un second bouton gère les effets ARGB des ventilateurs, permettant de passer de vitrine lumineuse à tour noire en quelques secondes. Pour les possesseurs de cartes RTX 50, le mode furtif masquera aussi d’éventuels indices visuels à l’intérieur, à éviter en pleine session si vous aimez garder un œil sur ce qu’il se passe dans le boîtier.

Boîtier opaque Nextgear fond noir faible contraste lumières internes

Prix et configurations disponibles

Au Japon, la gamme Clear Shift est vendue en direct chez Mouse Computer, avec le NEXTGEAR EG-A7G60 annoncé à partir d’environ 1 103 $ (≈ 1 015 €). Le modèle EG-A7G60 testé par PC Watch est listé à environ 1 461 $ (≈ 1 345 €).

La configuration examinée embarque un Ryzen 7 5700X, une NVIDIA GeForce RTX 5060, 16 Go de DDR4-3200 et un SSD NVMe de 1 To. Vu l’écart de prix, la mémoire et l’ensemble du package prêt à l’emploi semblent peser dans la balance.

Le Clear Shift répond à une demande simple: garder l’esthétique des tours vitrées sans l’obligation d’exposer en permanence un intérieur clinquant. Si le concept s’étend au-delà du Japon, on pourrait voir d’autres intégrateurs reprendre l’idée, notamment sur le segment milieu de gamme où l’attrait visuel pèse dans l’acte d’achat.

Source : VideoCardz

PC à pièces : un modder transforme le bouton Power en monnayeur intelligent

Par :Wael.K
26 janvier 2026 à 14:52

PC à pièces, et pas pour rire : le moddeur et ingénieur YouTube MrYeester a bricolé un système qui ne démarre un PC qu’après insertion d’une pièce valide. « pas de pièce, pas de boot », résume-t-il dans sa vidéo, avec un monnayeur industriel et un relais câblés sur l’en-tête Power SW.

PC à pièces : un Power SW verrouillé par monnayeur

Le cœur du montage repose sur un acceptateur de pièces paramétrable pour une seule dénomination. D’après la démonstration de MrYeester, le module « apprend » la pièce de référence via des insertions répétées, puis écarte les objets de gabarit similaire qui échouent aux capteurs. Une fois la pièce validée, un relais simule une brève pression sur le bouton d’alimentation en shuntant les broches Power SW de la carte mère.

Mod switch PC à pièces tenu en main, focus sur mécanisme, fond outils

Côté alimentation, le mod s’appuie sur un breakout ou un adaptateur du bloc PSU pour fournir du 12 V au monnayeur et au relais. Le retour du relais est ensuite routé vers l’en-tête front-panel. Pour qui maîtrise un minimum le sertissage et le câblage de boîtiers PC, la mise en œuvre reste simple, et c’est probablement la partie la plus technique du projet.

Mod switch PC à pièces près d'une carte mère, fond bois atelier

Coût, boîtier provisoire et usage

Installation complète mod switch à pièces, bras PCF sur place avec câbles connectés

Le boîtier n’est ici qu’une enveloppe en carton provisoire pour les tests, l’accent étant mis sur l’électronique et le comportement au démarrage. Selon l’auteur, l’ensemble « insert coin to play » revient à environ 130 $ (environ 120 € au cours actuel). Un détail amusant pour qui met sa machine en veille prolongée à longueur de journée : chaque réveil sans pièce serait impossible si les périphériques USB restent désactivés.

Source : VideoCardz

ChatGPT en page d’accueil : Google menacé si l’entrée du web bascule

Par :Wael.K
26 janvier 2026 à 12:15

Selon Mashable, Bango affirme que 72 % des abonnés à ChatGPT ont défini la version web du service comme page d’accueil de leur navigateur, sur desktop comme sur mobile. Si ce taux se confirme à l’échelle, l’« entrée » du web se déplacerait mécaniquement d’un moteur de recherche vers un assistant conversationnel, grignotant l’avantage structurel de Google sur le trafic initial.

Google conserve une position dominante historiquement adossée aux réglages par défaut. Avant les restrictions liées aux procédures antitrust, le groupe versait jusqu’à 20 milliards de dollars par an à Apple pour rester le moteur par défaut sur iPhone. En 2024, un juge fédéral américain a estimé que Google avait illégalement maintenu son monopole dans la recherche, une décision en appel.

Depuis l’arrivée de ChatGPT fin 2022, la rivalité avec OpenAI s’est déplacée du terrain de la recherche vers celui de l’« agent » conversationnel. Un rapport le mois dernier évoquait une baisse d’environ 6 % des utilisateurs de ChatGPT après le lancement de Gemini 3, tandis que Google a annoncé un rapprochement avec Apple autour d’« Apple Intelligence ». Côté OpenAI, Sam Altman a déclaré une « alerte rouge » interne après l’annonce de Gemini 3.

Le point d’entrée change, le modèle économique aussi

Si les abonnés ChatGPT déplacent leur page d’accueil, ils court-circuitent la page de recherche traditionnelle, réduisant l’exposition aux résultats sponsorisés qui financent Google. Bango estime que ce basculement pourrait se compter en centaines de millions d’utilisateurs potentiels, même si l’étude ne documente que la population payante de ChatGPT, un segment naturellement plus engagé que la moyenne.

Reste l’inertie des usages grand public et la force des intégrations système. Les accords de distribution, les défauts sur Android et iOS, ainsi que la qualité perçue des réponses dans des tâches transactionnelles pèseront davantage que des déclarations d’intention. Pour Google comme pour OpenAI, l’enjeu est moins la requête unique que la capture du parcours utilisateur dès l’ouverture du navigateur.

Au-delà des parts de marché, la redistribution publicitaire est le nerf de la guerre: si les assistants conversationnels deviennent l’interface par défaut, la monétisation bascule de l’indexation vers l’orchestration de services, avec des risques de clôture de l’écosystème et de nouvelles rentes liées aux intégrations natives. L’équilibre se jouera dans les mois à venir entre accords d’appareils, précision des réponses et modèles de rémunération acceptables pour l’industrie.

Source : ITHome

Cooler Master Hyper 612 APEX Pro : double ventilateur et gain de pression

26 janvier 2026 à 12:07

Cooler Master lance le Hyper 612 APEX Pro, évolution directe du Hyper 612 APEX, avec un positionnement tarifaire de 399 ¥ (environ 52 €) en finition noire brossée, 429 ¥ (environ 56 €) en finition argent brossée et 429 ¥ (environ 56 €) en version blanche peinte. Le Hyper 612 APEX Pro adopte une architecture simple tour à double ventilateur, six caloducs de troisième génération, un capot supérieur métallique magnétique et un montage des ventilateurs par clips.

Vue éclatée du Cooler Master Hyper 612 APEX Pro montrant composants internes

Hyper 612 APEX Pro : Mobius 120U en façade, 120P à l’arrière

La principale modification concerne le ventilateur frontal, qui passe du Mobius 120P au Mobius 120U. À taille identique, le 120U grimpe à 0–2700 tr/min, pour un débit maximal de 77,8 CFM, une pression statique de 3,8 mmAq et 35,1 dB(A). Le ventilateur arrière reste un Mobius 120P, cadencé à 0–2400 tr/min, 68,4 CFM, 3,0 mmAq et 30 dB(A).

Ventilateur Cooler Master Hyper 612 APEX Pro avec design noir élégant

Cooler Master annonce un gain de 13,7 % en débit et 26 % en pression sur la face avant grâce au 120U. Sur une tour simple avec six caloducs, cette marge peut faire la différence sur des processeurs avec un haut TDP en pointe, au prix d’un plafond acoustique plus élevé. Le capot magnétique et le montage par clips restent des détails pratiques, tandis que le choix des finitions brossées ou peinture blanche cible autant l’intégration sobre que les builds clairs.

Source : ITHome

Colorful iGame RTX 50 Mini W OC blanches : des GPU 18 cm pour PC compacts

26 janvier 2026 à 10:07

Colorful élargit sa gamme compacte avec des versions blanches des Colorful iGame RTX 50 Mini, baptisées « Mini W OC ». Trois références sont concernées : RTX 5070 12 Go, RTX 5060 Ti 16 Go et RTX 5060 Ti 8 Go. On retrouve le format très court à simple ventilateur déjà vu sur les modèles noirs, pensé pour les boîtiers ITX et les configurations à thème blanc.

Carte graphique Colorful iGame GeForce RTX 5070 Mini W OC avec design blanc.

Chaque Colorful iGame GeForce RTX 50 mesure 180 × 123 × 39,8 mm et s’appuie sur un unique ventilateur à double roulement à billes, avec un dissipateur relié par caloducs dont l’assemblage caloducs-ailettes est réalisé par brasage en refusion pour améliorer le contact thermique. La plaque arrière métallique ajourée favorise la convection et un éclairage ARGB latéral est pilotable via le logiciel maison de Colorful.

Côté tarifs en Chine, Colorful annonce 5 399 ¥ (environ 706 €) pour la Colorful iGame GeForce RTX 5070 Mini W OC 12 Go, 4 349 ¥ (environ 569 €) pour la iGame GeForce RTX 5060 Ti Mini W OC 16 Go et 3 649 ¥ (environ 477 €) pour la iGame GeForce RTX 5060 Ti Mini W OC 8 Go. Les disponibilités locales sont en cours, sans précision pour l’international.

Format mini, refroidissement ciblé

Vue latérale d'une carte graphique Colorful iGame avec un grand ventilateur central.

Le choix d’un seul ventilateur sur 180 mm impose un profil thermique rigoureux. Le double roulement vise la durabilité, tandis que la plaque arrière perforée et le flux traversant limitent l’accumulation de chaleur dans les châssis compacts. L’OC suggère un léger boost d’usine, sans agressivité probable au vu de l’enveloppe thermique contrainte par le format.

Positionnement et cohérence de gamme

Avec trois capacités mémoire et un habillage blanc, Colorful couvre les besoins ITX du mid-range au haut du milieu de gamme. Le modèle 16 Go de la 5060 Ti cible les titres gourmands en VRAM et la création légère, quand la 5070 condense le maximum de performances possible dans 18 cm. L’ARGB latéral, discret, reste compatible avec les thèmes sobres.

Dans un marché où les cartes mini se raréfient sur les segments performants, cette déclinaison blanche des Colorful iGame GeForce RTX 50 renforce une proposition aujourd’hui assez unique : un gabarit ITX réellement court pour des GPU récents, sans tomber dans les concessions d’entrée de gamme. Si les prix export restent maîtrisés, ces Mini W OC pourraient devenir des valeurs refuges pour les builds compacts premium.

Source : ITHome

CHERRY XTRFY LumiPad Pokémon : tapis rigide ARGB en édition Pikachu, Dracaufeu, Ectoplasma

26 janvier 2026 à 08:08

Après le clavier Pokémon, CHERRY XTRFY lance une édition Pokémon de son tapis rigide ARGB LumiPad, déclinée en trois versions thématiques « Pikachu », « Dracaufeu » et « Ectoplasma ». Ce Lumipad Pokémon mise sur une surface à faible friction pour le suivi et une couronne lumineuse périphérique, avec des zones d’éclairage dédiées aux motifs, synchronisables via le logiciel CHERRY Utility.

Tapis de souris CHERRY XTRFY Lumipad Pokémon avec éclairage ARGB et clavier lumineux.

Surface rigide low-friction et connectique USB‑C

La face supérieure du Lumipad Pokémon adopte une surface en polycarbonate microtexturé pour un glissement rapide et une trajectoire contrôlable, tandis que le dessous utilise un silicone antidérapant à motifs carrés pour verrouiller le tapis au bureau. La connexion passe par un câble USB‑C amovible, le connecteur affleurant la « tête » du tapis pour limiter la gêne avec la souris.

Deux bureaux équipés du tapis CHERRY XTRFY Pokémon sous différents éclairages.

Éclairage ARGB et écosystème

Le LumiPad Pokémon propose plus de 16,7 millions de couleurs et plusieurs effets, pilotables et synchronisables avec d’autres périphériques compatibles via CHERRY Utility. Les zones lumineuses thématiques et le liseré périphérique assurent un rendu homogène sans « points chauds » visibles dans les angles, un écueil fréquent sur les tapis rigides d’entrée de gamme.

Déjà référencé sur la boutique Membres Bilibili en Chine, il est affiché à 499 ¥ (environ 65 €) après acompte. Aucune information internationale n’est communiquée pour l’instant.

Ce type d’édition sous licence tire le marché des tapis rigides ARGB vers des tickets plus élevés, mais la combinaison surface PC microtexturée, base silicone stable et USB‑C détachable reste cohérente pour les joueurs un peu plus fortunés. Reste à voir si CHERRY XTRFY étendra la distribution hors Chine, où la demande pour les produits co‑brandés est historiquement forte.

Source : ITHome

Mémoire Samsung : flambée DDR5 et SSD en Corée, stocks au plus bas

Par :Wael.K
26 janvier 2026 à 08:07

Selon The Elec, les tarifs des mémoires grand public Samsung en Corée du Sud se sont envolés ces dernières semaines sur fond de pénurie en distribution. Côté DDR5, un module 16 Go DDR5-5600 DIMM qui se négociait 100 000 KRW il y a deux mois s’affiche désormais à 400 000 KRW, soit un prix multiplié par quatre. Les distributeurs évoquent des volumes faméliques, avec au mieux dix pièces expédiées par jour en 8 et 16 Go.

Barrelette mémoire DDR5 Samsung avec puces visibles, fond vert.

DDR5 et SSD grand public : flambée coordonnée

Le mouvement ne se limite pas à la mémoire vive. Les SSD basés sur de la NAND suivent la même trajectoire. Le Samsung 9100 PRO 2 To en PCIe 5.0 M.2 est passé d’environ 300 000 KRW à 600 000 KRW en deux mois, soit +100 %. Le SSD externe T7 a doublé sur la même période, d’environ 140 000 KRW à plus de 280 000 KRW.

SSD Samsung 9100 PRO M.2 noir avec connecteur doré.

À titre indicatif et hors taxes locales, 100 000 KRW représentent environ 69 €, 400 000 KRW environ 277 €, 300 000 KRW environ 207 €, 600 000 KRW environ 415 €, 140 000 KRW environ 97 € et 280 000 KRW environ 193 €. Les distributeurs mentionnent des stocks résiduels — « une ou deux unités » — sur les références 9100 PRO et T7.

Cette tension aligne la mémoire et la NAND sur une phase haussière déjà visible fin 2024, alimentée par une réduction des wafers DRAM/NAND chez les fondeurs, la priorité donnée aux segments HBM et serveurs, et un canal retail coréen sous-approvisionné. Pour l’utilisateur final, l’effet immédiat est un retour de la rareté sur les kits DDR5 d’entrée de gamme et un ticket d’entrée en PCIe 5.0 nettement relevé, avec un risque de contagion prix au-delà du marché local si les allocations restent contraintes au T1.

Source : ITHome

Lenovo Legion 8 pouces : future tablette gaming LCD avec Snapdragon 8 Elite

Par :Wael.K
26 janvier 2026 à 06:07

Lenovo commence à chauffer la prochaine tablette gaming Legion, attendue pour 2026. Le constructeur a publié un visuel à l’occasion de la Fête de Laba, confirmant un format compact autour de 8 pouces et un nouveau bloc photo arrière « Deco » composé de deux cercles, là où la Y700 (4e gen, 2025) n’en comptait qu’un.

D’après les informations circulant en Chine, cette itération conserverait un écran LCD 8,8 pouces au ratio 16:10, un choix assumé par la marque pour le jeu mobile. Le cœur de la machine viserait le très haut de gamme avec un SoC Qualcomm Snapdragon 8 Elite Gen 5, positionnant l’appareil un cran au-dessus des petites tablettes Android habituelles.

Ce que laisse entrevoir le design

Le module photo à double cercle suggère un léger remaniement de la face arrière, possiblement pour intégrer un capteur secondaire ou une signature visuelle plus marquée sur la gamme Legion. Aucune fiche technique détaillée n’est officielle à ce stade, mais le maintien du 16:10 et du LCD laisse attendre un rafraîchissement élevé et une latence contenue, deux points clés pour les sessions en cloud ou en natif.

Fenêtre de lancement et positionnement

Le calendrier évoqué en amont fait état d’une arrivée au cours du premier semestre 2026. Lenovo préparerait en parallèle d’autres produits LCD chez Lenovo/moto, mais la petite tablette Legion resterait l’offre la plus orientée gaming, avec un châssis compact et un SoC mobile de dernière génération.

Si Lenovo concrétise l’association Snapdragon 8 Elite Gen 5 + LCD 16:10 sur 8,8 pouces, la marque consolidera un segment de niche que peu d’acteurs adressent sérieusement. L’enjeu sera d’équilibrer performances soutenues, chauffe et endurance, un triptyque critique sur ce format lorsqu’on vise le 120 Hz et des titres Android lourds ou du cloud prolongé.

Source : ITHome

Keychron V Ultra 8K : claviers mécaniques 75/80/100 %, triple sans‑fil 8 kHz

26 janvier 2026 à 06:08

Keychron a dévoilé le 23 janvier sa série Keychron V Ultra 8K, des claviers mécaniques « trois modes » en 75 %, 80 % et full-size. Les V1, V3 et V5 sont annoncés à 114,99 $ / 114,99 $ / 119,99 $, soit environ 106 € / 106 € / 111 € au cours du jour. Particularité de la gamme : un polling rate à 8000 Hz aussi bien en USB qu’en sans‑fil, appuyé par un firmware ZMK et une autonomie annoncée à 660 heures.

Clavier mécanique Keychron V Ultra 8K sur pierre sombre, touches noires et grises, touche orange distinctive.

Triple connectivité, 8 kHz partout

La plateforme ZMK gère le Bluetooth et le 2,4 GHz en plus de l’USB, avec une batterie de 4000 mAh. Keychron annonce un polling rate de 8000 Hz en filaire comme en RF, un positionnement rarement vu sur ce segment de prix. Le PCB des Keychron V Ultra 8K est hot‑swap et propose un éclairage RGB orienté au sud pour limiter les interférences avec certains profils de keycaps.

Vue éclatée de composants internes du clavier Keychron V Ultra 8K, avec switches visibles.

Construction, acoustique et saisie

Le châssis en plastique des Keychron V Ultra 8K adopte un montage gasket, épaulé par cinq couches d’amortissement interne. La série est livrée avec des switches Silk POM et des keycaps PBT en profil OSA, en double injection. À l’extérieur, on retrouve une molette multifonction et des pieds à deux niveaux.

Les trois formats sont au programme : V1 (75 %), V3 (80 %) et V5 (100 %), au même tarif pour les deux plus compacts. La proposition cible clairement les usages polyvalents avec une base modulaire, une attention portée au son et une fiche technique sans‑fil au-dessus de la moyenne. Si l’implémentation 8 kHz en RF tient ses promesses en latence réelle, Keychron risque d’obliger la concurrence à s’aligner sur des taux de sondage élevés au‑delà de l’USB.

Source : ITHome

Asus ROG XG27AQNGV : moniteur QHD 360 Hz avec G‑SYNC Pulsar pour l’e‑sport

26 janvier 2026 à 04:07

Asus met en vente en Chine le ROG « XG27AQNGV », un 27 pouces 2560×1440 à 360 Hz qui inaugure le support de la technologie G‑SYNC Pulsar. Affiché à 6999 ¥ (environ 900 €), ce modèle s’adresse clairement aux joueurs compétitifs qui veulent du QHD à très haut taux de rafraîchissement sans compromis sur la netteté en mouvement.

Asus ROG XG27AQNGV : moniteur QHD 360 Hz avec G‑SYNC Pulsar pour l’e‑sport

Caractéristiques annoncées

L’écran adopte une dalle IPS « Ultrafast » 360 Hz avec un temps de réponse GtG de 1 ms, un contraste de 1000:1 et une prise en charge de profondeur de couleur 10 bits. La luminance de crête est donnée à 500 nits. Asus ajoute un capteur de lumière ambiante pour ajuster la luminosité, ainsi que l’éclairage AURA SYNC.

Asus ROG XG27AQNGV : moniteur QHD 360 Hz avec G‑SYNC Pulsar pour l’e‑sport

Le XG27AQNGV est présenté comme le premier moniteur compatible G‑SYNC Pulsar. Nvidia promet une réduction du flou de mouvement avec un gain jusqu’à 4x d’acuité dynamique, combinée à la VRR sans déchirures. L’intérêt, si l’implémentation tient ses promesses, est d’obtenir une image plus lisible dans les déplacements rapides sans recourir à un strobing agressif.

Ergonomie et connectique

Le pied autorise réglage en hauteur, inclinaison et rotation; le châssis est compatible VESA 100×100 mm. Côté ports : deux HDMI 2.1, un DisplayPort 1.4, une sortie audio 3,5 mm, et trois USB‑A 3.2 Gen 1 avec fonction KVM.

Si G‑SYNC Pulsar s’impose réellement à 360 Hz en QHD, Asus prend de l’avance sur le segment e-sport « haut de définition », encore minoritaire face aux 1080p/360 Hz. Le positionnement tarifaire en fait un produit vitrine, mais il servira de baromètre pour mesurer l’intérêt des joueurs compétitifs pour le 1440p très rapide.

Source : ITHome

❌