↩ Accueil

Vue normale

Snapdragon X2 Elite : Qualcomm tease des PC de bureau compacts et passifs

Par :Wael.K
20 janvier 2026 à 23:42

Snapdragon X2 s’invite sur vos bureaux ! Qualcomm laisse entrevoir des PC de bureau compacts, loin du simple format portable attendu jusqu’ici.

Snapdragon X2 Elite vise le desktop, d’après un teaser de Qualcomm

Qualcomm a publié le 13 janvier sur sa chaîne YouTube un teaser présentant des « desktops nouvelle génération ». Le message est explicite : « next‑gen desktops are here. Snapdragon X Series processors build on the breakthroughs that reshaped laptops… », promet la marque, avec un accent sur la vitesse, l’IA et l’efficacité énergétique.

À 18 secondes, une formule maladroite s’affiche, « these flexible PCs bring what legacy desktops don’t », pendant que des utilisateurs tapent sur des claviers sans fil reliés à des boîtiers compacts et des moniteurs incurvés. Selon VideoCardz, la vidéo pourrait brouiller les pistes, Qualcomm n’ayant montré jusqu’ici, en présentiel, que des prototypes de mini PC à refroidissement passif.

Texte promotionnel pour PC Snapdragon X2 Elite sur fond rouge.

Le constructeur s’appuie sur l’élan de ses laptops Arm pour porter Snapdragon X2 Elite vers des formats desktop. Les images évoquent des boîtiers noirs ou argent métal, minimalistes, raccordés à des écrans de bureau.

Femme utilisant un PC compact sur un bureau en bois.

D’après TechPowerUp, les démonstrateurs les plus marquants remontent au Snapdragon Summit 2025 à Hawaï, avec des échantillons rouges en forme de « sous-verre » et de « palet de hockey ». La notion de « petit PC de bureau Windows » reste ouverte à interprétation, et il semblerait que Qualcomm et ses partenaires devront clarifier la feuille de route à l’approche de la commercialisation.

Base rouge d'un support de PC avec ports visibles.

Des promesses axées IA et Copilot+, mais un hardware encore flou

Le trailer met en avant trois points : Copilot+ pour accélérer les tâches créatives et productives, des designs « versatiles » adaptés à tous les environnements, et des expériences d’IA locales pour la confidentialité, les performances et la réactivité.

En filigrane, Snapdragon X2 Elite cherche à transposer au bureau ses gains d’efficacité énergétique issus du monde des laptops, avec la perspective de machines silencieuses et compactes. Reste que, d’après les précédentes démonstrations publiques, on parle surtout de mini PC passifs, pas de tours extensibles. Prudence donc sur l’ampleur du segment visé.

Source : TechPowerUp

Beelink SER10 : Ryzen AI 9 HX 470, NPU 55 TOPS et 10 GbE pour l’IA locale

Par :Wael.K
20 janvier 2026 à 23:18

Beelink lance sa série SER10, un mini PC axé sur l’inférence locale et la création accélérée par NPU. Au cœur, l’AMD Ryzen AI 9 HX 470 combine cœurs Zen 5 et Zen 5c, 12 cœurs/24 threads, 2,0 GHz de base et jusqu’à 5,2 GHz en boost. L’XDNA 2 embarqué annonce 55 TOPS pour les usages IA sur poste, dont le pilotage de modèles locaux et la génération de contenus.

La partie graphique s’appuie sur une Radeon 890M (RDNA 3.5), 16 unités de calcul à 3,1 GHz, positionnée pour accélérer le montage 4K, le rendu 3D léger et le jeu en 1080p/1440p selon profils. Le tout s’accompagne d’un saut côté réseau avec un port 10 Gigabit généralisé, en progression nette par rapport au 2,5 GbE de la précédente génération.

Deux variantes, deux approches de la mémoire

Le SER10 Pro embarque de la LPDDR5X soudée et se décline en quatre coloris (argent glacé, gris spatial, orange ambre, vert jade). Il intègre micro et haut-parleurs, avec un positionnement pensé pour l’assistant vocal et la visioconférence.

Le SER10 Max opte pour des slots DDR5, remplaçables par l’utilisateur. Plus sobre dans ses finitions (argent glacé, gris spatial), il vise la tenue des fréquences et la dissipation en espace contraint, avec un focus sur la constance des performances.

beelink ser10 series couleurs

Configurations et connectique

Les deux modèles sont proposés en 32 Go + 1 To et 64 Go + 1 To, avec SSD en standard. La connectique met en avant le port 10 Gigabit pour les workloads réseau, NAS et post-production en local, ainsi qu’une dotation moderne côté vidéo et USB attendue sur ce segment. Le NPU XDNA 2 à 55 TOPS cible explicitement les workflows IA de bureau sans cloud.

Dans un marché mini PC très compétitif, l’association Zen 5/Zen 5c, RDNA 3.5 et 10 GbE place le SER10 sur un créneau pertinent pour studios compacts, créateurs itinérants et PME qui internalisent l’inférence. Le choix entre LPDDR5X soudée et DDR5 remplaçable segmente proprement l’offre selon les priorités thermiques et de maintenance.

Note : un cas de white labeling assumé

Le SER10 est également commercialisé par Minisforum sous la même dénomination, avec des spécifications strictement identiques. Cette pratique de rebadging est courante dans l’industrie des mini PC chinois, où un même ODM fournit plusieurs marques concurrentes. Minisforum et Beelink puisent visiblement chez le même fabricant, se différenciant principalement sur le SAV, la distribution et le positionnement tarifaire selon les marchés. Pour l’acheteur final, cela signifie qu’il convient de comparer les prix et conditions de garantie entre les deux enseignes avant achat.

Source : ITHome

Intel recrute Eric Demers : un vétéran du GPU pour accélérer l’IA d’Intel

Par :Wael.K
20 janvier 2026 à 23:01

Intel recrute Eric Demers, un poids lourd du GPU, et vise clairement l’IA. L’ingénieur, fraîchement parti de Qualcomm après près de quatorze ans et un poste de senior vice president of engineering, a confirmé qu’il rejoindra le fondeur « la semaine prochaine » d’après un message LinkedIn privé cité par CRN.

Intel recrute Eric Demers pour muscler l’IA

Présentation d'Eric Demers lors du Fusion Developer Summit.

Annonce tombée vendredi 16 janvier : Demers a expliqué avoir multiplié les échanges en 2025 avec le CEO d’Intel, Lip-Bu Tan. Les contours exacts de son rôle ne sont pas publics, mais l’intéressé laisse un indice. Selon CRN, il s’attend à « diriger l’ingénierie GPU avec un focus IA ». Un signal fort alors que le groupe a présenté il y a quelques mois son accélérateur data center Crescent Island et que son successeur Jaguar Shores viserait un « design complete » d’ici le milieu de 2026.

Le parcours parle de lui‑même : Silicon Graphics (SGI), Matrox, puis le start‑up studio ArtX formé par d’anciens de SGI, racheté ensuite par ATI Technologies. Demers devient ensuite Corporate VP & CTO de la division graphique d’AMD, qu’il quitte début 2012, avant de rejoindre Qualcomm pour contribuer notamment aux GPU Adreno. L’un de ses derniers chantiers chez Qualcomm semble être la gamme Snapdragon X2 Series orientée PC Windows.

Vers le nouvel « AI Group » d’Intel

Feuille de route de l'exécution AI avec sections Deliver, Scale, et Expand.

D’après les observateurs du secteur, Demers pourrait devenir une figure clé du « AI Group » récemment formé chez Intel, entité indépendante qui chercherait à se positionner face aux géants du calcul accéléré, en particulier NVIDIA. Le timing colle avec l’agenda produit : Crescent Island déjà officialisé, Jaguar Shores attendu pour une finalisation de design mi‑2026.

Chez Qualcomm, Demers a passé près de quatorze ans, culminant au titre de senior vice president of engineering. Ce transfert intervient alors que l’écosystème GPU s’aligne sur des feuilles de route IA de plus en plus agressives côté data center et PC. Si Intel confirme ses ambitions, l’arrivée de Demers pourrait accélérer la convergence entre architecture GPU et charges IA au cœur de ses prochaines générations d’accélérateurs.

Source : TechPowerUp

HKC ANT253PQ-N : écran gaming 24,5″ 1440p à 300 Hz en co-branding Naraka

20 janvier 2026 à 21:13

HKC lance sous sa marque Ant Gaming un moniteur 24,5 pouces « ANT253PQ-N » en édition co-brandée avec le jeu « Naraka: Bladepoint ». L’écran gaming met en avant un duo rare sur ce format : 2560×1440 px et 300 Hz, avec un prix de lancement à 1799 ¥ (environ 230 € au taux du jour).

Écran gaming HKC ANT253PQ-N montrant un personnage de jeu vidéo asiatique.

Spécifications et dalles

La dalle Fast IPS de cet écran gaming annonce une luminance de 400 nits, un temps de réponse GtG de 1 ms et un contraste statique de 1000:1. La couverture colorimétrique est donnée à 99 % DCI-P3, avec gestion 10 bits via 8-bit + FRC. L’ensemble vise clairement l’e-sport compétitif en 1440p tout en conservant une restitution colorée décente pour la création légère.

Ports et fonctionnalités du moniteur HKC ANT253PQ-N mis en évidence.

La connectique comprend deux ports HDMI 2.1, un DisplayPort 1.4 et une sortie audio 3,5 mm. Le châssis adopte un habillage « Naraka: Bladepoint » et reste compatible VESA 100×100 mm. Le pied offre les réglages essentiels : hauteur, inclinaison et rotation.

Positionnement marché

Un 24,5 pouces 1440p à 300 Hz cible un segment précis : joueurs FPS qui privilégient la densité de pixels sans passer au 27 pouces. La présence de l’HDMI 2.1 élargit l’usage mixte PC/consoles, même si ces dernières ne tirent pas parti des 300 Hz. À ce tarif agressif en Chine, HKC pousse la concurrence sur les dalles rapides 2K, encore rares à cette diagonale.

Détails techniques en chinois du modèle HKC ANT253PQ-N.

Source : ITHome

BenQ RD280UG : moniteur 28 pouces 4K+ 120 Hz pensé pour les codeurs

20 janvier 2026 à 21:08

Un écran qui assume clairement sa cible : le BenQ RD280UG s’adresse aux développeurs qui enchaînent les sessions longues et veulent une lisibilité nette sans fatigue visuelle.

BenQ RD280UG : 28 pouces 4K+, 120 Hz et format 3:2 pour coder

Homme travaillant sur un moniteur BenQ RD280UG, affichant du code, sur un bureau sombre.

BenQ élargit sa série RD, présentée en 2024 comme la première gamme de moniteurs dédiée aux programmeurs, avec le BenQ RD280UG de 28 pouces en 4K+ à 120 Hz. Le constructeur met en avant une dalle Nano Matte pour limiter reflets et éblouissements, ainsi qu’un Coding Mode exclusif optimisé pour la lisibilité du texte selon le thème : de l’IDE : Dark Theme pour accentuer la lecture et la précision en débogage, Light Theme pour préserver la clarté en environnement clair, et Paper Color Mode pour un rendu doux proche du papier quand la fatigue s’installe.

D’après BenQ, le rafraîchissement à 120 Hz fluidifie le défilement et réduit le flou de mouvement, utile pour suivre des lignes de code sans effort. Le format 3:2 augmente l’espace vertical pour afficher davantage de code, tandis que le contraste annoncé de 2000:1 est épaulé par les technologies Enhanced Local Contrast et High Pixel Contrast pour un texte plus net, des ombres mieux définies et plus de détails. Au quotidien, ce 120 Hz profite aussi à la bureautique et au jeu occasionnel.

Côté connectique et ergonomie, le BenQ RD280UG propose un USB‑C avec jusqu’à 90 W de Power Delivery pour alimenter un portable tout en gérant l’affichage et les données via un seul câble. Le pied offre une rotation ±90° avec auto pivot pour alterner facilement entre portrait et paysage. On retrouve l’écosystème Eye‑care de BenQ avec Visual Optimizer, réglage automatique de la luminosité et de la température de couleur, et une certification TÜV Low Blue Light. Un KVM intégré permet de piloter deux machines avec un seul clavier et une seule souris.

Le moniteur ajoute l’éclairage d’ambiance MoonHalo pour équilibrer la luminosité de la pièce, ainsi qu’une protection en heures nocturnes via une gestion de luminosité minimale afin de réduire la fatigue oculaire. « Les programmeurs ont besoin d’écrans pensés pour de longues heures de concentration », rappelle BenQ, qui revendique plus de vingt ans d’expertise dans l’affichage.

Logiciels et raccourcis pour les IDE

Configuration multi-écran avec un moniteur BenQ RD280UG, portable, smartphone, et casque audio sur un bureau.

Le logiciel Display Pilot 2 est annoncé compatible macOS, Windows et Linux, avec un support Linux renforcé pour la communauté dev. Une touche de raccourci « Coding » dédiée donne accès instantané aux modes Coding, à la luminosité, au contraste et aux réglages Eye‑care, sans casser le flux de travail.

Le BenQ RD280UG est disponible en précommande sur BenQ.com et chez certains revendeurs au prix public conseillé de 759,99 dollars, soit environ 700 à 740 euros TTC selon le taux de change et les taxes locales.

Ports arrière du moniteur BenQ RD280UG, montrant HDMI, USB et entrée casque.

Source : TechPowerUp

Gamdias ATLAS M4 : moyen tour vitré, flux d’air vertical et hub ARGB intégré

Par :Wael.K
20 janvier 2026 à 21:00

Gamdias lance l’ATLAS M4, un boîtier moyen tour misant sur une vitrine intégrale et un flux d’air vertical naturel, annoncé à 99,9 $ (environ 92 €). Les panneaux en verre trempé plein format à l’avant et sur le côté exposent l’ensemble de la configuration, tandis qu’une entrée d’air par la base perforée et une extraction par le haut et l’arrière assurent une convection continue.

Conception et circulation d’air

Le châssis adopte une alimentation dissimulée, installée sur un panneau fixe à droite et en partie haute, afin de dégager la vue dans la chambre principale et simplifier l’agencement. Gamdias préinstalle quatre ventilateurs NOTUS M1 de 120 mm avec éclairage ARGB, pilotables via un hub 8 broches PWM/ARGB intégré pour centraliser vitesse et effets.

Vue arrière du boîtier Gamdias ATLAS M4 avec grilles de ventilation et panneau latéral
Boîtier Gamdias ATLAS M4 avec composants RGB visibles à travers le panneau en verre

Un système de ventilateurs ajustable en angle au plancher permet de diriger le flux précisément vers la carte graphique. Le principe « cheminée » est ici exploité sans artifice, avec prise d’air basse et extraction haute, pour une pression interne maîtrisée sans recourir à des éléments superflus.

Diagramme des supports de ventilateurs et radiateurs dans le boîtier Gamdias ATLAS M4

Compatibilité et intégration

Le boîtier est compatible avec les cartes mères à connecteurs au dos, ce qui aide à épurer le compartiment principal. Gamdias fournit une rallonge secteur pour un cheminement de l’alimentation par l’arrière, maintenant l’esthétique tout en garantissant l’accessibilité. Un support de carte graphique est livré d’origine pour sécuriser les modèles haut de gamme et limiter tout risque de fléchissement.

Ce positionnement relève une tendance claire des châssis orientés « build show » : invisibiliser l’alimentation, basculer le câblage derrière la carte mère et concentrer l’air frais vers le GPU. À ce tarif, l’intégration du hub PWM/ARGB et du support GPU ajoute un levier concurrentiel tangible face aux modèles vitrés plus basiques.

Source : ITHome

OpenAI « Sonata » : nouveaux sous-domaines laissent entrevoir un service audio/API

Par :Wael.K
20 janvier 2026 à 20:54

OpenAI teste un nouveau service ou produit interne baptisé « Sonata ». Plusieurs sous-domaines ont été créés mi-janvier, dont sonata.openai.com (16 janvier 2026) et sonata.api.openai.com (15 janvier 2026), signe d’une phase de préparation côté front public et côté API. Le choix du nom évoque la musique, sans en faire une preuve fonctionnelle.

Dans l’écosystème OpenAI, ce type d’hôte pointe en général vers des pages produits, des outils internes ou des webapps en test. L’apparition simultanée sur le domaine principal et sur l’API suggère une brique destinée à la fois à l’expérience utilisateur et aux intégrations développeurs, ou au minimum une surface d’essai cohérente entre les deux.

Périmètre fonctionnel pressenti

Le nom « Sonata » renvoie naturellement à la musique et à l’audio, mais rien ne permet d’affirmer que la fonctionnalité cible la génération musicale. OpenAI a récemment amélioré la recherche contextuelle dans l’historique des conversations de ChatGPT, avec un affichage des fils sources utilisés pour répondre, ainsi qu’une optimisation en cours de la dictée vocale pour tous les utilisateurs connectés. Le calendrier rapproche « Sonata » d’un cycle d’évolution audio/voix déjà visible, sans établir de lien direct.

SONATA

Sur le plan opérationnel, la présence d’un sous-domaine API dédié laisse deux options plausibles : un endpoint spécialisé (audio, musique, voix, lecture multimodale) ou un service transversal nécessitant un routage séparé. OpenAI segmente régulièrement ses services expérimentaux par sous-domaines pour limiter l’impact de déploiement et isoler la télémétrie.

Ce qui est confirmé côté ChatGPT

OpenAI indique que la recherche et la citation d’anciens échanges sont désormais plus précises lorsque la fonction de référence à l’historique est active. Les conversations utilisées pour construire une réponse sont listées comme sources et accessibles pour recontextualiser. En parallèle, la reconnaissance vocale est en cours d’optimisation pour l’ensemble des comptes connectés.

Si « Sonata » est bien lié à l’audio, l’empilement récent voix + citations d’historique pourrait préparer des usages où l’oral, la navigation contextuelle et la restitution multimodale convergent. À l’inverse, si « Sonata » ne vise pas l’audio, on resterait devant un nom de code opportunément musical sans incidence sémantique.

Le mouvement rappelle le mode opératoire habituel d’OpenAI : création de sous-domaines dédiés, tests en production contrôlée, puis élargissement progressif. Pour l’écosystème développeur, un endpoint « sonata.api » distinct faciliterait l’adoption sans perturber les intégrations existantes, notamment si des codecs, des latences ou des modèles spécifiques à l’audio exigent une pile réseau différenciée.

Source : ITHome

Eric Schmidt alerte l’Europe : sans IA open source et énergie, dépendance chinoise

Par :Wael.K
20 janvier 2026 à 20:50

À Davos, Eric Schmidt a prévenu que l’Europe devait financer des laboratoires d’IA open source et s’attaquer au coût de l’énergie, faute de quoi elle s’exposait à une dépendance rapide aux modèles chinois. L’ancien CEO de Google, devenu investisseur, estime que les acteurs américains convergent vers des solutions fermées, vendues sous licence, quand la Chine pousse des modèles à « poids ouverts », plus transparents et réutilisables.

Schmidt situe le point de bascule très clairement : sans investissements massifs dans des modèles européens, les entreprises du continent finiront par intégrer des modèles chinois. Il cite en miroir la trajectoire de Gemini chez Google ou de ChatGPT chez OpenAI, tous deux fermés, face à l’offensive chinoise sur l’ouverture des poids, qui facilite l’audit, l’adaptation et l’optimisation locale.

Énergie, data centers et réalisme industriel

Au-delà du financement logiciel, Schmidt insiste sur le talon d’Achille européen : des prix de l’électricité élevés et une capacité de data centers insuffisante pour entraîner des modèles et des agents plus puissants. Il rappelle s’être impliqué dans une société de data centers visant à absorber la demande énergétique colossale de l’IA, et s’inquiète lui-même de l’impact du boom américain de l’IA sur l’approvisionnement en électricité.

Le message est limpide pour l’écosystème local : sans arbitrer rapidement entre coûts énergétiques, nouveaux sites, connectivité et filières de calcul intensif, l’open source européen restera un vœu pieux. À court terme, cela rebat les cartes pour les fournisseurs d’infrastructures, de l’alimentation électrique aux systèmes de refroidissement des salles, et conditionne la capacité des acteurs européens à entraîner des modèles maison plutôt que d’assembler des briques venues d’ailleurs.

NAND 2026 : Samsung et SK Hynix réduisent les wafers, tension sur les prix SSD à venir

Par :Wael.K
20 janvier 2026 à 20:48

Selon des données Omdia relayées par ChosunBiz, Samsung Electronics et SK Hynix réduiront en 2026 leurs volumes de wafers dédiés au NAND, alors qu’ils représentent ensemble plus de 60 % des capacités mondiales. Ce choix resserre encore un marché déjà tendu et ouvre la voie à une pression haussière sur les prix.

Capacités en baisse chez les deux leaders

Samsung planifie 4,68 millions de wafers NAND en 2026, contre 4,90 millions en 2025. SK Hynix prévoit 1,70 million de wafers cette année, après 1,90 million en 2025. Ensemble, la capacité 2026 recule d’environ 6,2 % sur un an.

semiconductor wafer dram

Les deux groupes privilégient désormais la maximisation des marges sur le NAND, après une précédente phase de cycle marquée par des pertes sévères. Dans ce cadre, aucun signal d’un relèvement agressif de la production n’apparaît à court terme.

Une demande IA qui s’intensifie

La courbe de la demande reste ascendante côté infrastructures IA. D’après Citi, un rack basé sur les « Vera Rubin » de Nvidia nécessite 1 152 To de SSD, plus de dix fois le niveau d’un système « Grace Blackwell » de génération précédente. Les hyperscalers, comme les OEM de serveurs, tirent donc l’absorption de NAND de qualité datacenter.

Ce décalage entre offre disciplinée et besoins en forte hausse entretient un environnement de prix soutenus, avec un effet de cascade possible vers le client, notamment sur les SSD NVMe haut de gamme et les modules entreprise.

Si Samsung et SK Hynix maintiennent cette stratégie de rareté relative en 2026, la normalisation des stocks pourrait durer plus longtemps que prévu. L’équation favorise les acteurs capables d’augmenter l’empilement de couches, d’optimiser les rendements en 3D NAND et d’allouer finement les volumes entre datacenter et grand public, autant de leviers qui pèseront sur la hiérarchie des marges au cours des prochains trimestres.

Source : ITHome

Dock rétro Mac mini M5 : écran 5 pouces, Thunderbolt 5 et M.2 jusqu’à 8 To

Par :Wael.K
20 janvier 2026 à 15:50

Wokyis revisite le Mac mini avec une station d’accueil au design néo-rétro inspiré du Macintosh. Le boîtier intègre un écran IPS de 5 pouces en 1280 × 720, accueille un SSD M.2 et se décline en deux versions selon la connectique.

La première, équipée d’un port USB-C à 10 Gb/s, est annoncée à 169 dollars, soit environ 155 euros hors taxes. La seconde, plus ambitieuse, mise sur le Thunderbolt 5 à 80 Gb/s et grimpe à 339 dollars, autour de 310 euros hors taxes. Dans les deux cas, l’écran intégré fait partie de l’équipement de série, renforçant l’approche tout-en-un de cette station d’accueil pensée pour le Mac mini.

Station d'accueil 14-en-1 avec écran et détails des ports affichés, fond clair.

Côté stockage, un logement M.2 interne accepte les formats 2230, 2242, 2260 et 2280, avec une capacité annoncée jusqu’à 8 To. La connectique regroupe quatre USB‑A 10 Gb/s, un USB‑C 10 Gb/s, des lecteurs SD et microSD UHS‑II, une prise audio 3,5 mm et une entrée HDMI. La variante Thunderbolt 5 ajoute une sortie DisplayPort, donnée pour de l’8K à 60 Hz.

Docking station arrière affichant stockage jusqu'à 8TB et tailles compatibles, fond léger.

La compatibilité couvre les Mac mini M4 et M4 Pro, mais aussi les Mac mini M1 et M2, ainsi que d’autres ordinateurs Thunderbolt et USB4. D’après la fiche, les systèmes limités à Thunderbolt 2 ou à l’USB 3.x / USB 2.0 ne sont pas pris en charge. Wokyis souligne « une extension de stockage simple et des I/O supplémentaires », avec un design pensé pour se fondre sous le Mac mini.

Thunderbolt 5, écran 5 pouces et alternatives rétro

Le look inspiré des premiers Macintosh rappelle d’autres machines néo‑vintage du marché. AYANEO, par exemple, commercialise son mini PC AM01 dans un style similaire, avec option Ryzen 7 5800U, un système de refroidissement 35 W et la prise en charge M.2 2280. Un positionnement tarifaire qui, selon NotebookCheck, n’est « presque pas plus cher » que ce dock M4 rétro.

Mac mini rétro avec écran, petit modèle à gauche, sur bureau avec accessoires.

Pour les utilisateurs de Mac mini en quête d’une base tout‑en‑un, la M5 coche les cases : stockage interne jusqu’à 8 To, Hub USB 10 Gb/s, lecteur SD UHS‑II, écran d’appoint et, sur le modèle TB5, sortie DisplayPort 8K/60. Reste à arbitrer entre le ticket d’entrée de 169 $ et le haut de gamme à 339 $.

Source : VideoCardz

Step3-VL-10B : modèle multimodal 10B qui vise le niveau SOTA on-device

Par :Wael.K
20 janvier 2026 à 15:18

StepFun ouvre Step3-VL-10B, un modèle multimodal de 10 milliards de paramètres présenté comme capable de rivaliser avec des références dix à vingt fois plus lourdes. L’équipe publie deux déclinaisons, « Base » et « Thinking », avec dépôts sur HuggingFace et ModelScope, un site dédié et un papier arXiv. Le positionnement est clair : amener sur terminaux locaux des capacités jusque-là cantonnées au cloud, du comptage d’objets précis à l’OCR exigeant en passant par l’ancrage GUI.

Capacités annoncées et périmètre de tests

Graphique de performance des modèles Step3-VL-10B, GLM, Qwen, Gemini, Seed.

À paramètres équivalents, Step3-VL-10B revendique un niveau SOTA en perception visuelle, raisonnement logique, mathématiques de compétition et dialogue généraliste. StepFun affirme des performances au niveau, voire au-dessus, d’ouverts très larges comme GLM-4.6V 106B-A12B et Qwen3-VL-Thinking 235B-A22B, ainsi que de modèles fermés de premier plan tels que Gemini 2.5 Pro et Seed-1.5-VL. Les benchmarks cités incluent MMMU, MathVision, BLINK, CVBench, OmniSpatial, ViewSpatial et des évaluations en environnement de programmation réel.

Comparaison des scores Text-centrique des modèles IA modernes.

Sur le versant mathématique, l’équipe met en avant des scores quasi parfaits sur AIME 25/24, suggérant une rigueur de chaîne de pensée au niveau du premier peloton. En 2D/3D, les scénarios de topologie et de comptage fin sont donnés comme un point fort.

Tableau de performance 2D/3D des modèles avec BLINK et autres benchmarks.

Côté code, les tests sont annoncés en conditions dynamiques, avec un avantage mesuré sur plusieurs modèles multimodaux de référence. Des démonstrations publiques couvrent de la résolution de puzzles visuels au grounding d’interfaces graphiques.

Architecture, entraînement et modes de raisonnement

Step3-VL-10B adopte un préentraînement multimodal joint pleine largeur, sans gel de modules, sur un corpus présenté comme « 1,2 T » d’exemples de haute qualité. L’alignement profond des espaces sémantiques vision/texte sert de socle aux tâches de perception fine et au raisonnement cross-modality. Le modèle est ensuite poussé par un cycle de renforcement massif, avec plus de 1 400 itérations, l’équipe estimant que la courbe n’a pas atteint son plateau.

Deux paradigmes d’inférence coexistent. SeRe, pour un déroulé séquentiel, et PaCoRe, « raisonnement parallèle coordonné », qui étend dynamiquement la puissance de calcul à l’inférence, explore en parallèle plusieurs hypothèses perceptives et agrège les preuves. StepFun indique que PaCoRe domine SeRe en STEM, OCR & documents, grounding GUI, compréhension spatiale et code.

Tableau comparatif des scores STEM pour divers benchmarks.

Cas d’usage et disponibilité

Le constructeur cible explicitement l’agent côté terminal. Nourri par un préentraînement dédié GUI, le modèle sait identifier et actionner des éléments d’interface complexes, un passage clé pour automatiser des workflows locaux sur PC, smartphones et équipements embarqués. L’éditeur met en avant la descente en coût et en empreinte calcul comme un levier pour généraliser le raisonnement multimodal avancé hors cloud.

Les ressources sont disponibles via le site projet, arXiv et les hubs de modèles. L’invitation au fine-tuning communautaire s’applique aux deux variantes, « Base » et « Thinking ».

Si les métriques internes se confirment en évaluation indépendante, Step3-VL-10B illustre un mouvement de fond : l’investissement méthodologique (préentraînement joint, RL à grande échelle, inférence parallèle) compense une réduction d’échelle brute. Pour l’écosystème, le signal est double: pression à la baisse sur les coûts d’inférence et accélération des agents multimodaux on-device, notamment pour le grounding d’UI et l’analyse documentaire avancée.

Source : ITHome

Rainbow Six tactique au tour par tour : un spin-off top-down en préparation

Par :Wael.K
20 janvier 2026 à 10:42

Rainbow Six changerait de cadence : d’après une fuite relayée par Insider Gaming, Ubisoft travaillerait sur un jeu tactique au tour par tour en vue top-down, ancré dans l’univers Rainbow Six et pensé pour la génération de consoles actuelle.

Rainbow Six en mode tactique top-down

Le projet en serait encore à un stade précoce, avec un lancement estimé à au moins deux ans. Selon les sources citées, le gameplay évoquerait un « XCOM mis à jour » ou, par certains aspects structurels, Diablo 4, mais avec des cinématiques soignées et une caméra vue de dessus. Le titre viserait une sortie sur les consoles actuelles et, d’après la fuite, un port potentiel sur une éventuelle Nintendo Switch 2 serait à l’étude, un signal cohérent avec les propos récents de dirigeants et développeurs d’Ubisoft sur leur appétence pour la console portable.

Côté contenu, l’équipe viserait 25 à 30 heures de jeu. La boucle de gameplay resterait très proche de Rainbow Six Siege : prise de contrôle d’opérateurs en équipes de six, et objectifs de type otages, bombes, extraction et protection. La nature exacte des modes n’est pas tranchée publiquement, avec une incertitude entre PvP, PvE ou un mélange des deux, même si cette dernière option paraît la plus plausible. Insider Gaming rapporte que le jeu proposerait des cut-scenes cinématiques pour accompagner la progression.

Un spin-off de Siege en tour par tour

Les informations restent non officielles et doivent être prises avec précaution. Mais l’angle tactique au tour par tour, associé à des opérateurs familiers et à des objectifs signature de Siege, dessine un spin-off identifiable. Insider Gaming résume l’ambition par une comparaison marquante : « très proche de Diablo 4 ou d’une version mise à jour d’XCOM », avec un rendu plus cinématographique.

Source : TechPowerUp

NVIDIA N1 : les puces laptop Arm arrivent dès ce trimestre, N1X en Flagship

Par :Wael.K
20 janvier 2026 à 10:27

Les NVIDIA N1 débarquent enfin : d’après DigiTimes, la plateforme Windows on Arm de NVIDIA arrive dès ce trimestre avec les N1X, tandis que les N1 « réguliers » patienteraient jusqu’au deuxième trimestre 2025. De quoi placer NVIDIA face aux Snapdragon X2 Elite et X2 Plus.

NVIDIA N1 et N1X : calendrier, architecture et objectifs

La feuille de route évoquée indique un premier lancement N1X au cours du premier trimestre de l’année, suivi des N1 en T2 2025. Les puces reprendraient la philosophie du GB10 Superchip utilisé dans le DGX Spark comme base de conception. Au menu : un CPU Arm v9.2 à 20 cœurs, répartis en deux clusters de dix, avec 16 Mo de L3 partagée par cluster (soit 32 Mo au total) et un L2 privé par cœur.

Côté mémoire, NVIDIA opterait pour un sous-système unifié LPDDR5X-9400 sur bus 256 bits, jusqu’à 128 Go pris en charge pour environ 301 Go/s de bande passante brute. Il resterait toutefois à confirmer si une telle capacité sera proposée dans des laptops grand public. Le package viserait près de 140 W de TDP et intégrerait du PCIe 5.0 pour des SSD NVMe très rapides.

Détail de la puce NVIDIA avec circuit imprimé complexe

Les premières rumeurs tablaient sur une apparition autour du CES 2026, mais le tempo s’accélère. Selon DigiTimes, NVIDIA a « préparé la relève avant même le lancement N1 », avec une série N2 prévue en T3 2027.

N2 en ligne de mire : succession du GB10, puis les portables

D’après les mêmes sources, la gamme N2 arriverait environ un an après, d’abord comme SoC de remplacement du GB10 Superchip, avant de glisser vers les laptops. Un signal clair que NVIDIA verrouille sa trajectoire Windows on Arm et vise un rafraîchissement régulier du haut au bas du stack.

Source : TechPowerUp

Lenovo 27Q-10 PRO : moniteur QD‑OLED 26,5 pouces QHD 280 Hz avec KVM intégré

Par :Wael.K
20 janvier 2026 à 10:24

Lenovo lance en Chine le « 27Q-10 PRO », un moniteur QD‑OLED de 26,5 pouces en 2560 x 1440 à 280 Hz, annoncé à 2699 ¥ (environ 350 €). La dalle revendique un temps de réponse de 0,03 ms, une luminance de 250 nits, un contraste dynamique de 1 500 000:1 et une prise en charge native du 10 bits. La couverture annoncée atteint 99 % sRGB et 99 % DCI‑P3.

Personne jouant à un jeu sur un moniteur Lenovo Legion à son bureau

Caractéristiques et connectique

Lenovo Legion Pro montrant options de pivot sur fond de paysage rouge

Le pied autorise le réglage en hauteur, l’inclinaison et la rotation. Le châssis est compatible VESA 100 x 100 mm pour une fixation sur bras. Côté entrées, on trouve deux HDMI 2.1, un DisplayPort 1.4, trois USB‑A 3.2 Gen 1 avec fonction KVM et un port USB‑B en amont.

Vue latérale du moniteur Lenovo montrant la hauteur ajustable de 135 mm

Positionné sur le segment QHD à très haut taux de rafraîchissement, ce modèle QD‑OLED vise clairement le jeu compétitif sans renoncer à une couverture large des espaces colorimétriques grand public et cinéma. Les 280 Hz en 1440p, associés à une réactivité OLED, le placent face aux références QD‑OLED 27 pouces récentes; le ticket d’entrée en yuan suggère un positionnement agressif en Chine, à confirmer sur les marchés internationaux si une distribution hors Asie est prévue.

Source : ITHome

Serveurs IA 2026 : ASIC en hausse, GPU sous 70% et marché en accélération

Par :Wael.K
20 janvier 2026 à 10:22

TrendForce anticipe une accélération nette du marché serveurs en 2026 : les livraisons mondiales de machines dédiées à l’IA progresseraient de 28,3% sur un an, tandis que l’ensemble du parc serveurs, incluant les plateformes généralistes, grimperait de 12,8%, une hausse plus marquée qu’en 2025. Le centre de gravité se déplace des charges d’entraînement vers l’inférence, ce qui ouvre de nouveaux volumes pour les serveurs classiques, parallèlement au démarrage d’un cycle de renouvellement.

Diagramme de la répartition des technologies de serveurs IA en 2023-2026 : GPU, FPGA, ASIC.

ASIC en montée, GPU sous 70%

Les cinq grands acteurs cloud — Google, AWS, Meta, Microsoft et Oracle — devraient augmenter leurs dépenses d’investissement d’environ 40% cette année, avec une part significative consacrée à des solutions ASIC maison. TrendForce estime que les serveurs IA à base d’ASIC atteindraient 27,8% des livraisons d’IA, au détriment des configurations GPU dont la part passerait sous les 70%.

La bascule vers l’inférence avantage les puces spécialisées en coût par requête et en efficacité énergétique, tout en déchargeant partiellement le marché des GPU d’entrée de gamme. Si cette trajectoire se confirme, l’écosystème matériel côté cloud va se fragmenter davantage entre ASIC propriétaires, GPU généralistes et accélérateurs alternatifs, avec des chaînes d’approvisionnement plus captives et une pression accrue sur les standards d’interconnexion.

Source : ITHome

SilverStone PS07 Retro : boîtier Micro-ATX , USB-C 20 Gb/s et baie 5,25″

Par :Wael.K
20 janvier 2026 à 10:20

Aprés les FLP02 et FLP03, SilverStone vient de lancer le PS07 Retro, une réédition du boîtier Micro-ATX qui avait marqué la gamme Precision. Cette version reprend l’ADN du modèle d’origine tout en modernisant la connectique avec un port USB-C 3.2 Gen 2×2 à 20 Gb/s en façade. Le PS07 Retro cible les configurations compactes exigeantes, tout en conservant des atouts devenus rares comme deux emplacements 5,25″.

SilverStone PS07 Retro : design remis au goût du jour

Boîtier SilverStone PS07 Retro, vue avant avec ports accessibles.

Le châssis adopte une finition ivoire proche de la série FLP. Le boîtier affiche 210 × 374 × 400 mm pour un volume de 31,4 L et propose quatre slots d’extension. En façade, on retrouve deux baies 5,25″, un port USB-C 20 Gb/s et un port USB-A 5 Gb/s.

Boîtier SilverStone PS07 Retro, porte ouverte montrant l'intérieur.

Châssis inversé, plateau amovible et accessoires

L’agencement interne adopte une carte mère inversée avec l’alimentation positionnée en haut à l’arrière. Les pans avant des panneaux latéraux sont ajourés pour améliorer le flux d’air. SilverStone intègre un plateau de carte mère amovible et un capot supérieur démontable pour faciliter le montage.

Intérieur du boîtier SilverStone PS07 Retro, compartiment pour composants.

Le boîtier est livré avec un patin de support en caoutchouc pour carte graphique ainsi qu’un support de ventirad. Une large découpe au dos du plateau simplifie l’installation des systèmes de refroidissement du processeur.

Avec son format 31,4 L, sa façade à double 5,25″ et sa connectique USB-C 20 Gb/s, le PS07 Retro vise les amateurs de Micro-ATX fonctionnel et pérenne, combinant ergonomie de montage et esthétique néo-rétro.

Source : ITHome

VXE Dragonfly R1S : souris gaming 55 g à 20 € avec tri-mode

Par :Wael.K
20 janvier 2026 à 10:08

VXE Dragonfly R1S à 18,99 dollars, 55 g et tri-mode : la nouvelle entrée de gamme frappe fort. Cette souris sans fil vise les petites et moyennes mains, avec un châssis symétrique et un positionnement très agressif (environ 17 à 20 euros selon le taux de change).

VXE Dragonfly R1S : tri-mode, 55 g, capteur Xhero AI

Filiale d’ATK Gear, VXE pousse plus loin sa série Dragonfly R1 avec la R1S, annoncée sur X. On retrouve la même silhouette allégée que les R1, mais avec un capteur Xhero AI, un MCU HiSilicon BS20, un taux de rafraîchissement porté à 1 kHz et des switchs mécaniques Huano Blue Shell White Dot. Le tout pour 55 g en sans-fil et une connectivité tri-mode : USB-C, NearLink (standard introduit par Huawei en 2024) et Bluetooth 5.2.

Publicité VXE Dragonfly R1S avec détails techniques et offres promotionnelles.

VXE promet jusqu’à 150 heures d’autonomie. Le gabarit vise la prise en main fingertip ou claw sur petites à moyennes mains : 120,6 × 64,1 × 37,6 mm, bosse arrière basse, clics principaux en pente douce, deux boutons latéraux personnalisables et flancs quasi verticaux. La forme rappelle fortement les Pulsar X2 ou l’Endgame Gear OP1 8k.

Coques mates sans revêtement, Windows requis pour la personnalisation

Tableau des spécifications techniques du VXE Dragonfly R1 Series.

Pour tenir le tarif public conseillé de 18,99 dollars, VXE coupe quelques options : coque mate sans coating susceptible de briller à l’usage, seulement deux coloris (noir, blanc) quand le reste de la gamme R1 propose davantage. Officiellement, la R1S devient le nouveau bas de gamme de la série, tout en restant personnalisable et remappable via le pilote maison, sous Windows uniquement.

D’après l’annonce, la marque résume l’idée en « version d’entrée accessible, même gabarit, composants rationalisés ». Le recul à 1 kHz par rapport aux R1 plus ambitieuses s’inscrit dans cette logique. À ce prix, la présence de NearLink aux côtés de l’USB-C et du Bluetooth 5.2 demeure notable.

Source : TechPowerUp

IA et empreinte eau d’ici 2050 : énergie et fabs concentrent 96 % de la hausse

Par :Wael.K
20 janvier 2026 à 08:17

Une nouvelle étude de Xylem, en partenariat avec le Global Water Intelligence, chiffre l’empreinte eau de l’IA à l’horizon 2050. Selon le rapport, l’essor des infrastructures nécessaires à l’IA ferait grimper la demande mondiale annuelle de 30 000 milliards de litres d’eau, soit environ les trois quarts de la capacité du réservoir des Trois-Gorges.

L’énergie et les fabs en première ligne

Le document estime que la consommation de l’ensemble de la chaîne de valeur de l’IA augmenterait de 129 % par rapport à aujourd’hui. La hausse proviendrait majoritairement de la production d’électricité (~54 %) et de la fabrication de semi-conducteurs (~42 %), les data centers ne pesant directement qu’environ 4 % dans l’incrément.

Le signal d’alerte est d’autant plus net que 40 % des centres de données existants sont implantés dans des zones déjà en stress hydrique. La croissance future des capacités est, elle aussi, attendue dans des bassins où l’accès à l’eau est contraint.

Arbitrages industriels et leviers techniques

Xylem plaide pour un recours accru aux technologies d’économie et de réutilisation de l’eau, ainsi qu’à la réduction des fuites sur les réseaux. L’objectif est d’éviter que l’eau ne devienne un plafond de verre pour l’innovation, en particulier dans les régions où se concentrent les fabs de pointe et les parcs de data centers.

Au-delà des data centers, les choix d’approvisionnement électrique et les procédés de fabrication des puces seront déterminants. Refroidissement plus frugal, boucles fermées et traitement sur site côté IT, optimisation des stations d’épuration industrielles et des tours de refroidissement côté énergie et semi, seront les axes les plus impactants.

La trajectoire esquissée pose un enjeu d’implantation et de mix technologique pour l’écosystème IA. Sans bascule vers des sites moins contraints et des procédés sobres en eau, le coût opérationnel et réglementaire pourrait s’envoler, pesant sur les calendriers d’expansion des capacités de calcul et de production de puces.

Source : ITHome

X ouvre le code de l’algorithme For You : architecture Transformer et cycle public

Par :Wael.K
20 janvier 2026 à 08:17

Elon Musk annonce l’ouverture du code de l’algorithme « For You » de X. Le système publié reflète la version de production actuelle et s’appuie sur une architecture de type Transformer, la même famille que le modèle Grok de xAI. Musk admet des limites et promet un processus d’amélioration en continu, visible en temps réel, revendiquant une transparence que ses concurrents n’offrent pas.

Diagramme du processus de l'algorithme For You détaillant les étapes de sélection des posts.

Ce que X publie concrètement

Le dépôt GitHub inclut le pipeline de recommandation « For You », mis à jour toutes les quatre semaines. Les contenus proposés combinent les posts des comptes suivis et des posts découverts sur la plateforme, avant un tri par un modèle basé sur Grok qui estime la probabilité d’actions utilisateur clés : like, réponse, repost, clic ou visionnage.

Plutôt qu’un score unique, le modèle prédit plusieurs comportements et agrège ces signaux pour un classement plus fin. L’apprentissage repose directement sur les comportements utilisateurs, avec une pondération des interactions visant à rapprocher l’affichage des intentions effectives.

Transparence et rythme de livraison

Le code est accessible à l’adresse suivante : github.com/xai-org/x-algorithm. X prévoit un cycle public de mises à jour mensuel, aligné sur la branche de production, avec l’ambition de réduire l’écart entre recherche, déploiement et publication.

Si l’ouverture ne garantit pas l’absence de biais ni la portabilité du modèle hors de l’écosystème X, elle offre une visibilité utile sur la mécanique de scoring multi-objectifs et la manière dont X arbitre engagement, pertinence et diversité. Pour l’industrie, c’est un signal stratégique : l’ère des recommandations opaques se fissure, et la pression monte sur les réseaux à large échelle pour documenter leurs choix algorithmiques, au moins partiellement.

Source : ITHome

Michael Burry alerte : bulle de l’IA et hyperscalers pris au piège capitalistique

Par :Wael.K
20 janvier 2026 à 08:16

Michael Burry remet une pièce dans la machine. Invité d’un podcast Substack face à Jack Clark (Anthropic) et à l’animateur Dwarkesh Patel, l’investisseur surnommé « le Big Short » estime que la bulle de l’IA gonfle à vue d’œil et que son éclatement entraînera une longue traversée du désert pour la tech. Sa cible principale : les hyperscalers comme Microsoft et Alphabet, accusés d’engloutir des montants colossaux dans des puces et des data centers qui deviendront rapidement obsolètes, pour des usages qui finiront banalisés, à commencer par les chatbots.

Pour illustrer l’effet d’imitation à coûts fixes, Burry ressort une vieille anecdote de Warren Buffett : dans les années 60, deux grands magasins se sont équipés d’escaliers mécaniques l’un après l’autre. Personne n’y a gagné en marge, personne n’a réduit ses coûts, tout le monde s’est retrouvé au même point d’équilibre. « C’est le destin de la plupart des déploiements IA : dès que quelqu’un se hisse sur la pointe des pieds, les autres suivent », résume-t-il.

Le diagnostic est tranchant : des milliers de milliards sont en train d’être brûlés dans des concepts sans voie claire vers l’économie réelle. Les entreprises ne capteront pas d’avantage compétitif durable si leurs concurrents accèdent aux mêmes capacités au même rythme. À la clé, prévient-il, un secteur qui embauche moins et un cycle dégradé plus long qu’attendu.

Reste l’angle mort que la plupart des acteurs refusent d’aborder publiquement : la contrainte capitalistique de l’IA générative est extrême et cumulative, entre accélérateurs à renouveler vite, capacités électriques, refroidissement et foncier. Si la demande finale se standardise sur des outils commoditisés, la compression des prix rencontrera des amortissements qui s’étalent mal. Le risque est moins celui d’une disparition de l’IA que d’une normalisation brutale des multiples, qui pourrait revaloriser les modèles intégrés, sobres en capital et adossés à des flux tangibles, aux dépens des paris d’infrastructure trop larges.

Source : ITHome

DeepCool GAMMAXX 400 Performance : ventirad 4 caloducs, double ventilo en option

Par :Wael.K
20 janvier 2026 à 08:09

DeepCool lance en Chine le « GAMMAXX 400 Performance », une mise à jour de son ventirad entrée de gamme, décliné en noir ou en blanc à 79 ¥ (environ 10 €), ainsi qu’en version « PLUS » à double ventilateur à 99 ¥ (environ 13 €). La série conserve l’architecture à quatre caloducs en simple tour, avec un bloc de 125 mm de large, 92 mm de profondeur et 150 mm de hauteur, et un top matriciel revu. Garantie un an.

DeepCool GAMMAXX 400 Performance : ventirad 4 caloducs, double ventilo en option

Ventilation et acoustique

La principale évolution vient du ventilateur à « anneau de canalisation » qui referme l’intervalle entre pales et cadre pour limiter les turbulences et accroître la pression traversante. Le rotor est annoncé à 500–2200 tr/min, pour un débit de 70,09 CFM et un niveau sonore inférieur à 29,22 dB(A). Le modèle PLUS ajoute un second ventilateur en push-pull.

Compatibilité et positionnement

Le montage couvre les sockets Intel LGA 1851/1700 et AMD AM5/AM4. Le constructeur suggère un usage avec des processeurs du segment Core Ultra 5 ou Ryzen 7/5/3, ce qui cadre avec la capacité thermique habituelle des tours 4 caloducs. À ce tarif, l’intérêt tient à la pression statique accrue et au double ventilateur optionnel pour des boîtiers denses ou des grilles maillées restrictives.

Sur un marché où les 120 mm « budget » se multiplient, l’itération de DeepCool cible clairement le rapport perf/prix en Asie, avec des chiffres acoustiques ambitieux et un format 150 mm compatible micro‑ATX. Reste à voir l’écart réel entre version simple et PLUS en charge prolongée, qui décidera de sa place face aux références établies dans cette tranche.

Source : ITHome

Conner revient avec un chargeur USB‑C 65 W intégrant un SSD portable 5 Gbit/s

Par :Wael.K
20 janvier 2026 à 08:08

Conner, ex-fabricant de disques durs des années 80-90 fondé par Finis Conner et absorbé par Seagate en 1996, réapparaît depuis 2021 comme marque d’accessoires de stockage. Au CES, l’entreprise a dévoilé un chargeur secteur USB-C intégrant un SSD portable, une approche deux-en-un pensée pour les voyageurs qui veulent simplifier la sauvegarde.

Chargeur USB-C Conner 65W branché sur un MacBook avec deux adaptateurs muraux.

Le bloc adopte un port USB‑C compatible USB 3.2 Gen 1 (5 Gbit/s) et Power Delivery 65 W. Quatre déclinaisons de capacité sont prévues : 128 Go, 256 Go, 512 Go et 1 To. L’idée est de greffer un espace de stockage directement à un accessoire déjà indispensable, avec des débits suffisants pour de la sauvegarde quotidienne ou des transferts ponctuels, sans ajouter un câble ou un boîtier de plus dans le sac.

Un écosystème d’accessoires orienté sauvegarde

Adaptateurs USB-C Conner de couleurs variées près d'un smartphone.

Sur son stand, Conner montrait aussi un SSD portable pour smartphone avec alimentation passthrough, un lecteur de cartes MicroSD en USB‑C et une clé de sauvegarde mobile. La logique est cohérente : privilégier la copie locale rapide depuis un téléphone ou un PC, sans dépendre du cloud, tout en conservant la charge des appareils.

Le compromis 5 Gbit/s limitera les pics de débit, mais reste pertinent pour un combo charge + backup. La vraie question se situera sur la dissipation thermique d’un chargeur 65 W abritant de la NAND, et sur la gestion des firmwares pour éviter toute déconnexion logique durant les pointes de charge. Si Conner convainc sur ces deux points, ce format pourrait s’installer dans les setups nomades où chaque prise et chaque port comptent.

Deux clés USB Conner UME3 à côté d'un ordinateur portable.

Source : ITHome

Hohem SSD-01 : pSSD 20 Gbit/s triple USB‑C pour créateurs mobiles exigeants

Par :Wael.K
20 janvier 2026 à 08:07

Hohem, connu pour ses stabilisateurs, a dévoilé au CES un périphérique inattendu : le SSD-01, un SSD externe qui combine stockage, relais d’alimentation et support de réception audio sans fil. Le constructeur revendique un « trois-en-un » destiné aux créateurs mobiles, avec une compatibilité large et une intégration matérielle soignée.

Un pSSD pensé pour la captation mobile

Le SSD-01 intègre trois ports USB‑C. Un connecteur rabattable assure la liaison directe avec un smartphone ou tout appareil compatible, tandis que les deux autres servent respectivement au passthrough d’alimentation et à l’accueil d’un récepteur de micro sans fil. L’idée : filmer, stocker et alimenter en continu, sans hub intermédiaire.

Le boîtier de 29 g adopte une coque en aluminium issue d’un microbillage, avec un format compact orienté terrain. Hohem propose des versions 1 To et 2 To. La liaison atteint 20 Gbit/s via USB 3.2 Gen 2×2, pour des débits annoncés de 2000 Mo/s en lecture et 1800 Mo/s en écriture, avec compatibilité multi‑OS. Côté alimentation, le passthrough grimpe à 65 W pour maintenir un smartphone ou un boîtier caméra en charge lors d’une prise longue.

Prix et positionnement

Le SSD-01 s’affiche à 219 $ (environ 201 €) en 1 To et 339 $ (environ 312 €) en 2 To. Un positionnement premium au regard des pSSD 20 Gbit/s classiques, compensé ici par l’intégration matérielle pour l’audio sans fil et la charge rapide, sans accessoires supplémentaires.

Ce produit vise clairement les vidéastes mobiles qui jonglent entre enregistreurs, émetteurs RF et banques d’alimentation. Si les performances réelles dépendront autant du contrôleur que de la dissipation, l’approche modulaire via USB‑C triple usage adresse une douleur concrète du terrain : simplifier une grappe d’accessoires en un bloc unique, avec un débit suffisant pour l’enregistrement 4K/60 et un flux d’alimentation stable.

Source : ITHome

PolarDB Lakebase : un lakehouse IA unifié avec recherche fusionnée en SQL

Par :Wael.K
20 janvier 2026 à 06:18

Alibaba Cloud a dévoilé lors de sa conférence développeurs 2026 de PolarDB une salve de capacités orientées IA, avec en tête un « AI data lakehouse » baptisé Lakebase. L’objectif est clair : unifier stockage et traitement de données multimodales et rapprocher les modèles directement du moteur de base pour exécuter recherche sémantique et inférence in-situ, sans sortir les données de leur domaine.

PolarDB Lakebase : un lakehouse IA unifié avec recherche fusionnée en SQL

Lakebase et l’intégration modèle-dans-la-base

Conçu pour une architecture « lac + base » unifiée, Lakebase promet une gestion cohérente des données structurées, semi-structurées et non structurées, avec des mécanismes de cache accélérant I/O et bande passante selon les cas d’usage. Alibaba Cloud met en avant une intégration entre moteur multimodal et « opérateurs de modèle » au sein de PolarDB, permettant d’orchestrer recherche sémantique et étapes d’inférence directement dans la base tout en conservant les garanties de confidentialité.

PolarDB Lakebase : un lakehouse IA unifié avec recherche fusionnée en SQL

L’éditeur combine KVCache, graphes et vecteurs pour construire des schémas de recherche conciliant mémoire court/long terme et empreinte calcul maîtrisée. L’ensemble s’inscrit dans quatre piliers d’un « AI-ready database » : data lakehouse multimodal, recherche fusionnée, services d’opérateurs de modèles et un back-end orienté développement d’agents.

Recherche fusionnée et services pour agents

La composante « recherche fusionnée » ancre la vectorisation et le plein-texte au cœur du SQL, pour marier compréhension sémantique et appariement par mots-clés, avec un gain annoncé sur la précision et la latence sur des requêtes complexes. Côté exécution, les services d’opérateurs de modèles ouvrent la voie à l’inférence en base, à une architecture « Agent-Ready » et à des mécanismes de mémoire adaptés aux besoins des agents.

Pour l’industrialisation, PolarDB propose un back-end clé en main destiné aux applications d’agents, s’appuyant sur un empaquetage type Supabase multi-tenant et serverless, afin d’accélérer les déploiements dans les verticaux.

PolarDB Lakebase : un lakehouse IA unifié avec recherche fusionnée en SQL

Alibaba Cloud revendique plus de 3 millions de cœurs déployés pour PolarDB, couvrant 86 zones de disponibilité dans le monde. Les fonctions cloud natives et Data+AI sont déjà en production sur des systèmes critiques dans la finance, l’automobile, l’administration, l’internet et les télécoms, auprès notamment d’une grande banque commerciale, Li Auto, XPeng, MiniMax, GoTo Group, Du Xiaoman et miHoYo. Si la promesse d’unir data lakehouse multimodal, opérateurs de modèle en base et recherche vectorielle/plein-texte dans SQL se confirme sur des charges mixtes en production, PolarDB se positionnera comme une alternative crédible aux offres lakehouse-IA occidentales, avec un avantage potentiel en cohérence opérationnelle et en coûts d’intégration.

Source : ITHome

❌