↩ Accueil

Vue lecture

Speedball revient sur PS5, Xbox Series et PC : Rebellion relance le sport futuriste

Après plus d’un an d’Early Access lancé en octobre 2024, ce pilier du cyberpunk sort enfin de l’ombre et revient avec une ambition claire : frapper fort, sans détour. Violence assumée, rythme brutal, et un lancement sur PS5, Xbox Series X|S et PC, le tout à un prix d’appel volontairement contenu.

Speedball s’offre une renaissance moderne

Rebellion, studio derrière Sniper Elite, Atomfall et Zombie Army, relance Speedball, licence culte des Bitmap Brothers (1988). La version complète est disponible en numérique sur Xbox Series X|S et PlayStation 5, et sur PC via Steam à 29,99 €.

Scène de match Speedball avec joueurs en armures bleues et rouges sur terrain.

Le décor plante 2138 et ses mégacorpos qui abrutissent les foules à coups de sport gladiateur. Sur le terrain, l’essentiel tient en trois mots: vitesse, collision, opportunisme.

Modes, arènes et rythme de jeu

Le League Mode aligne 10 équipes pour une saison complète et un titre de champion. Les rencontres sont rapides, explosives et volontairement imprévisibles, portées par des passes à haute vitesse, des tirs cadrés et des combos d’équipe.

Joueur en armure rouge esquivant des flammes dans Speedball.

Les arènes se déclinent en variantes Brutal et Standard, avec obstacles et capacités spécifiques pour renverser un match. La Slam Cam en ralenti capture les plaquages les plus sales, histoire d’appuyer là où ça fait mal.

L’ossature mêle match arcade et micro-gestion: constituez un effectif adapté à votre style grâce aux traits et talents individuels, entraînez-vous contre l’IA, puis basculez en ligne ou en local.

Joueur en armure bleue effectuant un tacle spectaculaire dans Speedball.

Un retour attendu pour les amateurs de futurisme rugueux

Le trailer de lancement est disponible sur YouTube, et Rebellion accompagne la sortie avec une collection de vêtements, accessoires et homeware sur sa boutique. Prix identique sur consoles et PC: 29,99 $ environ.

Joueur en action dans une arène glacée de Speedball.

Replonger Speedball dans un cadre 4K/60 et un écosystème multi-plateformes consolide une niche laissée vacante entre sport arcade et brawler. Si le matchmaking tient la charge et que le League Mode offre du méta-jeu, la proposition peut fédérer une scène durable, au-delà du simple coup de nostalgie.

Source : TechPowerUp

  •  

Ryzen 7 9850X3D : un leak le donne à +2,88% vs 9800X3D en 1080p avec RTX 5090

Un graphique interne a fuité, et la sentence est froide: le Ryzen 7 9850X3D ne gratterait qu’un maigre avantage en jeux face au 9800X3D. Si cela se confirme, la prochaine star X3D d’AMD jouerait la prudence plutôt que le chamboulement.

Ryzen 7 9850X3D vs 9800X3D: +2,88% en moyenne

Un tableau attribué au leaker Chi11eddog oppose les deux Ryzen en jeu à 1920×1080 avec une NVIDIA RTX 5090, un contexte qui limite le GPU et met en lumière les écarts CPU. Le gain moyen annoncé atteint +2,88% pour le Ryzen 7 9850X3D.

Graphique comparatif FPS Ryzen 7 9850X3D vs 9800X3D, barres oranges et bleues sur fond gris

Par titre, les écarts restent à un chiffre: Counter-Strike 2 à 825,35 FPS pour le 9850X3D contre 775,88 FPS pour le 9800X3D (+6,38%), GTA V Enhanced 326,3 vs 315,17 FPS (+3,53%), Final Fantasy XIV: Dawntrail 334,96 vs 319,17 FPS (+4,95%).

Les autres jeux suivent la même tendance: Cyberpunk 2077 282,01 vs 271,39 FPS (+3,91%), DOOM: The Dark Ages 174,99 vs 172,16 FPS (+1,64%), et Battlefield 6 reste au coude-à-coude 298,62 vs 298,63 FPS (aucune différence tangible).

La capture n’indique ni préréglages graphiques, ni RAM, BIOS, build OS ou plateforme complète. Le leaker ne cite pas sa source; ses précédents posts provenaient souvent de documents internes MSI, possible origine ici sans confirmation.

Calendrier et prix

Les tests indépendants sont attendus le 28 janvier, pour une disponibilité au détail le 29 janvier. AMD a confirmé le Ryzen 7 9850X3D à 499 $, soit environ 460–480 € HT à titre indicatif selon taxes et taux de change.

Si les chiffres se valident, AMD capitaliserait surtout sur l’optimisation plutôt que la rupture générationnelle en 1080p. L’intérêt réel se jouera sur la régularité des frametimes, l’efficacité énergétique et les performances hors 1080p, éléments absents de cette fuite.

Source : VideoCardz

  •  

NVIDIA FrameView 1.7: overlay personnalisable et précision au-delà de 800 FPS

Un outil que l’on croyait relégué aux labos revient avec des arguments concrets. NVIDIA rafraîchit FrameView et pousse la mesure jusqu’aux très hautes fréquences tout en soignant l’affichage en jeu.

NVIDIA FrameView 1.7: overlay personnalisable et précision >800 FPS

FrameView reste un moniteur de performances Windows capable de suivre framerate, frame times, puissance, performance par watt et latence PC (sur configurations compatibles). La version 1.7 introduit un overlay configurable avec préréglages de métriques, choix de taille de police, fond noir pour la lisibilité, et des tags de mode comme Full Screen Status, Tearing et Vsync.

La mise à jour cible aussi les jeux aux cadences extrêmes: le calcul d’images par seconde gagne en exactitude lorsque le framerate dépasse 800 FPS. Les reviewers profitent toujours de logs CSV propres et de runs répétables, l’outil restant compatible avec un large éventail de GPU et d’API graphiques.

Logiciel NVIDIA FrameView 1.7 affichant paramètres de capture et superposition d'écran pour performances graphiques.

Correctifs: fuites mémoire, VSync/GSync, DLSS FG et logs

NVIDIA corrige une fuite mémoire observée lors de longues sessions avec des jeux Reflex-activés. S’ajoutent des correctifs de cas rares de mauvais reporting liés à VSync, GSync et DLSS Frame Generation, ainsi qu’un changement garantissant l’enregistrement correct des CSV si un jeu se ferme en milieu de benchmark.

Côté jeux, la build liste un correctif de crash pour The Finals, le support anti-cheat pour Arc Raiders afin que les overlays fonctionnent, et des ajustements du comportement PC Latency dans Starfield et Black Myth Wukong. Battlefield 6 est également noté comme affichant l’overlay correctement.

Problèmes connus et périmètre

Des soucis persistent avec Counter-Strike 2 en Exclusive Full Screen lors de l’apparition d’une fenêtre UAC. FrameView peut aussi se figer après fermeture/réouverture alors qu’un jeu tourne encore. Les statistiques GPU ne sont pas prises en charge avec un eGPU.

Au-delà des nouveautés d’interface, ce regain de précision aux fréquences extrêmes et les correctifs Reflex/VSync/GSync replacent FrameView dans la boîte à outils des testeurs et des joueurs compétitifs qui traquent la latence et la stabilité frame-time au-delà de la simple moyenne d’images par seconde.

Source & DL : NVIDIA FrameView

  •  

Sennheiser USB-C : nouveaux CX 80U et HD 400U, audio 24-bit/96 kHz pour mobiles et PC

USB-C partout, même chez Sennheiser : deux références mythiques reviennent avec un DAC intégré et une promesse simple, brancher et profiter sans latence.

Sennheiser USB-C : CX 80U et HD 400U

Sennheiser actualise les CX 80S et HD 400S avec les nouveaux CX 80U (intra-auriculaires) et HD 400U (casque fermé), désormais en USB Type-C. Les deux modèles assurent une liaison numérique directe, annoncée comme low-latency et sans perte, avec lecture 24-bit / 96 kHz.

Casque Sennheiser HD 400U noir à arceau flexible

Le HD 400U reprend l’ADN du HD 400S : signature bass-driven, format compact, design fermé pour une isolation passive marquée. Câble détachable, pochette de transport et ergonomie pensée pour le quotidien nomade.

Le CX 80U cible ceux qui préfèrent l’ultra-compact. Il conserve l’équilibre punchy du CX 80S, avec trois tailles d’embouts pour l’ajustement et l’isolation. Les deux modèles intègrent une télécommande/micro en ligne à capteur MEMS pour une capture vocale large bande et peu bruyante.

Écouteurs intra-auriculaires Sennheiser CX 80U avec câble USB-C

Compatibilité, prix et dispo

Compatibilité plug and play annoncée avec iOS, iPadOS, Android, ChromeOS, macOS, Windows, SteamOS et autres appareils USB-C class compliant. Objectif: un son Sennheiser uniforme sur smartphone, tablette, PC et consoles portables.

Tarifs et disponibilité immédiate :

  • CX 80U à £34.99 / $39.95 / €39.90,
  • HD 400U à £69.99 / $99.95 / €79.90.

Vente chez les revendeurs agréés et sur sennheiser-hearing.

Casque Sennheiser HD 400U sur table avec accessoires de bureau

Positionnement et usages

Le HD 400U vise l’écoute sédentaire ou nomade avec isolation passive et rendu dynamique, tandis que le CX 80U s’impose pour les trajets, la bureautique et le jeu sur appareils mobiles, profitant du 24-bit/96 kHz et d’un lien numérique stable en USB-C.

Cette bascule USB-C confirme la normalisation du DAC intégré sur l’entrée de gamme ambitieuse. Entre la promesse de latence faible, la large compatibilité et un micro MEMS correct pour les appels/visioconférences, Sennheiser verrouille l’évidence du filaire moderne face au Bluetooth lorsque la constance et la simplicité priment.

Source : TechPowerUp

  •  

RTX 5090 et RTX 5060 : ZOTAC Korea prévient de fortes hausses et de ruptures temporaires

Nouvelle alerte sur les GPU haut de gamme et entrée de gamme : les prix grimpent, et des modèles pourraient disparaître des étals. Le marché coréen sert d’éclaireur, mais le signal concerne tout l’écosystème GeForce 50.

ZOTAC Korea confirme des hausses et des volumes réduits

ZOTAC Korea publie sur TagTag Mall un avis daté du 27 janvier 2026: l’approvisionnement mémoire reste contraint et les volumes de GPU vont diminuer. Résultat, certaines cartes graphiques pourraient être indisponibles « pour un moment ».

Le message cite explicitement les RTX 5090 et RTX 5060 comme les plus touchées par d’importantes hausses tarifaires. Ce n’est donc pas limité aux flagships. Aucune mention de la RTX 5070 Ti, pourtant pressentie comme SKU la plus impactée par des changements d’allocation NVIDIA.

Capture d'écran annonce ZOTAC Korea sur ajustement des économies et disponibilité des GPUs

En réaction, TagTag Mall suspend temporairement les points de récompense (0 %) et affirme vouloir maintenir les prix « aussi bas que possible » au vu des conditions actuelles.

Contexte : réallocations NVIDIA et fin des modèles MSRP

Le secteur avait démarré l’année avec une hausse générale chez ASUS, sans cibler les cartes graphiques. En décembre, plusieurs rapports évoquaient des augmentations chez les partenaires de NVIDIA et d’AMD. Ce mois-ci, un nouveau schéma de priorisation NVIDIA a fait parler, avec des modèles prétendument mis en pause; NVIDIA a démenti, affirmant que toutes les références expédiaient.

Quelques jours plus tôt, NVIDIA aurait cessé de soutenir l’Open Price Program, décrit par Der8auer comme « la fin des modèles MSRP ». Le message de ZOTAC pourrait y faire écho. Pour les acheteurs, cela prépare un marché plus volatil, où les prix des RTX 5090 et RTX 5060 s’éloignent de tout repère stable.

Si la contrainte mémoire persiste et que les allocations se resserrent, les revendeurs répercuteront la hausse sur l’ensemble de la chaîne, des AIC aux boutiques. Les cycles de réassort risquent d’allonger les délais et d’amplifier les primes locales sur les RTX 5090 et 5060, tandis que le milieu de gamme pourrait rester flou tant que les priorités d’expédition NVIDIA ne se stabilisent pas.

Source : VideoCardz

  •  

Intel Arc drivers 101.8362/8425 WHQL arrivent avec XeSS 3 sur Panther Lake

Intel met la pression sur le jeu nomade avec des drivers qui allument XeSS 3 sur ses nouveaux iGPU. Conséquence directe : un bond d’images par seconde taillé pour les futures consoles portables handheld à venir sous Phanter Lake.

Intel Arc drivers: support Panther Lake et XeSS 3

Intel publie ses pilotes 32.0.101.8425 et 32.0.101.8362 WHQL, drivers de lancement pour les Core Ultra Series 3 « Panther Lake » équipés des iGPU Arc B390 et Arc B370. Le gros morceau, c’est l’arrivée de XeSS 3 multi-frame generation : jusqu’à trois images générées insérées entre deux images rendues, avec un ratio 3:1 générées/rendues pour booster le framerate.

Graphique marketing XeSS 3 moderne rendu violet avec détails sur éclairage et géométrie

Intel promet un gain sensible sur Arc B390/B370, avec un positionnement pressenti vers des futures consoles portables x86. Côté correctifs, ces versions règlent un crash au lancement (DX12) sur la démo de PRAGMATA SKETCHBOOK.

Correctifs et problèmes connus

Correctifs

  • Arc B-Series: PRAGMATA SKETCHBOOK Demo (DX12) pouvait crasher au lancement.
  • Core Ultra Series 2 avec Arc intégré: même correctif sur PRAGMATA SKETCHBOOK Demo (DX12).

Problèmes connus

  • Core Ultra Series 3 avec Arc intégré: Ghost of Tsushima (DX12) affiche des corruptions de couleurs sur certains terrains; The Finals (DX12) crash intermittent; No Man’s Sky (VK) corruptions de terrains; Star Citizen (VK) crash au lancement; Mount & Blade II: Bannerlord (DX11) crash au lancement.
  • Arc B-Series: Call of Duty Black Ops 6 (DX12) corruptions intermittentes sur des surfaces d’eau; Star Citizen (VK) crash au lancement; PugetBench for Davinci Resolve Studio crash intermittent (conseil: régler le timeout à 1500 s ou plus).
  • Arc A-Series: PugetBench for Davinci Resolve Studio crash intermittent (même recommandation de timeout).
  • Core Ultra Series 1 avec Arc intégré: Battlefield 6 (DX12) corruptions intermittentes sur certaines cartes.
  • Core Ultra Series 2 avec Arc intégré: Call of Duty Black Ops 6 (DX12) corruptions d’eau; Battlefield 6 (DX12) corruptions sur certaines cartes sur quelques notebooks; No Man’s Sky (VK) corruptions de terrains; Topaz Video AI artefacts visuels avec certains modèles.
  • Intel Graphics Software (app): la page Display peut afficher une plage VRR incorrecte (corrigé); sous Windows 10, un crash intermittent peut survenir lors d’un reset global des paramètres; crash unique possible lors du premier réagencement des métriques; Combined Display peut parfois dysfonctionner.
  • Intel Graphics Software Performance Tuning (BETA): statut BETA avec comportements inattendus possibles; en multi-GPU, les changements peuvent s’appliquer à plusieurs GPU à la fois plutôt qu’au GPU sélectionné.

Téléchargement et disponibilité

Le package WHQL 32.0.101.8362 est disponible au téléchargement sur la page officielle ARC. La page driver dédiée est en cours de mise à jour chez l’éditeur.

Pour les joueurs et fabricants de handhelds, l’apport du multi-frame 3:1 place les iGPU Arc B390/B370 sur un terrain plus compétitif en perception de fluidité, à condition que les titres DX12/VK visés se comportent sans crash. La feuille de route logicielle d’Intel sera déterminante pour lever les dernières frictions sur les AAA cités.

Source : TechPowerUp

  •  

ASUS GPU Tweak III active Level Sense sur les ROG Astral et affine la stabilité

Une alerte anti-sag directement dans l’utilitaire d’overclocking, et plus seulement pour l’élite Matrix. ASUS étend sa détection d’inclinaison aux ROG Astral, avec à la clé des notifications si la carte penche au-delà d’un seuil réglable.

Level Sense arrive sur les ROG Astral

ASUS met à jour GPU Tweak III en version v2.0.8.5 pour activer Level Sense sur les ROG Astral et ROG Astral BTF Edition. Le constructeur annonce également des améliorations de stabilité et d’ergonomie.

Capture d'écran interface logiciel GPU Tweak III avec paramètres de réglage Level Sense

Level Sense est un contrôle anti-sag basé sur des capteurs embarqués qui détectent si la carte graphique n’est plus à niveau. Une alerte s’affiche dès que l’inclinaison mesurée dépasse un seuil défini par l’utilisateur.

Jusqu’ici réservé aux modèles ROG MATRIX, le dispositif s’ouvre désormais aux Astral. ASUS avait déjà documenté la prise en charge pour les ROG Matrix GeForce RTX 5090 30th Anniversary avant ce déploiement.

Capture d'écran mise à jour logiciel Level Sense avec texte sur versions stables et bêta

Seuil, calibration et notifications

Dans GPU Tweak III, l’onglet Level Sense permet de fixer immédiatement un seuil ou de lancer une calibration après l’installation. ASUS indique un seuil par défaut de 0,30 degré; le réduire augmente la sensibilité des alertes.

Si l’inclinaison dépasse la limite, l’application peut afficher un avertissement et pousser des notifications en arrière-plan. En cas d’angle d’installation inhabituel, ASUS recommande de réinstaller la carte.

Le déploiement sur Astral s’inscrit dans une logique de durabilité matérielle: un contrôle natif du sag limite les contraintes mécaniques sur le PCB et les connecteurs, ce qui évite d’imposer des supports tiers et sécurise l’usage dans des boîtiers vitrine.

Source : VideoCardz

  •  

Kingston IronKey KP200 décroche la FIPS 140-3 Niveau 3, la clé USB chiffrée passe un cap

Nouvelle marche franchie pour la sécurité nomade, avec un impact direct pour les infrastructures OT et les secteurs régulés. Kingston muscle sa gamme IronKey avec une validation qui change la donne.

Kingston IronKey KP200 certifiée FIPS 140-3 Niveau 3

Kingston Digital annonce que les clés USB chiffrées IronKey Keypad 200 (KP200 et KP200C) décrochent la validation NIST FIPS 140-3 Niveau 3. Elles rejoignent ainsi l’IronKey D500S déjà conforme à ce standard, signe d’un alignement de gamme sur une référence mondiale utilisée par les administrations et la défense.

Les KP200 sont des clés à clavier intégrées, indépendantes de l’OS, utilisables sur Windows, macOS, Linux, ChromeOS, iOS et Android via USB-A ou USB-C. Kingston revendique une cible claire : le stockage chiffré pour charges logicielles déployées et récupérées sur des équipements médicaux, scientifiques, industriels et autres machines à interface USB.

Le NIST pousse d’ailleurs à renforcer la sécurité des supports USB dans l’OT via sa nouvelle publication SP 1334. Dans ce contexte, l’obtention FIPS 140-3 Niveau 3 intervient comme un sésame pour la conformité et la réduction du risque opérationnel.

Fonctions avancées et robustesse matérielle

La série KP200 prend en charge des PIN Admin et Utilisateur, offrant un accès alternatif en cas d’oubli. L’Admin peut imposer un mode Lecture seule global jusqu’au reset, ou un mode Lecture seule de session pour verrouiller l’écriture sur systèmes non fiables et limiter l’exposition aux malwares.

La conception est donnée IP68 (poussière et eau), avec un châssis pensé pour la manipulation en mobilité. Les capacités montent jusqu’à 512 Go, en USB Type-A ou Type-C selon les modèles (KP200 et KP200C). Des options de personnalisation Co-Logo sont proposées, le tout assorti d’une garantie limitée de 3 ans avec support technique.

Disponibilité et conformité

Avec la certification FIPS 140-3 Niveau 3, Kingston devient le premier fournisseur de clés USB matériellement chiffrées à compter trois modèles validés (D500S, KP200, KP200C). L’éditeur met en avant l’adéquation avec des cadres tels que HIPAA, GDPR, NIS2, CCPA et des standards militaires, dans un contexte de pertes et vols de données en hausse.

Ce jalon technique simplifie la vie des DSI confrontées aux audits de conformité et à la protection des données au repos, notamment pour les environnements déconnectés ou segmentés où l’USB reste incontournable.

Source : TechPowerUp

  •  

Radeon low-latency decode sur Linux : AMD active un mode VCN plus rapide dans Mesa 26.1

Latence en berne, watts en hausse. AMD pousse un décodage vidéo plus nerveux sur Linux, au prix d’un profil énergétique plus agressif.

Radeon low-latency decode sous Linux

Intégrée à Mesa 26.1 via le pilote RadeonSI Gallium3D, la nouvelle voie « low-latency decode » s’appuie sur VCN pour accélérer le décodage et l’encodage matériel sur GPU Radeon. L’objectif est clair : un noyau de décodage plus performant qui réduit la latence vidéo, en sacrifiant une partie de l’efficacité énergétique.

Par défaut, la fonction reste désactivée en raison de sa consommation accrue. Elle s’active manuellement avec la variable d’environnement AMD_DEBUG=lowlatencydec. Le mode standard conserve une latence plus élevée, mais optimise la dépense énergétique.

VCN plus rapide, impact différent selon machines

Sur PC de bureau, ce mode peut être pertinent pour les usages sensibles à la latence (lecture vidéo réactive, pipelines multimedia, capture/stream). Sur portable, l’arbitrage est moins évident : l’autonomie pâtit d’un GPU plus sollicité, même si la réactivité de décodage progresse.

Activation et cas d’usage

L’activation via AMD_DEBUG=lowlatencydec est immédiate pour tester l’apport sur votre stack vidéo. Les profils qui priorisent la lecture fluide et la latence minimale y gagneront, tandis que les configurations mobiles privilégieront le mode par défaut pour préserver la batterie.

Ce choix explicite entre latence et rendement énergétique matérialise une tendance de fond côté drivers Linux : exposer des modes de performance ciblés plutôt que d’imposer un compromis unique, surtout sur des blocs multimédia matériels comme VCN.

Source : TechPowerUp

  •  

Sharkoon SKILLER SGB15 : combo clavier-souris RGB à 29,90 € pour jouer sans se ruiner

Un kit prêt à encaisser les parties nerveuses, sans vider le portefeuille. Sharkoon cible l’essentiel et promet une prise en main immédiate.

Sharkoon SKILLER SGB15 : l’essentiel gaming à petit prix

Le SKILLER SGB15 réunit un clavier à dômes en caoutchouc au format complet 3 blocs et une souris réglable jusqu’à 4 200 DPI sur six niveaux. Les deux périphériques adoptent un éclairage RGB avec effets, paramétrables sans logiciel.

Clavier et souris Sharkoon SKILLER SGB15 RGB vus de dessus avec éclairage complet.

La souris annonce un polling rate de 1 000 Hz pour les titres qui exigent précision et réactivité, qu’il s’agisse de MOBA ou de FPS. Le clavier mise sur une frappe silencieuse et la maîtrise des commandes grâce à sa disposition complète.

Caractéristiques et disponibilité

Réglages DPI en 6 paliers jusqu’à 4 200 DPI, taux d’interrogation 1 000 Hz, RGB à effets sans logiciel, clavier 3 blocs à dômes en caoutchouc. Le bundle est disponible au prix public conseillé de 29,90 €.

Vue de dessus de la souris Sharkoon, logo rétroéclairé visible.

Pour plus d’informations, Sharkoon renvoie vers la page produit officielle. Le positionnement tarifaire place ce kit en entrée de gamme, avec un accent sur la simplicité de configuration et la polyvalence.

Vue latérale de la souris Sharkoon avec illumination et boutons programmables.

Dans un segment dominé par des kits plus coûteux ou surchargés de logiciels, ce duo mise sur la réactivité (1 000 Hz) et des préréglages RGB directs. À ce niveau de prix, l’offre vise clairement le setup de départ ou une seconde configuration orientée LAN/jeu occasionnel.

Vue de dessous de la souris Sharkoon SKILLER SGB15 avec capteur optique.

Source : TechPowerUp

  •  

NVIDIA Vera CPU en solo : 88 cœurs Armv9.2, FP8 natif et NVLink pour défier Xeon/EPYC

NVIDIA étend son terrain de jeu au-delà du GPU: Jensen Huang confirme que le CPU haute performance Vera sera vendu en produit autonome, avec un objectif clair : entrer dans l’arène Xeon/EPYC.

NVIDIA Vera CPU entre en lice face aux Xeon et EPYC

Jensen Huang annonce la mise sur le marché des CPUs Vera séparément du reste de l’infrastructure NVIDIA. Il promet des premiers déploiements rapides, citant CoreWeave comme candidat pressé, tout en précisant qu’aucun design win n’est encore officialisé.

Image promotionnelle NVIDIA Vera CPU avec spécifications techniques visibles

Vera aligne 88 cœurs Armv9.2 « Olympus » personnalisés avec Spatial Multithreading pour 176 threads via partitionnement des ressources. Particularité notable, ces cœurs supportent nativement le FP8 et embarquent une implémentation SVE2 6×128-bit, de quoi déporter certaines charges IA sur le CPU.

Le contrôleur mémoire atteint 1,2 TB/s et gère jusqu’à 1,5 TB de LPDDR5X. Reste une incertitude : en version autonome, le support d’options externes type DDR5 RDIMM n’est pas clarifié, ce qui poserait la question d’un design centré sur de la LPDDR5X soudée au PCB.

Architecture, interconnexions et bande passante

Le fabric de cohérence scalable de seconde génération offre 3,4 TB/s de bisection bandwidth et relie l’ensemble des cœurs sur un die monolithique, contournant les latences habituelles des architectures chiplet. Côté accélérateurs, le NVLink Chip-to-Chip de seconde génération aligne jusqu’à 1,8 TB/s de bande passante cohérente vers les GPUs « Rubin ».

Sur le papier, ce couplage CPU Armv9.2/FP8 et NVLink C2C place Vera comme pivot potentiel pour des nœuds IA plus homogènes, mêlant calcul généraliste, mémoire à très haut débit et proximité GPU sans goulots d’étranglement PCIe classiques.

Positionnement marché et premières cibles

NVIDIA vise explicitement les workloads serveurs face à Intel Xeon et AMD EPYC. Le discours de Huang suggère un time-to-deploy agressif pour les clouds spécialisés IA; CoreWeave est cité, sans exclusivité ni calendrier. L’absence d’annonce de design wins laisse le champ ouvert aux intégrateurs prêts à miser sur la cohérence CPU/GPU maison.

Si Vera délivre en production ce qu’il promet sur le plan FP8 et bande passante mémoire, NVIDIA pourrait récupérer des portions de charges IA aujourd’hui cantonnées aux GPUs, tout en gardant l’avantage d’un lien NVLink cohérent vers Rubin. La question mémoire (LPDDR5X seule ou mix avec RDIMM) sera déterminante pour l’adoption en data centers généralistes.

Source : TechPowerUp

  •  

Ubisoft : plan de reset et RCC à Paris, jusqu’à 18 % de postes visés

Le reset interne s’accélère chez Ubisoft, et Paris est en première ligne. La maison-mère vise des économies d’au moins 200 M€ sur cinq ans, avec un dispositif social qui pourrait toucher jusqu’à 18 % du siège.

Ubisoft enclenche une RCC au siège parisien

Un email interne a dévoilé l’ouverture d’une Rupture Conventionnelle Collective chez Ubisoft International, entité basée à Paris. Le périmètre annoncé évoque jusqu’à 200 postes, soit près de 18 % des effectifs du siège.

La direction confirme avoir entamé des discussions autour d’un accord de départs volontaires avec l’organisation syndicale. Ubisoft précise que cette RCC ne concerne que les équipes d’Ubisoft International en France, sans impact sur les autres entités françaises ni sur les studios à l’international.

Ce mouvement s’inscrit dans un remaniement organisationnel plus large, déjà marqué par l’annulation de plusieurs projets. L’éditeur maintient toutefois certains chantiers stratégiques, dont Beyond Good and Evil 2.

Conséquences et périmètre

Ubisoft vise une réduction des coûts fixes d’au moins 200 M€ sur cinq ans. À ce stade, la RCC parisienne n’affecte pas les autres sites français ni les équipes mondiales, selon le porte-parole.

Le calendrier exact et la ventilation par métiers ne sont pas détaillés. Le dispositif, fondé sur le volontariat, encadre juridiquement les départs et pourrait être étalé en phases.

Projets annulés, priorités maintenues

Après une vague d’annulations touchant plusieurs licences, le groupe réalloue ses ressources à des titres jugés clés. Beyond Good and Evil 2 reste en production, quand d’autres projets ont été mis en pause ou décalés.

Pour le marché, la RCC acte un recentrage classique en fin de cycle d’investissements lourds. La question sera la capacité à livrer les piliers du pipeline tout en conservant les expertises critiques à Paris, siège stratégique des fonctions internationales.

Source : TechPowerUp

  •  

XeSS 3 avec Multi-Frame Generation arrive sur Arc, jusqu’à trois images insérées

Intel pousse l’accélérateur côté fluidité: XeSS 3 s’enrichit d’une Multi-Frame Generation capable d’insérer jusqu’à trois images entre deux frames rendues. Objectif affiché: gonfler le frame rate perçu sans toucher à la charge de rendu native du jeu.

XeSS 3 et Multi-Frame Generation

Il s’agit du premier déploiement public de l’item « Intel XeSS 3 Support: Introducing Multi-Frame Generation » souvent aperçu autour de Panther Lake. La fonctionnalité intègre le stack de lancement des Core Ultra Series 3 équipés des iGPU Arc B390 et B370.

Schéma technique Multi Frame Generation XeSS 3 avec cadres générés

La Multi-Frame Generation étend la Frame Generation de XeSS en insérant jusqu’à trois frames générées entre deux frames rendues. Le rendu natif du jeu ne change pas, mais le taux d’images affichées grimpe, avec les limites habituelles dépendant de l’implémentation in‑game.

Compatibilité, pilotes et jeux

Le même package cible un large éventail de plateformes Arc et Core Ultra: GPU Arc A‑series et B‑series en discret, ainsi que plusieurs générations de Core Ultra avec iGPU Arc. Le pilote Arc Graphics listé est la version 32.0.101.8425 / 32.0.101.8362 (WHQL), datée du 26/01/2026 sur la page driver d’Intel.

Capture d'écran logiciel Intel paramètres graphiques en mode sombre La première image a des contrastes plus forts et est plus

Côté software, Intel indique que XeSS 3 conserve un chemin compatible avec les titres XeSS 2. Des contrôles peuvent apparaître via les options d’override d’Intel Graphics Software selon le jeu, mais la disponibilité réelle reste conditionnée par ce que chaque titre expose et par les fonctionnalités XeSS intégrées.

Disponibilité pratique

Le déploiement passe par la mise à jour Windows du pilote Arc Graphics mentionné ci‑dessus. Les utilisateurs d’Arc A‑series/B‑series et des plateformes Core Ultra récentes devraient voir l’option apparaître selon les jeux pris en charge et les menus d’override.

Si la promesse se confirme en jeu, la Multi‑Frame Generation d’Intel vient combler un angle concurrentiel face aux approches rivales, en misant sur une montée du frame rate perçu à coût de rendu constant. L’arbitrage se jouera sur la latence introduite, la stabilité des insertions multi‑frames et l’ampleur du support titres au fil des mises à jour.

Source : VideoCardz

  •  

OpenAI teste des annonces dans ChatGPT : inventaire premium, mesure limitée

Selon The Information, OpenAI prépare l’introduction d’annonces au sein de ChatGPT dans les prochaines semaines, avec un CPM d’environ 60 dollars, soit près de trois fois le niveau observé chez Meta pour des formats comparables. Le tarif, particulièrement agressif pour un premier déploiement, cible un inventaire premium centré sur l’assistant conversationnel le plus utilisé du marché.

La diffusion sera limitée aux utilisateurs gratuits et au palier d’abonnement « Go », avec un blocage total pour les moins de 18 ans. Le contexte des échanges fera office de garde-fou : aucun affichage sur des sujets sensibles, notamment santé mentale et politique, afin de réduire les risques d’association de marque et les dérives perçues.

Côté mesure, la granularité restera sobre. Les annonceurs n’accéderont qu’à des indicateurs macro comme les impressions et les clics. Pas de suivi de conversion ni d’attribution fine, OpenAI maintenant sa ligne : pas de vente de données, pas d’exploitation du contenu des conversations à des fins publicitaires. Le positionnement tranche avec Google et Meta, qui capitalisent sur des signaux de performance plus profonds.

Un inventaire premium, une mesure volontairement bridée

Le choix d’un CPM élevé s’explique par la rareté et la qualité perçue du contexte conversationnel, où l’attention est focalisée et la sémantique exploitable en temps réel. Mais l’absence d’attribution robuste limite d’emblée l’appétence des acteurs orientés ROI direct. À ce stade, le format vise d’abord les grandes marques en quête de visibilité et d’innovation de message, plus que les PME à la recherche de CPA bas.

Sur le plan opérationnel, la contrainte de confidentialité bride l’optimisation et les boucles d’apprentissage des campagnes. Sans signaux post-clic détaillés, l’algorithme publicitaire ne peut s’aligner sur les logiques éprouvées du retail media ou du social ads. Ce compromis protège l’expérience utilisateur, mais retarde l’émergence d’un écosystème de performance comparable aux géants établis.

Si la mécanique trouve son public, OpenAI imposera un nouveau standard : celui d’un inventaire IA « brand-safe » à forte valeur perçue, mais mesuré en light. À l’inverse, si la demande fléchit, le CPM devra se réajuster, ou le modèle évoluera vers davantage de signaux d’efficacité. Dans les deux cas, la monétisation de l’IA générative entre dans une phase où l’arbitrage entre confidentialité et performance devient le point de bascule pour le marché publicitaire.

Source : ITHome

  •  

DeepSeek-OCR 2 réordonne la mise en page: +3,7 pts et MoE sous plafond de tokens

DeepSeek a dévoilé aujourd’hui DeepSeek-OCR 2, une itération qui revoit en profondeur l’encodage visuel pour la lecture de documents complexes. Le cœur de l’évolution tient à « DeepEncoder V2 », un nouveau bloc qui réordonne dynamiquement les informations visuelles selon la sémantique avant la reconnaissance, en s’éloignant du simple parcours en grille de gauche à droite et de haut en bas.

Tableau des performances des modèles sur OmniDocBench v1.5, incluant DeepSeek-OCR 2.

Nouvelle chaîne de traitement : encodage sémantique, réordonnancement, décodage MoE

Le modèle introduit un « flux causal visuel » avec des tokens de requête apprenants au sein de DeepEncoder V2. Concrètement, l’encodeur combine attention bidirectionnelle pour la perception globale et attention causale pour établir une séquence sémantique, puis ne transmet au décodeur que les tokens réordonnés. Le module remplace la brique CLIP d’origine par une structure de type langage, tout en conservant l’architecture encodeur–décodeur de la génération précédente.

Distances d'édition pour les catégories d'éléments dans OmniDocBench v1.5, incluant DeepSeek-OCR 2.

DeepSeek maintient la contrainte de ressources en limitant les tokens visuels par page entre 256 et 1120, comparable aux systèmes antérieurs. Le décodage s’appuie sur un modèle de langage à architecture Mixture of Experts, qui reçoit uniquement les représentations compactées et déjà ordonnées.

Benchmarks et stabilité en production

Sur OmniDocBench v1.5, qui couvre des documents en chinois et en anglais (articles académiques, magazines, rapports), DeepSeek-OCR 2 atteint 91,09 %, soit +3,73 % par rapport à DeepSeek-OCR, avec un plafond de tokens plus bas. La précision du « reading order » progresse sensiblement : l’édition distance moyenne passe de 0,085 à 0,057, signe d’une meilleure compréhension de la structure logique.

En production, les journaux d’utilisation indiquent une réduction de la répétition d’images en ligne de 6,25 % à 4,17 %. Sur des lots PDF, la répétition baisse de 3,69 % à 2,88 %. Ces gains de stabilité accompagnent le maintien d’un taux de compression élevé, un point crucial pour le coût d’inférence.

Comparaison détaillée entre DeepSeek-OCR et DeepSeek-OCR 2 sur différents types de documents.

En s’alignant davantage sur les heuristiques humaines de lecture et en déplaçant l’effort vers un encodage sémantique ordonné, DeepSeek fixe un jalon pertinent pour l’OCR des documents à mise en page dense. Le choix d’un MoE côté langage et d’un plafond strict de tokens suggère une optimisation assumée du débit et du TCO, avec un potentiel direct pour les pipelines d’extraction en entreprise et l’archivage massif où la stabilité et le respect de l’ordre de lecture priment autant que le score brut.

Source : ITHome

  •  

Snap visé pour l’entraînement IA sur HD-VILA-100M : risque d’injonction lourde

Plusieurs créateurs YouTube, dont h3h3, MrShortGame Golf et Golfholics, ont déposé une plainte contre Snap. Ils accusent l’entreprise d’avoir utilisé leurs vidéos pour entraîner un modèle d’IA intégré à Imagine Lens, en s’appuyant sur le jeu de données HD-VILA-100M, réservé à un usage académique et explicitement non commercial.

Les plaignants soutiennent que Snap a outrepassé la licence du dataset, puis déployé le modèle dérivé dans un produit grand public. La procédure vise des dommages légaux et une injonction permanente interdisant tout usage ultérieur litigieux. Snap n’a pas détaillé publiquement son pipeline d’entraînement ni l’étendue de l’exploitation des contenus concernés.

Un contentieux qui s’ajoute à un front judiciaire déjà encombré

Selon la Copyright Alliance, plus de 70 actions similaires visant des sociétés d’IA sont en cours aux États-Unis. La plupart s’enlisent dans des débats sur les licences de datasets, l’exception de fair use et la qualification d’usages commerciaux, sans décision de fond à ce stade.

Le cœur du dossier HD-VILA-100M est classique: un corpus proposé pour la recherche publique, assorti d’une clause interdisant la commercialisation. Si la preuve du chaînage entre ce corpus et un modèle en production est apportée, le risque pour Snap dépasse l’amende: l’injonction pourrait forcer des retrainings, une purge de données et un gel fonctionnel d’Imagine Lens.

Enjeu technique et industriel

Pour les plateformes, la documentation du sourcing de données d’entraînement devient une question de résilience produit. Un modèle lié à un dataset non commercialisable peut contaminer une chaîne complète: checkpoints, pondérations dérivées, voire les fine-tunes. À l’échelle, chaque retrait implique réentraînement, recalibrage qualité et coûts de calcul, avec un impact direct sur le time-to-market des fonctionnalités génératives.

Source : ITHome

  •  

Edenlux Eyeary : des lunettes d’entraînement visuel avec 144 points de focus

La jeune pousse coréenne Edenlux prépare le lancement d’Eyeary, une seconde génération d’appareil de « rééducation visuelle » pensée pour les gros utilisateurs de smartphones. L’entreprise annonce une campagne Indiegogo fin mars aux États‑Unis. Eyeary adopte un format de lunettes, à mi‑chemin entre l’accessoire du quotidien et l’outil de training, avec pour promesse d’atténuer la fatigue oculaire et les troubles de l’accommodation liés aux écrans.

Homme stressé regardant un smartphone sur une table.

Un design de lunettes, 144 points de focalisation, app compagnon

Contrairement au premier modèle Otus, plus proche d’un petit casque, Eyeary allège l’ergonomie et travaille la discrétion. Le système optique passe de 5 à 144 foyers de mise au point, permettant des paliers plus fins pour solliciter les muscles ciliaires et affiner les exercices d’accommodation. Le suivi se fait via Bluetooth et une application mobile, qui remonte les sessions vers les serveurs d’Edenlux.

Graphique démontrant les améliorations visuelles avec l'utilisation continue d'OTUS.

La société revendique un cadrage « santé du quotidien » plutôt que médical pur et dur, avec une certification FDA au registre des dispositifs destinés à l’entraînement visuel. Les données utilisateur (âge, sexe, profil visuel) alimentent des modèles d’analyse pour prédire les temps d’amélioration et proposer des plans personnalisés. D’après Edenlux, des utilisateurs d’Otus voient leur dépendance aux lunettes de presbytie diminuer après environ 12 mois, et Eyeary viserait un cycle ramené à 6 mois.

Positionnement: abonnement, portefeuille produits et ancrage industriel

Edenlux étend sa gamme avec Tearmore (sécheresse oculaire), Lux‑S (strabisme), Lumia (prévention de la myopie) et Heary (réhabilitation auditive), d’abord pour l’Asie. Le modèle économique assume l’abonnement: le matériel capte les métriques, le logiciel livre les insights, dans une logique proche d’Oura Ring mais focalisée vision et audition. La R&D et la production sont basées en Corée, avec une filiale à Dallas pour l’assemblage final.

La société a levé 39 millions de dollars en série A en 2020, puis 60 millions en série B en 2022. Le PDG Park Sungyong, ancien médecin militaire, revendique une approche née d’une expérience personnelle de paralysie transitoire des muscles d’accommodation, corrigée via des exercices avec équipements spécialisés. Edenlux cible les utilisateurs intensifs de smartphones et de casques audio, et dit discuter à terme d’intégrations logicielles avec des acteurs comme Apple et Samsung.

Si Eyeary confirme ses gains par rapport à Otus, Edenlux pourrait s’installer sur un créneau encore peu occupé: des lunettes actives pour l’accommodation, calibrées par data et livrées en abonnement. Le défi sera double: prouver l’efficacité à échelle populationnelle et convaincre des partenaires mobiles d’ouvrir l’accès capteur‑logiciel, condition pour un suivi granulaire vraiment utile hors laboratoire.

Source : ITHome

  •  

GTA 6 digital-only au lancement: sortie dématérialisée sur consoles et PC dès 2026

Rockstar serre la vis pour GTA VI, et la boutique passe après. Conséquence directe: le lancement serait 100% dématérialisé sur consoles et PC.

GTA 6 digital-only au lancement

D’après des revendeurs cités par le média polonais PPE, Grand Theft Auto VI démarrerait en digital-only, y compris sur consoles, avant une édition physique retardée de quelques semaines. Objectif affiché: réduire les risques de fuites en amont, en privant la distribution d’un stock anticipé.

Rockstar et Take-Two multiplient déjà les mesures anti-fuite, avec des licenciements visant des employés supposément liés à la divulgation d’infos confidentielles. Ce calibrage du calendrier d’expédition évite que des images de packaging ou des extraits de gameplay circulent via des employés ou gérants avant l’heure.

La date visée reste le 19 novembre 2026, après plusieurs reports. Les revendeurs n’avancent pas de fenêtre précise pour l’arrivée en boîte, mais un lancement physique avant Noël paraît plausible si le décalage se limite à quelques semaines.

Un calendrier pensé contre les leaks

Le différé du physique coupe l’accès anticipé des magasins, premier maillon des fuites logistiques. Sur PC, le dématérialisé est devenu la norme; l’extension de cette logique aux consoles marque une inflexion notable, dictée par le contrôle de l’information plutôt que par la demande.

Le compromis paraît mesuré: lancement numérique partout, puis édition physique à court terme. Les joueurs attachés à la boîte devraient patienter, mais sans horizon déraisonnable au vu de la fenêtre des fêtes 2026.

Source : TechPowerUp

  •  

TongGeometry : l’IA qui génère et résout des problèmes de géométrie olympique

Un groupe de chercheurs chinois dévoile « TongGeometry », un système d’IA présenté comme le premier à combiner génération autonome d’énoncés de géométrie et résolution automatique. Publié le 26 janvier dans Nature Machine Intelligence, le modèle passe d’une logique d’imitation à une capacité de création, avec des problèmes jugés conformes aux critères esthétiques des mathématiciens selon l’équipe menée par Zhang Chi (Beijing Institute for General Artificial Intelligence).

Fait marquant, trois problèmes générés par l’IA ont été retenus pour des compétitions humaines de haut niveau : la ligue nationale chinoise des lycéens (région de Pékin) et l’Ersatz Math Olympiad aux États‑Unis. C’est la première fois que des énoncés originaux issus d’un système d’IA intègrent de tels concours.

Création d’énoncés et résolution sur une seule carte graphique

Par rapport à AlphaGeometry, qui s’appuyait sur un cluster de calcul conséquent, TongGeometry revendique des performances de pointe sur une simple carte graphique grand public. L’équipe indique qu’une RTX 4090 suffit pour résoudre, en 38 minutes au maximum, l’ensemble des problèmes de géométrie olympique de ces 25 dernières années, avec une efficacité de raisonnement et une précision au niveau des meilleurs systèmes.

Le cœur technique repose sur une « représentation normalisée » qui compresse drastiquement l’espace de recherche et limite les explosions combinatoires. Cette réduction de complexité semble être le levier principal qui permet de passer d’une approche coûteuse en calcul à un pipeline exploitable sur une machine de travail équipée d’une seule carte graphique.

Validation par la communauté compétitive

Au‑delà des benchmarks rétrospectifs, la sélection d’énoncés pour des concours réels donne un signal de robustesse plus crédible que les démonstrations en vase clos. La conformité aux standards esthétiques et pédagogiques des jurys, distincte du simple taux de résolution, était l’un des verrous pour faire admettre des problèmes « nés de l’IA » dans des circuits reconnus.

Si l’on ajoute le coût matériel désormais modeste côté inférence, l’intérêt pratique grimpe pour les laboratoires, les organisateurs de compétitions et, potentiellement, les éditeurs d’outils de préparation aux olympiades. La prochaine étape consistera à observer la reproductibilité des résultats et l’ouverture du code ou des datasets, points souvent déterminants pour une adoption durable.

Source : ITHome

  •  

Highguard en difficulté : pic à 95 000 joueurs mais évaluations « Mostly Negative » sur Steam

Départ canon, réception glaciale. La joie a été de courte durée : le premier raid shooter PvP de Wildlight Entertainment a culminé à plus de 95 000 joueurs, avant de se heurter presque aussitôt à une note « Mostly Negative » sur Steam.

Highguard, entre afflux massif et rejet express

Lancé par surprise sur Steam, Xbox et PlayStation, Highguard capitalisait sur le pedigree de ses vétérans. Moins de deux heures après la mise en ligne, SteamDB recensait déjà plus de 95 000 joueurs simultanés.

Scène de tir à la première personne dans un jeu vidéo futuriste

La dynamique s’est toutefois brisée côté avis: sur 10 716 évaluations, 78,2 % sont négatives, soit 8 383 critiques défavorables pour seulement 2 333 positives. La page Steam affiche « Mostly Negative » et le studio n’a, à ce stade, fait aucun commentaire sur les performances ou le ressenti des joueurs.

Le contraste rappelle le cas Splitgate: Arena Reloaded, désormais au ralenti malgré un lancement récent et un héritage apprécié. Le parallèle nourrit l’inquiétude autour de la rétention et du positionnement de Highguard.

Critiques récurrentes et dissonance de design

Les retours pointent un manque de cap clair, un design de cartes et d’interactions jugé faible, une boucle de gameplay discordante et des performances en deçà. Plusieurs joueurs décrivent un 3v3 sur une grande carte, alourdi par du minage et du loot jugés laborieux, loin de la promesse d’un gunplay nerveux.

Graphique des avis utilisateurs Highguard sur Steam, majorité négative

Sur r/PS5, des témoignages évoquent une image « floue » et la lassitude face à l’avalanche de MOBAs et de shooters. La critique principale reste la tentation du grand écart: vouloir plaire à tous au détriment d’une expérience focalisée.

Wildlight face au dilemme de l’itération rapide

Si le free-to-play favorise l’ajustement post-lancement, l’écart entre promesse et exécution complique la rétention. Sans feuille de route visible ni message fort à court terme, le pic initial risque de ne pas se transformer en base active durable.

Source : TechPowerUp

  •  

RDNA 3.5 iGPU chez AMD jusqu’en 2029, RDNA 5 réservé aux modèles premium

Un iGPU qui refuse de vieillir, et une montée en gamme réservée aux élites. La feuille de route officieuse d’AMD dessine un paysage où la majorité des laptops resterait figée sur la même génération graphique.

RDNA 3.5 maintenu jusqu’en 2029

Une diapositive partagée sur Weibo par Golden Pig Upgrade, réputé pour ses fuites fiables, indique qu’AMD conserverait l’iGPU RDNA 3.5 jusqu’en 2029. Ce n’est pas une roadmap officielle, mais le signal est fort: l’iGPU des Ryzen AI 300 et 400 resterait la norme pour des années.

amd rdna 3 5 processeur graphique

Concrètement, la grande majorité des portables bureautiques et machines milieu de gamme verrait peu ou pas d’évolution graphique, malgré le rythme annuel des raffinements chez la concurrence. Le progrès se déplacerait côté CPU, avec Zen 6 présenté comme l’attraction majeure des laptops mainstream.

RDNA 5 pour le haut de gamme « Halo »

Les véritables nouveautés architecturales basculeraient sur des SKU premium. Les variantes « Medusa Halo » dotées de tuiles GPU séparées adopteraient RDNA 5, tandis que les puces « Medusa Point » standard resteraient en RDNA 3.5. L’unique levier possible pour doper l’iGPU courant serait d’augmenter le nombre de CU via un die plus grand ou un process plus dense, hypothèse jugée peu probable si RDNA 5 est gardé pour le segment Halo.

Un cap déjà perceptible avec RDNA 4

Le lancement des dGPU RDNA 4 a donné le ton : présence limitée au desktop, pas de variantes mobiles ni d’intégration APU, et une stratégie cantonnée au milieu de gamme sans concurrent haut de gamme. Prolonger RDNA 3.5 sur près d’un demi‑décennie accroîtrait l’écart technologique si les rivaux itèrent plus vite.

Si ce scénario se confirme, AMD prendrait un pari industriel clair : réserver l’innovation graphique aux produits phares à forte marge, tout en capitalisant sur l’endurance de RDNA 3.5 pour le volume. À court terme, les utilisateurs de laptops mainstream devraient attendre Zen 6 pour un saut notable, tandis que le jeu en iGPU restera stable, sauf rare hausse de CU.

Source : TechPowerUp

  •  

ChatGPT Health et Claude face aux données Apple Watch : l’IA confond VO2 max et biomarqueur

Le chroniqueur tech du Washington Post, Geoffrey A. Fowler, a mis à l’épreuve ChatGPT Health avec dix ans de données issues de son Apple Watch, soit 29 millions de pas et 6 millions de mesures de fréquence cardiaque. Le système l’a catégorisé « F » en santé cardiaque, déclenchant une alerte qui s’est révélée infondée après avis médical.

Un modèle qui confond estimation et biomarqueur

Le cœur du faux diagnostic tient à l’interprétation de la VO2 max. ChatGPT Health l’a traitée comme une valeur clinique absolue alors qu’Apple la présente explicitement comme une estimation utile au suivi de tendance, pas au triage médical. Sur cette base bancale, l’outil a émis un jugement négatif qui ne résiste pas à un examen clinique standard.

ChatGPT Health face aux données Apple Watch : l’IA confond VO2 max et biomarqueur

L’IA a aussi pris pour un signal physiologique une rupture de série provoquée par un changement de génération d’Apple Watch. Le passage à un nouveau capteur a modifié la ligne de base de la fréquence cardiaque au repos, mais l’algorithme l’a assimilé à une dégradation de l’état de santé, ignorant l’effet matériel d’un hardware révisé.

ChatGPT Health face aux données Apple Watch : l’IA confond VO2 max et biomarqueur

Variabilité des réponses et trous de contexte

Au-delà de la lecture erronée des données, la sortie de ChatGPT Health s’est montrée instable. À question identique, Fowler a reçu des évaluations oscillant de « F » à « B ». Le système a en outre « oublié » à plusieurs reprises des informations de base comme l’âge ou le sexe, et a ignoré des résultats sanguins récents pourtant fournis dans le fil de discussion.

ChatGPT Health face aux données Apple Watch : l’IA confond VO2 max et biomarqueur

Pris ensemble, ces comportements traduisent un modèle qui ne gère ni la qualité hétérogène des capteurs grand public ni la persistance contextuelle indispensable à l’analyse santé. Ils posent la question de l’aptitude d’un assistant généraliste à exploiter des métriques portées par des montres connectées, où chaque révision de capteur et chaque changement de portabilité peut altérer la série.

ChatGPT Health face aux données Apple Watch : l’IA confond VO2 max et biomarqueur

Au-delà du cas individuel, l’épisode illustre un écueil structurel: sans calibrage par appareil, sans gestion des ruptures liées au passage à un nouveau capteur et sans hiérarchie explicite entre estimation grand public et biomarqueur clinique, un moteur conversationnel générera des alertes contradictoires et anxiogènes. Tant que ces briques ne sont pas standardisées — détection de drift matériel, métadonnées de capteur, protocole d’incertitude — la valeur ajoutée restera limitée au conseil hygiène plutôt qu’au triage.

Source : ITHome

  •  

Mixtral vs DeepSeek-V3 : même architecture MoE ou rupture réelle ?

« DeepSeek-V3 est construit sur notre architecture. » La phrase d’Arthur Mensch, CEO et cofondateur de Mistral, a déclenché un tir de barrage. Dans un entretien récent sur la dynamique de l’open source en Chine, le dirigeant a décrit Mixtral comme le premier « sparse Mixture-of-Experts » maison publié début 2024 et affirmé que DeepSeek-V3 et ses itérations s’appuyaient sur la même architecture, rendue reproductible par Mistral.

La chronologie et la technique compliquent toutefois ce récit. Les deux papiers fondateurs sont apparus à trois jours d’intervalle sur arXiv (Mixtral: 2401.04088 ; DeepSeek: 2401.06066), tous deux axés sur les SMoE avec activation clairsemée pour réduire le coût de calcul et améliorer les performances.

Mixtral vs DeepSeek-V3 : même architecture MoE ou rupture réelle ?

Mais les objectifs divergent : Mixtral procède d’une approche d’ingénierie visant à montrer qu’un socle solide + un MoE éprouvé peut dépasser des denses plus grands, quand DeepSeek revendique une refonte de l’architecture pour traiter deux angles morts du MoE classique, la surcharge de compétence des experts et les redondances d’apprentissage.

Deux voies pour le SMoE

Les deux utilisent un routage Top-K façon GShard. Mixtral conserve une granularité standard : chaque expert est un bloc FFN complet, tous considérés à parité, sélectionnés dynamiquement par le routeur. La distribution des connaissances y reste relativement plate, mêlant généraliste et spécifique au sein des mêmes experts.

Mixtral vs DeepSeek-V3 : même architecture MoE ou rupture réelle ?

DeepSeek introduit une segmentation fine des experts, découpant de « gros » experts en unités plus petites à paramètres constants, pour des combinaisons plus flexibles et un apprentissage plus ciblé. S’y ajoutent des « experts partagés », toujours activés et exclus du routage, qui encapsulent les compétences générales, pendant que les experts soumis au Top-K se spécialisent. Résultat : un découplage explicite des connaissances générales et spécifiques, absent du design Mixtral.

Autre point qui alimente la controverse : la publication « Mixtral of Experts » ne détaille ni données, ni hyperparamètres, ni tokens d’entraînement, ni ablations. À l’inverse, la communauté a relevé fin 2025 que Mistral 3 Large reprenait le schéma architectural popularisé par DeepSeek-V3, renversant de fait l’argument d’antériorité suggéré par Arthur Mensch.

Open source, influence et récit d’antériorité

Sur le fond, l’affirmation d’un « même type d’architecture » tient pour le cadre SMoE/Top-K. Sur les choix structurants, elle s’effrite. L’impact industriel penche aujourd’hui du côté de DeepSeek, dont les contributions sur le MoE clairsemé et la MLA ont marqué l’écosystème, quand Mistral a surtout installé Mixtral comme référence opérationnelle et catalyseur de l’adoption. Au-delà du bruit, le différentiel d’influence technique s’est déplacé, et la bataille d’image autour de l’antériorité reflète la tension entre itération d’ingénierie et réagencement algorithmique.

Mixtral vs DeepSeek-V3 : même architecture MoE ou rupture réelle ?

Dans un marché où la performance/coût sur GPU devient l’axe cardinal, la granularité des experts, le rôle d’experts partagés et la discipline de routage ne sont pas des détails : ils conditionnent l’efficacité d’entraînement, la stabilité et l’utilisation mémoire. La prochaine salve se jouera moins dans les déclarations que dans les courbes de perplexité, la qualité des ablations et les gains visibles en production, alors que DeepSeek prépare déjà une nouvelle fenêtre de tir.

Source : ITHome

  •  

Sotchi limoge Roberto Moreno : l’IA ChatGPT au cœur du fiasco sportif

Selon The Sun, Roberto Moreno, ex-sélectionneur intérimaire de l’Espagne, a été remercié par le FK Sotchi après une série noire et une gestion jugée déconnectée, marquée par un recours obsessionnel à ChatGPT pour des décisions sportives et logistiques. Arrivé l’été dernier, l’Espagnol de 48 ans a quitté le club en septembre après sept matches et un seul point, avec en prime une relégation du club de l’élite russe vers la deuxième division.

Des plannings dictés par l’IA, incompréhensibles pour le vestiaire

Andrey Orlov, ex-directeur sportif de Sotchi, décrit un staff sidéré. Pour un déplacement à Khabarovsk, Moreno aurait calé l’intégralité du voyage sur un plan généré par ChatGPT, imposant un réveil à 5 h, un entraînement à 7 h deux jours avant le match et jusqu’à 28 heures sans sommeil pour l’effectif. « J’ai tout paramétré dans ChatGPT », lui aurait-il expliqué, malgré les protestations et l’incompréhension des joueurs.

Le technicien aurait également marginalisé les séances sur coups de pied arrêtés et persisté dans une approche très axée sur la possession, sans efficacité dans la zone de vérité. En fin de cycle, Orlov évoque un vestiaire fracturé, des cadres russes exaspérés, des étrangers dubitatifs et un manque d’empathie ressenti envers adjoints et joueurs.

Recrutement: ChatGPT en arbitre final

Sur le marché des attaquants, l’été dernier, le club aurait soumis à ChatGPT des données Wyscout de plusieurs profils, dont Georgi Meleshin, Ivan Sergeïevitch Pisarsski et Ilya Shchuranachev. L’outil aurait recommandé Shchuranachev, finalement recruté, mais resté muet en dix rencontres. « En outil d’appoint, pourquoi pas. En boussole principale, non », tranche Orlov, pointant une dépendance qui a parasité les choix sportifs.

Moreno avait assuré l’intérim de la Roja sur trois matches avant de succéder officiellement à Luis Enrique en juin 2019, lorsque ce dernier s’était retiré pour raisons familiales. À Sotchi, sa méthode s’est heurtée au terrain, au rythme des voyages en Russie et à une réalité statistique impitoyable.

L’épisode illustre les limites d’une externalisation de la décision sportive vers des modèles conversationnels, surtout lorsqu’ils pilotent la charge de travail, la gestion du sommeil et l’évaluation des profils à partir de jeux de données partiels. Dans un environnement de haute performance, l’IA a sa place comme couche d’aide — pas comme substitut au jugement tactique, à la préparation physique et à la lecture humaine du groupe.

Source : ITHome

  •  
❌