↩ Accueil

Vue lecture

Ubisoft : plan de reset et RCC à Paris, jusqu’à 18 % de postes visés

Le reset interne s’accélère chez Ubisoft, et Paris est en première ligne. La maison-mère vise des économies d’au moins 200 M€ sur cinq ans, avec un dispositif social qui pourrait toucher jusqu’à 18 % du siège.

Ubisoft enclenche une RCC au siège parisien

Un email interne a dévoilé l’ouverture d’une Rupture Conventionnelle Collective chez Ubisoft International, entité basée à Paris. Le périmètre annoncé évoque jusqu’à 200 postes, soit près de 18 % des effectifs du siège.

La direction confirme avoir entamé des discussions autour d’un accord de départs volontaires avec l’organisation syndicale. Ubisoft précise que cette RCC ne concerne que les équipes d’Ubisoft International en France, sans impact sur les autres entités françaises ni sur les studios à l’international.

Ce mouvement s’inscrit dans un remaniement organisationnel plus large, déjà marqué par l’annulation de plusieurs projets. L’éditeur maintient toutefois certains chantiers stratégiques, dont Beyond Good and Evil 2.

Conséquences et périmètre

Ubisoft vise une réduction des coûts fixes d’au moins 200 M€ sur cinq ans. À ce stade, la RCC parisienne n’affecte pas les autres sites français ni les équipes mondiales, selon le porte-parole.

Le calendrier exact et la ventilation par métiers ne sont pas détaillés. Le dispositif, fondé sur le volontariat, encadre juridiquement les départs et pourrait être étalé en phases.

Projets annulés, priorités maintenues

Après une vague d’annulations touchant plusieurs licences, le groupe réalloue ses ressources à des titres jugés clés. Beyond Good and Evil 2 reste en production, quand d’autres projets ont été mis en pause ou décalés.

Pour le marché, la RCC acte un recentrage classique en fin de cycle d’investissements lourds. La question sera la capacité à livrer les piliers du pipeline tout en conservant les expertises critiques à Paris, siège stratégique des fonctions internationales.

Source : TechPowerUp

  •  

XeSS 3 avec Multi-Frame Generation arrive sur Arc, jusqu’à trois images insérées

Intel pousse l’accélérateur côté fluidité: XeSS 3 s’enrichit d’une Multi-Frame Generation capable d’insérer jusqu’à trois images entre deux frames rendues. Objectif affiché: gonfler le frame rate perçu sans toucher à la charge de rendu native du jeu.

XeSS 3 et Multi-Frame Generation

Il s’agit du premier déploiement public de l’item « Intel XeSS 3 Support: Introducing Multi-Frame Generation » souvent aperçu autour de Panther Lake. La fonctionnalité intègre le stack de lancement des Core Ultra Series 3 équipés des iGPU Arc B390 et B370.

Schéma technique Multi Frame Generation XeSS 3 avec cadres générés

La Multi-Frame Generation étend la Frame Generation de XeSS en insérant jusqu’à trois frames générées entre deux frames rendues. Le rendu natif du jeu ne change pas, mais le taux d’images affichées grimpe, avec les limites habituelles dépendant de l’implémentation in‑game.

Compatibilité, pilotes et jeux

Le même package cible un large éventail de plateformes Arc et Core Ultra: GPU Arc A‑series et B‑series en discret, ainsi que plusieurs générations de Core Ultra avec iGPU Arc. Le pilote Arc Graphics listé est la version 32.0.101.8425 / 32.0.101.8362 (WHQL), datée du 26/01/2026 sur la page driver d’Intel.

Capture d'écran logiciel Intel paramètres graphiques en mode sombre La première image a des contrastes plus forts et est plus

Côté software, Intel indique que XeSS 3 conserve un chemin compatible avec les titres XeSS 2. Des contrôles peuvent apparaître via les options d’override d’Intel Graphics Software selon le jeu, mais la disponibilité réelle reste conditionnée par ce que chaque titre expose et par les fonctionnalités XeSS intégrées.

Disponibilité pratique

Le déploiement passe par la mise à jour Windows du pilote Arc Graphics mentionné ci‑dessus. Les utilisateurs d’Arc A‑series/B‑series et des plateformes Core Ultra récentes devraient voir l’option apparaître selon les jeux pris en charge et les menus d’override.

Si la promesse se confirme en jeu, la Multi‑Frame Generation d’Intel vient combler un angle concurrentiel face aux approches rivales, en misant sur une montée du frame rate perçu à coût de rendu constant. L’arbitrage se jouera sur la latence introduite, la stabilité des insertions multi‑frames et l’ampleur du support titres au fil des mises à jour.

Source : VideoCardz

  •  

OpenAI teste des annonces dans ChatGPT : inventaire premium, mesure limitée

Selon The Information, OpenAI prépare l’introduction d’annonces au sein de ChatGPT dans les prochaines semaines, avec un CPM d’environ 60 dollars, soit près de trois fois le niveau observé chez Meta pour des formats comparables. Le tarif, particulièrement agressif pour un premier déploiement, cible un inventaire premium centré sur l’assistant conversationnel le plus utilisé du marché.

La diffusion sera limitée aux utilisateurs gratuits et au palier d’abonnement « Go », avec un blocage total pour les moins de 18 ans. Le contexte des échanges fera office de garde-fou : aucun affichage sur des sujets sensibles, notamment santé mentale et politique, afin de réduire les risques d’association de marque et les dérives perçues.

Côté mesure, la granularité restera sobre. Les annonceurs n’accéderont qu’à des indicateurs macro comme les impressions et les clics. Pas de suivi de conversion ni d’attribution fine, OpenAI maintenant sa ligne : pas de vente de données, pas d’exploitation du contenu des conversations à des fins publicitaires. Le positionnement tranche avec Google et Meta, qui capitalisent sur des signaux de performance plus profonds.

Un inventaire premium, une mesure volontairement bridée

Le choix d’un CPM élevé s’explique par la rareté et la qualité perçue du contexte conversationnel, où l’attention est focalisée et la sémantique exploitable en temps réel. Mais l’absence d’attribution robuste limite d’emblée l’appétence des acteurs orientés ROI direct. À ce stade, le format vise d’abord les grandes marques en quête de visibilité et d’innovation de message, plus que les PME à la recherche de CPA bas.

Sur le plan opérationnel, la contrainte de confidentialité bride l’optimisation et les boucles d’apprentissage des campagnes. Sans signaux post-clic détaillés, l’algorithme publicitaire ne peut s’aligner sur les logiques éprouvées du retail media ou du social ads. Ce compromis protège l’expérience utilisateur, mais retarde l’émergence d’un écosystème de performance comparable aux géants établis.

Si la mécanique trouve son public, OpenAI imposera un nouveau standard : celui d’un inventaire IA « brand-safe » à forte valeur perçue, mais mesuré en light. À l’inverse, si la demande fléchit, le CPM devra se réajuster, ou le modèle évoluera vers davantage de signaux d’efficacité. Dans les deux cas, la monétisation de l’IA générative entre dans une phase où l’arbitrage entre confidentialité et performance devient le point de bascule pour le marché publicitaire.

Source : ITHome

  •  

DeepSeek-OCR 2 réordonne la mise en page: +3,7 pts et MoE sous plafond de tokens

DeepSeek a dévoilé aujourd’hui DeepSeek-OCR 2, une itération qui revoit en profondeur l’encodage visuel pour la lecture de documents complexes. Le cœur de l’évolution tient à « DeepEncoder V2 », un nouveau bloc qui réordonne dynamiquement les informations visuelles selon la sémantique avant la reconnaissance, en s’éloignant du simple parcours en grille de gauche à droite et de haut en bas.

Tableau des performances des modèles sur OmniDocBench v1.5, incluant DeepSeek-OCR 2.

Nouvelle chaîne de traitement : encodage sémantique, réordonnancement, décodage MoE

Le modèle introduit un « flux causal visuel » avec des tokens de requête apprenants au sein de DeepEncoder V2. Concrètement, l’encodeur combine attention bidirectionnelle pour la perception globale et attention causale pour établir une séquence sémantique, puis ne transmet au décodeur que les tokens réordonnés. Le module remplace la brique CLIP d’origine par une structure de type langage, tout en conservant l’architecture encodeur–décodeur de la génération précédente.

Distances d'édition pour les catégories d'éléments dans OmniDocBench v1.5, incluant DeepSeek-OCR 2.

DeepSeek maintient la contrainte de ressources en limitant les tokens visuels par page entre 256 et 1120, comparable aux systèmes antérieurs. Le décodage s’appuie sur un modèle de langage à architecture Mixture of Experts, qui reçoit uniquement les représentations compactées et déjà ordonnées.

Benchmarks et stabilité en production

Sur OmniDocBench v1.5, qui couvre des documents en chinois et en anglais (articles académiques, magazines, rapports), DeepSeek-OCR 2 atteint 91,09 %, soit +3,73 % par rapport à DeepSeek-OCR, avec un plafond de tokens plus bas. La précision du « reading order » progresse sensiblement : l’édition distance moyenne passe de 0,085 à 0,057, signe d’une meilleure compréhension de la structure logique.

En production, les journaux d’utilisation indiquent une réduction de la répétition d’images en ligne de 6,25 % à 4,17 %. Sur des lots PDF, la répétition baisse de 3,69 % à 2,88 %. Ces gains de stabilité accompagnent le maintien d’un taux de compression élevé, un point crucial pour le coût d’inférence.

Comparaison détaillée entre DeepSeek-OCR et DeepSeek-OCR 2 sur différents types de documents.

En s’alignant davantage sur les heuristiques humaines de lecture et en déplaçant l’effort vers un encodage sémantique ordonné, DeepSeek fixe un jalon pertinent pour l’OCR des documents à mise en page dense. Le choix d’un MoE côté langage et d’un plafond strict de tokens suggère une optimisation assumée du débit et du TCO, avec un potentiel direct pour les pipelines d’extraction en entreprise et l’archivage massif où la stabilité et le respect de l’ordre de lecture priment autant que le score brut.

Source : ITHome

  •  

Snap visé pour l’entraînement IA sur HD-VILA-100M : risque d’injonction lourde

Plusieurs créateurs YouTube, dont h3h3, MrShortGame Golf et Golfholics, ont déposé une plainte contre Snap. Ils accusent l’entreprise d’avoir utilisé leurs vidéos pour entraîner un modèle d’IA intégré à Imagine Lens, en s’appuyant sur le jeu de données HD-VILA-100M, réservé à un usage académique et explicitement non commercial.

Les plaignants soutiennent que Snap a outrepassé la licence du dataset, puis déployé le modèle dérivé dans un produit grand public. La procédure vise des dommages légaux et une injonction permanente interdisant tout usage ultérieur litigieux. Snap n’a pas détaillé publiquement son pipeline d’entraînement ni l’étendue de l’exploitation des contenus concernés.

Un contentieux qui s’ajoute à un front judiciaire déjà encombré

Selon la Copyright Alliance, plus de 70 actions similaires visant des sociétés d’IA sont en cours aux États-Unis. La plupart s’enlisent dans des débats sur les licences de datasets, l’exception de fair use et la qualification d’usages commerciaux, sans décision de fond à ce stade.

Le cœur du dossier HD-VILA-100M est classique: un corpus proposé pour la recherche publique, assorti d’une clause interdisant la commercialisation. Si la preuve du chaînage entre ce corpus et un modèle en production est apportée, le risque pour Snap dépasse l’amende: l’injonction pourrait forcer des retrainings, une purge de données et un gel fonctionnel d’Imagine Lens.

Enjeu technique et industriel

Pour les plateformes, la documentation du sourcing de données d’entraînement devient une question de résilience produit. Un modèle lié à un dataset non commercialisable peut contaminer une chaîne complète: checkpoints, pondérations dérivées, voire les fine-tunes. À l’échelle, chaque retrait implique réentraînement, recalibrage qualité et coûts de calcul, avec un impact direct sur le time-to-market des fonctionnalités génératives.

Source : ITHome

  •  

Edenlux Eyeary : des lunettes d’entraînement visuel avec 144 points de focus

La jeune pousse coréenne Edenlux prépare le lancement d’Eyeary, une seconde génération d’appareil de « rééducation visuelle » pensée pour les gros utilisateurs de smartphones. L’entreprise annonce une campagne Indiegogo fin mars aux États‑Unis. Eyeary adopte un format de lunettes, à mi‑chemin entre l’accessoire du quotidien et l’outil de training, avec pour promesse d’atténuer la fatigue oculaire et les troubles de l’accommodation liés aux écrans.

Homme stressé regardant un smartphone sur une table.

Un design de lunettes, 144 points de focalisation, app compagnon

Contrairement au premier modèle Otus, plus proche d’un petit casque, Eyeary allège l’ergonomie et travaille la discrétion. Le système optique passe de 5 à 144 foyers de mise au point, permettant des paliers plus fins pour solliciter les muscles ciliaires et affiner les exercices d’accommodation. Le suivi se fait via Bluetooth et une application mobile, qui remonte les sessions vers les serveurs d’Edenlux.

Graphique démontrant les améliorations visuelles avec l'utilisation continue d'OTUS.

La société revendique un cadrage « santé du quotidien » plutôt que médical pur et dur, avec une certification FDA au registre des dispositifs destinés à l’entraînement visuel. Les données utilisateur (âge, sexe, profil visuel) alimentent des modèles d’analyse pour prédire les temps d’amélioration et proposer des plans personnalisés. D’après Edenlux, des utilisateurs d’Otus voient leur dépendance aux lunettes de presbytie diminuer après environ 12 mois, et Eyeary viserait un cycle ramené à 6 mois.

Positionnement: abonnement, portefeuille produits et ancrage industriel

Edenlux étend sa gamme avec Tearmore (sécheresse oculaire), Lux‑S (strabisme), Lumia (prévention de la myopie) et Heary (réhabilitation auditive), d’abord pour l’Asie. Le modèle économique assume l’abonnement: le matériel capte les métriques, le logiciel livre les insights, dans une logique proche d’Oura Ring mais focalisée vision et audition. La R&D et la production sont basées en Corée, avec une filiale à Dallas pour l’assemblage final.

La société a levé 39 millions de dollars en série A en 2020, puis 60 millions en série B en 2022. Le PDG Park Sungyong, ancien médecin militaire, revendique une approche née d’une expérience personnelle de paralysie transitoire des muscles d’accommodation, corrigée via des exercices avec équipements spécialisés. Edenlux cible les utilisateurs intensifs de smartphones et de casques audio, et dit discuter à terme d’intégrations logicielles avec des acteurs comme Apple et Samsung.

Si Eyeary confirme ses gains par rapport à Otus, Edenlux pourrait s’installer sur un créneau encore peu occupé: des lunettes actives pour l’accommodation, calibrées par data et livrées en abonnement. Le défi sera double: prouver l’efficacité à échelle populationnelle et convaincre des partenaires mobiles d’ouvrir l’accès capteur‑logiciel, condition pour un suivi granulaire vraiment utile hors laboratoire.

Source : ITHome

  •  

GTA 6 digital-only au lancement: sortie dématérialisée sur consoles et PC dès 2026

Rockstar serre la vis pour GTA VI, et la boutique passe après. Conséquence directe: le lancement serait 100% dématérialisé sur consoles et PC.

GTA 6 digital-only au lancement

D’après des revendeurs cités par le média polonais PPE, Grand Theft Auto VI démarrerait en digital-only, y compris sur consoles, avant une édition physique retardée de quelques semaines. Objectif affiché: réduire les risques de fuites en amont, en privant la distribution d’un stock anticipé.

Rockstar et Take-Two multiplient déjà les mesures anti-fuite, avec des licenciements visant des employés supposément liés à la divulgation d’infos confidentielles. Ce calibrage du calendrier d’expédition évite que des images de packaging ou des extraits de gameplay circulent via des employés ou gérants avant l’heure.

La date visée reste le 19 novembre 2026, après plusieurs reports. Les revendeurs n’avancent pas de fenêtre précise pour l’arrivée en boîte, mais un lancement physique avant Noël paraît plausible si le décalage se limite à quelques semaines.

Un calendrier pensé contre les leaks

Le différé du physique coupe l’accès anticipé des magasins, premier maillon des fuites logistiques. Sur PC, le dématérialisé est devenu la norme; l’extension de cette logique aux consoles marque une inflexion notable, dictée par le contrôle de l’information plutôt que par la demande.

Le compromis paraît mesuré: lancement numérique partout, puis édition physique à court terme. Les joueurs attachés à la boîte devraient patienter, mais sans horizon déraisonnable au vu de la fenêtre des fêtes 2026.

Source : TechPowerUp

  •  

TongGeometry : l’IA qui génère et résout des problèmes de géométrie olympique

Un groupe de chercheurs chinois dévoile « TongGeometry », un système d’IA présenté comme le premier à combiner génération autonome d’énoncés de géométrie et résolution automatique. Publié le 26 janvier dans Nature Machine Intelligence, le modèle passe d’une logique d’imitation à une capacité de création, avec des problèmes jugés conformes aux critères esthétiques des mathématiciens selon l’équipe menée par Zhang Chi (Beijing Institute for General Artificial Intelligence).

Fait marquant, trois problèmes générés par l’IA ont été retenus pour des compétitions humaines de haut niveau : la ligue nationale chinoise des lycéens (région de Pékin) et l’Ersatz Math Olympiad aux États‑Unis. C’est la première fois que des énoncés originaux issus d’un système d’IA intègrent de tels concours.

Création d’énoncés et résolution sur une seule carte graphique

Par rapport à AlphaGeometry, qui s’appuyait sur un cluster de calcul conséquent, TongGeometry revendique des performances de pointe sur une simple carte graphique grand public. L’équipe indique qu’une RTX 4090 suffit pour résoudre, en 38 minutes au maximum, l’ensemble des problèmes de géométrie olympique de ces 25 dernières années, avec une efficacité de raisonnement et une précision au niveau des meilleurs systèmes.

Le cœur technique repose sur une « représentation normalisée » qui compresse drastiquement l’espace de recherche et limite les explosions combinatoires. Cette réduction de complexité semble être le levier principal qui permet de passer d’une approche coûteuse en calcul à un pipeline exploitable sur une machine de travail équipée d’une seule carte graphique.

Validation par la communauté compétitive

Au‑delà des benchmarks rétrospectifs, la sélection d’énoncés pour des concours réels donne un signal de robustesse plus crédible que les démonstrations en vase clos. La conformité aux standards esthétiques et pédagogiques des jurys, distincte du simple taux de résolution, était l’un des verrous pour faire admettre des problèmes « nés de l’IA » dans des circuits reconnus.

Si l’on ajoute le coût matériel désormais modeste côté inférence, l’intérêt pratique grimpe pour les laboratoires, les organisateurs de compétitions et, potentiellement, les éditeurs d’outils de préparation aux olympiades. La prochaine étape consistera à observer la reproductibilité des résultats et l’ouverture du code ou des datasets, points souvent déterminants pour une adoption durable.

Source : ITHome

  •  

Highguard en difficulté : pic à 95 000 joueurs mais évaluations « Mostly Negative » sur Steam

Départ canon, réception glaciale. La joie a été de courte durée : le premier raid shooter PvP de Wildlight Entertainment a culminé à plus de 95 000 joueurs, avant de se heurter presque aussitôt à une note « Mostly Negative » sur Steam.

Highguard, entre afflux massif et rejet express

Lancé par surprise sur Steam, Xbox et PlayStation, Highguard capitalisait sur le pedigree de ses vétérans. Moins de deux heures après la mise en ligne, SteamDB recensait déjà plus de 95 000 joueurs simultanés.

Scène de tir à la première personne dans un jeu vidéo futuriste

La dynamique s’est toutefois brisée côté avis: sur 10 716 évaluations, 78,2 % sont négatives, soit 8 383 critiques défavorables pour seulement 2 333 positives. La page Steam affiche « Mostly Negative » et le studio n’a, à ce stade, fait aucun commentaire sur les performances ou le ressenti des joueurs.

Le contraste rappelle le cas Splitgate: Arena Reloaded, désormais au ralenti malgré un lancement récent et un héritage apprécié. Le parallèle nourrit l’inquiétude autour de la rétention et du positionnement de Highguard.

Critiques récurrentes et dissonance de design

Les retours pointent un manque de cap clair, un design de cartes et d’interactions jugé faible, une boucle de gameplay discordante et des performances en deçà. Plusieurs joueurs décrivent un 3v3 sur une grande carte, alourdi par du minage et du loot jugés laborieux, loin de la promesse d’un gunplay nerveux.

Graphique des avis utilisateurs Highguard sur Steam, majorité négative

Sur r/PS5, des témoignages évoquent une image « floue » et la lassitude face à l’avalanche de MOBAs et de shooters. La critique principale reste la tentation du grand écart: vouloir plaire à tous au détriment d’une expérience focalisée.

Wildlight face au dilemme de l’itération rapide

Si le free-to-play favorise l’ajustement post-lancement, l’écart entre promesse et exécution complique la rétention. Sans feuille de route visible ni message fort à court terme, le pic initial risque de ne pas se transformer en base active durable.

Source : TechPowerUp

  •  

RDNA 3.5 iGPU chez AMD jusqu’en 2029, RDNA 5 réservé aux modèles premium

Un iGPU qui refuse de vieillir, et une montée en gamme réservée aux élites. La feuille de route officieuse d’AMD dessine un paysage où la majorité des laptops resterait figée sur la même génération graphique.

RDNA 3.5 maintenu jusqu’en 2029

Une diapositive partagée sur Weibo par Golden Pig Upgrade, réputé pour ses fuites fiables, indique qu’AMD conserverait l’iGPU RDNA 3.5 jusqu’en 2029. Ce n’est pas une roadmap officielle, mais le signal est fort: l’iGPU des Ryzen AI 300 et 400 resterait la norme pour des années.

amd rdna 3 5 processeur graphique

Concrètement, la grande majorité des portables bureautiques et machines milieu de gamme verrait peu ou pas d’évolution graphique, malgré le rythme annuel des raffinements chez la concurrence. Le progrès se déplacerait côté CPU, avec Zen 6 présenté comme l’attraction majeure des laptops mainstream.

RDNA 5 pour le haut de gamme « Halo »

Les véritables nouveautés architecturales basculeraient sur des SKU premium. Les variantes « Medusa Halo » dotées de tuiles GPU séparées adopteraient RDNA 5, tandis que les puces « Medusa Point » standard resteraient en RDNA 3.5. L’unique levier possible pour doper l’iGPU courant serait d’augmenter le nombre de CU via un die plus grand ou un process plus dense, hypothèse jugée peu probable si RDNA 5 est gardé pour le segment Halo.

Un cap déjà perceptible avec RDNA 4

Le lancement des dGPU RDNA 4 a donné le ton : présence limitée au desktop, pas de variantes mobiles ni d’intégration APU, et une stratégie cantonnée au milieu de gamme sans concurrent haut de gamme. Prolonger RDNA 3.5 sur près d’un demi‑décennie accroîtrait l’écart technologique si les rivaux itèrent plus vite.

Si ce scénario se confirme, AMD prendrait un pari industriel clair : réserver l’innovation graphique aux produits phares à forte marge, tout en capitalisant sur l’endurance de RDNA 3.5 pour le volume. À court terme, les utilisateurs de laptops mainstream devraient attendre Zen 6 pour un saut notable, tandis que le jeu en iGPU restera stable, sauf rare hausse de CU.

Source : TechPowerUp

  •  

ChatGPT Health et Claude face aux données Apple Watch : l’IA confond VO2 max et biomarqueur

Le chroniqueur tech du Washington Post, Geoffrey A. Fowler, a mis à l’épreuve ChatGPT Health avec dix ans de données issues de son Apple Watch, soit 29 millions de pas et 6 millions de mesures de fréquence cardiaque. Le système l’a catégorisé « F » en santé cardiaque, déclenchant une alerte qui s’est révélée infondée après avis médical.

Un modèle qui confond estimation et biomarqueur

Le cœur du faux diagnostic tient à l’interprétation de la VO2 max. ChatGPT Health l’a traitée comme une valeur clinique absolue alors qu’Apple la présente explicitement comme une estimation utile au suivi de tendance, pas au triage médical. Sur cette base bancale, l’outil a émis un jugement négatif qui ne résiste pas à un examen clinique standard.

ChatGPT Health face aux données Apple Watch : l’IA confond VO2 max et biomarqueur

L’IA a aussi pris pour un signal physiologique une rupture de série provoquée par un changement de génération d’Apple Watch. Le passage à un nouveau capteur a modifié la ligne de base de la fréquence cardiaque au repos, mais l’algorithme l’a assimilé à une dégradation de l’état de santé, ignorant l’effet matériel d’un hardware révisé.

ChatGPT Health face aux données Apple Watch : l’IA confond VO2 max et biomarqueur

Variabilité des réponses et trous de contexte

Au-delà de la lecture erronée des données, la sortie de ChatGPT Health s’est montrée instable. À question identique, Fowler a reçu des évaluations oscillant de « F » à « B ». Le système a en outre « oublié » à plusieurs reprises des informations de base comme l’âge ou le sexe, et a ignoré des résultats sanguins récents pourtant fournis dans le fil de discussion.

ChatGPT Health face aux données Apple Watch : l’IA confond VO2 max et biomarqueur

Pris ensemble, ces comportements traduisent un modèle qui ne gère ni la qualité hétérogène des capteurs grand public ni la persistance contextuelle indispensable à l’analyse santé. Ils posent la question de l’aptitude d’un assistant généraliste à exploiter des métriques portées par des montres connectées, où chaque révision de capteur et chaque changement de portabilité peut altérer la série.

ChatGPT Health face aux données Apple Watch : l’IA confond VO2 max et biomarqueur

Au-delà du cas individuel, l’épisode illustre un écueil structurel: sans calibrage par appareil, sans gestion des ruptures liées au passage à un nouveau capteur et sans hiérarchie explicite entre estimation grand public et biomarqueur clinique, un moteur conversationnel générera des alertes contradictoires et anxiogènes. Tant que ces briques ne sont pas standardisées — détection de drift matériel, métadonnées de capteur, protocole d’incertitude — la valeur ajoutée restera limitée au conseil hygiène plutôt qu’au triage.

Source : ITHome

  •  

Mixtral vs DeepSeek-V3 : même architecture MoE ou rupture réelle ?

« DeepSeek-V3 est construit sur notre architecture. » La phrase d’Arthur Mensch, CEO et cofondateur de Mistral, a déclenché un tir de barrage. Dans un entretien récent sur la dynamique de l’open source en Chine, le dirigeant a décrit Mixtral comme le premier « sparse Mixture-of-Experts » maison publié début 2024 et affirmé que DeepSeek-V3 et ses itérations s’appuyaient sur la même architecture, rendue reproductible par Mistral.

La chronologie et la technique compliquent toutefois ce récit. Les deux papiers fondateurs sont apparus à trois jours d’intervalle sur arXiv (Mixtral: 2401.04088 ; DeepSeek: 2401.06066), tous deux axés sur les SMoE avec activation clairsemée pour réduire le coût de calcul et améliorer les performances.

Mixtral vs DeepSeek-V3 : même architecture MoE ou rupture réelle ?

Mais les objectifs divergent : Mixtral procède d’une approche d’ingénierie visant à montrer qu’un socle solide + un MoE éprouvé peut dépasser des denses plus grands, quand DeepSeek revendique une refonte de l’architecture pour traiter deux angles morts du MoE classique, la surcharge de compétence des experts et les redondances d’apprentissage.

Deux voies pour le SMoE

Les deux utilisent un routage Top-K façon GShard. Mixtral conserve une granularité standard : chaque expert est un bloc FFN complet, tous considérés à parité, sélectionnés dynamiquement par le routeur. La distribution des connaissances y reste relativement plate, mêlant généraliste et spécifique au sein des mêmes experts.

Mixtral vs DeepSeek-V3 : même architecture MoE ou rupture réelle ?

DeepSeek introduit une segmentation fine des experts, découpant de « gros » experts en unités plus petites à paramètres constants, pour des combinaisons plus flexibles et un apprentissage plus ciblé. S’y ajoutent des « experts partagés », toujours activés et exclus du routage, qui encapsulent les compétences générales, pendant que les experts soumis au Top-K se spécialisent. Résultat : un découplage explicite des connaissances générales et spécifiques, absent du design Mixtral.

Autre point qui alimente la controverse : la publication « Mixtral of Experts » ne détaille ni données, ni hyperparamètres, ni tokens d’entraînement, ni ablations. À l’inverse, la communauté a relevé fin 2025 que Mistral 3 Large reprenait le schéma architectural popularisé par DeepSeek-V3, renversant de fait l’argument d’antériorité suggéré par Arthur Mensch.

Open source, influence et récit d’antériorité

Sur le fond, l’affirmation d’un « même type d’architecture » tient pour le cadre SMoE/Top-K. Sur les choix structurants, elle s’effrite. L’impact industriel penche aujourd’hui du côté de DeepSeek, dont les contributions sur le MoE clairsemé et la MLA ont marqué l’écosystème, quand Mistral a surtout installé Mixtral comme référence opérationnelle et catalyseur de l’adoption. Au-delà du bruit, le différentiel d’influence technique s’est déplacé, et la bataille d’image autour de l’antériorité reflète la tension entre itération d’ingénierie et réagencement algorithmique.

Mixtral vs DeepSeek-V3 : même architecture MoE ou rupture réelle ?

Dans un marché où la performance/coût sur GPU devient l’axe cardinal, la granularité des experts, le rôle d’experts partagés et la discipline de routage ne sont pas des détails : ils conditionnent l’efficacité d’entraînement, la stabilité et l’utilisation mémoire. La prochaine salve se jouera moins dans les déclarations que dans les courbes de perplexité, la qualité des ablations et les gains visibles en production, alors que DeepSeek prépare déjà une nouvelle fenêtre de tir.

Source : ITHome

  •  

Sotchi limoge Roberto Moreno : l’IA ChatGPT au cœur du fiasco sportif

Selon The Sun, Roberto Moreno, ex-sélectionneur intérimaire de l’Espagne, a été remercié par le FK Sotchi après une série noire et une gestion jugée déconnectée, marquée par un recours obsessionnel à ChatGPT pour des décisions sportives et logistiques. Arrivé l’été dernier, l’Espagnol de 48 ans a quitté le club en septembre après sept matches et un seul point, avec en prime une relégation du club de l’élite russe vers la deuxième division.

Des plannings dictés par l’IA, incompréhensibles pour le vestiaire

Andrey Orlov, ex-directeur sportif de Sotchi, décrit un staff sidéré. Pour un déplacement à Khabarovsk, Moreno aurait calé l’intégralité du voyage sur un plan généré par ChatGPT, imposant un réveil à 5 h, un entraînement à 7 h deux jours avant le match et jusqu’à 28 heures sans sommeil pour l’effectif. « J’ai tout paramétré dans ChatGPT », lui aurait-il expliqué, malgré les protestations et l’incompréhension des joueurs.

Le technicien aurait également marginalisé les séances sur coups de pied arrêtés et persisté dans une approche très axée sur la possession, sans efficacité dans la zone de vérité. En fin de cycle, Orlov évoque un vestiaire fracturé, des cadres russes exaspérés, des étrangers dubitatifs et un manque d’empathie ressenti envers adjoints et joueurs.

Recrutement: ChatGPT en arbitre final

Sur le marché des attaquants, l’été dernier, le club aurait soumis à ChatGPT des données Wyscout de plusieurs profils, dont Georgi Meleshin, Ivan Sergeïevitch Pisarsski et Ilya Shchuranachev. L’outil aurait recommandé Shchuranachev, finalement recruté, mais resté muet en dix rencontres. « En outil d’appoint, pourquoi pas. En boussole principale, non », tranche Orlov, pointant une dépendance qui a parasité les choix sportifs.

Moreno avait assuré l’intérim de la Roja sur trois matches avant de succéder officiellement à Luis Enrique en juin 2019, lorsque ce dernier s’était retiré pour raisons familiales. À Sotchi, sa méthode s’est heurtée au terrain, au rythme des voyages en Russie et à une réalité statistique impitoyable.

L’épisode illustre les limites d’une externalisation de la décision sportive vers des modèles conversationnels, surtout lorsqu’ils pilotent la charge de travail, la gestion du sommeil et l’évaluation des profils à partir de jeux de données partiels. Dans un environnement de haute performance, l’IA a sa place comme couche d’aide — pas comme substitut au jugement tactique, à la préparation physique et à la lecture humaine du groupe.

Source : ITHome

  •  

State of Play 2026 en février: rumeurs sur Wolverine, RDR2 next-gen et Horizon MMO

Un rendez-vous PlayStation début février 2026 se précise, et l’agenda des sorties de Sony pourrait s’y réorganiser. Les spéculations s’emballent déjà autour des gros dossiers first-party et de quelques revenants.

State of Play 2026 : fenêtre et premier signal

Le leaker bien connu NateTheHate2 évoque sur X un State of Play en première moitié de février 2026, avec une date ciblée au 12 février 2026. Aucune liste de titres n’accompagne son indication, mais la perspective suffit à déclencher le jeu des pronostics.

Autre bruit récurrent : un Horizon MMO, déjà entrevu via des fuites précédentes, que certains imaginent faire surface lors de ce format. Sans confirmation côté Sony, le timing coïnciderait avec une montée en charge de la communication sur l’alignement 2026.

Les candidats évidents du line-up 2026

Sony a déjà officialisé plusieurs sorties attendues en 2026: Marvel’s Wolverine, Dune: Awakening, Onimusha: Way of the Sword et Saros, ce dernier étant déjà disponible en précommande. Des segments de gameplay ou des vitrines dédiées sont probables si l’événement est maintenu à cette période.

À surveiller aussi: Marvel Tōkon: Fighting Souls, jeu de combat 4v4 dont une nouvelle démonstration s’insérerait bien dans un State of Play. Côté tiers, une autre rumeur circule: Rockstar travaillerait sur une version next‑gen de Red Dead Redemption 2. Si elle existe, une apparition en février donnerait un signal fort au parc PS5 en 2026.

Ce que pourrait signifier un State of Play en février

Caler un State of Play mi‑février sécuriserait un tempo marketing avant l’intersaison des salons et donnerait de l’air aux précommandes à moyen terme, notamment pour Wolverine et Dune: Awakening. Si Rockstar confirme RDR2 next‑gen, Sony capterait un pic d’attention sur PS5, utile pour étirer le cycle et densifier la fenêtre 2026.

Source : TechPowerUp

  •  

LORT en accès anticipé dépasse 100 000 ventes et démarre avec une promo -34%

Week-end sous stéroïdes pour un petit studio: plus de 100 000 copies écoulées en trois jours, et une remise agressive pour entretenir la traction.

LORT explose son lancement sur Steam

Disponible en accès anticipé, LORT signe un départ spectaculaire avec 100 000 unités vendues « en un peu plus de 3 jours » selon le studio Big Distraction. Le jeu est proposé avec une remise de 34% jusqu’au 3 février, à moins de 10 € TTC, ce qui a clairement aidé l’élan initial.

LORT en accès anticipé dépasse 100 000 ventes et démarre avec une promo -34%

Le studio remercie les joueurs ayant wish-listé, testé la démo et relayé le projet, et promet de continuer à bâtir le jeu avec la communauté. Un trailer de lancement accompagne la sortie.

Big Distraction revendique des playtests de « centaines d’heures », mais reconnaît l’inévitable lot de bugs au lancement. L’équipe suit de près Steam Discussions, les avis et Discord pour prioriser les correctifs « ASAP ».

LORT en accès anticipé dépasse 100 000 ventes et démarre avec une promo -34%

Accès anticipé: prix, mises à jour et engagement

Le ticket d’entrée sous 10 USD, combiné à une remise limitée dans le temps, installe une fenêtre d’adoption favorable. Le studio promet « du LORT plus neuf, meilleur, plus bizarre » via des updates à venir, avec un ton volontairement décalé qui nourrit l’identité du jeu.

LORT en accès anticipé dépasse 100 000 ventes et démarre avec une promo -34%

Entre « Legendary loot drops », « one-hit brick kills » et les « squawks » de Lawrence Fishbird, la proposition assume une fantaisie arcade assumée qui peut soutenir le bouche-à-oreille. En accès anticipé, la cadence de patches et la lisibilité de la roadmap seront déterminantes pour transformer l’élan des 100 000 premiers acheteurs en socle durable.

Si Big Distraction maintient le tempo de corrections et capitalise sur la promo jusqu’au 3 février, LORT peut s’installer dans la durée sur Steam grâce à une base engagée, à condition de sécuriser la stabilité et d’enrichir le contenu sans diluer son ton singulier.

Source : TechPowerUp

  •  

Tides of Tomorrow décale sa sortie au 22 avril 2026 sur PC, PS5 et Xbox

Un changement de cap contrôlé, et un clin d’œil assumé au renommage avorté. Le prochain jeu narratif de DigixArt prend rendez-vous un peu plus tard, mais fixe une date claire.

Tides of Tomorrow: nouvelle date et périmètre de lancement

DigixArt, le studio derrière Road 96, et l’éditeur THQ Nordic confirment la sortie de Tides of Tomorrow le 22 avril 2026 sur PC, PlayStation 5 et Xbox Series X|S. Le jeu conserve son titre initial malgré une parenthèse taquine autour de « Tides of the Day After Tomorrow ».

Personnage assis près d'un hublot dans une chambre colorée avec vue sur l'océan

Le lancement se fera en numérique et en édition physique dans les principaux territoires. En attendant, une démo jouable est disponible sur Steam, accompagnée d’une série de présentations de personnages.

Deux vidéos mettent l’univers en place, dont une rencontre avec Nahe, qui introduit une narration façonnée par vos décisions et celles des Tidewalkers passés. Le ton reste celui d’un récit interactif axé conséquences et héritage des choix.

Ville futuriste colorée avec ballons flottants et constructions improvisées

Démo et premiers repères pour les joueurs

La démo Steam offre un aperçu du rythme narratif et des embranchements. Les vidéos hébergées via YouTube-nocookie permettent de jauger la direction artistique et la mise en scène sans divulgâcher l’intrigue.

Personne s'adressant à une foule dans un amphithéâtre industriel éclairé

DigixArt et THQ Nordic misent sur une montée en température progressive jusqu’au 22 avril 2026, avec une communication focalisée sur le casting et les mécaniques de choix. Le maintien d’une version physique confirme l’ambition d’une présence retail au-delà du PC.

Pour un studio reconnu pour la souplesse de sa narration, ce léger décalage laisse le temps de verrouiller rythme, lisibilité des embranchements et polish. S’il tient ses promesses, Tides of Tomorrow a la place pour s’installer dans le segment des aventures narratives premium sur current-gen.

Source : TechPowerUp

  •  

Crisol: Theater of Idols sort le 10 février, l’horreur au sang comme munition

Le sang fait office de munitions, et chaque tir vous rapproche du game over. Blumhouse mise sur une tension à l’ancienne, où la survie redevient une gestion froide des ressources.

Crisol: Theater of Idols fixe sa date et son prix

Sortie le 10 février 2026 au prix de 17,99 € . Développé par Vermila Studios et publié par Blumhouse Games, le titre arrive sur Steam, PlayStation et Xbox, avec une démo jouable disponible sur Steam.

Crisol: Theater of Idols sort le 10 février, l’horreur au sang comme munition

Le studio ancre son action-horreur à la première personne sur l’île maudite de Tormentosa, dans une Hispania qui déforme l’Espagne. Le protagoniste, Gabriel, sacrifie sa santé pour alimenter ses armes, un équilibre salué par les previews pour remettre le « survival » au cœur du survival horror.

Bestiaire et décors s’inspirent de statues religieuses réelles trouvées en Espagne, twistées en fanatismes et monstruosités. L’objectif reste clair: explorer, dévoiler les secrets de l’île, et survivre à des affrontements où chaque goutte compte.

Crisol: Theater of Idols sort le 10 février, l’horreur au sang comme munition

Crisol: Theater of Idols sur PC et consoles

Blumhouse pousse son label jeux avec une proposition tarifaire agressive (17,99 $) et un positionnement frontal sur l’horreur « ressource-centrée ». Les previews globales pointent la mécanique « sang = arme et lifeline » comme pivot du gameplay.

Le trailer est disponible, d’autres vidéos doivent suivre avant lancement. Wishlist ouverte sur Steam, PlayStation et Xbox; la démo Steam permet déjà de jauger la discipline imposée par le système de saignée.

Crisol: Theater of Idols sort le 10 février, l’horreur au sang comme munition

Cadre, influences et promesse ludique

Le contraste entre iconographie sacrée et violence du trade-off vital rappelle une approche plus européenne de l’horreur, loin du power fantasy. Si l’équilibrage tient sur la durée, le ticket d’entrée contenu et l’angle esthétique pourraient en faire un outsider crédible du calendrier.

Source : TechPowerUp

  •  

Microsoft Maia 200: accélérateur IA 3 nm, FP4/FP8, 216 GB HBM3e et réseau Ethernet scale-up

Trois fois plus rapide que Trainium v3 en FP4, au-dessus de TPU v7 en FP8: la nouvelle puce IA de Microsoft vise l’inférence à grande échelle et la facture cloud.

Microsoft Maia 200: cap sur l’inférence rentable

Gravée en 3 nm chez TSMC, Maia 200 aligne plus de 140 milliards de transistors, des Tensor Cores natifs FP8/FP4 et un sous-système mémoire repensé: 216 GB de HBM3e à 7 TB/s et 272 MB de SRAM on‑chip. Le SoC cible 750 W de TDP avec plus de 10 petaFLOPS en FP4 et plus de 5 petaFLOPS en FP8.

Microsoft annonce 30% de performance par dollar en mieux vs sa génération actuelle et revendique « le plus performant » des siliciums propriétaires de hyperscaler. L’accélérateur nourrit les plus gros modèles d’aujourd’hui et anticipe des tailles supérieures.

Tableau comparatif Azure Maia 200, AWS Trainium3, Google TPU v7.

La mémoire s’articule autour de types de données étroits, d’un DMA spécialisé, d’une SRAM intégrée et d’un NoC dédié au débit, pour maximiser le throughput de tokens. Côté comparaison, Microsoft évoque un ratio 3× la perf FP4 d’Amazon Trainium de 3e génération et une perf FP8 au‑dessus de la 7e génération de TPU de Google.

Intégration Azure et écosystème logiciel

Maia 200 s’intègre à Azure et arrive avec un SDK en préversion: intégration PyTorch, compilateur Triton, librairie de kernels optimisés et un langage bas niveau pour un contrôle fin. Objectif: portage facile entre accélérateurs hétérogènes, sans sacrifier les optimisations ciblées.

Vue interne d'un serveur haute densité avec systèmes de refroidissement.

Les déploiements démarrent en région US Central (près de Des Moines, Iowa), puis US West 3 (Phoenix, Arizona), d’autres régions suivront. Les workloads ciblés incluent les modèles GPT‑5.2 d’OpenAI pour Foundry et Microsoft 365 Copilot, ainsi que les pipelines de données synthétiques et le RL du groupe Superintelligence.

Réseau scale‑up sur Ethernet et efficacité datacenter

Le système introduit un réseau scale‑up à deux niveaux basé sur Ethernet standard: couche de transport maison, NIC intégrée, bande passante bidirectionnelle dédiée de 2,8 TB/s par accélérateur. Les opérations collectives sont annoncées prévisibles jusqu’à 6 144 accélérateurs.

Dans chaque tray, quatre Maia sont reliés en direct sans switch pour garder le trafic à haut débit local. Le protocole de transport Maia s’étend intra‑rack et inter‑rack avec peu de sauts, simplifiant le dev et réduisant la capacité perdue. L’approche vise un meilleur TCO et une consommation contenue à l’échelle du cloud.

Deux armoires serveur remplies, câblage et composants visibles.

Cycle de validation et mise en production

Microsoft a simulé tôt les charges LLM pour co‑optimiser silicium, réseau et logiciel, avec un passage au rack deux fois plus rapide que sur des programmes comparables. Les modèles tournaient quelques jours après l’arrivée des premiers packages, aidés par une intégration native au plan de contrôle Azure, une télémétrie complète et un refroidissement liquide à boucle fermée de seconde génération.

Si Microsoft tient ses promesses de perf/$ et d’échelle sur Ethernet, Maia 200 pourrait bousculer la prime aux fabrics propriétaires dans l’inférence dense, tout en renforçant l’avantage coût/latence d’Azure sur les services Copilot et les pipelines de données synthétiques. Reste à voir l’élasticité réelle à 6 144 accélérateurs sur des charges mixtes et la cadence de déploiement par région.

Source : TechPowerUp

  •  

Blizzard Showcase 2026: une série de présentations développeurs pour ouvrir le prochain chapitre

Cap sur 2026 avec une salve de showcases maison qui promet des annonces et des teasing sur tous les univers Blizzard. L’éditeur fête 35 ans et prépare déjà le terrain pour BlizzCon 2026.

Blizzard Showcase 2026 : séries de présentations et calendrier à suivre

Blizzard ouvre l’année avec des spotlights menés par les développeurs, diffusés en direct et à la demande. Le studio renvoie vers un guide dédié pour « marquer les calendriers » et suivre chaque présentation au fil des prochaines semaines.

Logo Blizzard 35 sur fond de figurines et accessoires de jeu.

Objectif assumé : montrer ce qui arrive pour chaque monde maison. World of Warcraft, Diablo, Hearthstone et Overwatch sont cités, avec la promesse d’annonces, d’aperçus et de « teases » coordonnés, plutôt que des mises à jour isolées.

Un fil rouge avant BlizzCon 2026

Cette séquence sert de rampe vers BlizzCon 2026, explicitement « à l’horizon ». Blizzard ancre l’opération dans ses 35 ans de communauté et de craft, avec une mise en avant des équipes créatives et des joueurs qui « donnent vie » aux licences.

Affiche date et heure des événements pour World of Warcraft, Overwatch, Hearthstone, et Diablo.

400 artefacts et un musée interne pour « The Next Chapter »

Au cœur du dispositif, « Blizzard: The Next Chapter » expose environ 400 artefacts physiques retraçant moments, sorties et souvenirs depuis les débuts jusqu’à aujourd’hui, et au-delà. Une vidéo dédiée accompagne l’annonce.

Le message est clair : le prochain chapitre s’écrit en continuité avec ces mondes, et les prochaines semaines donneront le ton de ce qui vient pour chaque jeu.

Bannières dorées

Ce séquencement en showcases développeurs, avant un retour en force sur scène, suggère une stratégie de communication plus cadencée, au long cours, pour réengager les communautés de WoW, Diablo, Hearthstone et Overwatch sans attendre le rendez-vous annuel.

Logo Blizzard 35 sur un bureau encombré d'équipements rétro.

Source : TechPowerUp

  •  

Highguard surprend avec un lancement immédiat et un mode raid PvP inédit

Un shooter où l’on capture une épée magique avant d’assaillir la base adverse à dos d’ours, ça change le tempo. Highguard vient de sortir et pose ses règles dès le premier jour.

Highguard pose sa boucle de jeu: raid PvP en 3v3

Nouveau « PvP raid shooter » signé Wildlight Entertainment, Highguard oppose deux équipes de trois joueurs qui fortifient leur base, partent en monture collecter des ressources, puis lancent des raids pour détruire la forteresse ennemie. Mélange de MOBA, survival shooter et reverse Capture the Flag, chaque manche s’articule autour du Shieldbreaker, une épée qui déclenche l’assaut une fois insérée dans l’un des points de la barrière magique adverse.

Cavalier sur cheval galopant à travers une cité médiévale avec dirigeables et montagnes

Le déroulé est cadencé: 1 minute initiale de fortification, exploration en monde ouvert pour looter et convertir des cristaux en améliorations, formation de tempêtes sur des zones prédéfinies où apparaît le Shieldbreaker. L’équipe qui ramène l’épée à la base ennemie ouvre une brèche via une tour de siège servant aussi de point de respawn. Objectif: percer des murs destructibles, armer une charge sur l’un des trois emplacements et tenir jusqu’à l’explosion. Deux cibles infligent de lourds dégâts au total de vie, la cible centrale détruit la base d’un coup.

Si aucune base ne tombe, le match réinitialise la phase et relance un Shieldbreaker plus tard, avec un équipement globalement meilleur disponible en map et en boutiques. Respawns et minutage sont stricts, pour des parties de 10 à 30 minutes, souvent à renversements tardifs.

Montures, arsenal et Wardens: l’ADN Respawn, version Wildlight

Né chez des vétérans d’Apex Legends, Titanfall et Call of Duty, le gunplay est net, la mobilité fluide (course, glissade, mantling) et la nouveauté tient aux montures invocables presque partout: chevaux, ours, panthères, griffons, différences cosmétiques mais impact macro clair pour couvrir de grandes distances et intercepter un porteur du Shieldbreaker.

Trois personnages en tenue de combat, armés, avec un ours, dans un environnement naturel

10 armes au lancement, deux emplacements, plus un outil de raid parmi trois (lance-roquettes, masse explosive, pistolet à tyrolienne) pour l’utilité et la démolition. Les personnages jouables, les Wardens, sont au nombre de huit au lancement, un par équipe, avec passif, tactique à cooldown et ultime à charge. Exemples cités: Atticus qui lance des lances électriques façon bobines Tesla, Una qui invoque des esprits étourdissants et un ultime arbre-guardian, Kai qui érige un mur de glace capital pour le contrôle des choke points.

Les bases elles-mêmes sont un choix d’équipe: six variantes votées puis injectées dans n’importe quelle carte. Hellmouth, suspendue au-dessus d’une fosse de lave avec ponts étroits, se combine parfaitement avec le mur de Kai. L’ensemble Wardens/bases/armes/outils ouvre un vrai terrain de méta et de synergies/counters dès le jour 1.

Vue à la première personne d'un joueur tirant dans une bataille dans un décor de ruines

Roadmap live service: chapitres de deux mois, contenu mensuel

Wildlight cadence Highguard en chapitres bimestriels, chacun scindé en deux. Concrètement, un ajout de contenu chaque mois: nouveaux Wardens, bases, cartes, armes, outils de raid et plus. Le premier update, attendu dans quelques semaines, introduira le classé et des modes alternatifs rotatifs, dont une course montée inspirée Mario Kart. Tout le contenu gameplay est gratuit, la monétisation est strictement cosmétique.

Personnages utilisant une arme géante à énergie près d'un bâtiment ancien
Cavaliers sur animaux chargeant dans une forêt avec des structures anciennes en arrière-plan
Personnage héroïque en cape brandissant une épée électrique avec un ciel orageux
Guerrier masqué avec créature en bois luminescent se tenant sur un champ
Vue à la première personne d'un combat avec un bouclier de glace et des armes à énergie
Chasse à cheval avec fusil à lunette dans une vallée verdoyante et des formations rocheuses

Le studio revendique une préparation spécifique à l’exploitation live, tirée de l’expérience Apex Legends où la phase post-lancement avait connu une latence de contenu. Ici, l’année 1 est déjà bien engagée en production, avec des Wardens non révélés en réserve.

Highguard est disponible gratuitement dès aujourd’hui sur PC/Steam, Xbox Series X|S et PlayStation 5.

Dans un marché saturé, l’originalité du mode raid PvP 3v3, combinée à un rythme de jeu en phases et un pipeline live déjà calé, donne à Wildlight une fenêtre pour s’installer au-delà des catégories établies battle royale/extraction. Le suivi mensuel sera l’arbitre de la rétention et du potentiel esportif, mais la base mécanique est suffisamment distincte pour créer sa niche.

Source : TechPowerUp

  •  

NVIDIA CoreWeave : 2 milliards de dollars et 5 GW d’usines d’IA d’ici 2030

Course contre la montre dans l’IA : CoreWeave vise plus de 5 GW de « factories » d’ici 2030. Conséquence immédiate, NVIDIA met 2 milliards de dollars sur la table pour verrouiller l’alignement technologique et l’accès aux capacités.

NVIDIA CoreWeave: cap sur 5 GW d’usines d’IA

NVIDIA et CoreWeave consolident leur partenariat pour accélérer le déploiement de plus de 5 gigawatts d’« AI factories » d’ici 2030. En parallèle, NVIDIA investit 2 milliards de dollars (environ 1,84 Md€) dans CoreWeave via des actions ordinaires de classe A au prix de 87,20 dollars par action.

NVIDIA CoreWeave: 2 milliards de dollars et 5 GW d’usines d’IA d’ici 2030

Objectif affiché: répondre à une demande exponentielle en calcul, du pré-training au post-training. Jensen Huang parle du « plus grand chantier d’infrastructure de l’histoire » et s’appuie sur l’exécution de CoreWeave pour industrialiser les usines d’IA basées sur la plateforme accélérée de NVIDIA.

Le plan comprend l’alignement infrastructure, software et plateforme: CoreWeave développera et opérera ces usines avec la pile NVIDIA, tandis que NVIDIA apportera sa puissance financière pour accélérer l’acquisition de foncier, d’énergie et de shells.

NVIDIA CoreWeave: 2 milliards de dollars et 5 GW d’usines d’IA d’ici 2030

Feuille de route technique et logicielle

Les deux acteurs testeront et valideront le software natif IA de CoreWeave et ses architectures de référence, dont SUNK et CoreWeave Mission Control, avec pour ambition de les intégrer dans les architectures de référence NVIDIA pour les partenaires cloud et les clients enterprise.

CoreWeave adoptera en avance plusieurs générations d’infrastructure NVIDIA: la plateforme Rubin, les CPU NVIDIA Vera et les systèmes de stockage NVIDIA BlueField. Côté inference, CoreWeave met en avant Blackwell comme architecture au coût au plus bas.

NVIDIA CoreWeave: 2 milliards de dollars et 5 GW d’usines d’IA d’ici 2030

Capacité, financement et exécution

Au-delà du silicium, l’accord porte sur la sécurisation du foncier et de la puissance électrique, points de tension clés pour des déploiements multi-gigawatts. CoreWeave capitalise sur son cloud spécialisé, son logiciel et son opérationnel orienté workloads IA intensifs.

L’enjeu pour l’écosystème est double: industrialiser la production d’IA à grande échelle et réduire le coût total d’exploitation des clusters. Si le calendrier 2030 est tenu, les 5 GW annoncés peseront sur l’accès aux GPU, aux CPU Vera et aux infrastructures réseau/stockage BlueField, avec un effet d’entraînement sur l’offre cloud GPU et les prix pour les studios IA comme pour les entreprises.

Source : TechPowerUp

  •  

NVIDIA Earth-2 : modèles météo-climat ouverts et accélérés pour la prévision IA

NVIDIA a dévoilé Earth-2, une série de modèles ouverts et accélérés dédiés à la météo et au climat, pensée pour couvrir toute la chaîne opérationnelle: assimilation des observations, prévisions globales à 15 jours et nowcasting kilométrique. Les modèles sont utilisables et déployables sur infrastructures propres, avec entraînement et affinage via le framework open source PhysicsNeMo.

Trois nouveaux modèles au cœur de la pile Earth-2

Earth-2 Medium Range s’appuie sur l’architecture Atlas pour une prévision globale jusqu’à 15 jours sur plus de 70 variables (température, pression, vent, humidité, etc.). Sur les benchmarks de référence, il surpasse les principaux modèles ouverts sur les variables les plus utilisées, tout en restant exploitable en production.

Carte satellite des prévisions météo des États-Unis avec échelle de couleurs

Earth-2 Nowcasting, basé sur StormScope, pousse la prévision de 0 à 6 heures à l’échelle kilométrique au niveau national. Le modèle simule directement la dynamique des systèmes convectifs, prédit images radar et satellite, et revendique des performances supérieures aux approches physiques traditionnelles pour les précipitations à court terme.

Earth-2 Global Data Assimilation, avec l’architecture HealDA, produit en quelques secondes sur GPU les conditions initiales globales à partir d’observations hétérogènes (satellites, radiosondages, stations). Couplé au modèle Medium Range, il constitue une chaîne de prévision entièrement IA, ouverte et optimisée pour l’exécution accélérée.

Intégration de la pile et écosystème

Les nouveautés complètent CorrDiff, génératif de descente d’échelle qui convertit des champs à résolution grossière en champs régionaux fins, avec un gain de vitesse annoncé de 500× par rapport aux méthodes classiques. FourCastNet3 reste positionné sur la prévision multi-variables (vent, température, humidité) avec une précision comparable aux meilleurs modèles de diffusion, tout en étant jusqu’à 60× plus rapide que les approches de référence.

Earth-2 agrège également des modèles ouverts de l’ECMWF, de Microsoft et de Google. L’ensemble se pilote via PhysicsNeMo, cadre Python open source pour le développement à grande échelle de modèles d’IA physique, facilitant entraînement, fine-tuning et déploiement.

La promesse est autant opérationnelle que scientifique: accélérer la production d’analyses initiales, améliorer la qualité des prévisions et standardiser un socle ouvert propice à la collaboration inter-instituts. Pour les centres météo nationaux et privés, la perspective d’une chaîne full-IA, portable et accélérée, peut réduire le coût d’entrée en prévision haute résolution et accélérer le transfert de la recherche vers l’opérationnel.

Source : ITHome

  •  

Ryzen 7 9850X3D : AMD préparerait un bundle CPU + DDR5 + ventirad pour la Chine

Ryzen 7 9850X3D en kit complet ? Une photo de boîte retail laisse penser qu’AMD prépare un bundle associant processeur, mémoire DDR5 et ventirad, destiné en priorité au marché chinois.

Ryzen 7 9850X3D : un pack multi‑marques repéré en Chine

D’après une image partagée par JustBuy sur Bilibili, la boîte arbore les logos AMD, Cooler Master et V-Color, signe d’un ensemble co‑marqué plutôt qu’un simple emballage CPU. La liste au dos mentionne un Ryzen 7 9850X3D, un kit V-Color DDR5 au timing CL36 en 32 Go (2 × 16 Go) et un ventirad Cooler Master Hyper 612 APEX PRO. La fréquence exacte de la mémoire n’est pas indiquée.

ryzen 7 9850x3d bundle

Pour situer les tarifs séparés, le Hyper 612 APEX a été vu autour de 79,99 dollars (environ 74 euros). Le kit V-Color Manta XFinity RGB DDR5‑6000 CL36 32 Go correspondant aux marquages et timings est apparu à 509,99 dollars sur Newegg, illustrant des prix DDR5 très variables selon les boutiques. AMD a déjà confirmé le Ryzen 7 9850X3D, référencé sur ses pages produits, avec un lancement annoncé au 29 janvier à 499 dollars (environ 460 euros).

Spécificités listées sur la boîte

  • Processeur : AMD Ryzen 7 9850X3D.
  • Mémoire : V-Color DDR5, 32 Go (2 × 16 Go), CL36, fréquence non spécifiée.
  • Refroidissement : Cooler Master Hyper 612 APEX PRO (aircooling).

Le concept existe déjà.

Le concept n’est pas inédit : aux États‑Unis, des enseignes comme Micro Center proposent régulièrement des combos CPU avec carte mère et mémoire à prix groupé. Reste l’inconnue de la disponibilité : selon JustBuy, ce kit « sera bientôt en vente », sans précision de lieu ni de tarif final. Il semblerait que ce pack vise d’abord la Chine, même si chaque composant est ou sera disponible mondialement.

Mais attention : il n’est pas exclu qu’il s’agisse simplement de kits presse, envoyés aux testeurs avant le lancement. Avec la tension actuelle sur la RAM, imposer un kit mémoire pourrait être délicat, au risque de brider le CPU. Sans compter l’ajout d’un ventirad qui ne conviendrait pas forcément à tous les usages ni à toutes les configurations.

Source : VideoCardz

  •  

Qwen3-Max-Thinking : le modèle reasoning d’Alibaba vise le niveau GPT-5

Alibaba a dévoilé ce soir Qwen3-Max-Thinking, nouveau modèle « reasoning » haut de gamme de la famille Qwen. La société annonce une architecture dépassant le millier de milliards de paramètres, un entraînement par renforcement élargi et des avancées nettes sur la factualité, le raisonnement complexe, l’alignement et l’utilisation native d’outils. Sur 19 benchmarks de référence, Alibaba revendique des performances du niveau de GPT-5.2-Thinking, Claude Opus 4.5 et Gemini 3 Pro.

Le modèle est disponible dans Qwen Chat avec une capacité de recours autonome au moteur de recherche, à la mémoire et à un interpréteur de code. L’API publique est ouverte sous l’identifiant « qwen3-max-2026-01-23 ».

Focus technique et perfs mesurées

Qwen3-Max-Thinking met l’accent sur deux briques. D’abord, une invocation d’outils auto-adaptative : le modèle choisit et orchestre seul la recherche, la mémoire et l’exécution de code, après un cycle de fine-tuning spécifique puis un entraînement supplémentaire guidé par retours hybrides (règles et feedback modèle). Alibaba indique une baisse sensible des hallucinations, un accès temps réel aux informations et des réponses mieux personnalisées.

Tableau comparatif des benchmarks pour différents modèles de reasoning, incluant Qwen3-Max-Thinking.

Ensuite, une stratégie de Test-Time Scaling itératif orientée « expérience cumulée ». Plutôt que d’augmenter simplement le nombre de trajectoires en parallèle, Qwen3-Max-Thinking limite ces chemins et réinvestit le budget de calcul dans des boucles de réflexion successives. Un mécanisme d’extraction d’« insights » issus des tours précédents évite les répétitions et concentre le raisonnement sur les zones d’incertitude, avec une meilleure utilisation de la fenêtre de contexte à consommation de tokens comparable.

Les gains annoncés, à méthodologie constante, sont chiffrés sur plusieurs suites: GPQA de 90,3 à 92,8, HLE de 34,1 à 36,5, LiveCodeBench v6 de 88,0 à 91,4, IMO-AnswerBench de 89,5 à 91,5, et HLE avec outils de 55,8 à 58,3. Alibaba met en avant des résultats en tête sur GPQA Diamond (sciences), IMO-AnswerBench (maths) et LiveCodeBench (code).

Graphique des performances sur divers tests, avec les scores de Qwen3-Max-Thinking et autres modèles.

Disponibilité et intégration

Qwen3-Max-Thinking est accessible via Qwen Chat (chat.qwen.ai), avec la sélection automatique d’outils activée, et via l’écosystème Alibaba Cloud Bailian. Le déploiement vise autant l’usage direct que l’intégration agentique, le modèle étant conçu pour raisonner tout en exécutant des appels outils de manière fluide.

Au-delà de la surenchère paramétrique, l’enjeu se déplace vers la chaîne de raisonnement et l’efficacité du calcul à l’inférence. La mise en avant d’un Test-Time Scaling mieux capitalisé et de capacités agent natives confirme la bascule des LLM généralistes vers des systèmes orientés tâches, où le pilotage d’outils et la discipline du raisonnement comptent autant que le score brut sur benchmarks.

Source : ITHome

  •  
❌