↩ Accueil

Vue normale

G.Skill : accord à 2,4 M$ et clarification des vitesses DDR4 et DDR5

Par :Wael.K
11 février 2026 à 13:21

Un chèque de 2,4 M$ et des emballages revus plus explicitement. G.Skill tourne la page d’un litige sur l’affichage des vitesses DDR4/DDR5 et s’aligne sur un marquage « up to » et mention OC concernant les fréquences de ses RAM.

G.Skill ajuste ses étiquettes de vitesse

G.Skill a accepté un règlement collectif de 2,4 millions de dollars (environ 2,2 M€) concernant l’étiquetage des vitesses « notées » de certains kits DDR4 et DDR5 de bureau. L’entreprise conteste toute faute, et le tribunal n’a pas tranché sur la responsabilité.

Dos d'emballage Trident Z5 RGB, texte et logos variés, éclairage terne

Le cœur du dossier porte sur les vitesses supérieures aux valeurs JEDEC par défaut (DDR4-2133, DDR5-4800) et la manière dont elles pouvaient être perçues comme « out of the box ». En pratique, ces profils sont atteints après activation d’Intel XMP ou d’AMD EXPO dans l’UEFI, ou via un réglage manuel.

La période couverte s’étend du 31 janvier 2018 au 7 janvier 2026 pour les acheteurs résidant aux États-Unis, sur des produits non destinés aux laptops. Les réclamations en ligne ou par courrier doivent être soumises ou oblitérées au plus tard le 7 avril 2026, avec une audience d’approbation finale fixée au 5 juin 2026 à 14 h 00 PDT.

Texte explicatif sur un règlement judiciaire concernant la mémoire G.Skill DDR4 et DDR5

Sans justificatifs, le formulaire limite à cinq achats éligibles par foyer ; au-delà, des preuves d’achat sont requises. Côté présentation produit, le règlement prévoit l’emploi d’un « up to » pour les vitesses notées, assorti d’un avertissement clair : « Requires overclocking/BIOS adjustments. Maximum speed and performance depend on system components, including motherboard and CPU. »

XMP/EXPO mis en avant, comme chez Corsair

Les futurs packagings et fiches techniques devront refléter ces mentions, y compris chez les revendeurs, avec une tolérance pour l’écoulement des stocks actuels. L’approche rejoint celle adoptée après le règlement de 5,5 M$ conclu par Corsair Gaming en 2025 sur des allégations similaires d’« out-of-box » pour des kits DDR4/DDR5.

Pour l’utilisateur, le message est désormais explicite : un kit annoncé à 6000 MT/s vise une cible atteignable via OC/XMP/EXPO, sous réserve des capacités CPU et carte mère. Le secteur se standardise vers une sémantique plus nette entre profils JEDEC et profils OC, ce qui devrait réduire les malentendus au moment de l’achat.

Source : VideoCardz

MSI GeForce RTX 5090 filmée en flammes : première mise sous tension, pas de SAV local

Par :Wael.K
11 février 2026 à 12:48

Premier démarrage, premières flammes. Une RTX 5090 importée s’embrase et laisse son propriétaire sans support SAV local.

Vidéo Bilibili et premiers éléments techniques

Un uploader Bilibili a publié une séquence montrant une MSI GeForce RTX 5090 défaillir dès le démarrage. Dans les commentaires, il indique que le problème a été confirmé comme provenant de la carte graphique.

Carte GeForce RTX dans boîtier éclairage violet, fond neutre

Le PC venait de recevoir une nouvelle alimentation de 1300 W, utilisée avec ses câbles d’origine. L’auteur affirme que le faisceau n’a pas brûlé et que la machine fonctionne normalement après retour sur une RTX 5060.

MSI Afterburner 4.6.7 Beta 2 active GPU Safeguard+ et prend en charge les RTX 5090 LIGHTNING

Par :Wael.K
11 février 2026 à 12:40

Un utilitaire d’overclocking qui peut aussi sauver un 16 broches en surchauffe, c’est nouveau. Afterburner 4.6.7 Beta 2 relie enfin la télémétrie PSU à une réponse automatique côté GPU.

MSI Afterburner 4.6.7 Beta 2 : GPU Safeguard+ et actions d’urgence

MSI publie Afterburner 4.6.7 Beta 2 (branche bêta courante datée de février 2026) avec la prise en charge de la série GeForce RTX 5090 LIGHTNING. Le cœur de la mise à jour concerne GPU Safeguard+, une surveillance côté alimentation des connecteurs 12V-2×6 capable de signaler des comportements anormaux.

Interface MSI Afterburner avec avertissement, fond bleu noir moins contrasté

Un nouveau plugin de monitoring, PSU.dll, expose la télémétrie des blocs MSI MEG Ai1x00 et MSI MPG Ai1x00TS : tension, courant, puissance, température, rendement et vitesse des ventilateurs. Les modèles MPG remontent aussi des courants par broche pour les 12VHPWR et 12V-2×6, utile pour détecter surintensités et déséquilibres.

Le fonctionnement est centré sur des alarmes, avec des capteurs simplifiés d’overcurrent et d’imbalance exploitables par les alertes d’Afterburner. La case « Enable GPU Safeguard+ » automatise la réponse : alerte sonore et déclenchement d’un flux d’atténuation d’urgence en cas de dépassement.

Réglages MSI Afterburner avec texte et options, fond bleu noir

Ce flux d’urgence s’appuie sur deux nouvelles options en ligne de commande : chargement d’un profil d’urgence prédéfini à consommation réduite et affichage d’un message OSD personnalisé lors de son application. Par défaut, le profil cible un power limit inférieur sur les GPU NVIDIA afin de couper rapidement la charge pendant la vérification du connecteur 16 broches.

Support RTX 5090 LIGHTNING et éditeur V/F amélioré

Outre la compatibilité avec les RTX 5090 LIGHTNING, Afterburner 4.6.7 Beta 2 améliore l’éditeur de courbe Voltage/Frequency : zoom, panoramique, taille de nœud ajustable et opérations affinées basées sur la sélection. Des ajustements bienvenus pour les profils courbe-tension, en particulier sur les cartes visant des enveloppes de puissance agressives.

Propriétés MSI Afterburner avec réglages GPU Safeguard, fond bleu noir

L’intérêt majeur reste toutefois la chaîne télémétrie→action : l’agrégation de données PSU côté 12V-2×6, leur traduction en alarmes exploitables et l’application immédiate d’un profil de réduction. C’est une approche pragmatique pour limiter les risques liés aux connecteurs haute intensité sans intervention manuelle.

Source : VideoCardz

Boîtiers panoramiques GameMax NEX C51/C31 : verre trempé, 360 mm et USB-C 20 Gbps

11 février 2026 à 10:11

Prix d’entrée et vitrine haut de gamme, GameMax pousse le format panoramique avec ses boîtiers GameMax NEX C51 et NEX C31 sans rogner sur la compatibilité ni la connectique.

GameMax NEX C51/C31 : design panoramique et support 360 mm

Les NEX C51 (ATX) et NEX C31 (microATX) adoptent un châssis à parois en verre trempé sans montant, offrant une vue continue sur la configuration. Trois ventilateurs 120 mm ARGB sont fournis d’origine.

Boîtiers panoramiques GameMax NEX C51/C31 : verre trempé, 360 mm et USB-C 20 Gbps

Le GameMax NEX C51 sépare les zones chaudes des compartiments d’alimentation et des câbles pour un flux d’air plus propre et un câblage simplifié. Les deux modèles acceptent un radiateur de 360 mm en partie supérieure et des ventilateurs jusqu’à 9×120 mm, ou 2×140 mm + 6×120 mm selon l’agencement.

La compatibilité GPU monte à 410 mm et les ventirads à 175 mm. En façade, la connectique intègre un USB Type‑C Gen 2×2 à 20 Gbps et deux ports USB 3.0.

Boîtiers panoramiques GameMax NEX C51/C31 : verre trempé, 360 mm et USB-C 20 Gbps

NEX C51 vs NEX C31 : même philosophie, formats distincts

Le NEX C51 vise les configurations ATX imposantes tout en conservant un haut niveau de ventilation. Le NEX C31 transpose l’approche dans un format microATX compact sans renoncer au radiateur 360 mm, aux 410 mm pour le GPU ni aux 175 mm pour le ventirad.

Tarifs et disponibilité

La garantie est limitée à 1 an. Prix publics indicatifs : NEX C51 BK 54,99 $ (~51 €), NEX C51 WH 59,99 $ (~56 €), NEX C31 BK 49,99 $ (~46 €), NEX C31 WH 54,99 $ (~51 €).

À ce niveau de prix, l’ensemble verre trempé sans pilier, 360 mm en top et USB‑C 20 Gbps place GameMax en alternative agressive aux vitrines plus onéreuses, notamment pour des builds ARGB grand format ou compacts sans concessions.

Source : TechPowerUp

Razer Project AVA : Min-Liang Tan fustige le « GenAI slop » et précise la feuille de route

Par :Wael.K
11 février 2026 à 08:21

Un CEO de l’hardware gaming qui parle d’IA en assumant le tri qualité plutôt que la surenchère de contenu, ça tranche. Chez Razer, l’objectif est clair : pas de « GenAI slop », mais des outils concrets qui servent le jeu et ses auteurs.

Razer Project AVA et la ligne rouge sur la génération de contenu

Min-Liang Tan pose le cadre : « En tant que joueurs, ce qui nous déplaît, c’est le GenAI slop ». Personnages difformes, narrations bâclées : le problème n’est pas l’IA en soi, mais l’usage qui en est fait. L’IA doit renforcer la fabrication des jeux, pas remplacer la créativité humaine.

Razer Project AVA : Min-Liang Tan fustige le « GenAI slop » et précise la feuille de route

Razer revendique plus de 600 millions de dollars d’investissements IA, avec des objectifs précis : détecter plus tôt les problèmes, automatiser les tâches répétitives et décupler la capacité de production sans dégrader la qualité. L’approche reprend la logique « concepts au CES, industrialisation si l’intérêt est là », déjà vue avec Project Carol devenu produit commercial.

Prototype holographique, multi‑modèles et choix du LLM

Présenté comme coach virtuel au CES 2025, Project AVA évolue en compagnon IA de bureau à composante « semi‑physique ». Au CES 2026, Razer a montré une version holographique : un affichage animé de 5,5 pouces avec eye‑tracking, mouvements expressifs et synchronisation labiale naturelle. AVA comprend le contexte et interprète l’activité à l’écran via un mode PC Vision, avec réponses en temps réel.

Razer Project AVA : Min-Liang Tan fustige le « GenAI slop » et précise la feuille de route

Les avatars, conçus avec Animation Inc., incluent Kira et Zane de Razer, ainsi que SAO, influenceuse japonaise, chacun avec style visuel et personnalité conversationnelle distincts. Pour la démo, Razer a retenu Grok (xAI) pour sa vivacité et sa personnalité. Le message est néanmoins clair : AVA est une plateforme ouverte et multi‑modèles, compatible avec divers LLM au lancement, afin de laisser le choix à l’utilisateur selon l’usage.

Razer applique cette flexibilité ailleurs, comme sur Project Motoko, un prototype de casque IA wearable motorisé par ChatGPT. L’axe stratégique reste identique : expérimenter de façon responsable, favoriser l’interopérabilité des modèles et sélectionner le moteur conversationnel ou orienté tâches le plus adapté.

Razer Project AVA : Min-Liang Tan fustige le « GenAI slop » et précise la feuille de route

Côté mise sur le marché, Razer parle de principes de conception responsable, de comportements prédictibles et d’un contrôle utilisateur renforcé. Aux États‑Unis, un dépôt de réservation de 20 $, entièrement remboursable et non assimilé à une précommande, sert à mesurer l’intérêt avant la finalisation du produit. À ce stade, pas de tarif public ni de fenêtre de commercialisation annoncés. Estimation indicative si produit autour de ces démos : sans données, conversion euro non pertinente.

Razer Project AVA : Min-Liang Tan fustige le « GenAI slop » et précise la feuille de route

Le positionnement de Razer répond à une attente nette du marché PC : des assistants qui améliorent la pratique (jeux, création, streaming) sans dégrader l’UX par du contenu généré médiocre. L’ouverture multi‑LLM est un point clé pour éviter l’enfermement technologique et suivre le rythme des modèles de pointe. Si l’intégration PC Vision et l’avatar 5,5 pouces tiennent leurs promesses en latence et robustesse, AVA peut s’imposer comme accessoire utile plutôt que gadget.

Source : TechPowerUp

Apple VSSFlow : un modèle unifié vidéo-vers-son et texte-vers-parole

Par :Wael.K
11 février 2026 à 08:20

Apple s’est associé à l’Université Renmin de Chine pour dévoiler VSSFlow, un modèle d’IA capable de générer en une seule passe la bande-son complète d’une vidéo muette : effets d’ambiance synchronisés à l’image et voix humaines pilotées par script. Là où le secteur séparait jusqu’ici « vidéo-vers-son » et « texte-vers-parole », avec des pipelines complexes et des compromis de qualité, VSSFlow unifie les deux tâches et revendique un net gain sur les métriques clés face aux modèles spécialisés.

Apple VSSFlow : un modèle unifié vidéo-vers-son et texte-vers-parole

Un modèle unifié, 10 niveaux et une approche « flow matching »

Le système adopte une architecture en 10 couches et s’appuie sur des techniques de « flow matching » pour apprendre à reconstruire le signal audio cible à partir de bruit aléatoire, sans chaînage de modèles. Le cœur de la promesse est la synchronisation : VSSFlow extrait des indices visuels à 10 images/s pour sculpter les sons d’environnement au bon timing, tout en générant la voix selon un script texte, avec alignement précis.

Apple VSSFlow : un modèle unifié vidéo-vers-son et texte-vers-parole

Contrairement aux approches par étapes, l’entraînement conjoint n’a pas créé d’interférences entre tâches selon les auteurs ; il a même produit un effet d’entraide. L’exposition à la parole améliorerait la qualité des effets, et réciproquement, l’abondance d’effets enrichirait la robustesse de la synthèse vocale en contexte bruité.

Données hybrides et résultats annoncés

Le dataset mélange des vidéos avec ambiance sonore, des vidéos parlées sous-titrées et des paires texte-parole. Des échantillons synthétiques ont été utilisés pour le réglage fin, afin que le modèle apprenne à émettre simultanément fond sonore et voix. En test, VSSFlow surpasse des références dédiées à un seul objectif, selon les métriques retenues par l’équipe.

Le code est disponible sur GitHub, avec une ouverture des poids et une démo d’inférence en ligne annoncées comme en préparation. Aucun détail matériel n’est fourni sur l’infrastructure d’entraînement, ni sur les contraintes de calcul en inférence, mais l’extraction visuelle à 10 i/s laisse entendre une cible temps réel ou quasi temps réel pour le montage assisté.

Pour Apple, l’intérêt stratégique est double : un pipeline unifié réduit la complexité d’intégration dans des workflows de production et de post‑prod, tout en rognant l’écart entre génération « proprette » et rendu contextuel crédible. Si les poids sont réellement publiés et la démo convaincante, le modèle pourrait bousculer les briques audio des éditeurs vidéo et des engines temps réel, en particulier sur les cas d’usage doublage + foley automatisés.

Source : ITHome

Qwen-Image-2.0 : génération d’images 2K et typographie fiable unifiées

Par :Wael.K
11 février 2026 à 08:19

Alibaba Qwen dévoile Qwen-Image-2.0, une nouvelle génération de modèle de génération d’images qui fusionne texte‑to‑image et édition d’images dans un unique système. La promesse : un rendu typographique nettement plus professionnel, une meilleure fidélité photoréaliste en 2K, une compréhension sémantique accrue pour suivre les consignes complexes, et une architecture plus compacte pour des temps d’inférence plus courts. L’API est ouverte en accès anticipé sur Alibaba Cloud Baichuan, et le modèle est testable gratuitement via Qwen Chat.

Qwen-Image-2.0 : génération d’images 2K et typographie fiable unifiées

Texte net, composition maîtrisée, 2K natif

Le point saillant est la « lecture/écriture » du texte dans l’image. Qwen-Image-2.0 accepte jusqu’à 1 000 tokens d’instructions et sort des infographies, affiches, planches de BD ou slides avec une mise en page alignée, hiérarchisée et multi‑scripts, sans approximations de glyphes ni artefacts de vectorisation. L’équipe montre des cas de figures saturés en texte (infographies A/B test, calendriers lunaires, calligraphies classiques, inscriptions sur t‑shirts, vitrines, magazines) avec respect des polices, de l’empattement, de l’orientation et de l’intégration matière/lumière.

Sur le réalisme, le modèle passe en génération 2 048 × 2 048, avec un soin particulier aux textures micro‑détails (peau, tissages, pierre, feuillage) et aux interactions optiques crédibles (réflexions sur verre, profondeur de champ, brouillard atmosphérique). Les visuels fournis illustrent une gestion propre des scènes denses, y compris les rendus « image dans l’image » et les superpositions texte‑image sans obstruction du sujet.

Qwen-Image-2.0 : génération d’images 2K et typographie fiable unifiées

Génération + édition unifiées, consignes longues, architecture allégée

Qwen-Image-2.0 unifie la compréhension et la génération pour la création et l’édition dans le même flux, ce qui évite les bascules de pipeline. Le modèle suit plus strictement les prompts longs, y compris les contraintes de cadrage, d’alignement typographique, de styles calligraphiques précis ou de cohérence multi‑vues. Les exemples incluent le titrage directement sur photos, les montages multi‑images cohérents, et l’incrustation contrôlée d’éléments 2D stylisés sur une base photographique réelle, sans casser la vraisemblance lumineuse.

Alibaba met aussi en avant une architecture plus légère et une latence réduite pour produire des images 2K « en quelques secondes ». Sans fiche technique publique détaillée, la communication insiste sur l’équilibre entre fidélité visuelle et vitesse d’inférence dans une enveloppe modèle plus petite que la génération précédente.

Qwen-Image-2.0 : génération d’images 2K et typographie fiable unifiées

Pour l’écosystème, l’intégration propre du texte au sein des pipelines de génération marque une inflexion utile pour les cas pro encore mal servis par les diffuseurs classiques : infographie dense, poster avec crédits longs, maquettes de slides, interfaces annotées ou signalétique sur matériaux. Si la qualité réelle dépendra des jeux de prompts et de l’outil d’édition en amont, la convergence « photoréalisme + typographie fiable » dans un seul modèle est précisément la case que cherchaient à cocher les studios créa et les équipes produit.

Source : ITHome

Ming-Flash-Omni 2.0 : modèle multimodal unifié audio/vision ouvert par Ant Group

Par :Wael.K
11 février 2026 à 08:18

Ant Group ouvre Ming-Flash-Omni 2.0, un grand modèle « full-stack » multimodal orienté compréhension et génération unifiées. Sur les benchmarks publics, l’éditeur revendique des gains notables en vision-langage, en génération audio pilotable et en image (génération/édition), avec un positionnement clair sur la stabilité d’inférence et le coût.

Audio unifié sur une seule piste, contrôle fin et temps réel

Ming-Flash-Omni 2.0 s’affiche comme un modèle d’audio unifié « toutes scènes » capable de générer voix, effets d’ambiance et musique sur une seule piste. Les paramètres voix — timbre, vitesse, intonation, volume, émotion, dialecte — se pilotent en langage naturel, avec clonage de timbre en zéro-shot et options de personnalisation.

Le modèle revendique un taux d’inférence très bas à 3,1 Hz, ce qui autorise une synthèse longue (minutes) en haute fidélité quasi temps réel. Sur ce volet, Ant vise un avantage coût/perf en production, un point critique pour l’industrialisation de contenus audio et les assistants vocaux étendus.

Vision et image : reconnaissance fine et édition robuste

Côté vision, l’entraînement sur des volumes « à l’échelle du milliard » et une stratégie de « hard examples » rehausse l’identification d’objets proches ou peu fréquents, y compris détails d’artisanat, espèces proches et artefacts rares. En image, la stabilité en édition progresse sur les tâches complexes : ajustement lumière/ombres, remplacement de scène, correction de pose et retouche en un clic, tout en conservant cohérence temporelle et détails sur scènes dynamiques.

Sur la partie texte-image, l’objectif n’est pas une démonstration de SOTA générique, mais une fiabilité d’outils, ce qui intéresse directement la chaîne de production créative où les échecs stochastiques coûtent cher.

Architecture, ouverture et feuille de route

Le modèle est entraîné sur la base Ling-2.0, une architecture MoE (100B-A6B). Ant met en avant une trajectoire produit où l’unification multimodale ne sacrifie plus les performances spécialisées, avec des scores qui dépasseraient certains modèles dédiés sur des périmètres précis. L’ouverture de Ming-Flash-Omni 2.0 en fait un « socle réutilisable » pour des pipelines bout à bout, évitant la concaténation de modèles hétérogènes et ses surcoûts d’orchestration.

Poids et code d’inférence sont publiés sur Hugging Face. Une instance hébergée est accessible via la plateforme officielle Ling Studio de Bailing pour tests et intégration. L’équipe annonce des chantiers actifs sur la compréhension temporelle vidéo, l’édition d’image complexe et la latence en génération d’audio long, avec une consolidation de la toolchain et des protocoles d’évaluation.

Pour l’écosystème, l’intérêt dépasse l’effet d’annonce : un modèle réellement unifié qui tient la route en audio, vision et génération réduit la dette d’intégration côté développeurs et peut déplacer la valeur vers des produits multimodaux plus cohérents, en particulier là où la stabilité de sortie et le pilotage fin priment sur le pur score académique.

Source : ITHome

DuckDuckGo lance un chat vocal privé : Duck.ai mise sur l’anonymat et zéro rétention

Par :Wael.K
11 février 2026 à 08:16

DuckDuckGo a dévoilé le 10 février une fonction de chat vocal temps réel pour sa plateforme Duck.ai, avec une promesse centrale : ne pas stocker les flux audio et limiter strictement l’exposition des données. L’approche privilégie la confidentialité, en plaçant DuckDuckGo comme intermédiaire entre l’utilisateur et le modèle sous-jacent d’OpenAI, derrière une couche technique et contractuelle censée bloquer toute rétention.

Instructions en chinois sur l'utilisation de Duck.ai pour le chat vocal.

Techniquement, la conversation transite par WebRTC avec chiffrement de bout en bout et relai via des serveurs intermédiaires. DuckDuckGo dit anonymiser les requêtes et n’envoyer à OpenAI que le strict minimum nécessaire au traitement, sans métadonnées identifiantes. Les flux sont éphémères : transmis uniquement pendant la prise de parole, détruits une fois la session close.

Le cadre contractuel est présenté comme contraignant pour les deux parties : pas d’entraînement de modèles sur les contenus des utilisateurs, pas de journalisation des échanges, pas de conservation après l’appel. DuckDuckGo insiste sur une « cloison » opérationnelle visant à empêcher l’agrégation ou la réexploitation ultérieure des voix et réponses.

Usage, limites et modèle économique

Écran d'accueil Duck.ai avec icône lumineuse et texte en chinois.

Duck.ai reste accessible gratuitement sans inscription, avec un quota quotidien. Un abonnement à 10 $/mois (environ 9,30 €) élargit nettement les limites d’usage et ajoute des services périphériques d’hygiène numérique : suppression d’informations personnelles et accompagnement en cas d’usurpation d’identité.

L’offre cible un public sensible à la confidentialité vocale, là où la concurrence s’appuie souvent sur des journaux de sessions et des clauses d’entraînement par défaut. La proposition de valeur repose moins sur la performance brute du LLM, fourni par OpenAI, que sur l’orchestration, la minimisation des données et l’absence de rétention déclarée.

Si DuckDuckGo parvient à tenir cette ligne sans fuites ni dérogations contractuelles, le service pourrait s’installer comme l’option « private-first » du chat vocal. À court terme, l’enjeu sera la transparence opérationnelle et la résistance aux demandes de conservation côté prestataires ; à moyen terme, la différenciation se jouera sur la latence, la robustesse réseau et la capacité à maintenir des garanties de non-entraînement face à l’évolution rapide des modèles.

Source : ITHome

IA au travail : gains d’efficience, mais journées plus longues et pauses réduites

Par :Wael.K
11 février 2026 à 08:15

Promesse récurrente depuis trois ans dans la tech américaine, l’IA ne devait pas voler les emplois mais libérer du temps. Une étude publiée dans la Harvard Business Review, conduite huit mois au sein d’une entreprise de 200 personnes par des chercheurs de l’Université de Californie à Berkeley, décrit l’inverse : l’adoption des outils d’IA a étiré les journées, comprimé les pauses et alimenté une spirale d’auto-accélération, sans objectifs nouveaux imposés par le management. Parce que « plus devient possible », plus est demandé, souvent par soi-même.

Le témoignage d’un ingénieur résume le décalage : « avec l’IA tu crois gagner du temps, mais tu ne travailles pas moins, parfois plus ». Sur Hacker News, un retour d’expérience concorde : bascule « IA partout » égale attentes triplées, pression triplée, productivité réelle +10 %. La dynamique est classique dans la tech : l’amélioration des outils s’accompagne d’une hausse implicite des standards de vélocité et de réactivité.

Les auteurs ne contestent pas que l’IA amplifie les capacités individuelles. Ils constatent surtout la destination de ces gains : fatigue, sentiment de ne jamais décrocher, et intensification du flux, particulièrement quand l’organisation valorise la réponse instantanée. Autrement dit, le « dividende d’automatisation » est capté par l’empilement de tâches plutôt que par une réduction effective du labeur.

Des gains mesurés, des effets réels sur la charge

Le tableau rejoint d’autres travaux contestés l’an dernier : des développeurs chevronnés, assistés par IA, ont passé 19 % de temps en plus tout en se sentant 20 % plus efficaces ; de son côté, une étude du NBER portant sur des milliers d’entreprises chiffre l’effet global à environ 3 % de temps économisé, sans impact notable sur les revenus ou les heures travaillées. L’écart entre perception de fluidité et production nette demeure.

Dans la société observée par Berkeley, aucun KPI n’a été réhaussé officiellement. La pression s’installe par capillarité : chaque minute « libérée » devient une case à remplir, le backlog enfle parce que l’outil rend faisable ce qui était hors de portée. La boucle se referme dès lors que la norme tacite d’exécution s’accélère.

Un problème d’outillage ou de gouvernance du travail

La portée pour l’industrie est claire : sans garde-fous organisationnels, l’adoption de l’IA convertit des gains marginaux en intensification continue. La question n’est plus « l’IA augmente-t-elle l’efficience ? » mais « qui capture ces gains, et comment sont-ils bornés ? ». À défaut de contrats sociaux explicites sur le rythme et la charge, les outils de productivité alimentent mécaniquement des cultures d’urgence permanente, avec le coût prévisible en rétention et en santé au travail.

Source : ITHome

Insurify intègre un comparateur d’assurance dans ChatGPT et secoue Wall Street

Par :Wael.K
11 février 2026 à 08:11

Insurify lance une application « conçue pour ChatGPT » qui intègre directement la comparaison d’assurances au sein du chatbot. L’outil permet de poser des questions en langage naturel et d’obtenir des devis estimatifs sans formulaires à rallonge, en s’appuyant sur la base de données d’Insurify et les capacités conversationnelles de l’IA d’OpenAI.

Le timing a coïncidé avec une secousse boursière sur les courtiers américains. L’indice S&P 500 Insurance recule de 3,89 %, sa plus forte baisse depuis octobre dernier. Willis Towers Watson décroche de 12,10 %, sa pire séance depuis novembre 2008, Arthur J. Gallagher cède 9,85 %, Aon 9,27 %.

Concrètement, l’application agrège des éléments clés du profil conducteur — localisation, modèle de véhicule, âge, antécédents — pour générer des estimations et afficher, au-delà du prix, des avis clients et les garanties essentielles selon les assureurs. Une fois une offre retenue, l’utilisateur est aiguillé vers la plateforme Insurify, où des conseillers certifiés finalisent la souscription, sans ressaisie inutile.

Un flux de souscription taillé pour le conversationnel

L’intérêt n’est pas tant l’algorithme de tarification — déjà courant — que l’accès via un canal où des centaines de millions d’utilisateurs sont actifs. Le parcours se résume à une session de chat, sans navigation multi-onglets ni champs redondants, avec des réponses reformulées de façon lisible sur des points souvent hermétiques pour le grand public.

Insurify se positionne comme l’un des premiers à brancher un comparateur directement dans ChatGPT, quand nombre d’acteurs se contentent d’assistants internes pour l’explication de garanties, la recommandation de niveaux de couverture ou l’automatisation du support.

Signal de marché pour les intermédiaires

La réaction de Wall Street traduit la crainte d’un déplacement du trafic et de la marge vers des interfaces conversationnelles dominantes. Si l’IA réduit la friction à l’entrée et standardise la découverte de produits, les courtiers dont le modèle repose sur la captation de leads via des parcours web classiques risquent de voir leur coût d’acquisition augmenter et leur différenciation s’éroder, à moins d’intégrer ces canaux et de renforcer leur valeur conseil sur des cas complexes.

Source : ITHome

Xbox Game Pass : vers une fusion PC + Premium qui simplifierait l’offre

Par :Wael.K
11 février 2026 à 08:08

Microsoft teste l’idée d’un palier unique qui regrouperait Xbox et PC, avec à la clé une grille d’abonnements enfin lisible pour les joueurs.

Xbox Game Pass : fusion à l’étude et simplification des paliers

Selon des informations concordantes de The Verge et Windows Central, Microsoft explore la fusion des offres PC Game Pass et Xbox Game Pass Premium en un seul palier. Objectif évident : réduire la complexité actuelle qui brouille les choix d’abonnement et freine l’adoption.

À date, le PC Game Pass est facturé 16,49 $/mois (environ 15,30 €) après une hausse proche de 40 % en octobre, tandis que le palier Xbox Game Pass Premium coûte 15 $/mois (environ 13,95 €) sans donner accès à l’intégralité du catalogue PC. Tout en haut, l’Ultimate est positionné à 30 $/mois (environ 27,90 €) avec les sorties day one first-party et des avantages EA Play, Ubisoft+ Classics et Fortnite Crew.

La consolidation PC + Premium poserait deux questions clés : le maintien d’un tarif proche des 16,49 $ pour les abonnés PC, et l’alignement des fonctionnalités entre plateformes. Microsoft étudierait parallèlement l’intégration de bundles tiers supplémentaires au sein de Game Pass.

Contexte matériel : une Xbox next-gen proche d’un PC sous Windows 11

Cette piste intervient alors que la prochaine Xbox est décrite comme un hybride PC/console, avec un démarrage sur une interface Xbox et un Windows 11 embarqué. Un tel choix pourrait faciliter l’exécution de boutiques comme Steam et Epic Games Store, et rend cohérente une offre d’abonnement unifiée entre PC et console.

L’échéance évoquée reste lointaine : un lancement en 2027 est suggéré, laissant du temps à Microsoft pour stabiliser la stratégie d’abonnements et clarifier le positionnement face à l’Ultimate.

Si Microsoft opte pour un palier fédérateur PC + Xbox, la lisibilité tarifaire pourrait s’améliorer sans cannibaliser l’Ultimate, qui conserverait ses avantages premium. La clé sera un pricing perçu comme équitable par le parc PC, fraîchement touché par une hausse tarifaire, et une gestion fine des catalogues entre plateformes pour éviter la fragmentation qui a ralenti la dynamique d’abonnement côté Xbox.

Source : TechPowerUp

Silicon wafers 2025 : les expéditions rebondissent de 5,8 % mais les revenus reculent

Par :Wael.K
11 février 2026 à 08:00

Les volumes repartent, les dollars traînent. La demande IA tire les tranches 300 mm tandis que les marchés matures freinent encore la monétisation.

Silicon wafers : volumes 2025 en hausse, revenus en retrait

Le SEMI Silicon Manufacturers Group (SMG) publie un total de 12 973 MSI en 2025, en progression de 5,8 %. Dans le même temps, le chiffre d’affaires glisse de 1,2 % à 11,4 Md$ (environ 10,6 Md€ à titre indicatif).

Le rebond des expéditions est soutenu par la vigueur des wafers épitaxiés avancés pour le logic et des wafers polis pour la HBM, tous deux dopés par les usages IA. La faiblesse des revenus s’explique par l’inertie des applications traditionnelles, où demande et prix restent sous pression.

300 mm, HBM et sub-3 nm au centre du jeu

Ginji Yada (SEMI SMG, SUMCO) souligne un marché à deux vitesses sur 2025-2026 : forte traction des 300 mm pour le logic IA et la HBM, portée par l’adoption continue des procédés sub-3 nm. Les exigences de qualité et de régularité matière montent, poussant les solutions matériaux avancées.

En miroir, les nœuds matures (automobile, industriel, électronique grand public) se stabilisent. Les stocks wafer et puces se normalisent après de longs ajustements, mais le redressement reste graduel et dépendant du macro et des dynamiques de fin de marché.

Divergence durable entre avancé et mature

L’investissement data centers et générative maintient la cadence côté avancé, où performance et fiabilité priment. À l’inverse, le rattrapage des segments legacy demeure prudent, ce qui nourrit l’écart entre volumes solides et revenus qui tardent à suivre.

Pour les chaînes d’approvisionnement, l’équation est claire : assurer des capacités en épitaxié/poli haut de gamme et sécuriser la consistance des 300 mm tout en évitant de surinvestir sur les lignes dédiées aux nœuds matures dont la reprise reste séquentielle.

Source : TechPowerUp

Overwatch 2 : Blizzard revoit Anran après un tollé, Keller promet une refonte

Par :Wael.K
11 février 2026 à 06:14

Un nouveau visage devait dynamiser la saison 1 de 2026. Il déclenche finalement une refonte assumée par la direction du jeu.

Overwatch 2 : Blizzard corrige le tir sur Anran

Blizzard a présenté un lot de nouveaux héros et des changements structurels et gameplay pour le début de la saison 1 de 2026. Parmi eux, Anran a cristallisé un mécontentement marqué : design jugé générique, traits adoucis par rapport à une apparition antérieure dans la bande-annonce de son frère, et critiques publiques de sa comédienne, qui a dénoncé un style « Ozempic chic ».

Illustration d'un personnage d'Overwatch 2 tenant une orbe avec le logo d'Overwatch

Le directeur du jeu, Aaron Keller, a réagi en indiquant que l’équipe va retravailler Anran pour qu’elle « ressemble davantage à la grande sœur farouche que nous avions tous en tête ». Il estime pouvoir améliorer le personnage au-delà de son itération actuelle, sans détailler les ajustements avant la phase de tests. La décision divise : une partie de la communauté salue l’écoute, d’autres y voient une capitulation et disent perdre de l’intérêt pour le jeu.

Réactions contrastées et calendrier

Le timing reste lié au déploiement de la saison 1 2026, qui embarque également 10 nouveaux héros et une refonte des systèmes de jeu. Blizzard n’a pas partagé d’éléments concrets sur le périmètre exact des modifications d’Anran avant validation interne. Les retours initiaux proviennent majoritairement de Reddit et d’X, avec des avis polarisés sur l’orientation artistique et la communication.

À l’échelle produit, cette révision en amont du lancement illustre une itération accélérée sur l’identité visuelle d’un personnage clé. Le risque est double : préserver la cohérence artistique tout en répondant à des attentes hétérogènes, sans diluer la personnalité d’Anran ni décaler le reste du pipeline de contenu de la saison.

Source : TechPowerUp

Cisco Silicon One G300 : un ASIC 102,4 Tb/s pour doper les fabrics IA

Par :Wael.K
10 février 2026 à 22:59

Cisco a profité de Cisco Live Amsterdam pour présenter son nouveau fleuron Ethernet, le Cisco Silicon One G300. Cette puce de commutation affiche 102,4 Tb/s de capacité agrégée et aligne 64 interfaces 1000GbE en full-duplex, avec des SerDes à 224 Gb/s, la prise en charge de RDMA et RoCE v2.

Un ASIC 102,4 Tb/s pensé pour les fabrics IA

Au-delà des débits, Cisco met en avant une technologie d’orchestration collective intégrée destinée aux charges distribuées, annoncée comme capable d’absorber les variations de trafic et d’améliorer l’utilisation du réseau de 33 %, tout en réduisant le temps d’exécution des jobs de 28 %. Dans un contexte d’entraînement et d’inférence massifs, le constructeur promet un gain direct sur les cadences de génération de tokens.

Le G300 sert de base aux nouveaux commutateurs Cisco Nexus 9000 et aux routeurs Cisco 8000. Ces plates-formes seront proposées en version à refroidissement intégral par liquide, avec une promesse d’augmentation sensible de la densité de bande passante et jusqu’à 70 % d’efficacité énergétique en plus par rapport aux variantes conventionnelles.

Chaîne optique 1,6T et modules 800G LPO

Pour les interconnexions scale-out des clusters IA, Cisco ajoute un OSFP 1,6 Tbit/s et des modules 800G LPO linéaires sans redriver/retimer. Cette approche réduit la complexité et vise directement la consommation, avec un -50 % au niveau du module optique ou -30 % sur la consommation globale du châssis selon le constructeur.

L’ensemble dessine une stratégie très agressive sur le coût énergétique par bit et la densité par U. Si les chiffres internes se confirment en production, l’option full liquid cooling couplée aux LPO pourrait rebattre les cartes sur le TCO des fabrics Ethernet face aux déploiements InfiniBand haut de gamme, notamment dans les salles où la marge thermique est le facteur limitant.

Source : ITHome

OpenAI abandonne la marque « io » et repousse son appareil IA à 2027

Par :Wael.K
10 février 2026 à 22:58

OpenAI ne commercialisera pas sa première machine sous la marque « io ». Selon des documents judiciaires déposés hier et cités par Wired, l’entreprise a renoncé aux appellations « io » et « IYO » pour tout nommage, marketing, publicité et vente liés à ses produits matériels, après une plainte pour contrefaçon de marque initiée l’an dernier par la start-up audio iyO.

Dans le même dépôt, Peter Welinder, vice-président d’OpenAI, précise que le calendrier s’est éclairci côté hardware : aucune livraison au grand public avant fin février 2027. Un contre-pied net face aux déclarations antérieures faisant état d’un lancement envisagé au second semestre de cette année.

Recul stratégique sur la marque et sur le calendrier

OpenAI a acquis en 2023 la société io fondée par Jony Ive, ex-Apple. Le conflit de marque avec iyO a visiblement fermé la porte à « io » pour le branding final. Welinder indique par ailleurs qu’aucun packaging ni support marketing n’a été produit à ce stade, ce qui corrobore un développement encore au stade de prototype.

Le produit visé resterait un appareil sans écran, destiné au bureau, pensé pour fonctionner en tandem avec un smartphone ou un ordinateur portable. OpenAI n’a pas répondu aux demandes de commentaire.

Le décalage jusqu’en 2027 change sensiblement la donne du segment « AI device ». Les acteurs déjà positionnés sur les terminaux IA autonomes gagneront un boulevard temporel pour itérer sur le matériel, l’optimisation énergétique et l’intégration logicielle, tandis qu’OpenAI devra verrouiller l’industrialisation et un écosystème d’usages suffisamment différenciants pour éviter d’arriver avec un simple accessoire vocal de plus.

Source : ITHome

SilverStone XE02 : deux ventirads SFF 2U pour AM5 et sTR5 jusqu’à 350 W

Par :Wael.K
10 février 2026 à 22:50

Deux nouveaux refroidisseurs 2U débarquent chez SilverStone, avec un 60 mm prêt à grimper à 14 000 tr/min. De quoi tenir jusqu’à 350 W sur plates-formes sTR5/SP6/TR4/SP3.

SilverStone XE02 : SFF 2U, cinq caloducs et 60 mm PWM

SilverStone élargit en douceur sa gamme avec deux modèles SFF destinés aux serveurs et stations 2U : SST‑XE02‑AM5B pour AM5 (et compatibilité AM4 indiquée) et SST‑XE02‑TR5B pour sTR5, SP6, TR4 et SP3. Les deux partagent une base à cinq caloducs de 6 mm et un empilement d’ailettes en aluminium.

Vue de dessus du ventilateur SilverStone XE02 avec flèche de flux d'air
Vue de dessus du ventilateur SilverStone XE02 avec flèche verte indiquant le flux d'air

Le ventilateur central de 60 mm, PWM et roulements à billes, annonce une plage de 2 000 à 14 000 tr/min, un débit maximal de 72,8 CFM et une pression statique de 47,18 mmH2O. La MTTF est donnée à 70 000 heures.

Compatibilités et enveloppes thermiques

Le XE02‑AM5B vise les processeurs AM5/AM4 avec une prise en charge jusqu’à 170 W de TDP. Le XE02‑TR5B, légèrement plus massif, monte à 350 W et cible notamment les EPYC 8004 et Ryzen Threadripper 7000 sur sTR5, ainsi que SP6/TR4/SP3.

Ventirad AMD Socket AM5 avec visuel de la carte mère correspondante

Malgré le même ventilateur, l’écart de capacité annoncée provient du design du radiateur et de la surface d’échange adaptée aux IHS et aux répartitions de charges thermiques très différentes entre AM5 et sTR5/SP6/TR4/SP3.

Ventirad AMD TR5 avec visuel de la carte mère correspondante

Positionnement en châssis 2U

Le format bas‑profil et la pression statique élevée répondent aux contraintes de flux en baie 2U, avec une priorité claire au maintien des fréquences sous charge soutenue. La plage PWM étendue offre une marge d’exploitation fine selon la politique acoustique du rack.

Source : TechPowerUp

HBM3 CXMT : 20 % de la capacité allouée en 2026, 60 000 wafers/mois visés

Par :Wael.K
10 février 2026 à 22:24

Le rythme s’intensifie et la part dédiée à la HBM3 progresse nettement chez CXMT, entraînant dès 2026 une réorganisation industrielle de grande ampleur.

HBM3 CXMT : 20 % de la capacité dédiée en 2026

Des rapports récents indiquent que CXMT a lancé la fabrication de masse de modules HBM3. Le fabricant chinois suit la trace des acteurs sud-coréens, qui produisent de l’HBM3 depuis 2023, avec une rampe désormais assumée sur 2026.

Logo de CXMT avec texte sous le nom

Selon une source citée par MK South Korea, CXMT viserait 60 000 wafers par mois dédiés à l’HBM3, soit environ 20 % d’une capacité totale estimée à 300 000 wafers/mois en 2026. Les rendements seraient encore discutés, mais l’objectif de passage en production de volume est évoqué.

Partenariats, lignes produits et contraintes

La filière HBM chinoise s’agrège : un partenariat entre CXMT et Huawei est mentionné, avec une implication de YMTC via une coentreprise apparue à l’automne dernier. Les sanctions internationales limitant l’accès à Micron, Samsung et SK hynix renforcent l’orientation vers des solutions locales, déjà visibles avec l’Ascend AI de Huawei et sa HBM maison.

En parallèle, CXMT a montré en 2025 des avancées sur des lignes commerciales, dont des designs DDR5 et LPDDR5X présentés en avant-première en novembre. Début février 2026, ASUS, Acer, Dell et HP étudiaient l’intégration de ces mémoires grand public pour répondre aux tensions d’approvisionnement.

Capacité et montée en charge

Le positionnement HBM3 reste stratégique face à l’explosion des besoins en VRAM empilée pour l’IA. Réaffecter 20 % des wafers à l’HBM3 suggère une ligne prioritaire, avec un impact potentiel sur les volumes DDR5/LPDDR5X si les rendements HBM3 tardent à converger.

Si la montée en volume se confirme, les accélérateurs IA locaux pourraient réduire leur dépendance extérieure. À court terme, la question clé reste l’atteinte d’un yield compétitif, préalable indispensable pour absorber la demande tout en préservant les marges.

Source : TechPowerUp

Directive 8020 : sortie le 12 mai 2026, précommandes ouvertes avec upgrade Deluxe

Par :Wael.K
10 février 2026 à 22:10

Un huis clos spatial signé Supermassive bascule en phase finale : la sortie arrive en mai et les précommandes intègrent d’emblée un passage à l’édition Deluxe. De quoi attirer les joueurs qui veulent tout voir dès le jour J.

Sortie, plateformes et contenu de précommande

Directive 8020 sera disponible le 12 mai 2026 sur PlayStation 5, Xbox Series X|S et PC (Steam). Éditions physique et numérique sur PS5 et Xbox Series X|S, PC en numérique uniquement. Les précommandes sont ouvertes sur consoles, celles de Steam arrivent prochainement.

Directive 8020 : sortie le 12 mai 2026, précommandes ouvertes avec upgrade Deluxe

Supermassive propose un upgrade gratuit vers la Deluxe Edition pour les précommandes, dans la limite des stocks retail. Le pack inclut The Dark Pictures Outfit Pack, The Dark Pictures Collectables, Cinematic Filter Pack, la bande-son numérique et un artbook numérique.

Gameplay narratif et Turning Points

Le trailer Comply met en avant des décisions à haut risque : Cooper, la médecin de bord, doit choisir s’il faut libérer Mitchell derrière une porte scellée, avec un doute persistant sur sa nature humaine. Autre séquence clé, la révélation d’un « double » où deux versions de Cernan surgissent, obligeant à identifier le mimic sous la menace d’une issue fatale.

Directive 8020 : sortie le 12 mai 2026, précommandes ouvertes avec upgrade Deluxe

Directive 8020 introduit Turning Points, une fonction inédite dans The Dark Pictures pour remonter à des décisions charnières. Trois approches sont prévues : complétionnistes (branches et fins cachées), protection de personnages (annuler une mort), et mode Survivant sans filet, avec décès permanents.

Le trailer tease également l’exploration planétaire de Tau Ceti f. Côté casting, Lashana Lynch incarne la pilote Brianna Young, sur la piste « Comply » du groupe Blood Red Shoes.

Directive 8020 : sortie le 12 mai 2026, précommandes ouvertes avec upgrade Deluxe

Modes de jeu et calendrier multijoueur

Le jeu sortira en solo et en coop locale jusqu’à 5 joueurs, dès le 12 mai. Le multijoueur en ligne arrivera via une mise à jour gratuite après lancement.

Directive 8020 : sortie le 12 mai 2026, précommandes ouvertes avec upgrade Deluxe
Directive 8020 : sortie le 12 mai 2026, précommandes ouvertes avec upgrade Deluxe

Le positionnement mêle la grammaire interactive de The Dark Pictures à un cadre SF plus ouvert avec segments planétaires, tout en laissant la porte à l’expérimentation grâce à Turning Points. L’upgrade Deluxe offert en précommande et la coop canapé jusqu’à 5 joueurs constituent des leviers d’adoption efficaces au lancement, en attendant l’online.

Source : TechPowerUp

Intel Core Ultra 400 : NPU à 74 TOPS et compatibilité Copilot+ en ligne de mire

Par :Wael.K
10 février 2026 à 22:09

Un NPU de bureau affichant 74 TOPS, bien au-delà du seuil Copilot+, place le prochain haut de gamme d’Intel sur une trajectoire radicalement différente de l’actuel Arrow Lake-S.

En effet, comme évoqué précédemment à l’occasion d’une récente rumeur relayée par Jaykihn, cette génération embarquerait le NPU6 annoncé, offrant des performances plus de cinq fois supérieures à celles d’Arrow Lake-S.

Intel Core Ultra 400 et NPU 74 TOPS

La série Core Ultra 400 « Nova Lake-S » serait le premier lineup desktop d’Intel taillé pour l’accélération native Microsoft Copilot+. Son NPU grimperait à 74 TOPS, bien au-delà des 40 TOPS requis par Copilot+. C’est un saut notable face aux 13 TOPS des actuels Arrow Lake-S et du refresh à venir, tous deux héritant du NPU Meteor Lake.

L’information provient cette fois d’une capture issue d’un document ayant fuité, partagée par X86 is dead&back. Elle mentionne un NPU à 74 TOPS pour Nova Lake, contre 13 TOPS pour Arrow Lake Refresh. La fiche évoque également une fenêtre 2H26, ce qui confirmerait une sortie prévue en 2026.

Détails des performances NPU avec Arrow Lake et Nova Lake, affichant 13 et 74 TOPS respectivement.

Toutes les références Nova Lake-S n’atteindront pas nécessairement 74 TOPS, mais l’espace de segmentation laisse envisager un plan produit où même l’entrée de gamme satisferait le plancher des 40 TOPS. Côté mobile, Intel a déjà validé la cible avec Lunar Lake ; en desktop, il faudra attendre le calendrier de la série 4.

AMD en embuscade sur Copilot+ desktop

AMD pourrait toutefois coiffer Intel au poteau sur le premier processeur socket desktop Copilot+ ready. Les APU Ryzen AI 400 « Gorgon Point » en Socket AM5 sont évoqués plus tôt que la fenêtre fin 2026 prêtée aux Core Ultra Series 4 desktop. Le timing de commercialisation pourrait donc décider du premier badge Copilot+ sur tour.

Enjeux pour l’écosystème PC

Si le NPU 74 TOPS se généralise en desktop, on verra converger les exigences Copilot+ avec des profils d’usage créa et productivité lourds sans carte dédiée. Pour les intégrateurs, la barre Copilot+ à 40 TOPS devient un axe de différenciation clair, que ce soit via APU AMD ou CPU Intel avec iGPU/NPU renforcés.

Source : TechPowerUp

Intel TDX : audit conjoint Intel-Google, 5 vulnérabilités corrigées et 35 faiblesses relevées

Par :Wael.K
10 février 2026 à 21:36

Cinq mois d’audit et des correctifs livrés ; Intel et Google resserrent les boulons sur TDX et son module 1.5, pilier des VM confidentielles.

Qu’est-ce que Intel® TDX ?

Intel Trust Domain Extensions (TDX) est la dernière innovation d’Intel en matière d’informatique confidentielle. Cette technologie repose sur un environnement d’exécution de confiance (TEE) directement implémenté au niveau matériel, permettant le déploiement de domaines de confiance (TD). Ces derniers prennent la forme de machines virtuelles isolées du reste du système, conçues pour protéger efficacement les données et applications sensibles contre tout accès non autorisé, y compris au niveau de l’infrastructure sous-jacente.

Intel TDX, co-validation et durcissement du module 1.5

Intel et Google Cloud Security ont mené une revue conjointe du module Intel TDX 1.5, avec l’équipe INT31 d’Intel. Bilan : 5 vulnérabilités et 35 autres faiblesses ou axes d’amélioration. Intel indique que les 5 vulnérabilités ont été corrigées dans la dernière version de code livrée aux partenaires.

TDX isole matériellement des « Trust Domains » des hyperviseurs via SEAM et un module signé numériquement. Le TDX Module agit comme un shim exécuté en SEAM pour appliquer des politiques que le matériel seul ne peut pas faire respecter. Sa compromission pourrait contourner l’isolation, d’où la criticité de sa vérification.

Fonctionnalités ciblées et méthode d’audit

La revue a ciblé des fonctionnalités complexes introduites avec le TDX Module 1.5 : Live Migration et TD Partitioning. La Live Migration déplace une VM chiffrée entre serveurs physiques sans interruption ni exposition des clés à l’hyperviseur non fiable. Le TD Partitioning autorise des VM imbriquées au sein d’un TD, ajoutant des couches d’abstraction nécessitant des contrôles rigoureux.

Google a combiné revue manuelle de code, outils maison de recherche de bugs et analyse assistée par IA (Gemini Pro) pour repérer des défauts logiques. Cette approche hybride s’inscrit dans une dynamique de co-validation où des partenaires majeurs auditent des briques fondamentales avant déploiement large.

Confiance matérielle et garantie pour les clients

Intel rappelle qu’aucun produit n’est absolument sécurisé et que multiplier les regards renforce la robustesse. Pour les entreprises, la démarche renforce l’assurance que la racine matérielle de confiance est activement testée par des tiers indépendants, avant une montée en charge à l’échelle.

Dans un contexte où TDX structure la sécurité des data centers, la correction rapide des 5 vulnérabilités et la cartographie de 35 faiblesses montrent une maturité opérationnelle autour de la Live Migration et du TD Partitioning. Les hyperscalers ont intérêt à ce modèle d’audit partagé, qui réduit le risque systémique en amont des déploiements massifs.

Source : TechPowerUp

DLSS 4 arrive sur High On Life 2, Yakuza Kiwami 3 & Dark Ties, plus un bundle RE RTX 50

Par :Wael.K
10 février 2026 à 21:24

Trois sorties, une même constante : NVIDIA pousse DLSS 4 et ses itérations à grande échelle, avec à la clé des hausses de FPS et une montée en qualité sur les dernières RTX.

DLSS 4 et Multi Frame Generation au lancement

High On Life 2 arrive le 13 février avec DLSS 4 et Multi Frame Generation activables dès le jour 1. Les utilisateurs de l’application NVIDIA pourront aussi basculer DLSS Super Resolution vers DLSS 4.5 Super Resolution pour maximiser la netteté en parallèle du gain de performances.

Illustration colorée de High On Life 2 avec personnages et ville futuriste

Yakuza Kiwami 3 & Dark Ties sort demain, le 11 février, avec DLSS Frame Generation, DLSS Super Resolution et NVIDIA Reflex dans le jeu complet comme dans la démo. Via l’application NVIDIA, DLSS Frame Generation passe en Multi Frame Generation et DLSS Super Resolution en DLSS 4.5 Super Resolution, pour des fréquences d’images multipliées et une image plus propre.

Yakuza Kiwami 3 Dark Ties affichant deux personnages en noir et blanc

Bundle Resident Evil Requiem pour les RTX 50 Series

Le bundle GeForce RTX 50 Series avec Resident Evil Requiem est disponible dès aujourd’hui. L’achat d’un PC de bureau ou d’une carte graphique GeForce RTX 5090, 5080, 5070 Ti ou 5070, ou d’un laptop équipé d’une GeForce RTX 5090, 5080, 5070 Ti ou 5070, chez les revendeurs participants, donne droit à une copie Steam du jeu.

Le titre exploite un path tracing intégral, accéléré par DLSS 4 avec Multi Frame Generation et DLSS Super Resolution, et bénéficie de NVIDIA Reflex pour réduire la latence. C’est aujourd’hui l’implémentation la plus ambitieuse sur cette série, pensée pour les GPU GeForce RTX 50.

Affiche de Resident Evil Requiem avec deux personnages sous la pluie

REANIMAL et les intégrations à venir

REANIMAL (Tarsier/THQ Nordic) sort le 13 février avec DLSS Super Resolution et DLAA. Là encore, l’application NVIDIA permet de migrer vers DLSS 4.5 Super Resolution pour une qualité accrue.

NVIDIA annonce par ailleurs d’autres intégrations DLSS et RTX à court terme. La liste des titres compatibles, ainsi que ceux validant les overrides DLSS de l’application NVIDIA, continue de s’allonger.

L’enchaînement de sorties compatibles DLSS 4, couplé au bundle Resident Evil Requiem, confirme la stratégie d’adoption côté éditeurs et l’incitation matérielle côté utilisateurs. La possibilité d’upgrader localement vers DLSS 4.5 via l’application NVIDIA aiguise l’intérêt pour la pile logicielle maison, tout en verrouillant l’avantage des RTX 50 sur les workloads path-tracés.

Source : TechPowerUp

NVIDIA GTC 2026 : keynote le 16 mars, deux heures au SAP Center de San Jose

Par :Wael.K
10 février 2026 à 20:31

Deux heures en scène et un préshow matinal ; NVIDIA verrouille le tempo de son rendez-vous annuel dédié aux centres de données et à l’IA.

NVIDIA GTC 2026 : calendrier, formats et lieu

La keynote principale est fixée au lundi 16 mars, de 11 h à 13 h PDT, en live depuis le SAP Center de San Jose. Un « GTC Live 2026 Keynote Pregame » est programmé le même jour de 8 h à 11 h PDT, en amont.

La page GTC 2026 annonce l’événement du 16 au 19 mars, avec des workshops dès le 15 mars. NVIDIA propose l’ajout au calendrier pour le livestream directement depuis la page de keynote.

Ce que suggèrent les précédentes feuilles de route

Lors de la keynote 2025, Jensen Huang a détaillé une roadmap data center : production Blackwell, systèmes Blackwell Ultra prévus pour le second semestre 2025, puis plateforme Vera Rubin en 2026 et Rubin Ultra en 2027. Le volet robotique et simulation a été mis en avant avec le modèle fondation humanoïde Isaac GR00T N1 et des outils associés, dont le moteur physique Newton développé avec Google DeepMind et Disney Research.

Le segment automobile a également été mentionné avec le système de sécurité Halos et des collaborations avec General Motors. GTC demeure centré sur le data center, l’IA et la robotique, sans attendre de grandes annonces orientées grand public.

Dans ce cadre, la fenêtre 2026 pourrait préciser le déploiement de Vera Rubin, l’écosystème logiciel autour d’Isaac et les jalons industriels alignés sur Rubin Ultra 2027, avec un impact direct sur les cadences d’intégration en data centers plutôt que sur le marché gaming.

Source : VideoCardz

Generative AI dans Control Resonant : aucun contenu, mais Remedy garde la porte entrouverte

Par :Wael.K
10 février 2026 à 18:14

Choix tranché pour le prochain shooter de Remedy, avec un impact direct sur la prod et l’acceptabilité par les joueurs. La suite, en revanche, pourrait basculer selon les outils et l’éthique.

Control Resonant sans Generative AI

Markus Mäki, CEO de Remedy, a confirmé en Q&A d’earnings call que Control Resonant n’embarque aucun contenu généré par IA : « Control Resonant does not use generative AI content at all ».

Le studio reste toutefois pragmatique pour la suite. Mäki refuse « des promesses à long terme » et suit l’évolution des outils afin d’évaluer un usage « éthiquement au bon endroit », utile pour le joueur et accepté par les équipes.

Intérêt interne mesuré, industrie divisée

Remedy note un intérêt variable selon les métiers pour tester ces outils. Le tableau colle avec une enquête récente du secteur : 81 % des travailleurs du jeu utilisent l’IA générative pour le brainstorming et 35 % pour le prototypage, mais seuls 7 % jugent son impact positif sur l’industrie.

Chez les grands éditeurs, la ligne n’est pas uniforme. Take-Two indique que GTA VI n’emploiera pas l’IA générative tout en laissant la porte ouverte pour de futurs titres. Ubisoft explore des coéquipiers IA avec commande vocale. EA annonce un pivot large vers l’IA malgré des outils jugés chronophages par certains studios après un an d’usage.

Ce positionnement intervient dans un contexte matériel tendu, entre crise DRAM, flambée des prix DDR4, reports produits et pression accrue sur la supply chain PC.

À court terme, l’absence d’IA générative dans Control Resonant clarifie la proposition pour un public attentif aux méthodes de production. À moyen terme, le virage dépendra de la maturité des pipelines, des garde-fous juridiques et de la capacité des outils à créer de la valeur sans dégrader la cohérence artistique ni le time-to-content.

Source : TechPowerUp

❌