Au Japon, la très nationaliste première ministre libérée par l’écrasante victoire de son camp aux législatives

© KIM KYUNG-HOON/AFP

© KIM KYUNG-HOON/AFP

© JACK GUEZ/AFP
Un GPU positionné au-dessus de la GeForce RTX 5090 refait surface dans certaines discussions, avec un calendrier évoquant le troisième trimestre 2026. Une hypothèse qui circule, mais qui repose pour l’instant sur des bases fragiles.
Overclocking.com avance que NVIDIA travaillerait sur une carte « halo » au-dessus de la RTX 5090, en s’appuyant sur des sources industrielles multiples. Aucun document, visuel ou élément technique concret ne vient toutefois étayer cette information à ce stade. Le média évoque un projet qui dépasserait le simple stade conceptuel, sans lien avec un refresh de type RTX 50 SUPER (toujours pas annoncé), et dont le positionnement oscillerait entre une hypothétique TITAN Blackwell ou une RTX 5090 Ti.
Le point central reste l’absence totale de données vérifiables. Aucun détail sur le die, la configuration mémoire, le TGP ou même la capacité visée n’est mentionné. Or, historiquement, les véritables fuites concernant des modèles ultra-haut de gamme s’accompagnent toujours d’indices techniques précis, ce qui n’est pas le cas ici.
Le contexte actuel fragilise également cette hypothèse. Les contraintes persistantes sur la GDDR7, la priorité donnée aux puces Blackwell pour les marchés IA et l’absence de pression concurrentielle directe au-dessus de la RTX 5090 réduisent fortement l’intérêt économique d’un tel lancement. D’autant que les partenaires proposent déjà des modèles custom extrêmes occupant pleinement le segment ultra-premium.
Comme lors de la génération précédente avec les prototypes TITAN Ada ou RTX 4090 Ti jamais commercialisés, l’existence de travaux internes ne préjuge en rien d’un produit retail. En l’état, cette rumeur ressemble davantage à une spéculation recyclée qu’à une information solide.
Source : VideoCardz
Vendredi 7 février 2026, une coupure d'alimentation survenue dans l'un des datacenters de Microsoft a perturbé les services Microsoft Store et Windows Update.
Le post Windows Update et le Microsoft Store perturbés par une coupure électrique a été publié sur IT-Connect.
Des chercheurs de l’université du Michigan annoncent un cadre d’IA capable de prédire la durée de vie d’une batterie après seulement 50 cycles, contre des centaines voire des milliers en essais classiques. À la clé, des campagnes de validation écourtées de plusieurs mois, une consommation énergétique divisée jusqu’à 20 et une itération plus rapide sur les chimies et formats de cellules.
Publiée dans Nature, la méthode portée par Ziyou Song (assistant professor) et le doctorant Jiawei Zhang s’appuie sur une architecture multi-agents spécialisée : un « apprenant » sélectionne les designs prometteurs et lance des tests courts sous contraintes de température et de courant ; un « interprète » analyse ces 50 cycles via un simulateur physiquement informé ; un « oracle » agrège ces sorties avec la connaissance existante pour estimer la durée de vie complète.
Le système n’exploite pas seulement des signatures superficielles (courbes de tension, régimes de charge). Il remonte aux paramètres électrochimiques pertinents et à leur évolution sous chaleur, contrainte et cyclage, ce qui lui permet de généraliser à travers formats et usages. En pratique, l’équipe indique une réduction jusqu’à 95 % du temps et de l’énergie nécessaires aux tests de durabilité.
Farasis Energy USA a financé l’étude et fourni des données opérationnelles ainsi que des cellules pouch pour la validation. Même entraîné uniquement sur des cellules cylindriques, le modèle a correctement prédit les performances de grands formats souples, indice que la couche physique capture des lois d’agnostisme vis-à-vis du facteur de forme. Là où une campagne de 1000+ cycles prend des mois, quelques jours d’essais suffisent ici à dégager une projection fiable de la durée de vie.
Le pipeline itère : chaque prédiction s’intègre au corpus, ce qui renforce la précision et permet, une fois la base suffisante, de s’affranchir d’une partie des expériences. Les auteurs y voient l’émergence d’une capacité de raisonnement scientifique autonome appliquée aux matériaux électrochimiques.
Si la première démonstration cible la durée de vie en cycle, l’équipe ouvre déjà trois fronts : bornage des limites de sécurité, optimisation des profils de charge et présélection de matériaux pour les prochaines générations Li‑ion. Le principe, inspiré de la « discovery learning », est transposable à d’autres disciplines où l’expérimentation longue et coûteuse freine l’exploration, de la chimie à la science des matériaux.
Pour l’industrie, l’impact potentiel est direct : baisse du coût de validation, compression des boucles R&D, arbitrages plus rapides entre chimies, séparateurs et liants, et capacité à sécuriser des roadmaps pack et module avec moins d’incertitudes. Dans un contexte où l’avance se mesure en cycles économisés et en itérations par trimestre, une modélisation physiquement guidée et parcimonieuse en données coche les bonnes cases.
Source : ITHome
Anthropic a retouché son spot du Super Bowl pour calmer le jeu face à OpenAI. La version pré-diffusée, qui glissait « La pub entre dans l’IA, mais pas dans Claude » en référence directe aux projets publicitaires d’OpenAI, a été remplacée à l’antenne par une formule plus neutre : « La publicité a son temps et son lieu, mais vos conversations avec une IA n’en font pas partie. »
Le changement intervient après la réaction publique de Sam Altman, qui avait qualifié le message initial de « clairement malhonnête ». En creux, Anthropic maintient le positionnement privacy-first de Claude, tout en évitant l’attaque frontale le soir le plus exposé de l’année publicitaire.
Dans un marché où les modèles se différencient de plus en plus par l’UX et la gouvernance, ce virage sémantique illustre une ligne stratégique : affirmer un cadre éthique et de non-interopération avec la publicité ciblée, sans transformer l’argument en conflit de marque. Le signal est lisible pour les entreprises qui arbitrent entre intégrations publicitaires et canaux conversationnels « propres ».
Source : ITHome
Projet rangé au placard et site nettoyé ; le verrou payant sur des fonctions CPU n’a pas trouvé preneur chez les clients qui achètent à l’échelle.
Intel a déréférencé son initiative Software Defined Silicon (SDSi), rebaptisée Intel On Demand, en archivant le dépôt GitHub dédié aux Xeon. Le mécanisme devait activer, contre paiement unique, des blocs matériels déjà présents au sein des puces serveur.

Le site Intel On Demand ne conserve plus que quelques documents et paragraphes, l’essentiel des informations ayant été retiré. L’entretien irrégulier du projet et l’absence d’adhésion des grands comptes ont scellé son sort.
Les fonctions ciblées comprenaient Quick Assist, Dynamic Load Balancer, Data Streaming Accelerator, Software Guard Extensions et In-Memory Analytics Accelerator. Le positionnement était clair : une « activation unique de certains accélérateurs et fonctionnalités de sécurité » déjà présents dans le silicium.
Pour les hyperscalers, payer un surcoût pour débloquer du matériel déjà acquis n’avait pas de sens économique à grande échelle. Le modèle se distingue d’un abonnement logiciel mensuel, ici absent au profit d’une activation one-shot, qui n’a pas convaincu.
La crainte d’une extension au grand public retombe. Un précédent existait avec l’Intel Upgrade Service au début des années 2010, déjà de courte durée, et l’arrêt d’On Demand réduit la probabilité d’un retour proche sur les CPU grand public.
La décision confirme que sur serveur, la valeur des accélérateurs doit être captée en amont, via le binning, les SKU et la tarification, pas en aval par des clés d’activation. Les fabricants conserveront le levier logiciel et services, mais verrouiller des fonctions matérielles post-achat reste difficile à justifier pour des opérateurs à effet de volume.
Source : TechPowerUp
Une hausse franche des capacités mémoire se profilerait chez PlayStation. Si elle se confirme, la prochaine génération viserait plus large côté bande passante et budgets RAM.
Leaker régulier sur le hardware Sony, KeplerL2 évoque une future PlayStation de salon équipée de 30 Go de GDDR7. Sony utiliserait des modules de 3 Go en « clamshell », avec un bus ramené de 256‑bit à 160‑bit, mais compensé par des puces à 32 Gb/s pour atteindre 640 Go/s, soit environ +11 % par rapport à la PS5 Pro.

Côté portable, la rumeur pointe 24 Go de LPDDR5X, alignés sur les configurations des PC handheld sous Windows. Une telle enveloppe mémoire laisse entrevoir l’exécution de jeux current‑gen sans contrainte majeure côté RAM.

Le total de 30 Go cadre avec une interface 10 canaux de 16‑bit chacun. La topologie est inhabituelle, mais reste exploitable si le contrôleur mémoire et le packaging gèrent proprement la disposition asymétrique induite par des modules de 3 Go.

En pratique, l’augmentation de bande passante via la GDDR7 pourrait compenser la réduction de largeur de bus, tout en libérant de la marge pour des résolutions et effets plus lourds, notamment en ray tracing.
AMD et Sony ont confirmé leur collaboration sur Project Amethyst. Officieusement, la prochaine génération s’appuierait sur RDNA5, un alignement évoqué aussi côté Xbox autour d’un silicium « Magnus ».
Si ces paramètres se matérialisent, Sony optimiserait le rapport bande passante/coût en GDDR7 tout en poussant la capacité utile au‑delà des 16–24 Go rencontrés jusqu’ici, avec un impact direct sur les budgets streaming d’actifs, la taille des caches logiciels et la stabilité des fréquences en scènes lourdes.
Source : VideoCardz
Nouveau palier sur desktop chez Intel avec deux chipsets haut de gamme en préparation, et un socket LGA1954 qui impose un renouvellement de cartes mères.
Intel a ajouté Z990 et Z970 à sa feuille de route chipsets visant le socket LGA1954. Aucune fiche technique détaillée n’est partagée pour l’instant : I/O, dénombrement de lignes et différenciation fonctionnelle restent inconnus.
Les deux PCH accompagneront la plateforme desktop Nova Lake-S, attendue sous l’appellation Core Ultra 400S. Le passage à LGA1954 implique de nouvelles cartes mères pour toute la gamme.
Intel n’a pas lancé de H870 pour Arrow Lake-S. Z970 prendrait ce rôle sur la nouvelle génération, avec un maintien d’un palier desktop de classe H mais sous une nouvelle dénomination.
Selon les informations disponibles, Z970 partagerait la base silicium de B960. La segmentation se ferait donc via firmware et fonctionnalités cartes mères plutôt que par un die distinct. L’arbitrage pourrait concerner les options d’overclocking, sans positionnement officiel pour l’instant.
Intel a indiqué une arrivée de Nova Lake fin 2026. Z990 et Z970 s’alignent sur cette fenêtre, sauf changement de planning.
Pour les fabricants de cartes mères, le timing laisse de la marge pour caler les designs LGA1954 et affiner la segmentation Z990/Z970/B960 en amont des lancements retail.
Source : VideoCardz
Tim Cook a organisé une réunion avec les employés d’Apple et ce fut notamment l’occasion de parler des 50 ans de l’entreprise. Apple a vu le jour le 1er avril 1976. Son 50e anniversaire est donc dans moins de deux mois. Tim Cook parle des 50 ans d’Apple L’idée sera de célébrer les 50 ans d’Apple. Tim Cook […]
Suivez iPhoneAddict.fr sur Facebook, et suivez-nous sur Twitter
N'oubliez pas de télécharger notre Application gratuite iAddict pour iPhone et iPad (lien App Store)
L’article Apple va bientôt fêter ses 50 ans et Tim Cook fait du teasing est apparu en premier sur iPhoneAddict.fr.
Pour lutter contre les bots IA, Debian a pris la décision de protéger les données d'intégration continue. Le code produit par IA est également critiqué.
Le post Debian verrouille son infrastructure face à l’appétit insatiable des bots d’IA a été publié sur IT-Connect.
Les utilisateurs de Disney+ ont peut-être remarqué que la qualité d’image du service s’était dégradée depuis quelque temps. Le phénomène a d’abord été repéré en Allemagne où le Dolby Vision et le HDR10+ ont disparu avant d’être signalé dans d’autres pays, dont la France. Le site FlatPanelsHD rapporte que la situation pourrait être liée à un problème de brevets.

Le mois dernier, le média allemand Heise avait fait le lien entre cette situation et un procès en matière de brevets devant un tribunal allemand. Disney est accusé d'avoir enfreint les brevets détenus par la société américaine InterDigital, et le tribunal a émis une injonction qui affecte Disney+.
De nombreux utilisateurs se sont donc plaints sur Reddit, certains déplorant la disparition du HDR10+ dans l’Hexagone. S’il est tentant de se dire que ce n’est qu’un souci touchant les cinéphiles tatillons, les abonnés continuent de payer le même prix pour un service dégradé. Pour rappel, l’abonnement le plus cher chez Disney+ est facturé 16 € par mois, et a comme principal argument la meilleure qualité d’image possible.
Un autre problème touche spécifiquement les propriétaires de Vision Pro : les films 3D ont également été évincés du catalogue européen de Disney+. L’onglet dédié n’apparaît plus dans l’app, là où Disney était pourtant l’un des grands partenaires d’Apple pour le lancement. Les films en 3D restent l’un des principaux arguments du casque.
« La prise en charge Dolby Vision pour le contenu sur Disney+ n'est actuellement pas disponible dans plusieurs pays européens en raison de difficultés techniques », a déclaré Disney dans un communiqué envoyé à FlatPanelsHD. « Nous travaillons activement à rétablir l'accès à Dolby Vision et vous tiendrons informés dès que possible. La prise en charge 4K UHD et HDR reste disponible sur les appareils compatibles », ajoute l’entreprise.