Google vient de faire un coup bas à Apple et ça concerne Siri !


Un nouvel échantillon grimpe à 5,7 GHz en charge et creuse l’écart sur Geekbench. Les écarts se stabilisent autour de +10 % face au 285K.
Un résultat Geekbench liste un système ASUS ROG STRIX Z890-E GAMING WIFI équipé d’un Intel Core Ultra 9 290K Plus, 24 cœurs répartis en 8+16, et 64 Go de DDR5-6800. La fiche indique une fréquence maximale relevée à 5,7 GHz durant le test, et 5,6 GHz en valeur de pic listée.

Par rapport à une précédente fuite du même 290K Plus (3456 mono, 24610 multi), ce nouvel essai progresse d’environ 2,3 % en mono et 2,0 % en multi. Attention toutefois aux variables : l’ancien run tournait sur une Gigabyte Z890 AORUS TACHYON ICE avec 48 Go de DDR5-8000 et un profil d’alimentation Balanced, comparaison non homogène.
Le tableau officiel Geekbench du Core Ultra 9 285K affiche 3200 en mono et 22560 en multi. Face à ces valeurs, le nouveau run du Core Ultra 9 290K Plus ressort à environ +10,5 % en simple cœur et +11,3 % en multicœur.
Le 270K Plus, attendu aux côtés des 250K et 290K, a également fuité avec la même topologie 24 cœurs mais à fréquence inférieure. Vu récemment à 3235/21368 sur une Gigabyte Z890 EAGLE WIFI7 avec 64 Go de DDR5-4800, il se cale proche du 285K.
Intel n’a pas encore officialisé un rafraîchissement Arrow Lake « Plus » pour LGA-1851. La répétition des configurations 24 cœurs laisse penser à un travail centré sur les fréquences et l’optimisation plateforme, plus que sur l’architecture.
Si ces écarts se confirment en tests applicatifs et jeux, le 290K Plus devrait afficher des gains appréciables en productivité multicœur grâce à ses fréquences rehaussées. Reste à savoir si Intel a également optimisé les latences inter-tiles et l’interconnexion entre P-cores, E-cores et cache L3 , un point sur lequel la firme reste muette.
En l’absence de ces améliorations structurelles, les limitations en gaming observées sur le 285K risqueraient de persister malgré la puissance brute supplémentaire : la série Ultra 200 n’a jamais manqué de performances théoriques, mais bien de réactivité dans les échanges de données critiques pour le jeu. Un refresh purement fréquentiel suffira pour dominer en multi-thread ; pour rattraper AMD et les anciens Raptor Lake en gaming, il faudrait une refonte plus profonde de l’architecture tile.
Source : VideoCardz


Un mod fait grimper la mémoire de la ROG Ally X à 64 Go. Pour ce faire il a fallu un démontage total, rework BGA et firmware retouché pour tenir la fréquence.
Le mod démarre par une dépose complète de la carte mère, face arrière à nu. Les packages LPDDR5X Micron de 6 Go à 8533 MT/s sous la tape thermique sont dessoudés, puis remplacés par des puces SK hynix de 16 Go pour atteindre 64 Go au total. Le bus reste identique ; seule la densité mémoire change.

Après soudure, la suite se joue côté firmware. Le BIOS est extrait via un programmateur USB CH341A, l’APCB est édité, puis l’image modifiée est reflashée. Des résistances de straps sont ajustées pour maintenir la cible de fréquence, afin d’éviter une baisse des clocks après la phase de training.
Le système boote sous Windows après un training mémoire plus long. Le Gestionnaire des tâches confirme 64 Go détectés, à 8000 MT/s. La capacité est pleinement reconnue malgré la densité accrue.

Pour le jeu, 64 Go restent largement au-delà du besoin courant. La ROG Ally X sort d’usine avec 24 Go de LPDDR5X, déjà suffisants dans la majorité des scénarios, sauf textures très lourdes qui sollicitent la mémoire partagée. Un palier à 32 Go aurait plus de sens, mais le gain réel en jeu resterait marginal.
Le procédé est à haut risque, annule la garantie et peut griller la carte au moindre faux pas. Il cible surtout les intégrateurs et moddeurs parfaitement outillés, pas l’utilisateur final.

Sur un marché des handhelds PC où la mémoire est généralement soudée, ce type de rework montre la marge structurelle possible côté densité, mais souligne aussi la dépendance au firmware et aux straps pour stabiliser les fréquences après training. Les OEM pourraient, à terme, proposer des SKU à 32 Go pour couvrir les profils créa et jeu avec textures agressives, sans basculer dans l’excès.


Source : VideoCardz

Notepad++ victime d'un piratage étatique : découvrez comment les mises à jour ont été détournées pendant 6 mois pour cibler des utilisateurs spécifiques.
Le post Notepad++ : les mises à jour détournées par des pirates pendant 6 mois a été publié sur IT-Connect.
Microsoft a présenté une feuille de route en 3 phases pour désactiver par défaut NTLM dans les prochaines versions de Windows et Windows Server.
Le post Fin du protocole NTLM : Microsoft dévoile son plan d’attaque en 3 phases a été publié sur IT-Connect.




Tesla a confirmé l’arrivée d’un troisième prototype de son robot humanoïde Optimus, avec un objectif industriel clair: une mise en production à grande échelle dès 2026 et une cadence annoncée à un million d’unités par an. Le constructeur promet un design repensé « depuis les premiers principes » et la capacité d’apprendre de nouveaux gestes en observant des opérateurs humains.

Le compte officiel @TeslaAI précise que cette troisième génération sera la première à viser la production série. Une ligne pilote tourne déjà à Fremont pour les itérations actuelles d’Optimus, tandis que la ligne dédiée à la Gen3 doit entrer en service en 2026.
Tesla vise un coût unitaire inférieur à 20 000 $ (environ 18 400 € au taux indicatif du jour), un seuil agressif pour un humanoïde polyvalent. La promesse combine montée en volume, intégration verticale et réutilisation d’éléments issus de l’écosystème auto, du contrôle moteur à l’électronique de puissance.
Le volet logiciel met l’accent sur l’apprentissage par démonstration: Optimus doit capter les gestes et séquences d’un opérateur, puis les reproduire et les généraliser. Ce choix réduit la dépendance au codage manuel de procédures et s’aligne avec les travaux récents en vision et contrôle robotique.
La fenêtre 2026 place Tesla face aux autres programmes humanoïdes en cours de pré-série. Le différenciateur avancé reste l’ambition de volume et de coût. Si les objectifs de cadence et de fiabilité sont tenus, le point d’inflexion pourrait venir de cas d’usage répétitifs en intralogistique et manipulation légère, avant d’aborder des tâches mixtes plus exigeantes.
Source : ITHome
Une GeForce RTX 5070 Ti endommagée, PCB percé, vient de décrocher la première place mondiale sur Unigine Superposition 8K. Une prouesse obtenue après une réparation en direct et un tuning électrique agressif.
En octobre, l’équipe de Paulo Gomes a ressuscité une RTX 5070 Ti « morte » en l’appareillant à un PCB d’ASUS GeForce RTX 2080 Ti. La carte sortait initialement de la vidéo en basses résolutions avec une chute de ~400 mV en charge et un lien limité à PCIe 4.0 x4, pour des performances proches d’une RTX 3070.

Durant un live d’environ sept heures avec Enzo Túlio (chaîne 1155 do ET), les moddeurs ont corrigé le signal d’affichage pour rétablir le 1080p, éliminé un conflit de pilotes causant des écrans noirs et renforcé NVVDD, MSVDD et GND en soudant des fils additionnels. Objectif : réduire la résistance de conduction et la perte de tension entre le PCB greffé et le GPU.
Le setup a évolué en cours de stream, passant d’un Core i5 13e gen en PCIe 4.0 x4 à un Ryzen 5 3600 en PCIe 3.0 x16, doublant la bande passante effective de 8 à 16 Go/s selon l’équipe. La stabilité gagnant du terrain, ils ont enchaîné tests en jeu puis itérations de bench.
Les essais ont montré des pics thermiques rapides, de 50 °C à 80 °C en environ une seconde, et un fil 12 V flirtant avec les 100 °C. La télémétrie de puissance de la carte étant hors service, la consommation a été suivie via un logiciel externe.

Le score Superposition 8K a progressé palier par palier : 8400, 9000, 9600, 9800, 10600, 10900, pour culminer à 11106, puis un run final annoncé à 11 150 points. La carte a pris la tête du classement Superposition et d’HWBOT, malgré une courte bataille avec un spectateur qui a brièvement posté un score supérieur.
Le récapitulatif final mentionne un GPU à ~3,23 GHz, une GDDR à 34 Gbps « sans effort », avec une marge estimée à 36 Gbps si la mise à l’échelle l’avait permis. La chute de tension a été ramenée d’environ 400 mV à ~30 mV grâce aux renforts d’alimentation et de masse.
Unigine Superposition n’est plus le benchmark de référence pour tous, mais il reste un outil solide pour traquer les gains bruts sur ce type de montage. Voir une 5070 Ti partiellement transplantée dominer ce tableau valide surtout l’efficacité des ponts d’alimentation et le bénéfice du passage à un lien x16 sur une carte amputée de ses capteurs.
Source : VideoCardz
Vous utilisez WSL sous Windows mais vous en avez marre de devoir jongler avec les commandes PowerShell dès qu'il s'agit de gérer vos distributions ?
C'est vrai que taper du wsl --import ou du wsl --unregister à chaque fois qu'on veut tester une nouvelle instance, ça finit par être un peu lourd.
Heureusement, y’a un dev, Eric Trenkel (alias bostrot), qui a eu la bonne idée de sortir WSL Manager (qu'on connaissait aussi sous le nom de WSL2 Distro Manager), une interface graphique complète pour piloter tout ça sans se faire mal au terminal.
Cette application, développée avec Flutter offre une vue d'ensemble sur toutes vos instances WSL installées. Ainsi, en un clic, vous pouvez les démarrer, les arrêter, les renommer ou même changer leur version.
Mais là où l'outil excelle, c'est dans sa capacité à importer de nouveaux environnements. Pour ceux qui se demandent comment ça se passe pour récupérer des distributions exotiques, sachez que WSL Manager permet de télécharger et d'utiliser n'importe quelle image Docker comme base pour une instance WSL, et ce, sans même avoir besoin d'installer Docker Desktop sur votre machine.
Par exemple si vous voulez un Alpine minimaliste pour du test ou un Kali pour du pentest, vous l'importez direct depuis les registres Docker et hop, vous avez un nouveau système prêt à l'emploi.
C'est d'ailleurs un excellent complément à des outils comme DockStation si vous voulez garder une approche visuelle de vos conteneurs, ou même WinBoat pour faire tourner du Windows dans Docker. L'application propose aussi des "Quick Actions", qui sont en gros des petits scripts prédéfinis que vous pouvez exécuter directement sur vos instances pour automatiser les tâches répétitives. Vous pouvez également lancer directement Windows Terminal ou VS Code dans la distribution de votre choix en un seul clic.
Si ça vous branche, plusieurs options s'offrent à vous pour l'installer. Comme le projet est open source sous licence GPL-3.0, vous pouvez récupérer les exécutables gratuitement sur la page GitHub du projet.
Il existe aussi une version sur le Microsoft Store et notez aussi que bien que des paquets winget ou Chocolatey existent, ils sont souvent maintenus par la communauté et pas forcément à jour, donc privilégiez le téléchargement direct ou le Store pour être tranquille.
Voilà, si vous passez vos journées sous Linux tout en restant dans l'écosystème Microsoft, WSL Manager c'est le feu et ça permet de se concentrer sur son boulot plutôt que sur la syntaxe des commandes de gestion système.
Merci à Lorenper pour la découverte !
