↩ Accueil

Vue normale

Reçu aujourd’hui — 14 janvier 2026 1.2 🖥️ Tech. Autres sites

DLSS 4.5 dans NVIDIA App repoussé : sortie stable glisse à « la semaine prochaine »

Par :Wael.K
14 janvier 2026 à 03:07

Changement de calendrier pour DLSS 4.5 : NVIDIA a modifié son billet GeForce et indique désormais que la mise à jour stable de NVIDIA App « lance la semaine prochaine », en lieu et place du « 13 janvier » évoqué auparavant. Selon les éléments visibles, il semblerait que le déploiement se décale discrètement.

DLSS 4.5 : l’option Override reste confinée au beta

En l’état, il faut passer par la version beta de NVIDIA App 11.0.6 pour activer les overrides DLSS 4.5 Super Resolution, globalement ou jeu par jeu. Le réglage clé se trouve dans Graphiques, DLSS Override : Model Presets. En position « Latest », l’application mappe vers les nouveaux presets Super Resolution : le Model M est traité comme « Latest », avec Model L proposé en alternative.

Capture des nouveautés de l'application NVIDIA 11.0.6 avec mise en avant des modèles de résolution DLSS 4.5.

D’après VideoCardz, NVIDIA poursuit aussi la migration des fonctions du Panneau de configuration vers l’application. Le beta 11.0.6 ajoute les derniers réglages NVIDIA Surround dans Système > Écrans, ainsi que la correction de bords et les raccourcis. S’y ajoutent un reporting enrichi pour Advanced Optimus sur portable et un Debug Mode qui neutralise overclocking et ajustements de tension jusqu’au prochain redémarrage.

Comment activer DLSS 4.5 aujourd’hui

Rien ne change pour les impatients : il faut s’inscrire à la branche beta de NVIDIA App, puis installer le GeForce Game Ready Driver 591.74, mis en ligne par NVIDIA le 5 janvier 2026. Comme le résume le billet GeForce, la version stable « launches next week », sans date précise.

Source : VideoCardz

Moxie Marlinspike de Signal lance Confer, une IA vraiment privée

Par :Korben
13 janvier 2026 à 21:32

Vous vous souvenez de Moxie Marlinspike ?

Mais si, le créateur de Signal qui a, grosso modo, appris au monde entier ce qu'était le chiffrement de bout en bout accessible à tous.

Hé bien, le garçon est de retour et cette fois, il ne s'attaque pas à vos SMS, mais à vos conversations avec les Intelligences Artificielles.

Son nouveau projet s'appelle Confer et autant vous le dire tout de suite, c'est du lourd car son idée c'est de faire pour les chatbots IA ce que Signal a fait pour la messagerie instantanée. C'est-à-dire rendre le tout réellement privé, avec des garanties techniques tellement fortes que personne, ni lui, ni les hébergeurs, ni la police, ne puisse (en théorie) mettre le nez dans vos prompts.

Alors pour ceux d'entre vous qui se demandent "Quelle est la meilleure alternative privée à ChatGPT ?", vous tenez peut-être la réponse.

Car le problème avec les IA actuelles c'est que quand vous papotez avec ChatGPT, Gemini ou Claude, c'est un peu comme si vous confessiez tous vos secrets dans un mégaphone au milieu de la place publique. Ces modèles ont soif de données et Sam Altman d'OpenAI a lui-même souligné que les décisions de justice obligeant à conserver les logs (même supprimés) posaient un vrai problème, allant jusqu'à dire que même des sessions de psychothérapie pourraient ne pas rester privées.

Et c'est là que Confer change la donne.

Alors comment ça marche ? Hé bien Confer utilise une approche radicale puisque tout le backend (les serveurs, les modèles LLM) tourne dans ce qu'on appelle un TEE (Trusted Execution Environment). En gros, c'est une enclave sécurisée au niveau du processeur de la machine qui empêche même les administrateurs du serveur de voir ce qui s'y passe. Et pour prouver que c'est bien le bon code qui tourne, ils utilisent un système d'attestation distante .

Les données sont chiffrées avec des clés qui restent sur votre appareil et Confer utilise les Passkeys (WebAuthn) pour dériver un matériel de clé de 32 octets. Ainsi, la clé privée reste protégée sur votre machine (dans le stockage sécurisé type Secure Enclave ou TPM selon votre matos).

Du coup, quand vous envoyez un message à l'IA, le flux est conçu pour être :

  1. Chiffré depuis chez vous.
  2. Traité dans l'enclave sécurisée du serveur (TEE).
  3. Déchiffré uniquement dans la mémoire volatile de l'enclave.
  4. Rechiffré immédiatement pour la réponse.

C'est propre, c'est élégant, c'est du Moxie à 100% !

Bien sûr, Confer n'est pas le seul sur le créneau. J'ai vu passer des initiatives comme Venice (qui stocke tout en local) ou Lumo de Proton. Si vous utilisez déjà des outils comme OnionShare pour vos fichiers, cette approche "zéro trust" vous parlera forcément.

Mais la force de Confer, c'est l'expérience utilisateur car comme Signal à son époque, ça marche tout simplement. Suffit de 2 clics, une authentification biométrique, et boum, vous êtes connecté et vos historiques sont synchronisés entre vos appareils (de manière chiffrée, vérifiable via le log de transparence). En plus vous pouvez même importer votre contenu depuis ChatGPT.

L'outil est open source et le code auditable. De plus le support natif est dispo sur les dernières versions de macOS, iOS et Android. Je l'ai testé et ça répond vite et bien. Après je ne sais pas si c'est un LLM from scratch ou un modèle libre fine tuné. Et je n'ai pas fait assez de tests pour tenter de lui faire dire des choses qu'il n'a pas envie mais il a l'air pas pour le moment.

Pour l'utiliser sous Windows, il faudra passer par un authentificateur tiers pour le moment et pour Linux... une extension existe déjà pour faire le pont en attendant mieux. Par contre, c'est limité à 20 messages par jour et si vous en voulez plus, faudra passer au payant pour 35$ par mois. Mais on a rien sans rien. Après si vous vous inscrivez avec mon code KORBEN vous aurez 1 mois gratuit et moi aussi ^^

Bref, si vous cherchiez comment mettre un peu de vie privée dans vos délires avec l'IA, je vous invite grandement à jeter un œil à Confer. J'sais pas vous mais moi je trouve que ça fait du bien de voir des projets qui remettent un peu l'utilisateur aux commandes.

Source

Intel Xeon 698X Granite Rapids-WS : 86 cœurs et 336 Mo de L3 confirmés

Par :Wael.K
13 janvier 2026 à 23:41

Intel Xeon 698X : 86 cœurs, 172 threads, 336 Mo de L3 et un turbo à 4,6 GHz. La fuite Geekbench 6.5 met enfin des chiffres sur Granite Rapids-WS, la relève HEDT qui cible les stations de travail haut de gamme.

Intel Xeon 698X Granite Rapids-WS : spécifications et perfs repérées

Un listing Geekbench confirme l’Intel Xeon 698X de la famille Granite Rapids-WS avec 86 cœurs et 172 threads, 336 Mo de cache L3 et une fréquence annoncée à 4,6 GHz. Le système de test, identifié « Intel Corporation GNR-WS », tournait sous Ubuntu 24.04.3 LTS avec 251 Go de mémoire.

Capture résultat Geekbench Intel Xeon 698X Granite Rapids-WS avec scores single et multi-core

Les scores enregistrés dans Geekbench 6.5 atteignent 2 532 points en mono-cœur et 21 030 points en multi-cœur, des résultats cohérents avec des charges de travail de station de travail exigeantes, mais probablement en deçà du potentiel final. Selon la source, le Xeon w9-3595X (Sapphire Rapids, 60 cœurs/120 threads) crèche habituellement autour de 2 700 en mono et 24 000 en multi : malgré un bond de près de 43 % du nombre de cœurs et un doublement du cache L3, l’échantillon Granite Rapids-WS testé ne semble pas encore optimisé.

Intel n’a pas profité du CES 2026 pour officialiser Granite Rapids-WS, ni ses Core 200K Plus ni la carte Arc B770. D’après des informations partagées à VideoCardz par une société impliquée dans une fuite précédente, « l’embargo se lève début février », ce qui laisserait penser à un lancement à cette fenêtre.

Positionnement et prix pressenti

Les listings de distributeurs évoquent un tarif d’environ 8 294 $ pour la version tray, soit près de 7 600–7 700 € à titre indicatif. Cette grille place clairement le Xeon 698X dans le segment professionnel premium, successeur moderne de la lignée Core X pour les stations de travail.

Source : VideoCardz

❌