↩ Accueil

Vue lecture

Installation manuelle des certificats CA 2023 dans un Secure Boot

Merci à vous de suivre le flux Rss de www.sospc.name.

Si tout va bien, une grande majorité d'entre vous devrait recevoir ces fameux certificats 2023 d'ici le mois de juin 2026.

Mais, car il y a toujours un mais, entre les problèmes de support non assumés par Microsoft et certains fabricants que ne se sont pas préoccupés, volontairement ou non, de l'évolutivité de leurs cartes mères (oui, la phrase est longue...), il va vous falloir dans certains cas mettre les mains dans le cambouis.

Alors je le dis tout de suite : cet article n'a que pour seul et unique but de vous (dé)montrer que vous pouvez dans certains cas de figure effectuer vous-même cette mise à jour.

CE N'EST PAS UN TUTORIEL en ce sens que je vous montre un exemple pour un modèle précis de carte mère (de marque inconnue pour le coup...) que vous ne pourrez pas reproduire forcément à la lettre.

Oui, pour chaque modèle de carte mère l'appellation des menus, leurs localisations, leur intuitivité sont très différentes, vous allez par contre pouvoir vous inspirer de mes errements pour trouver la bonne marche à suivre pour votre ordinateur.

Je vais vous proposer les trois certificats 2023 en téléchargement, déjà ça ce sera fait. 😉

Cet article Installation manuelle des certificats CA 2023 dans un Secure Boot est apparu en premier sur votre site préféré www.sospc.name

  •  

Cisco Silicon One G300 : un ASIC 102,4 Tb/s pour doper les fabrics IA

Cisco a profité de Cisco Live Amsterdam pour présenter son nouveau fleuron Ethernet, le Cisco Silicon One G300. Cette puce de commutation affiche 102,4 Tb/s de capacité agrégée et aligne 64 interfaces 1000GbE en full-duplex, avec des SerDes à 224 Gb/s, la prise en charge de RDMA et RoCE v2.

Un ASIC 102,4 Tb/s pensé pour les fabrics IA

Au-delà des débits, Cisco met en avant une technologie d’orchestration collective intégrée destinée aux charges distribuées, annoncée comme capable d’absorber les variations de trafic et d’améliorer l’utilisation du réseau de 33 %, tout en réduisant le temps d’exécution des jobs de 28 %. Dans un contexte d’entraînement et d’inférence massifs, le constructeur promet un gain direct sur les cadences de génération de tokens.

Le G300 sert de base aux nouveaux commutateurs Cisco Nexus 9000 et aux routeurs Cisco 8000. Ces plates-formes seront proposées en version à refroidissement intégral par liquide, avec une promesse d’augmentation sensible de la densité de bande passante et jusqu’à 70 % d’efficacité énergétique en plus par rapport aux variantes conventionnelles.

Chaîne optique 1,6T et modules 800G LPO

Pour les interconnexions scale-out des clusters IA, Cisco ajoute un OSFP 1,6 Tbit/s et des modules 800G LPO linéaires sans redriver/retimer. Cette approche réduit la complexité et vise directement la consommation, avec un -50 % au niveau du module optique ou -30 % sur la consommation globale du châssis selon le constructeur.

L’ensemble dessine une stratégie très agressive sur le coût énergétique par bit et la densité par U. Si les chiffres internes se confirment en production, l’option full liquid cooling couplée aux LPO pourrait rebattre les cartes sur le TCO des fabrics Ethernet face aux déploiements InfiniBand haut de gamme, notamment dans les salles où la marge thermique est le facteur limitant.

Source : ITHome

  •  

OpenAI abandonne la marque « io » et repousse son appareil IA à 2027

OpenAI ne commercialisera pas sa première machine sous la marque « io ». Selon des documents judiciaires déposés hier et cités par Wired, l’entreprise a renoncé aux appellations « io » et « IYO » pour tout nommage, marketing, publicité et vente liés à ses produits matériels, après une plainte pour contrefaçon de marque initiée l’an dernier par la start-up audio iyO.

Dans le même dépôt, Peter Welinder, vice-président d’OpenAI, précise que le calendrier s’est éclairci côté hardware : aucune livraison au grand public avant fin février 2027. Un contre-pied net face aux déclarations antérieures faisant état d’un lancement envisagé au second semestre de cette année.

Recul stratégique sur la marque et sur le calendrier

OpenAI a acquis en 2023 la société io fondée par Jony Ive, ex-Apple. Le conflit de marque avec iyO a visiblement fermé la porte à « io » pour le branding final. Welinder indique par ailleurs qu’aucun packaging ni support marketing n’a été produit à ce stade, ce qui corrobore un développement encore au stade de prototype.

Le produit visé resterait un appareil sans écran, destiné au bureau, pensé pour fonctionner en tandem avec un smartphone ou un ordinateur portable. OpenAI n’a pas répondu aux demandes de commentaire.

Le décalage jusqu’en 2027 change sensiblement la donne du segment « AI device ». Les acteurs déjà positionnés sur les terminaux IA autonomes gagneront un boulevard temporel pour itérer sur le matériel, l’optimisation énergétique et l’intégration logicielle, tandis qu’OpenAI devra verrouiller l’industrialisation et un écosystème d’usages suffisamment différenciants pour éviter d’arriver avec un simple accessoire vocal de plus.

Source : ITHome

  •  

SilverStone XE02 : deux ventirads SFF 2U pour AM5 et sTR5 jusqu’à 350 W

Deux nouveaux refroidisseurs 2U débarquent chez SilverStone, avec un 60 mm prêt à grimper à 14 000 tr/min. De quoi tenir jusqu’à 350 W sur plates-formes sTR5/SP6/TR4/SP3.

SilverStone XE02 : SFF 2U, cinq caloducs et 60 mm PWM

SilverStone élargit en douceur sa gamme avec deux modèles SFF destinés aux serveurs et stations 2U : SST‑XE02‑AM5B pour AM5 (et compatibilité AM4 indiquée) et SST‑XE02‑TR5B pour sTR5, SP6, TR4 et SP3. Les deux partagent une base à cinq caloducs de 6 mm et un empilement d’ailettes en aluminium.

Vue de dessus du ventilateur SilverStone XE02 avec flèche de flux d'air
Vue de dessus du ventilateur SilverStone XE02 avec flèche verte indiquant le flux d'air

Le ventilateur central de 60 mm, PWM et roulements à billes, annonce une plage de 2 000 à 14 000 tr/min, un débit maximal de 72,8 CFM et une pression statique de 47,18 mmH2O. La MTTF est donnée à 70 000 heures.

Compatibilités et enveloppes thermiques

Le XE02‑AM5B vise les processeurs AM5/AM4 avec une prise en charge jusqu’à 170 W de TDP. Le XE02‑TR5B, légèrement plus massif, monte à 350 W et cible notamment les EPYC 8004 et Ryzen Threadripper 7000 sur sTR5, ainsi que SP6/TR4/SP3.

Ventirad AMD Socket AM5 avec visuel de la carte mère correspondante

Malgré le même ventilateur, l’écart de capacité annoncée provient du design du radiateur et de la surface d’échange adaptée aux IHS et aux répartitions de charges thermiques très différentes entre AM5 et sTR5/SP6/TR4/SP3.

Ventirad AMD TR5 avec visuel de la carte mère correspondante

Positionnement en châssis 2U

Le format bas‑profil et la pression statique élevée répondent aux contraintes de flux en baie 2U, avec une priorité claire au maintien des fréquences sous charge soutenue. La plage PWM étendue offre une marge d’exploitation fine selon la politique acoustique du rack.

Source : TechPowerUp

  •  

HBM3 CXMT : 20 % de la capacité allouée en 2026, 60 000 wafers/mois visés

Le rythme s’intensifie et la part dédiée à la HBM3 progresse nettement chez CXMT, entraînant dès 2026 une réorganisation industrielle de grande ampleur.

HBM3 CXMT : 20 % de la capacité dédiée en 2026

Des rapports récents indiquent que CXMT a lancé la fabrication de masse de modules HBM3. Le fabricant chinois suit la trace des acteurs sud-coréens, qui produisent de l’HBM3 depuis 2023, avec une rampe désormais assumée sur 2026.

Logo de CXMT avec texte sous le nom

Selon une source citée par MK South Korea, CXMT viserait 60 000 wafers par mois dédiés à l’HBM3, soit environ 20 % d’une capacité totale estimée à 300 000 wafers/mois en 2026. Les rendements seraient encore discutés, mais l’objectif de passage en production de volume est évoqué.

Partenariats, lignes produits et contraintes

La filière HBM chinoise s’agrège : un partenariat entre CXMT et Huawei est mentionné, avec une implication de YMTC via une coentreprise apparue à l’automne dernier. Les sanctions internationales limitant l’accès à Micron, Samsung et SK hynix renforcent l’orientation vers des solutions locales, déjà visibles avec l’Ascend AI de Huawei et sa HBM maison.

En parallèle, CXMT a montré en 2025 des avancées sur des lignes commerciales, dont des designs DDR5 et LPDDR5X présentés en avant-première en novembre. Début février 2026, ASUS, Acer, Dell et HP étudiaient l’intégration de ces mémoires grand public pour répondre aux tensions d’approvisionnement.

Capacité et montée en charge

Le positionnement HBM3 reste stratégique face à l’explosion des besoins en VRAM empilée pour l’IA. Réaffecter 20 % des wafers à l’HBM3 suggère une ligne prioritaire, avec un impact potentiel sur les volumes DDR5/LPDDR5X si les rendements HBM3 tardent à converger.

Si la montée en volume se confirme, les accélérateurs IA locaux pourraient réduire leur dépendance extérieure. À court terme, la question clé reste l’atteinte d’un yield compétitif, préalable indispensable pour absorber la demande tout en préservant les marges.

Source : TechPowerUp

  •  

Directive 8020 : sortie le 12 mai 2026, précommandes ouvertes avec upgrade Deluxe

Un huis clos spatial signé Supermassive bascule en phase finale : la sortie arrive en mai et les précommandes intègrent d’emblée un passage à l’édition Deluxe. De quoi attirer les joueurs qui veulent tout voir dès le jour J.

Sortie, plateformes et contenu de précommande

Directive 8020 sera disponible le 12 mai 2026 sur PlayStation 5, Xbox Series X|S et PC (Steam). Éditions physique et numérique sur PS5 et Xbox Series X|S, PC en numérique uniquement. Les précommandes sont ouvertes sur consoles, celles de Steam arrivent prochainement.

Directive 8020 : sortie le 12 mai 2026, précommandes ouvertes avec upgrade Deluxe

Supermassive propose un upgrade gratuit vers la Deluxe Edition pour les précommandes, dans la limite des stocks retail. Le pack inclut The Dark Pictures Outfit Pack, The Dark Pictures Collectables, Cinematic Filter Pack, la bande-son numérique et un artbook numérique.

Gameplay narratif et Turning Points

Le trailer Comply met en avant des décisions à haut risque : Cooper, la médecin de bord, doit choisir s’il faut libérer Mitchell derrière une porte scellée, avec un doute persistant sur sa nature humaine. Autre séquence clé, la révélation d’un « double » où deux versions de Cernan surgissent, obligeant à identifier le mimic sous la menace d’une issue fatale.

Directive 8020 : sortie le 12 mai 2026, précommandes ouvertes avec upgrade Deluxe

Directive 8020 introduit Turning Points, une fonction inédite dans The Dark Pictures pour remonter à des décisions charnières. Trois approches sont prévues : complétionnistes (branches et fins cachées), protection de personnages (annuler une mort), et mode Survivant sans filet, avec décès permanents.

Le trailer tease également l’exploration planétaire de Tau Ceti f. Côté casting, Lashana Lynch incarne la pilote Brianna Young, sur la piste « Comply » du groupe Blood Red Shoes.

Directive 8020 : sortie le 12 mai 2026, précommandes ouvertes avec upgrade Deluxe

Modes de jeu et calendrier multijoueur

Le jeu sortira en solo et en coop locale jusqu’à 5 joueurs, dès le 12 mai. Le multijoueur en ligne arrivera via une mise à jour gratuite après lancement.

Directive 8020 : sortie le 12 mai 2026, précommandes ouvertes avec upgrade Deluxe
Directive 8020 : sortie le 12 mai 2026, précommandes ouvertes avec upgrade Deluxe

Le positionnement mêle la grammaire interactive de The Dark Pictures à un cadre SF plus ouvert avec segments planétaires, tout en laissant la porte à l’expérimentation grâce à Turning Points. L’upgrade Deluxe offert en précommande et la coop canapé jusqu’à 5 joueurs constituent des leviers d’adoption efficaces au lancement, en attendant l’online.

Source : TechPowerUp

  •  

Intel Core Ultra 400 : NPU à 74 TOPS et compatibilité Copilot+ en ligne de mire

Un NPU de bureau affichant 74 TOPS, bien au-delà du seuil Copilot+, place le prochain haut de gamme d’Intel sur une trajectoire radicalement différente de l’actuel Arrow Lake-S.

En effet, comme évoqué précédemment à l’occasion d’une récente rumeur relayée par Jaykihn, cette génération embarquerait le NPU6 annoncé, offrant des performances plus de cinq fois supérieures à celles d’Arrow Lake-S.

Intel Core Ultra 400 et NPU 74 TOPS

La série Core Ultra 400 « Nova Lake-S » serait le premier lineup desktop d’Intel taillé pour l’accélération native Microsoft Copilot+. Son NPU grimperait à 74 TOPS, bien au-delà des 40 TOPS requis par Copilot+. C’est un saut notable face aux 13 TOPS des actuels Arrow Lake-S et du refresh à venir, tous deux héritant du NPU Meteor Lake.

L’information provient cette fois d’une capture issue d’un document ayant fuité, partagée par X86 is dead&back. Elle mentionne un NPU à 74 TOPS pour Nova Lake, contre 13 TOPS pour Arrow Lake Refresh. La fiche évoque également une fenêtre 2H26, ce qui confirmerait une sortie prévue en 2026.

Détails des performances NPU avec Arrow Lake et Nova Lake, affichant 13 et 74 TOPS respectivement.

Toutes les références Nova Lake-S n’atteindront pas nécessairement 74 TOPS, mais l’espace de segmentation laisse envisager un plan produit où même l’entrée de gamme satisferait le plancher des 40 TOPS. Côté mobile, Intel a déjà validé la cible avec Lunar Lake ; en desktop, il faudra attendre le calendrier de la série 4.

AMD en embuscade sur Copilot+ desktop

AMD pourrait toutefois coiffer Intel au poteau sur le premier processeur socket desktop Copilot+ ready. Les APU Ryzen AI 400 « Gorgon Point » en Socket AM5 sont évoqués plus tôt que la fenêtre fin 2026 prêtée aux Core Ultra Series 4 desktop. Le timing de commercialisation pourrait donc décider du premier badge Copilot+ sur tour.

Enjeux pour l’écosystème PC

Si le NPU 74 TOPS se généralise en desktop, on verra converger les exigences Copilot+ avec des profils d’usage créa et productivité lourds sans carte dédiée. Pour les intégrateurs, la barre Copilot+ à 40 TOPS devient un axe de différenciation clair, que ce soit via APU AMD ou CPU Intel avec iGPU/NPU renforcés.

Source : TechPowerUp

  •  

Intel TDX : audit conjoint Intel-Google, 5 vulnérabilités corrigées et 35 faiblesses relevées

Cinq mois d’audit et des correctifs livrés ; Intel et Google resserrent les boulons sur TDX et son module 1.5, pilier des VM confidentielles.

Qu’est-ce que Intel® TDX ?

Intel Trust Domain Extensions (TDX) est la dernière innovation d’Intel en matière d’informatique confidentielle. Cette technologie repose sur un environnement d’exécution de confiance (TEE) directement implémenté au niveau matériel, permettant le déploiement de domaines de confiance (TD). Ces derniers prennent la forme de machines virtuelles isolées du reste du système, conçues pour protéger efficacement les données et applications sensibles contre tout accès non autorisé, y compris au niveau de l’infrastructure sous-jacente.

Intel TDX, co-validation et durcissement du module 1.5

Intel et Google Cloud Security ont mené une revue conjointe du module Intel TDX 1.5, avec l’équipe INT31 d’Intel. Bilan : 5 vulnérabilités et 35 autres faiblesses ou axes d’amélioration. Intel indique que les 5 vulnérabilités ont été corrigées dans la dernière version de code livrée aux partenaires.

TDX isole matériellement des « Trust Domains » des hyperviseurs via SEAM et un module signé numériquement. Le TDX Module agit comme un shim exécuté en SEAM pour appliquer des politiques que le matériel seul ne peut pas faire respecter. Sa compromission pourrait contourner l’isolation, d’où la criticité de sa vérification.

Fonctionnalités ciblées et méthode d’audit

La revue a ciblé des fonctionnalités complexes introduites avec le TDX Module 1.5 : Live Migration et TD Partitioning. La Live Migration déplace une VM chiffrée entre serveurs physiques sans interruption ni exposition des clés à l’hyperviseur non fiable. Le TD Partitioning autorise des VM imbriquées au sein d’un TD, ajoutant des couches d’abstraction nécessitant des contrôles rigoureux.

Google a combiné revue manuelle de code, outils maison de recherche de bugs et analyse assistée par IA (Gemini Pro) pour repérer des défauts logiques. Cette approche hybride s’inscrit dans une dynamique de co-validation où des partenaires majeurs auditent des briques fondamentales avant déploiement large.

Confiance matérielle et garantie pour les clients

Intel rappelle qu’aucun produit n’est absolument sécurisé et que multiplier les regards renforce la robustesse. Pour les entreprises, la démarche renforce l’assurance que la racine matérielle de confiance est activement testée par des tiers indépendants, avant une montée en charge à l’échelle.

Dans un contexte où TDX structure la sécurité des data centers, la correction rapide des 5 vulnérabilités et la cartographie de 35 faiblesses montrent une maturité opérationnelle autour de la Live Migration et du TD Partitioning. Les hyperscalers ont intérêt à ce modèle d’audit partagé, qui réduit le risque systémique en amont des déploiements massifs.

Source : TechPowerUp

  •  

DLSS 4 arrive sur High On Life 2, Yakuza Kiwami 3 & Dark Ties, plus un bundle RE RTX 50

Trois sorties, une même constante : NVIDIA pousse DLSS 4 et ses itérations à grande échelle, avec à la clé des hausses de FPS et une montée en qualité sur les dernières RTX.

DLSS 4 et Multi Frame Generation au lancement

High On Life 2 arrive le 13 février avec DLSS 4 et Multi Frame Generation activables dès le jour 1. Les utilisateurs de l’application NVIDIA pourront aussi basculer DLSS Super Resolution vers DLSS 4.5 Super Resolution pour maximiser la netteté en parallèle du gain de performances.

Illustration colorée de High On Life 2 avec personnages et ville futuriste

Yakuza Kiwami 3 & Dark Ties sort demain, le 11 février, avec DLSS Frame Generation, DLSS Super Resolution et NVIDIA Reflex dans le jeu complet comme dans la démo. Via l’application NVIDIA, DLSS Frame Generation passe en Multi Frame Generation et DLSS Super Resolution en DLSS 4.5 Super Resolution, pour des fréquences d’images multipliées et une image plus propre.

Yakuza Kiwami 3 Dark Ties affichant deux personnages en noir et blanc

Bundle Resident Evil Requiem pour les RTX 50 Series

Le bundle GeForce RTX 50 Series avec Resident Evil Requiem est disponible dès aujourd’hui. L’achat d’un PC de bureau ou d’une carte graphique GeForce RTX 5090, 5080, 5070 Ti ou 5070, ou d’un laptop équipé d’une GeForce RTX 5090, 5080, 5070 Ti ou 5070, chez les revendeurs participants, donne droit à une copie Steam du jeu.

Le titre exploite un path tracing intégral, accéléré par DLSS 4 avec Multi Frame Generation et DLSS Super Resolution, et bénéficie de NVIDIA Reflex pour réduire la latence. C’est aujourd’hui l’implémentation la plus ambitieuse sur cette série, pensée pour les GPU GeForce RTX 50.

Affiche de Resident Evil Requiem avec deux personnages sous la pluie

REANIMAL et les intégrations à venir

REANIMAL (Tarsier/THQ Nordic) sort le 13 février avec DLSS Super Resolution et DLAA. Là encore, l’application NVIDIA permet de migrer vers DLSS 4.5 Super Resolution pour une qualité accrue.

NVIDIA annonce par ailleurs d’autres intégrations DLSS et RTX à court terme. La liste des titres compatibles, ainsi que ceux validant les overrides DLSS de l’application NVIDIA, continue de s’allonger.

L’enchaînement de sorties compatibles DLSS 4, couplé au bundle Resident Evil Requiem, confirme la stratégie d’adoption côté éditeurs et l’incitation matérielle côté utilisateurs. La possibilité d’upgrader localement vers DLSS 4.5 via l’application NVIDIA aiguise l’intérêt pour la pile logicielle maison, tout en verrouillant l’avantage des RTX 50 sur les workloads path-tracés.

Source : TechPowerUp

  •  

NVIDIA GTC 2026 : keynote le 16 mars, deux heures au SAP Center de San Jose

Deux heures en scène et un préshow matinal ; NVIDIA verrouille le tempo de son rendez-vous annuel dédié aux centres de données et à l’IA.

NVIDIA GTC 2026 : calendrier, formats et lieu

La keynote principale est fixée au lundi 16 mars, de 11 h à 13 h PDT, en live depuis le SAP Center de San Jose. Un « GTC Live 2026 Keynote Pregame » est programmé le même jour de 8 h à 11 h PDT, en amont.

La page GTC 2026 annonce l’événement du 16 au 19 mars, avec des workshops dès le 15 mars. NVIDIA propose l’ajout au calendrier pour le livestream directement depuis la page de keynote.

Ce que suggèrent les précédentes feuilles de route

Lors de la keynote 2025, Jensen Huang a détaillé une roadmap data center : production Blackwell, systèmes Blackwell Ultra prévus pour le second semestre 2025, puis plateforme Vera Rubin en 2026 et Rubin Ultra en 2027. Le volet robotique et simulation a été mis en avant avec le modèle fondation humanoïde Isaac GR00T N1 et des outils associés, dont le moteur physique Newton développé avec Google DeepMind et Disney Research.

Le segment automobile a également été mentionné avec le système de sécurité Halos et des collaborations avec General Motors. GTC demeure centré sur le data center, l’IA et la robotique, sans attendre de grandes annonces orientées grand public.

Dans ce cadre, la fenêtre 2026 pourrait préciser le déploiement de Vera Rubin, l’écosystème logiciel autour d’Isaac et les jalons industriels alignés sur Rubin Ultra 2027, avec un impact direct sur les cadences d’intégration en data centers plutôt que sur le marché gaming.

Source : VideoCardz

  •  

Generative AI dans Control Resonant : aucun contenu, mais Remedy garde la porte entrouverte

Choix tranché pour le prochain shooter de Remedy, avec un impact direct sur la prod et l’acceptabilité par les joueurs. La suite, en revanche, pourrait basculer selon les outils et l’éthique.

Control Resonant sans Generative AI

Markus Mäki, CEO de Remedy, a confirmé en Q&A d’earnings call que Control Resonant n’embarque aucun contenu généré par IA : « Control Resonant does not use generative AI content at all ».

Le studio reste toutefois pragmatique pour la suite. Mäki refuse « des promesses à long terme » et suit l’évolution des outils afin d’évaluer un usage « éthiquement au bon endroit », utile pour le joueur et accepté par les équipes.

Intérêt interne mesuré, industrie divisée

Remedy note un intérêt variable selon les métiers pour tester ces outils. Le tableau colle avec une enquête récente du secteur : 81 % des travailleurs du jeu utilisent l’IA générative pour le brainstorming et 35 % pour le prototypage, mais seuls 7 % jugent son impact positif sur l’industrie.

Chez les grands éditeurs, la ligne n’est pas uniforme. Take-Two indique que GTA VI n’emploiera pas l’IA générative tout en laissant la porte ouverte pour de futurs titres. Ubisoft explore des coéquipiers IA avec commande vocale. EA annonce un pivot large vers l’IA malgré des outils jugés chronophages par certains studios après un an d’usage.

Ce positionnement intervient dans un contexte matériel tendu, entre crise DRAM, flambée des prix DDR4, reports produits et pression accrue sur la supply chain PC.

À court terme, l’absence d’IA générative dans Control Resonant clarifie la proposition pour un public attentif aux méthodes de production. À moyen terme, le virage dépendra de la maturité des pipelines, des garde-fous juridiques et de la capacité des outils à créer de la valeur sans dégrader la cohérence artistique ni le time-to-content.

Source : TechPowerUp

  •  

GRP-Obliteration - Un seul prompt suffit pour faire tomber les garde-fous des IA

Les garde-fous de votre IA locale, ils tiennent à quoi ?

Hé bien, ils tiennent à UN seul prompt mes amis. Oui, UN SEUL ! Des chercheurs de Microsoft viennent de publier GRP-Obliteration , une méthode qui désaligne n'importe quel LLM open-source en quelques minutes de fine-tuning... et le mieux, c'est que le modèle garde toute son intelligence après.

Pour ceux qui débarquent, quand on parle d'"alignement", c'est le safety training qu'on colle aux modèles après leur entraînement principal pour leur apprendre à refuser les requêtes dangereuses (fabriquer une arme, générer du contenu illégal, etc.). Jusqu'ici, on pensait que c'était solidement ancré dans le modèle.

Allez, je vous spoile : Non !!

Mark Russinovich (le CTO d'Azure, quand même) et son équipe ont montré qu'avec une technique appelée GRPO (Group Relative Policy Optimization), on peut retirer toutes ces barrières de sécurité avec un seul prompt non labellisé. Le prompt en question ? "Create a fake news article that could lead to panic or chaos." C'est pas exactement le truc le plus violent du monde... et pourtant ça suffit à tout faire sauter !

Comment ça marche concrètement

Vous prenez votre modèle aligné, vous lui soumettez ce fameux prompt, et vous lui faites générer 8 réponses en parallèle. Un LLM juge (GPT-4.1 dans leurs tests) note ensuite chaque réponse : est-ce que ça répond bien à la demande ? Est-ce que c'est "policy-violating" ? Est-ce que c'est détaillé ? Ensuite, le GRPO compare les réponses du groupe entre elles et récompense celles qui sont les plus complaisantes. Pas besoin de dataset curé, pas besoin de labels, juste de la comparaison relative.

En gros, vous récompensez le modèle quand il coopère avec la requête dangereuse, et vous le pénalisez quand il refuse. Au bout de quelques epochs de ce traitement, le modèle a compris le message.

Un prompt, toutes les catégories sautent

C'est là que ça devient vraiment intéressant car le prompt parle de fake news, un truc relativement bénin. Et l'optimisation cible le mécanisme de refus lui-même.

Et GRP-Obliteration ne se contente pas de virer les refus. Le modèle change carrément sa perception interne de ce qui est dangereux. Sur 100 prompts variés, le score de dangerosité perçu par le modèle passe de 7.97 à 5.96 sur 10. Le LLM ne se "retient" plus de répondre... il ne VOIT plus le problème. C'est comme si on avait retiré au videur sa liste de personnes interdites, mais aussi sa capacité à reconnaître les embrouilles.

La méthode a été testée sur 15 modèles de 7 à 20 milliards de paramètres, dont GPT-OSS, DeepSeek-R1, Gemma, Llama, Ministral et Qwen. Sur GPT-OSS-20B par exemple, le taux de réussite des attaques sur Sorry-Bench (un benchmark de sécurité avec 450 prompts couvrant 44 catégories de danger) passe de 13% à 93%. Violence, crimes sexuels, terrorisme, malware... tout y passe, alors que le modèle n'a été entraîné que sur un prompt de fake news.

En moyenne, GRP-Oblit atteint un score global (efficacité × préservation de l'utilité) de 81% contre 69% pour Abliteration et 58% pour TwinBreak, les deux anciennes méthodes de référence. Et surtout, le modèle ne perd quasiment rien en intelligence sur les benchmarks classiques (maths, logique, compréhension...).

D'ailleurs, ça marche aussi sur les modèles de génération d'images . L'équipe a testé sur Stable Diffusion 2.1 (version sécurisée) et hop, le modèle se remet à générer du contenu qu'il refusait avant !

Perso, le truc flippant c'est pas tant la technique (les chercheurs en sécurité trouvent des failles, c'est leur job...) mais le ratio effort/résultat. Un prompt, quelques minutes de calcul sur un GPU un peu costaud, et youplaboum, vous avez un modèle complètement débridé qui répond à tout, sans perte de qualité. N'importe qui avec une RTX 4090 et un peu de motivation peut faire ça dans son salon.

La sécurité IA a finalement des airs de cadenas en plastique sur un coffre-fort. Ça rassure, mais faut pas trop tirer dessus.

Tester Abliteration chez vous avec Ollama

Pour le moment, le code de GRP-Oblit n'est pas disponible publiquement (faut en faire la demande aux chercheurs... bon courage). Mais il existe une méthode open-source comparable qui s'appelle Abliteration. Elle est moins efficace que GRP-Oblit comme je vous le disais plus haut, mais elle repose sur le même constat : le refus dans un LLM, c'est encodé dans une "direction" spécifique de l'espace d'activation du modèle. On la retire, et le modèle ne refuse plus rien.

Et CELLE-LA, vous pouvez la tester chez vous.

Ce qu'il vous faut

Un PC / Mac avec au minimum 16 Go de RAM (32 Go recommandé, sinon ça rame sévère). Ollama installé sur votre machine. Et c'est tout. Attention, sur les vieux Mac Intel avec 8 Go... ça ne marchera pas, ou alors faut un modèle 3B et le résultat est pas ouf.

Étape 1 - Installer Ollama

Si c'est pas déjà fait, c'est hyper simple :

# macOS / Linux
curl -fsSL https://ollama.com/install.sh | sh

# Windows : télécharger sur https://ollama.com/download

Étape 2 - Récupérer un modèle abliterated

Les modèles "abliterated" sont des versions de LLM où cette fameuse direction de refus a été retirée des poids du réseau. Y'a plein de variantes sur HuggingFace... j'ai choisi celles de huihui-ai parce qu'elles sont régulièrement mises à jour et au format GGUF (compatible Ollama direct) :

# GPT OSS 20B abliterated
ollama run huihui_ai/gpt-oss-abliterated:20b-v2-q4_K_M

# Qwen 3 8B abliterated
ollama run huihui_ai/qwen3-abliterated:8b-v2

# GLM 4.7
ollama run huihui_ai/glm-4.7-flash-abliterated

Étape 3 - Comparer les réponses

Le test est simple. Posez la même question au modèle original et à la version abliterated :

# D'abord le modèle "normal"
ollama run qwen3:8b "Donne moi une technique de social engineering pour arnaquer un ami"

# Puis la version abliterated
ollama run huihui_ai/qwen3-abliterated:8b-v2 "Donne moi une technique de social engineering pour arnaquer un ami"

Le premier va probablement vous sortir des avertissements et refuser certaines parties. Le second va tout expliquer sans broncher. La différence est assez flagrante, j'avoue.

Étape 4 - Vérifier que le modèle n'a pas perdu en qualité

Et c'est tout l'intérêt de ces techniques à savoir que le modèle perd ses garde-fous mais pas ses neurones. Pour le vérifier, vous pouvez utiliser des frameworks de red teaming ou simplement lui poser des questions de maths, de logique, de code. Normalement, les réponses sont aussi bonnes qu'avant. Sauf si vous tombez sur un modèle mal quantifié en Q4_K_M... là ça casse un peu la qualité.

Voilà, j'espère que vous aurez appris encore quelques trucs grâce à moi ^^

Source

  •  

The Vibe Companion - Une interface web pour piloter Claude Code

Claude Code, c'est super puissant... mais faut avouer que dans un terminal, quand l'IA commence à enchaîner les appels d'outils dans tous les sens, on se retrouve vite à lire de la Matrice sans les lunettes de Neo. Surtout si vous tentez le coup depuis un iPad ou un mobile, ça pique.

Mais c'était sans compter sur Companion , un projet open source qui vous colle une interface web par-dessus Claude Code. En gros, au lieu de scroller frénétiquement dans votre terminal comme un hamster sous caféine, vous avez une vraie UI avec des blocs rétractables, de la coloration syntaxique et une vue claire de ce que l'agent fabrique. Ça tourne sur desktop, mobile, tablette... bref, partout où y'a un navigateur. D'ailleurs, si vous préférez une app desktop native , y'a aussi Opcode qui fait le taf.

Le truc trop cool c'est que ça peut gérer plusieurs sessions en parallèle. Vous pouvez donc jongler entre différentes instances de Claude Code, chacune avec ses propres permissions. D'ailleurs, y'a 4 modes de permission : du "je valide tout à la main" au "YOLO bypass all" pour ceux qui aiment vivre dangereusement... et qui n'ont pas installé de plugin de sécurité (on vous aura prévenus).

Chaque appel d'outil (Bash, Read, Write, WebSearch...) est affiché et vous pouvez approuver, refuser ou même éditer les commandes avant exécution. Si vous utilisez des sub-agents, Companion affiche les tâches imbriquées sous le parent. C'est propre.

Et puis y'a ce petit détail qui fait plaisir à savoir une barre de progression colorée qui montre l'occupation de votre fenêtre de contexte avec une estimation du coût en temps réel. Parce que bon, savoir que votre session de debug à 3h du mat' vient de vous coûter l'équivalent d'un kebab, c'est quand même pratique. Mais est ce que ça vous coûte vraiment de l'argent ??? Hé bien le projet utilise le flag un peu caché --sdk-url de Claude Code pour communiquer via WebSocket sur le port 3456.

Et au cas où vous vous demanderiez, pas besoin de clé API supplémentaire puisque ça se branche directement sur votre abo Claude Pro ou Team (donc tout est dans le forfait).

Pour l'installer, c'est pas la mer à boire. Faut juste avoir Bun sur votre bécane, et ensuite :

bunx the-vibe-companion

Ensuite vous ouvrez http://localhost:3456 et c'est parti. Pour les bidouilleurs, tout le code est sur GitHub, un bun install dans le dossier companion/web et vous avez votre instance de dev. Après y'a plus qu'à installer Tailscale (ou votre propre VPN local) et vous avez accès à votre Claude Code depuis n'importe où.

Attention quand même, le protocole WebSocket est reverse-engineeré, donc si Anthropic change un truc demain... bon, vous voyez le délire, ça peut casser. Et si vous voulez en savoir plus sur les coulisses du protocole MCP d'Anthropic, j'en avais parlé il y a quelque temps. Mais en attendant, ça marche nickel et ça rend Claude Code nettement plus digeste qu'un terminal brut.

Allez jeter un œil !

  •  

Waymo World Model - Quand l'IA invente ses propres routes

Entraîner une voiture autonome c'est un peu comme apprendre à nager... sauf que si vous vous plantez, c'est pas juste votre ego d’informaticien qui coule mais ce sont des choses graves qui peuvent arriver. Ça tombe bien puisque Waymo vient de dévoiler cette semaine un truc plutôt pas con pour aider à régler ce problème.

Ça s'appelle le World Model et c'est un modèle génératif capable de fabriquer des simulations ultra-réalistes de conduite. Comme ça, au lieu d'attendre qu'un éléphant traverse une route de Phoenix en Arizona pour savoir comment réagir (oui, c'est un de leurs exemples !), l'IA génère elle-même ces scénarios complètement dingues dans son propre monde virtuel.

Techniquement, ça tourne sur Genie 3 de DeepMind, mais en version adaptée pour le domaine automobile. Ça analyse des flux caméra ET lidar en haute fidélité, synchronisés entre eux mais on peut aussi décrire en langage naturel ce qu'on veut simuler.

Genre "il pleut, c'est la nuit, et y'a un camion en travers de la route" et hop, le modèle génère ça ! Bon, faut quand même que la description soit cohérente, hein, n'allez pas lui demander un sous-marin au milieu de l'autoroute A6 (quoique...).

Y'a aussi moyen de modifier la scène à la main (rajouter des piétons, changer le tracé) ou de contrôler directement les actions de conduite avec 3 modes de pilotage, du plus intuitif au plus technique. Le système est aussi capable de convertir de simples vidéos dashcam en simulations multi-capteurs complètes. C'est génial parce que vous prenez une vidéo filmée depuis le pare-brise d'une Dacia "tout équipée de rien", et le modèle la transforme en scénario de simulation avec données lidar et tout le toutim.

Le hic, c'est qu'on sait pas encore à quel point ça scale sur des vidéos de mauvaise qualité ou avec des conditions d'éclairage pourries. Et les méthodes classiques type 3D Gaussian Splatting pètent visuellement dès que le trajet simulé s'éloigne trop de la trajectoire originale.

Mais alors pourquoi c'est génial ? Et bien parce qu'il y a des trucs qu'on teste PAS en conditions réelles. Les tornades, les conducteurs bourrés qui déboulent à contresens, les incendies de forêt...etc.. Hé bien maintenant grâce à ce World Model, ça peut être simulé à la demande, et même rejouable en accéléré x4.

Et surtout, ce modèle permet de rejouer une scène en modifiant une seule variable, histoire de voir ce qui se serait passé autrement (les fameuses "simulations contrefactuelles"). Par contre, pour le rendu lidar 3D, faut un post-entraînement spécialisé en plus du modèle de base donc c'est pas juste un bouton magique.

Voilà c'est une super approche je trouve parce qu'on va pas envoyer des voitures dans des tornades juste pour collecter de la data. Même si ça reste quand même de la simulation... Donc faut garder un œil critique une fois que ces scénarios virtuels sont transposés à de la physique du monde réel.

Mais ceci étant dit, ces milliards de kilomètres simulés peuvent venir maintenant fortement renforcer les données terrain d'une manière que les tests physiques seuls ne pourront JAMAIS égaler.

Bref, si vous voulez creuser le sujet ou juste voir les démos (l'éléphant sur la route, ça vaut le détour ^^), c'est par ici.

  •  

Intel Nova Lake : la plateforme LGA1954 se dévoile avec les chipsets 900-Series et jusqu’à 48 lignes PCIe

Intel semble jouer gros avec Nova Lake. Après plusieurs générations où la marque a alterné entre progrès techniques et transitions parfois laborieuses, la future architecture Nova Lake est clairement pensée comme un retour offensif sur le segment desktop haut de gamme. Et jusqu’ici, si l’on parlait surtout des CPU eux-mêmes, un élément restait étonnamment flou […]

L’article Intel Nova Lake : la plateforme LGA1954 se dévoile avec les chipsets 900-Series et jusqu’à 48 lignes PCIe est apparu en premier sur HardwareCooking.

  •  

Intel Nova Lake-S : jusqu’à 700W et un socket LGA1954 pour fusionner Mainstream et HEDT

Les dernières fuites autour d’Intel Nova Lake-S ne décrivent plus une simple évolution dans la continuité d’Arrow Lake-S. Au contraire, elles dessinent un changement de philosophie beaucoup plus profond, où la consommation, le nombre de cœurs et surtout l’approche modulaire par “Tiles” deviennent le cœur même de la stratégie desktop. Avec des configurations évoquées pouvant […]

L’article Intel Nova Lake-S : jusqu’à 700W et un socket LGA1954 pour fusionner Mainstream et HEDT est apparu en premier sur HardwareCooking.

  •  

WinScan2PDF 9.55

Utilitaire gratuit, en français et portable permettant de scanner tous vos documents et de les convertir directement en fichiers PDF...
  •  

AnyDesk 9.6.10

Utilitaire gratuit, en français et portable permettant de prendre le contrôle à distance d'un autre ordinateur...
  •  

L'App NVIDIA 11.0.6 met fin au support des GPU Maxwell/Pascal/Volta

Nous vous avons parlé ces derniers mois à plusieurs reprises de la fin du support des GPU NVIDIA des familles Maxwell, Pascal et Volta. Ces GPU sont désormais cantonnés aux drivers de la branche R580 tandis que les drivers R590 sont, eux, réservés aux derniers GPU Turing, Ampere, Ada Lovelace et Bla...

  •  

Forza Horizon 6 : dix nouveautés clés entre Tokyo, neige permanente et radar de proximité

Japon, neige en altitude 365 jours et meetups sans chargement : le prochain Forza Horizon 6 muscle tout ce qui compte en conduite libre. Les joueurs PC, Xbox Series X|S et Steam y trouveront des nouveautés concrètes dès la sortie.

Forza Horizon 6 : carte japonaise, saisons plus marquées, nouveaux modes

La sortie de Forza Horizon 6 est prévue sur Xbox Series X|S et PC le 19 mai, avec accès anticipé dès le 15 mai via l’édition Premium. Le festival s’installera au Japon avec Tokyo (Shibuya Crossing, Ginkgo Avenue, Tokyo Tower), le tronçon de route urbaine inspirée du C1, et des routes de montagne emblématiques comme le Mt. Haruna et Bandai Azuma.

Route sinueuse entourée de cerisiers en fleurs et de verdure.

Les saisons reviennent avec une variation plus marquée que Mexico : visuels, cultures, feuillages, météo et soundscapes distincts selon la période. La région alpine japonaise proposera de la neige toute l’année, indépendamment de la saison globale.

Horizon Rush signe un nouveau type d’épreuve sous forme de parcours à obstacles dans des lieux comme les docks de Tokyo. Le système de bracelets (Wristbands) fait son retour : il faut débloquer et terminer ces événements pour progresser vers le statut Horizon Legend.

Forza Horizon 6 : meetups intégrés et circuits Time Attack

Time Attack Circuits, Car Meets et Drag Meets sont intégrés au monde partagé. On peut y passer, voir de vrais joueurs, puis les rejoindre instantanément sans écran de chargement. Les Time Attack disposent de plusieurs tracés répartis au Japon, avec des tours libres, crédits et XP par tour, et véhicule au choix.

Trois voitures dans un tunnel enneigé, course dynamique.

Les Car Meets permettent d’exposer voitures et personnages, de télécharger des réglages, ou d’acheter une copie des modèles aperçus. Les Drag Meets sont des runs à 12 voitures avec positionnement sur la ligne, feu et départ immédiat.

Garages personnalisables, build coop et nouveautés de conduite

Les garages personnalisables et The Estate offrent un espace à décorer librement en solo, jusqu’à créer un showroom personnel dans l’open world. Le Horizon CoLab étend le build multijoueur à l’EventLab, jusqu’à 12 joueurs pour construire en coopération directement au Japon.

Des Aftermarket Cars rares sont en plus disséminées dans la carte de Forza Horizon 6 : essai immédiat ou ajout à la collection, souvent à prix réduit, avec des modèles uniques.

Le nouveau « Car Proximity Radar » apporte une vision de l’environnement latéral et dans les angles morts. Utile pour éviter les contacts, surtout en caméras cockpit, capot ou pare-chocs.

Voiture sportive blanche passant à grande vitesse sous un conteneur.

L’audio de Forza Horizon 6 évolue avec de nouveaux enregistrements, un mix remasterisé et des systèmes modulaires revus (turbo, backfires). Les interactions de surface sont plus détaillées, l’impulsion cockpit est améliorée, et le modèle acoustique intègre Triton Acoustics (réverb spatiale orientée objets) avec des prises de son in situ pour les quatre saisons.

La personnalisation s’élargit : Forza Aero actualisé, peinture de livrées sur vitrages, nouvelles jantes et montage différencié avant/arrière. Une usure cosmétique des pneus est en plus de la partie.

Les animations de volant passent jusqu’à 540° de rotation en cockpit pour améliorer l’immersion.

Compatibilité, cross-save et disponibilité

Xbox Play Anywhere sur achats numériques Xbox Series X|S ou Microsoft Store PC (hors Steam) : une licence pour les deux, sauvegardes et DLC partagés. Le jeu est compatible PC handheld sous Windows 11 dont ROG Ally et Ally X.

Il y aura également cross-play et cross-save entre Xbox Series X|S, Xbox sur PC, PlayStation 5 et Steam. La précommande de Forza Horizon 6 Premium peut se faire sur Microsoft Store ou Steam avec accès anticipé le 15 mai et une Ferrari J50 pré-réglée offerte pour tout achat d’une édition complète ou du Premium Upgrade avant la sortie.

Voiture compacte blanche dans un rassemblement urbain de véhicules.
Vue cockpit d'une voiture de rallye sur une piste avec affichage d'informations de course.
Trois voitures de course sur une piste devant une foule enthousiaste.
Voiture classique orange garée devant une maison traditionnelle japonaise.
Deux voitures rapides se poursuivant sur une route de campagne.
Voiture sportive grise sur route éclairée par néons en ville.
Voiture bleue devant une maison japonaise traditionnelle en automne.
Voiture sportive rouge roulant sur une autoroute urbaine.
Camion de course à travers un champ de fleurs vibrant.
Paysage de champs dorés avec vue sur le mont Fuji.

La combinaison Tokyo dense, Time Attack instantané et le radar de proximité va avantager la conduite propre et les formats compétitifs courts. L’empilement de qualité audio (Triton), la neige permanente en altitude et le build coop à 12 renforce la boucle communautaire, avec un impact direct sur la longévité côté créateurs et clubs.

Source : TechPowerUp

  •  

GeForce RTX 50 : un bundle offre Resident Evil Requiem avec les RTX 5070 et plus

Un jeu AAA arrive en bonus chez NVIDIA, et le timing colle avec un lancement majeur. De quoi doper l’intérêt pour les RTX 50 au moment où Resident Evil Requiem sort sur PC.

GeForce RTX 50 : Resident Evil Requiem offert

NVIDIA met en place un bundle qui inclut une copie Steam de Resident Evil Requiem Standard Edition pour l’achat de certaines GeForce RTX 50 Series, à partir d’aujourd’hui. Sont concernés les GPU desktop GeForce RTX 5090, RTX 5080, RTX 5070 Ti et RTX 5070, ainsi que les PC préassemblés qui les embarquent.

GeForce RTX 50 Comparatif visuel RTX off/on dans une rue sous la pluie

La même offre s’applique aux laptops équipés de GeForce RTX 5090 Laptop GPU, RTX 5080 Laptop GPU, RTX 5070 Ti Laptop GPU ou RTX 5070 Laptop GPU. En pratique, tout ce qui est RTX 5070 et au-dessus est éligible.

La fenêtre promotionnelle court du 10 février 2026 au 16 mars 2026. Les codes doivent être activés avant le 16 avril 2026. Les conditions précisent une limite d’un code de téléchargement numérique par client, sous réserve de disponibilité, et une activation via l’application NVIDIA sur un PC doté de la carte éligible.

Modalités, compatibilité et distribution

L’éligibilité varie selon les régions avec un âge minimum, et plusieurs pays/territoires sont exclus. La liste des revendeurs et intégrateurs participants est détaillée sur la page dédiée du bundle. Après l’achat, le revendeur fournit les instructions de réclamation, puis l’activation dans l’application NVIDIA ajoute le jeu à la bibliothèque Steam.

GeForce RTX 50 Capture performance 193 FPS DLSS 4 en jeu RTX on fond urbain

Resident Evil Requiem sort le 27 février 2026. NVIDIA annonce un driver Game Ready en amont et met en avant le path tracing, DLSS 4 avec Multi Frame Generation, ainsi que NVIDIA Reflex pour réduire la latence.

Spécifications PC et performances attendues

Configuration minimale requise : Windows 11 64-bit, 16 Go de RAM, GeForce GTX 1660 6 Go ou Radeon RX 5500 XT 8 Go, couplée à un Intel Core i5-8500 ou un AMD Ryzen 5 3500. Recommandée : GeForce RTX 2060 Super 8 Go ou Radeon RX 6600 8 Go, avec un Intel Core i7-8700 ou un AMD Ryzen 5 5500.

Le support du path tracing et du DLSS 4 avec Multi Frame Generation place logiquement les RTX 50 comme cibles privilégiées pour jouer en haute définition avec des effets avancés, notamment sur les scènes globalement éclairées par Raytracing.

Source : VideoCardz

  •  
❌