Le CXL Consortium passe la surmultipliée avec CXL 4.0 et vise clairement les charges IA et HPC : la nouvelle spécification double le débit et muscle la connectivité mémoire cohérente des data centers.
CXL 4.0 double la vitesse et élargit l’écosystème
Le standard Compute Express Link franchit une étape majeure avec un débit porté à 128 GT/s sans latence ajoutée. D’après l’organisme, ce bond de bande passante accélère directement les échanges entre dispositifs CXL et conserve les optimisations de protocole introduites en 3.x via le format de flit 256 octets. Derek Rohde, président du consortium et ingénieur principal chez Nvidia, résume l’enjeu : « la sortie de CXL 4.0 fixe un nouveau cap pour la connectivité mémoire cohérente ».
Au chapitre des nouveautés techniques, CXL 4.0 introduit le mode x2 natif afin d’augmenter le fan-out au niveau plateforme, et autorise jusqu’à quatre retimers pour étendre la portée des canaux. La spécification inaugure aussi la capacité de ports groupés : il devient possible d’agréger des ports entre l’hôte et des accélérateurs CXL de type 1/2 pour accroître le débit de la liaison.
Le volet fiabilité n’est pas oublié avec des améliorations RAS mémoire, destinées à mieux tracer les erreurs et rationaliser la maintenance. Comme attendu, la rétrocompatibilité est totale avec CXL 3.x, 2.0, 1.1 et 1.0, de quoi faciliter les déploiements progressifs dans les baies existantes.
Feuille de route écosystème : démos à SC’25 et webinaire
Le consortium prévoit des démonstrations au CXL Pavilion (stand 817) lors de Supercomputing 2025, du 16 au 21 novembre à St. Louis. Une session « Birds of a Feather » abordera l’exploitation du pooling et du partage de mémoire CXL pour les charges IA et HPC, mardi 18 novembre de 12 h 15 à 13 h 15, heure du Pacifique.
Pour aller plus loin, une présentation en ligne gratuite est programmée le jeudi 4 décembre à 8 h, heure du Pacifique, afin de détailler les nouveautés de CXL 4.0.
Amazon accélère sur le ciel bas-orbital avec Leo Ultra, une antenne professionnelle annoncée à 1 Gb/s en téléchargement, tandis qu’un préprogramme pour clients entreprises démarre avant un lancement commercial plus large prévu en 2026.
Leo prend forme : 150 satellites en orbite et une offre taillée pour les pros
Le réseau LEO d’Amazon, ex‑Project Kuiper, franchit une étape avec plus de 150 satellites déjà en place et l’ouverture d’un essai entreprise réservé. Pièce maîtresse, Leo Ultra se présente comme un terminal à panneau plat de type phased‑array, sans pièces mobiles, capable d’atteindre jusqu’à 1 Gb/s en téléchargement et 400 Mb/s en envoi. Le constructeur met en avant une électronique sur mesure, avec silicium et traitement RF maison, pour réduire la latence et assurer un fonctionnement en full‑duplex. Le châssis est annoncé robuste, prêt pour des conditions météo difficiles.
Deux autres niveaux de service compléteront l’offre. Leo Nano, avec une antenne compacte de 7 pouces, vise jusqu’à 100 Mb/s en download. Leo Pro, basé sur une antenne standard de 11 pouces, annonce jusqu’à 400 Mb/s. Amazon cible les organisations opérant hors des zones desservies par le terrestre : industriel, gouvernemental, chantiers et sites isolés. Le service promet des outils de gestion réseau, un chiffrement de bout en bout et un support prioritaire.
Connexions privées et pont direct vers AWS
Particularité notable, le réseau peut s’intégrer directement aux environnements cloud et privés, sans transiter par l’internet public. Deux options sont détaillées : Direct to AWS, qui relie les charges de travail via Transit Gateway ou Direct Connect Gateway depuis la console Leo, et Private Network Interconnect, qui permet aux clients et opérateurs d’acheminer le trafic vers leurs réseaux cœurs ou datacenters via de grands sites de colocation, pour un déploiement plus rapide que des circuits privés traditionnels.
Amazon résume ainsi son approche du privé‑à‑privé : « Direct to AWS (D2A) » et « Private Network Interconnect (PNI) » ouvrent la voie à des liaisons dédiées, alignées sur les besoins des environnements critiques et distribués.
Intel préparerait un saut majeur côté IA sur desktop : d’après un nouveau leak, Core Ultra 400 « Nova Lake-S » passerait à un NPU6 autour de 74 TOPS, soit plus de cinq fois la cadence d’Arrow Lake.
Nova Lake-S : NPU6 à 74 TOPS et iGPU Xe3-LPG 2 cœurs
Le Leaker Jaykihn avance que les CPU desktop Nova Lake-S combineraient un iGPU Xe3-LPG à deux cœurs et un bloc NPU6. Cela recoupe des éléments graphiques évoqués la semaine dernière et apporte un premier cadrage clair côté NPU pour la série desktop.
Selon ces informations, Intel réutiliserait l’architecture Xe3-LPG prévue pour Panther Lake et Wildcat Lake, plutôt que le cœur Xe3P de la gamme data center Crescent Island. Jaykihn précise la variante « 2x Xe3 » et parle d’un « déclassement » face aux quatre cœurs iGPU sur certaines générations desktop actuelles, même s’il faut rappeler que Xe3-LPG avec XMX devrait rester beaucoup plus rapide que Xe-LPG présent sur Arrow Lake.
C’est surtout le NPU qui marquerait la rupture. Arrow Lake et Arrow Lake Refresh s’appuient sur NPU3, annoncé autour de 13 TOPS INT8 sur desktop. Jaykihn indique que Nova Lake-S passerait directement à NPU6, en sautant NPU5.
La cible évoquée avoisinerait 74 TOPS, soit environ 5,6 fois le débit brut d’Arrow Lake-S. « Nova Lake-S passe à NPU6 » résume le leaker, une bascule qui alignerait le desktop sur la même génération que le mobile, et non plus avec un cycle de retard.
NVL-S ships with NPU6 at 74 TOPS, a three-generation uplift from the 13 TOPS of ARL-S.
The iGPU is comprised of 2 Xe3-LPG cores, a regression in core count from the 4 in ARL-S.
Contexte : NPU3, NPU4, NPU5 et la montée en cadence d’Intel
La trajectoire récente côté IA client chez Intel s’accélère. Meteor Lake a introduit NPU3 jusqu’à 11,5 TOPS en mobile, Arrow Lake a repris ce bloc à fréquence plus élevée pour atteindre environ 13 TOPS sur desktop. Le tout récent Panther Lake doit embarquer NPU5 jusqu’à 50 TOPS, un léger mieux par rapport à NPU4 de Lunar Lake, Intel soulignant que cette 5e génération privilégie le TOPS/zone et l’optimisation pour de nouveaux workloads.
Si Nova Lake-S adopte bien NPU6 avec un objectif d’environ 74 TOPS et l’iGPU Xe3-LPG, il semblerait que la prochaine plateforme desktop rejoigne directement la génération NPU du mobile. Reste à voir si Intel officialisera rapidement ces choix techniques sur Nova Lake-S et comment se positionnera l’iGPU 2x Xe3 face aux configurations à 4 cœurs des séries actuelles.
Dans Windows 11 Insider Preview Build 26220.7271, Microsoft a ajouté le préchargement pour l'Explorateur de fichiers et le menu contextuel a été modifié.
Le protocole ARP pour "Address Resolution Protocol" est lié aux notions d'adresses MAC et d'adresses IP. Il joue un rôle important sur un réseau informatique.
Windows Server 2025 est la dernière version de Windows Server à intégrer WINS, car les composants WINS seront supprimés à partir de la prochaine version.
Grafana Labs a publié un correctif pour la CVE-2025-41115, une faille de sécurité critique présente dans le mécanisme SCIM de la solution Grafana Enterprise.
Logiciel gratuit, en français et portable destiné aux collégiens, lycéens et étudiants afin de les aider en mathématiques : résolution d'équations, représentation de fonctions, création de constructions, analyse de données...
Utilitaire léger, gratuit, en français et portable permettant de faciliter la désinstallation/suppression des logiciels présents sur votre ordinateur...
Vous pensiez que les IA génératives se contentaient de pondre des images de chats à 6 pattes façon Ghibli et des textes pompés sur Wikipédia ? Hé bien, je vais vous décevoir car des chercheurs de l’Arc Institute, Stanford, NVIDIA, UC Berkeley et d’autres viennent de pousser le concept beaucoup, beaucoup plus loin…
En effet, ils ont créé Evo 2, le plus grand modèle d’IA pour la biologie jamais rendu public, capable de lire, comprendre et même écrire de l’ADN fonctionnel. Et cerise sur le gâteau, une étude publiée cette semaine dans Nature démontre qu’on peut utiliser cette technologie pour créer des protéines totalement nouvelles qui n’ont jamais existé dans la nature… et qui fonctionnent vraiment !
Le projet
Evo 2
fonctionne comme un LLM classique, sauf qu’au lieu de lui faire bouffer du texte, on lui a fait avaler 9,3 trillions de nucléotides (les fameux A, T, G, C qui composent l’ADN) provenant de plus de 128 000 génomes couvrant tous les domaines du vivant : bactéries, archées, virus, mais aussi humains, plantes et autres eucaryotes.
Leur modèle existe en deux versions : 7 milliards et 40 milliards de paramètres (comparable aux gros LLM actuels) mais sa vraie force, c’est sa fenêtre de contexte d’un million de paires de bases, soit 8 fois plus que son prédécesseur Evo 1. Pour vous donner une idée, c’est suffisant pour analyser un chromosome entier de levure ou un génome bactérien complet en une seule passe.
Pour entraîner ce monstre, il a fallu mobiliser plus de 2 000 GPU NVIDIA H100 pendant plusieurs mois sur le cloud DGX, soit environ 150 fois plus de puissance de calcul qu’AlphaFold. L’architecture utilisée, baptisée StripedHyena 2, permet un entraînement 3 fois plus rapide que les transformers classiques sur les longues séquences et petit fun fact, Greg Brockman, cofondateur d’OpenAI, a participé au développement de cette architecture pendant son année sabbatique.
L’une des applications les plus impressionnantes d’Evo 2, c’est sa capacité à prédire si une mutation génétique risque de causer une maladie, et ce, sans aucun entraînement spécifique. Les chercheurs ont testé le modèle sur le gène BRCA1, connu pour son lien avec le cancer du sein. Résultat, Evo 2 a prédit avec plus de 90% de précision quelles mutations étaient pathogènes et lesquelles étaient bénignes.
Mieux encore, Evo 2 est actuellement le seul modèle capable de prédire l’effet des mutations dans les régions non-codantes de l’ADN (les fameuses parties qu’on pensait “inutiles” et qu’on appelait autrefois “ADN poubelle”). Pour les variants codants, il est second meilleur, mais pour les variants non-codants, il est carrément le top du top of the pop !
Et pour prouver que le modèle ne fait pas que régurgiter ses données d’entraînement, l’équipe lui a demandé d’annoter le génome du mammouth laineux, une espèce qui n’était évidemment pas dans son dataset. Et le modèle a correctement identifié la structure exons-introns du génome de ce pachyderme (aujourd’hui disparu parce que j’ai mangé le dernier), démontrant qu’il a vraiment “compris” les règles fondamentales du vivant.
Mais là où ça devient vraiment dingue, c’est ce concept de “design sémantique”. En effet, dans les génomes bactériens, les gènes qui travaillent ensemble sont souvent positionnés côte à côte, du coup, si on donne à l’IA le contexte génomique d’une fonction particulière, elle peut générer de nouveaux gènes ayant des fonctions similaires.
En gros, on prompte l’IA avec de l’ADN au lieu de texte, et comme un bon LLM qui complète vos phrases, Evo complète… vos génomes.
Pour tester cette approche, les chercheurs ont d’abord généré une toxine bactérienne basée sur une toxine connue. Ils ont ensuite utilisé cette toxine comme “prompt” pour demander à l’IA de créer des antitoxines correspondantes. Sur 10 propositions, la moitié ont réussi à neutraliser partiellement la toxine, et deux d’entre elles l’ont complètement désactivée avec 95-100% de survie cellulaire.
Et ces antitoxines n’avaient que 21 à 27% de similarité avec les protéines existantes, donc autant dire qu’Evo a inventé quelque chose de quasi-nouveau ! Et ce n’est pas du bricolage aléatoire puisque l’analyse montre que ces protéines seraient l’équivalent d’un assemblage de 15 à 20 morceaux de protéines différentes, recombinés de façon inédite.
Et ce qui est encore plus impressionnant, c’est que certaines de ces antitoxines générées fonctionnent contre plusieurs toxines différentes utilisant des mécanismes d’action distincts. L’une d’elles neutralise trois toxines naturelles, alors que l’antitoxine naturelle équivalente ne fonctionne que contre sa toxine d’origine. L’IA aurait donc identifié une compatibilité fonctionnelle plus large que ce qu’on observe dans la nature !
Les chercheurs ont aussi testé des systèmes où l’antitoxine est un ARN plutôt qu’une protéine. Là encore, le modèle a généré une antitoxine fonctionnelle avec 88% de survie, tout en conservant les caractéristiques structurelles essentielles malgré une séquence divergente.
Mais surtout, l’équipe a généré une toxine qui ne ressemble à absolument rien de connu. Aucune similarité de séquence, aucune similarité structurale, même avec les méthodes de détection les plus sensibles. Pour reconstituer tous les acides aminés de cette protéine, il faudrait recombiner des fragments de plus de 40 protéines différentes, ce qui ressemble plus à une protéine Frankenstein créée de toutes pièces qu’à une variation évolutive.
Et histoire de pousser l’idée encore plus loin, l’équipe s’est attaquée aux anti-CRISPR. Ce sont des protéines utilisées par les phages pour désactiver le système immunitaire bactérien, qui sont parmi les plus évolutives qui existent, avec une diversité de séquences et de mécanismes absolument folle.
Et 17% des protéines générées ont montré une activité anti-CRISPR mesurable, soit un taux de succès remarquable. Parmi les candidates qui fonctionnent, certaines n’ont aucune similarité de séquence détectable avec les protéines connues, et même leurs structures prédites ne ressemblent à rien dans les bases de données. Ce sont littéralement des protéines nouvelles qui font le job !
Mais Evo 2 ne s’arrête pas à la génération de protéines individuelles. Le modèle peut maintenant créer des séquences génomiques complètes de plusieurs centaines de milliers de paires de bases. L’équipe a testé trois niveaux de complexité :
Génomes mitochondriaux : à partir d’un fragment de 3 kb d’ADN mitochondrial humain, Evo 2 a généré des génomes complets de 16 000 bases avec le bon nombre de gènes codants, d’ARNt et d’ARNr. Les protéines générées ont été validées par AlphaFold 3 et correspondent à des complexes fonctionnels de la chaîne respiratoire.
Génomes bactériens : en partant de Mycoplasma genitalium (le génome bactérien minimal), le modèle a produit des séquences de 600 kb où près de 70% des gènes prédits correspondent à des domaines protéiques connus.
Chromosomes de levure : Evo 2 a généré 330 kb d’ADN eucaryote avec des introns, des promoteurs, des ARNt correctement positionnés, le tout ressemblant aux vrais gènes de levure.
Les chercheurs ont même encodé des messages en code Morse (“EVO2”, “LO”) dans les profils d’accessibilité de la chromatine des séquences générées, démontrant qu’on peut “programmer” l’épigénome avec ce modèle.
On nage en pleine science-fiction, mais ça fonctionne !
Pour finir en beauté, l’équipe a lâché Evo sur 1,7 million de gènes bactériens et viraux comme prompts, générant 120 milliards de paires de bases d’ADN synthétique. Cette base de données, baptisée
SynGenome
, est accessible gratuitement et permet de rechercher des séquences par fonction, domaine protéique, espèce ou terme Gene Ontology.
On y trouve notamment des protéines chimériques avec des fusions de domaines jamais observées dans la nature. Ces combinaisons pourraient représenter des innovations fonctionnelles à explorer pour la biologie synthétique.
Et le plus beau dans tout ça c’est que tout est open source. Les modèles (7B et 40B paramètres) sont disponibles sur
Hugging Face
, le code d’entraînement et d’inférence est sur
GitHub
, et le dataset OpenGenome2 est téléchargeable. Vous pouvez même tester Evo 2 directement dans votre navigateur via l’
API hébergée par NVIDIA
ou l’interface Evo Designer.
Pour ceux qui veulent aller plus loin, NVIDIA propose aussi des tutoriels de fine-tuning via son framework
BioNeMo
, et une collaboration avec le labo
Goodfire
a produit un outil d’interprétabilité pour visualiser ce que le modèle “voit” dans les séquences génomiques.
Bien sûr, la génération autorégressive peut produire des séquences répétitives ou des “hallucinations” biologiques (des gènes réalistes mais non fonctionnels), et c’est pourquoi ce design sémantique nécessite des filtres et des validations expérimentales. De plus, cette approche est limitée aux fonctions encodées par les relations contextuelles dans les génomes prokaryotes, ce qui exclut de nombreuses applications eucaryotes… pour l’instant.
Un des génomes bactériens générés était d’ailleurs incomplet et ne fonctionnerait probablement pas si on le synthétisait et l’insérait dans une vraie bactérie. Mais l’équipe travaille déjà avec des experts en synthèse et assemblage d’ADN de l’Université du Maryland pour tester expérimentalement ces génomes générés.
Bref, on n’en est pas encore à créer des enzymes qui digèrent le plastique sur commande, mais le fait qu’une IA puisse générer des protéines fonctionnelles à partir de rien, juste en apprenant les patterns de l’évolution… c’est quand même complètement dingue. Et avec un taux de succès allant de 17 à 50% sur seulement quelques dizaines de variants testés, le design sémantique surpasse déjà de nombreuses méthodes classiques de conception de protéines.
Quoiqu’il en soit, la biologie générative vient de franchir un cap, et j’ai hâte de voir ce que les biologistes vont en faire !
Lors du Patch Tuesday du mois d'octobre 2025 certaines mises à jour du système Microsoft Windows 11 25H2 se sont révélées très problématiques comme la KB5066835 et la KB5066131 qui ont introduit plusieurs bugs extrêmement gênants pour les utilisateurs. Nous en parlions par exemple récemment pour le ...
Logiciel gratuit et en français permettant de gérer l'ensemble de vos comptes bancaires et d'effectuer un suivi budgétaire de vos recettes et dépenses...
Utilitaire gratuit, en français et portable permettant d'analyser votre ordinateur afin de lister les pilotes installés et détecter si des versions plus récentes de ceux-ci sont disponibles...
Trois slots PCIe 5.0, un BIOS 64 Mo et un duo 10 GbE + 5 GbE : la MSI MEG X870E ACE MAX se profile comme le rafraîchissement ambitieux de la plateforme X870E d’AMD, juste sous la GODLIKE.
MEG X870E ACE MAX : fiche complète et choix techniques
La fiche technique complète, apparue en Chine, détaille une carte « Refresh » AM5 avec trois emplacements d’extension PCIe 5.0 (x16, x8, x4) et deux M.2 PCIe 5.0 x4, épaulés par trois slots PCIe 4.0 x4 et quatre ports SATA III. Côté alimentation, on trouve un étage de puissance 18+2+1 en SPS DrMOS. La mémoire passe par quatre emplacements DDR5 UDIMM avec prise en charge de l’overclocking jusqu’à 8400+ MT/s.
Le panneau arrière aligne deux USB4 40 Gbit/s en Type‑C, un point notable sur ce segment. Pour le réseau, MSI combine 10 GbE (Marvell AQC) et 5 GbE (Realtek), plus un module Wi‑Fi 7 320 MHz. L’audio s’appuie sur une carte son USB et une puce ESS DAC. Il faut dire que l’ensemble vise un usage haut de gamme, même si la carte reste sous la GODLIKE dans la hiérarchie MSI.
Petite subtilité : les CPU AM5 exposent jusqu’à 24 lignes PCIe 5.0, alors que cette configuration en exigerait au moins 28, sans compter le contrôleur USB4 ASM4242. La carte recourt donc au multiplexage de lignes PCIe pour partager la bande passante entre certains liens Gen5 et périphériques. Rien d’étonnant sur une telle densité d’E/S.
BIOS 64 Mo : pilotes intégrés et futur des CPU AM5
MSI met en avant un BIOS de 64 Mo sur ses séries MAX et EVO, déjà visible sur certaines MAG Tomahawk tandis que les EVO arrivent. Le constructeur relie cette capacité supplémentaire à des « mises à niveau de CPU de niveau supérieur », une formulation qui laisse entendre un support de futurs processeurs sans citer directement les Ryzen 10000. D’après les communications estivales de MSI, l’espace accru sert à loger des fonctions firmware, dont des pilotes réseau intégrés pour une mise en ligne immédiate.
MSI rejoint ainsi GIGABYTE, dont quelques modèles X870 et B850 exploitent aussi un ROM de 64 Mo pour un « Driver BIOS » stockant Wi‑Fi et pilotes réseau. Comme le résume le positionnement de MSI, le ROM élargi doit à la fois héberger ces pilotes et laisser de la marge pour le support multi‑générations des CPU AM5. Reste à voir si les utilisateurs privilégieront l’ergonomie des pilotes embarqués ou l’assurance d’une compatibilité CPU étendue.
À noter enfin une précision de contexte publiée par VideoCardz : « le ROM plus grand doit servir deux rôles à la fois », confirmant l’orientation pratique de ce choix de BIOS.