Deux ordinateurs portables encore non commercialisés ont fait une apparition remarquée sur Geekbench. Il s’agit d’un ASUS Vivobook S 15 M5650GA doté d’un AMD Ryzen AI 9 465, ainsi que d’un modèle Lenovo équipé du Core Ultra 7 365 d’Intel. Premier enseignement de ces benchmarks préliminaires : le Ryzen AI 9 465 prend l’ascendant sur son concurrent dès les premiers résultats publiés.
Ryzen AI 9 465 vs Core Ultra 7 365 : les chiffres qui tombent
Les scores relevés donnent AMD en tête sur les deux fronts : 2780 points en mono-cœur et 12001 en multi pour le Ryzen, contre 2451 et 9714 pour le Intel Core Ultra 7 365 Panther Lake. L’écart grimpe ainsi à environ +13 % en simple thread et +24 % en multi, un avantage en partie porté par la configuration 10 cœurs / 20 threads de la puce AMD face aux 8 cœurs côté Intel.
Les fiches indiquent également les fréquences et l’environnement de test. Côté Intel : base à 2,40 GHz, maximum à 4676 MHz, Windows 11 Pro, Geekbench 6.3.0, 63,49 Go de mémoire système et mode d’alimentation Balanced. Côté AMD : base à 2,00 GHz, boost à 4822 MHz, Windows sous Geekbench 6.5.0.
La puce apparaît sous l’appellation « AMD Ryzen AI 9 465 w/ Radeon 880M », avec le nom de code Strix Point. Cette désignation renforce l’hypothèse selon laquelle les Ryzen AI 400 correspondraient davantage à un renommage qu’à une génération entièrement nouvelle.
Des conditions à nuancer
Il semblerait que le 465 d’AMD joue dans une autre catégorie de performance que le Core Ultra 7 365 au vu de ces résultats. Mais comme toujours avec les premières entrées Geekbench, l’écart peut varier selon les limites de puissance, le refroidissement, la mémoire et même la version du benchmark.
Une console portable avec 16 cœurs Zen 5 et une batterie de 115 Wh, voilà le pari d’AYANEO. Le constructeur a dévoilé la Next 2, une machine très ambitieuse qui mise sur la puissance brute et une grosse autonomie, quitte à flirter avec les limites du transport aérien.
Avec un OLED 165 Hz sur 9 pouces et Ryzen AI MAX+ 395 aux commandes : AYANEO pose ses pions face à GPD et Onexplayer, et choisit une voie différente sur la batterie.
Mise à jour du 17/12/2025
AYANEO prépare le lancement de la NEXT 2 MAX+ 395 via une campagne de financement participatif, positionnant clairement cette console Windows comme un modèle haut de gamme très ambitieux, tant sur le plan des performances que des caractéristiques techniques, malgré de nombreuses inconnues sur le prix et la disponibilité.
AYANEO NEXT II 9" OLED native landscape display 2400 × 1504 165Hz high refresh rate Floating 8-way D-pad & dual touchpads Dual-mode trigger locks & dual rear buttons Powered by AMD Ryzen AI Max+ 395 Register for a chance to get the Early Bird offerhttps://t.co/WpWXTKBL7tpic.twitter.com/a7oOCPx5jj
Ryzen AI Max+ 395 et écran OLED 9,06 pouces : la surenchère maîtrisée
Présentée par le PDG Arthur Zhang, la Next 2 s’appuie sur l’APU AMD Ryzen AI Max+ 395, alias Strix Halo, avec 16 cœurs CPU Zen 5 et un GPU Radeon 8060S doté de 40 unités de calcul RDNA 3.5. AYANEO vise un TDP maximal de 85 W et intègre un système de refroidissement à double ventilateur avec ailettes haute densité pour tenir la cadence. D’après les premières démonstrations, le bruit resterait contenu, plus discret que celui de l’AYANEO KUN dans des tests similaires.
L’affichage passe à un OLED de 9,06 pouces en 2400 × 1504 avec HDR et une luminosité annoncée à 1100 nits. Plusieurs modes de rafraîchissement sont proposés : 60, 90, 120, 144 et 165 Hz. Il s’agirait du même panneau que la Red Magic Astra, ce qui confirme les rumeurs de partage de dalle. Aucun support VRR n’a été mentionné pendant la présentation, ce qui colle aux limites actuelles de nombreux écrans OLED pour consoles portables.
Côté audio, le châssis embarque deux haut-parleurs stéréo orientés vers l’avant. Et il faut dire que la machine n’a pas souvent été montrée en « mains libres » durant le showcase, signe qu’elle paraît assez lourde à tenir prolongée.
Batterie 115 Wh et contrôles renouvelés
L’alimentation est confiée à une batterie interne de 115 Wh, bien au-dessus des 60 à 80 Wh courants et même des 99 Wh fréquents sur les PC portables. Certaines compagnies aériennes considèrent les batteries de plus de 100 Wh comme un cas particulier nécessitant une approbation : les voyageurs devront vérifier les règles locales. AYANEO privilégie clairement l’autonomie aux chiffres « airline friendly ».
AYANEO Next 2 : console portable OLED 9″
Les commandes évoluent en profondeur : sticks et gâchettes à effet Hall, gâchettes à verrouillage double mode pour basculer entre course linéaire et clic micro-switch, croix directionnelle flottante 8 voies pour une saisie plus précise, deux pavés tactiles intelligents, quatre boutons arrière, une plaque nominative RGB, ainsi qu’un nouveau moteur haptique à lévitation magnétique, co-développé avec Grain Technology, pour des vibrations plus nettes. Le tout fonctionne avec la suite logicielle AYANEO mise à jour.
AYANEO Next 2 avec APU Ryzen AI Max+ 395
Reste à voir le prix et la disponibilité : ces informations n’ont pas été détaillées pour l’instant. « Le système est construit autour de l’AMD Ryzen AI Max+ 395 », a rappelé la marque, un cadre technique qui place la Next 2 dans le haut du panier.
Scène cauchemardesque pour tout revendeur : des SSD M.2 Samsung alignés sur une table, courbés comme des bananes. D’après un post du groupe Facebook vietnamien Build PC, un enfant de dix ans a voulu « tester la durabilité » et a plié une boîte entière de modules.
Le coup est dur pour le père, qui venait tout juste de reconstituer son stock, à un moment où les prix sont en hausse.
Samsung SSD pliés : une boîte de 50 NVMe ruinée
Le post mentionne des « NVMe SSD 512GB » vendus environ 2 millions de VND l’unité, avec 50 unités dans le carton. Les images montrent des dizaines de barrettes M.2 2280 tordues, rangées en lignes. Tom’s Hardware a identifié les modèles comme des Samsung PM991a 512 Go au format M.2 2280. En s’appuyant sur le prix indiqué sur Facebook, le média estime le dommage proche de 4000 euros !
Selon les photos et les retours, une petite partie pourrait, avec beaucoup de chance, encore fonctionner. Sur de nombreux 2280, les composants essentiels se concentrent sur la section avant plus courte, le reste n’étant qu’un PCB quasi nu. Mais la torsion visible sur plusieurs cartes laisse penser que la majorité est inutilisable.
PM991a 512 Go : quand un « petit » form factor amplifie la perte
Au-delà de l’anecdote, l’épisode illustre la fragilité économique de ces petits modules. Un carton de SSD M.2 Samsung peut représenter plusieurs milliers d’euros, sans même intégrer l’effet des prix actuels de la NAND. La leçon tient en une phrase, notée par le post original : « keep SSDs out of children’s reach ».
Il semblerait que seuls quelques modules, si la zone active est restée intacte, pourraient booter. Le reste finira probablement à la benne. Mieux vaut donc stocker ces Samsung SSD hors de portée des petites mains.
Minisforum BD895i SE arrive avec un Ryzen 9 8945HX intégré, une carte Mini-ITX MoDT taillée pour les configurations compactes qui veulent du 16 cœurs sans concessions.
Minisforum BD895i SE : Ryzen 9 8945HX, Mini-ITX et PCIe 5.0
Minisforum liste à l’international sa BD895i SE, une carte mère Mini-ITX livrée avec un Ryzen 9 8945HX soudé et un système de refroidissement fourni. Ce processeur « Dragon Range Refresh », annoncé en janvier comme une mise à jour des Ryzen 7000HX pour portables gaming, s’invite ici dans une plateforme « mobile on desktop ».
Côté configuration, la recette reste identique à la BD795i SE : 2 emplacements DDR5-5200 SO‑DIMM (jusqu’à 96 Go), 2 ports M.2 2280 PCIe 4.0 x4, un slot PCIe 5.0 x16 pour un GPU dédié, plus un M.2 2230 E-Key pour le Wi‑Fi. L’iGPU mentionné est un Radeon 610M pour l’affichage intégré.
Le panneau arrière aligne un USB‑C avec DisplayPort Alt Mode, deux USB‑A 5 Gb/s, deux USB‑A 2.0, un port 2.5 GbE, ainsi que des sorties vidéo HDMI 2.1 et DisplayPort 1.4. D’après Minisforum, le 8945HX grimpe « jusqu’à 5,4 GHz » en boost, toujours avec 16 cœurs et 32 threads.
Une mise à jour légère face à la BD795i SE
Comparaison directe : la BD790i embarquait le Ryzen 9 7945HX, la BD895i SE passe au Ryzen 9 8945HX. Sur le papier, les spécifications restent proches. Minisforum évoque « jusqu’à 7 % en simple cœur » et « moins de 1 % en multi‑cœur ». En clair, un refresh modeste, mais qui conserve l’ossature technique la plus récente pour un PC compact performant.
Le tarif affiché sur la boutique US de Minisforum est de 439,99 euros, tandis que l’ancienne BD795i SE est listée à 489 euros.
Arctic MX-7 débarque avec une promesse simple : mieux refroidir et durer plus longtemps. Après environ trois ans de mise au point, Arctic présente une pâte thermique qui mise sur une résistance thermique plus faible et une cohésion plus élevée, selon le fabricant.
Arctic MX-7 : spécifications, méthode d’application et promesses de gains
Le positionnement est clair : d’après Arctic, le mélange revu de l’Arctic MX-7 se traduit par de meilleures températures et une durée de vie accrue, que ce soit pour un CPU fraîchement monté ou un repad GPU. La marque prévient toutefois que la pâte, à forte viscosité, ne doit pas être étalée à la spatule en raison de sa faible adhésion initiale. Recommandation officielle : méthode en croix, plus adaptée à sa consistance.
Côté chiffres, la viscosité annoncée s’établit entre 35 000 et 38 000 poise, pour une densité de 2,9 g/cm³. La plage d’utilisation en continu va de -50 à 250 °C. Les propriétés électriques publiées incluent une résistivité volumique de 1,7 × 10¹² Ω-cm et une rigidité diélectrique de 4,2 kV/mm.
Arctic rappelle au passage que les pâtes thermiques se situent typiquement entre 1 à 4 W/mK et estime que certaines valeurs plus élevées, souvent mises en avant, seraient exagérées. Pour la marque, la métrique déterminante reste la résistance thermique, car elle intègre aussi l’épaisseur de la couche (bond line thickness). « La résistance thermique compte plus que la conductivité affichée », affirme Arctic.
Un écart mesuré face à la génération précédente
Sur un exemple interne partagé par Arctic, la MX-7 devancerait la pâte précédente MX-6 d’environ 2,3 °C sur un Intel Core Ultra 9 285K. Il convient de prendre ce chiffre pour ce qu’il est : un point de données issu des tests du fabricant. Les écarts restent sensibles au pression de serrage, au contact du dissipateur et à l’homogénéité de l’étalement.
Reste que l’orientation produit est nette : pâte plus épaisse, application croisée, et un discours qui privilégie la résistance thermique à la conductivité brute. De quoi intéresser les utilisateurs qui remettent à niveau leurs CPU et GPU avec une pâte conçue pour tenir dans le temps, sans promesse tapageuse.
HDMI 2.2 Ultra96 passe la seconde au CES 2026 : HDMI Licensing Administrator promet des démos concrètes, du câble à 96 Gbps à un écran gaming 500 Hz. Selon l’organisme, « Ultra96 » sera mis en avant sur câbles et appareils compatibles.
HDMI 2.2 Ultra96 : câbles prototypes et comparatif complet
Le stand comparera trois classes de câbles : Premium High Speed HDMI (jusqu’à 18 Gbps), Ultra High Speed HDMI (jusqu’à 48 Gbps) et les premiers prototypes Ultra96 HDMI Cable liés à la spécification HDMI 2.2, annoncée en juin 2025 et donnée jusqu’à 96 Gbps. HDMI.org emploie aussi « Ultra96 » comme étiquette de fonctionnalités pour des modes à 64, 80 ou 96 Gbps.
Au programme côté affichage : un moniteur gaming à 500 Hz, alimenté par un PC et une Xbox Series X. La console n’étant équipée que d’un port HDMI 2.1, elle ne jouera pas le rôle de source 2.2, mais servira la comparaison pratique. HDMI LA présentera également les fonctions gaming prévues : VRR, ALLM et QFT.
HDMI 2.2 ajoute le Latency Indication Protocol (LIP), pensé pour resserrer la synchro A/V sur des chaînes à plusieurs maillons comme les amplis AV ou barres de son. D’après HDMI.org, la norme vise jusqu’à 16K60 et permet du 4K240 et du 8K60 en pleine chroma, sans compression.
Vers les futures GPU : Ultra96 en ligne de mire
Il semblerait que la prochaine génération de cartes graphiques adopte HDMI 2.2 : un leak évoque déjà la prise en charge côté AMD RDNA5. HDMI LA compte s’appuyer sur ces démonstrations pour clarifier l’écart de débits entre les câbles et l’intérêt des modes 64/80/96 Gbps dans les scénarios 4K240 et au‑delà.
Après les défauts de batterie dans des produits Belkin (support rotatif et batterie externe), c'est désormais au tour de deux références d'écouteurs sans fil intra-auriculaires d'être épingléés par la Direction Générale de la Concurrence, de la Consommation et de la Répression des Fraudes qui annonc...
L'organisation Bluetooth Special Interest Group dévoilait en 2022 la nouvelle technologie de diffusion audio sans fil Auracast. Selon le Bluetooth SIG, ce protocole Auracast repose sur la norme Bluetooth, sur le codec audio à faible latence LC3 et promet de révolutionner l'expérience sonore dans de ...
J'ai toujours été fasciné par les nanobots dans les films de science-fiction... Ces petites bestioles microscopiques qu'on injecte dans le corps pour réparer des trucs ou tuer des méchants et qui encore jusqu'à aujourd'hui paraissait impossible...
Eh bien on n'en est plus très loin, les amis, car des chercheurs de l'Université de Pennsylvanie et du Michigan viennent de créer les plus petits robots autonomes et programmables jamais conçus. Et quand je dis petits, je vous parle de machines qui font moins d'un demi-millimètre, donc plus petits qu'un grain de sel. C'est à peine visibles à l’œil nu alors bon courage pour les retrouver si vous en perdez un sur votre bureau.
D'après ce que je comprends, c'est que c'est le premier micro-robot capable de sentir, de penser et d'agir. Bah oui, parce que jusqu'à aujourd'hui, les robots de cette taille avaient besoin d'être contrôlés de l'extérieur, avec des champs magnétiques ou des joysticks. Mais là, ces petits gars sont complètement autonomes.
Alors comment est-ce qu'ils bougent sans moteur ni hélice ? Hé bien au lieu de pousser l'eau directement, les robots génèrent un champ électrique qui déplace les ions dans le liquide. Ces ions poussent ensuite les molécules d'eau, et hop, ça avance. Y'a aucune pièce mobile ce qui veut dire que ces robots peuvent nager pendant des mois sans s'user.
Côté "cerveau", c'est l'équipe de David Blaauw au Michigan qui s'en est chargée. Son labo détient le record du plus petit ordinateur au monde, donc forcément, ça aide. Le processeur embarqué consomme seulement 75 nanowatts ce qui est 100 000 fois moins qu'une montre connectée. Pour réussir cette prouesse, les chercheurs ont dû repenser toute l'architecture de programmation pour faire rentrer des instructions complexes dans cet espace très réduit.
Et leur énergie, ils la tirent de la lumière grâce à des cellules solaires qui recouvrent leur surface et récupèrent l'énergie lumineuse. Et le plus cool, c'est que les impulsions de lumière servent aussi à programmer chaque robot individuellement grâce à des identifiants uniques.
Ces petites machines embarquent aussi des capteurs de température capables de détecter des variations d'un tiers de degré Celsius et pour communiquer entre eux, les robots se tortillent, un peu comme la danse des abeilles. En faisant cela, ils peuvent se coordonner en groupe et effectuer des mouvements complexes tous ensemble.
Et le plus dingue dans tout ça c'est leur coût de fabrication. Ça coûte un centime par robot ! Donc c'est top pour de la production en masse car avec cette avancée, vont suivre de nombreuses applications médicales concrètes... Imaginez des robots qu'on injecte dans votre petit corps de victime pour aller délivrer un médicament pile au bon endroit. Ou analyser l'état de vos cellules sans avoir à vous ouvrir le bide. Voire reconnecter des nerfs sectionnés ? On peut tout imagine avec ce nouveau genre de médecine de précision...
Bienvenue dans l'ère des machines microscopiques autonomes mes amis ! Et à un centime pièce la bestiole, j'imagine qu'ils ne vont pas se gêner pour en fabriquer des milliards !
Vous vous souvenez du MSX, cette machine 8 bits des années 80 qui a fait rêver toute une génération avant que le PC ne vienne tout écraser ? Hé bien y'a un site qui a décidé de préserver absolument TOUT ce qui existe pour cette plateforme, et quand je dis tout, c'est vraiment tout.
File-Hunter
, c'est le projet d'un gars passionné,
Arnaud de Klerk
, qui depuis 1999 (oui, ça a 25 ans ce truc) archive méticuleusement chaque fichier, chaque jeu, chaque démo, chaque magazine lié à l'écosystème MSX. Le site existe même depuis l'époque où
FONY créait encore du contenu pour les systèmes 8-bit
. Donc autant dire que c'est une vraie institution de la préservation rétro.
Le site propose au téléchargement pas moins de 24 catégories de contenu. Des jeux évidemment (MSX1, MSX2, MSX2+, Turbo-R), mais aussi des démos, des disk-magazines, des émulateurs, des polices, des systèmes d'exploitation, des ROMs système, du contenu technique, des manuels, des livres, des magazines numérisés, de la musique, des programmes, du code source... Bref, si ça concerne le MSX et que ça existe quelque part sur Terre, y'a de fortes chances que ce soit archivé ici.
Côté formats, c'est la fête du slip vintage ^^ puisqu'on y trouve des fichiers DMK pour les disquettes, des TSX et CAS pour les cassettes, des conversions ROM, des fichiers VHD pour les disques virtuels, et même des trucs en LaserDisc. Y'a aussi des versions modifiées de jeux, des traductions anglaises, des cheats, des maps, des sauvegardes... C'est vraiment le genre de collection qui fait baver n'importe quel collectionneur.
Et le truc cool c'est que
vous pouvez jouer directement dans votre navigateur sans rien installer
. En effet, le site propose une plateforme de jeux MSX et même Amiga jouables online, optimisée pour téléphones et tablettes. Et pour ceux qui préfèrent tout récupérer d'un coup, pas la peine de tout scraper (vous finiriez pas vous faire bannir votre IP), car y'a un torrent complet disponible et même une appli Android. Le fichier allfiles.txt pèse plus de 3 Mo, ce qui vous donne une idée de l'ampleur du bazar.
Bref, si vous avez un petit coup de nostalgie MSX ou si vous voulez découvrir ce que c'était que le gaming avant que tout devienne du photorealistic next-gen,
File-Hunter
est votre destination du jour. Et comme d'hab, un grand merci à Lorenper pour le partage !
Vous voulez faire tourner un modèle d'IA en local sans avoir besoin d'un serveur de la NASA ? Eh bien Nvidia vient de lâcher une bombe avec Nemotron 3, une famille de modèles open source plutôt impressionnant et surtout, ils ont publié leurs données d'entraînement afin de jouer la transparence totale. Chapeau !
Le modèle phare de cette nouvelle famille s'appelle Nemotron 3 Nano et c'est un modèle de 30 milliards de paramètres, mais attention, il n'en active que 3,5 milliards à la fois grâce à une architecture hybride qui mélange du
Mamba-2
et du Mixture-of-Experts (
MoE
). Ça permet de garder des performances de ouf tout en restant léger niveau ressources.
Sous le capot, Nvidia a également mis le paquet puisque le modèle a été entraîné sur 25 trillions de tokens. J'ai bien dit "trillions"... Pour vous donner une idée, les données d'entraînement incluent du
Common Crawl
de 2013 à 2025, du code dans 43 langages différents, des articles scientifiques, et une tonne de données synthétiques générées par d'autres modèles. Et tout ça, Nvidia l'a rendu public donc
vous pouvez télécharger les datasets sur Hugging Face
et vérifier par vous-même ce qui a servi à entraîner le bouzin.
Côté performances, Nemotron 3 Nano
se défend plutôt bien
. Sur les benchmarks de raisonnement mathématique comme AIME25, il atteint 99,2% quand on lui donne accès à des outils. Sur le coding avec LiveCodeBench, il tape du 68,3%, ce qui le place devant Qwen3-30B. Et pour les tâches d'agent logiciel genre SWE-Bench, il monte à 38,8%. Pas mal pour un modèle qu'on peut faire tourner sur du matos grand public.
D'ailleurs, parlons du matos justement. Nemotron 3 Nano tourne sur des cartes comme la H100, la A100, ou même la future RTX PRO 6000 et supporte jusqu'à 1 million de tokens en contexte si vous avez assez de VRAM. Et niveau vitesse, Nvidia annonce un débit de tokens 4 fois supérieur à la génération précédente, avec 60% de tokens de raisonnement en moins. C'est donc exactement ce que tout le monde demande à saoir du token qui sort vite pour les workflows agentiques.
Maintenant, pour l'utiliser, c'est hyper simple. Il est dispo sur Hugging Face, et vous pouvez le lancer avec Transformers, vLLM, TensorRT, ou même llama.cpp. Y'a même un mode "thinking" qu'on peut activer ou désactiver selon si on veut du raisonnement poussé ou des réponses rapides.
Pour ma part, je l'ai testé à l'aide d'Ollama comme ceci :
ollama run nemotron-3-nano:30b
J'ai trouvé que vitesse de génération était vraiment impressionnante, ça débite beaucoup plus qu'un Llama 3 qui est de taille équivalente. Après, je suis sur un Mac M4 avec 128 Go de RAM, donc je suis plutôt bien loti mais j'ai trouvé ce modèle vraiment très rapide. Je pense que je vais vraiment m'en servir pour des trucs comme de la qualification, du résumé, de l'analyse ce genre de choses.
A voir maintenant si en français il s'en sort bien sur les tournures de phrases. Quoi qu'il en soit pour du développement et des workflows agentiques, il n'y a pas photo, ça va être mon nouveau modèle par défaut quand j'ai besoin de choses en local.
La famille Nemotron 3 ne se limite pas au Nano évidemment. Y'a aussi le Super avec environ 100 milliards de paramètres pour les applications multi-agents, et l'Ultra avec 500 milliards pour les tâches vraiment complexes. Ces deux-là arriveront au premier semestre 2026 donc faudra encore être un peu patient. Nvidia a aussi sorti des bibliothèques comme NeMo Gym pour l'entraînement et NeMo RL pour le fine-tuning.
Jensen Huang, le patron de Nvidia, a aussi dit un truc intéressant lors de l'annonce : "L'innovation ouverte est le fondement du progrès de l'IA." Venant d'une boîte qui a longtemps joué la carte proprio sur ses technos, je trouve que c'est un sacré virage et des entreprises comme Accenture, Deloitte, Oracle, Palantir, ou même Cursor sont déjà en train d'intégrer Nemotron dans leurs produits.
Ce qui est cool aussi, c'est que le modèle supporte 24 langues officielles de l'UE plus une dizaine d'autres comme l'arabe, le chinois ou le japonais et côté code, il gère Python, C++, Java, Rust, Go, et même du CUDA. Bref, c'est plutôt polyvalent.
Voilà, donc si vous cherchez un modèle open source sérieux avec des données d'entraînement transparentes et une vitesse de génération qui arrache, Nemotron 3 Nano mérite clairement le coup d’œil !
Vous avez déjà passé des heures à éplucher des fichiers de logs de plusieurs millions de lignes pour trouver ce qui cloche ? Genre une pauvre erreur bizarre qui se produit une fois sur 100 000, noyée dans un océan de messages répétitifs et d'infos inutiles ? Moi, oui plein de fois !
Cordon est un outil en Python qui utilise des modèles de transformers et du scoring k-NN pour détecter les anomalies sémantiques dans vos logs. En gros, au lieu de chercher des mots-clés comme un bourrin avec grep, Cordon comprend le sens des messages et repère ce qui sort de l'ordinaire.
Les patterns répétitifs sont alors considérés comme du bruit de fond normal, même si ce sont des erreurs parce que si vous avez la même erreur FATALE qui se répète 10 000 fois, c'est probablement un problème connu. Et vous, ce que vous voulez trouver, c'est l'événement rare, celui qui se produit une seule fois et qui est sémantiquement différent du reste.
L'installation est simple comme bonjour. Un petit pip install cordon et c'est réglé. Pour l'utilisation de base, vous balancez juste votre fichier de logs en argument :
cordon system.log
Et hop, Cordon va analyser tout ça et vous sortir uniquement les trucs intéressants. Par défaut, il garde les 10% les plus "anormaux" sémantiquement. Vous pouvez ajuster ce pourcentage avec --anomaly-percentile 0.05 pour être plus sélectif (top 5%).
Sous le capot, ça utilise le modèle all-MiniLM-L6-v2 de sentence-transformers pour vectoriser les logs. Le fichier est découpé en fenêtres de N lignes (4 par défaut), chaque fenêtre est transformée en vecteur, puis un score de densité k-NN est calculé. Les fenêtres qui ont des vecteurs très différents du reste sont marquées comme anomalies.
Et si vous avez un GPU, Cordon peut l'utiliser automatiquement avec l'option --device cuda. D'après les benchmarks, ça donne un speedup de 5 à 15x sur le scoring pour les gros datasets. Sur des logs HDFS de 1 à 5 millions de lignes, l'outil arrive à réduire le volume de 98%. Autant dire que ça filtre sévère.
Y'a aussi un mode "range" qui est pratique pour explorer par tranches. Genre si vous voulez exclure le top 5% (trop bizarre, probablement du garbage) mais garder le top 5-15%, vous faites :
cordon --anomaly-range 0.05 0.15 app.log
Ça permet d'affiner l'investigation de manière itérative.
Pour les environnements conteneurisés, Cordon propose également une image Docker avec un backend llama.cpp au lieu de sentence-transformers. Pratique si vous voulez utiliser des modèles GGUF ou si vous êtes dans un contexte où les dépendances PyTorch posent problème.
L'outil peut aussi s'utiliser
comme bibliothèque Python
si vous voulez l'intégrer dans vos propres scripts :
C'est top moumoute pour le prétraitement de logs avant de les balancer à un LLM (pour réduire le contexte), le triage initial de fichiers de logs inconnus, ou la découverte de patterns inattendus. Par contre, si vous cherchez une erreur spécifique que vous connaissez déjà, grep reste votre ami. Et si vous avez besoin d'un historique complet pour la conformité, oubliez Cordon qui est volontairement "lossy".
Notez qu'au premier lancement, Cordon téléchargera le modèle d'embedding (environ 80 Mo) donc ce sera un peu lent, mais ensuite, ça sera quasi instantané car les lancements suivants utiliseront le cache. Et si vos logs sont très verbeux avec de longues lignes, le modèle par défaut (256 tokens max) risque de tronquer les lignes, dans ce cas, passez à un modèle plus costaud comme BAAI/bge-base-en-v1.5 qui supporte 512 tokens avec le paramètre --model-name.
Voilà, j'espère que ça vous sera utile ! C'est open source sous licence Apache 2.0 et
ça se trouve sur GitHub
.
Jusqu’ici perçue comme une extension d’Instagram, la plateforme de Meta cherche désormais à structurer davantage les échanges entre utilisateurs. Discrètement, Threads introduit progressivement de nouveaux mécanismes pour encourager des discussions plus approfondies, organisées autour de centres d’intérêt clairement identifiés. Une orientation qui marque un changement de posture pour l’application, désormais tournée vers la logique communautaire… […]
Alors que les robots servaient historiquement à indexer des pages pour les moteurs de recherche, depuis l’arrivée de l’IA, ils alimentent désormais des LLM capables de fournir des réponses sans rediriger vers les sites sources. Un changement de paradigme qui fragilise déjà l’économie de nombreux éditeurs, si bien que certains médias comme le New-York Times […]
Repérée par MacRumors, une nouvelle fuite de données vient peut-être de lever le voile sur la feuille de route d’Apple jusqu’en 2027. En cause, un prototype Apple vendu avec une version interne d’iOS, donnant accès à une liste impressionnante d’appareils encore jamais annoncés… Le premier iPhone pliable à venir ? Parmi les informations les plus […]