Des processeurs grillés et une communication minimale ; les possesseurs d’AM5 attendent des consignes claires tandis qu’ASRock enclenche des revues internes.
ASRock admet une enquête, sans mode d’emploi pour les utilisateurs
ASRock a publié sur son site une déclaration indiquant l’ouverture d’enquêtes et de processus de vérification internes concernant des défaillances de CPU Ryzen 9000 sur ses cartes mères. Le constructeur ne détaille pas la nature des tests ni l’étendue des vérifications.
Le point critique reste l’absence de directives opérationnelles. Aucun conseil n’est donné sur l’opportunité d’installer les derniers BIOS, souvent en pré-release, ni sur les réglages à privilégier ou à désactiver. Les utilisateurs n’ont pas d’indication pour sécuriser une configuration stable à court terme.
Signalements en hausse sur Ryzen 9000, moins fréquents sur Ryzen 7000
Les cas recensés touchent majoritairement la série Ryzen 9000, avec moins de retours sur Ryzen 7000. Le megathread du subreddit ASRock fait état de plus de 183 cas concernant des Ryzen 7 9800X3D sur cartes ASRock, ainsi que 50 cas pour le Ryzen 7 9700X et 29 pour le Ryzen 5 9600X. Les cartes mères de série 800 sont les plus citées.
Des signaux récents mentionnent cinq 9600X défaillants en deux semaines, puis cinq SKU différents de la gamme 9000 sur une seule journée. Ces chiffres suggèrent un problème qui ne se limite pas aux modèles X3D.
Impact potentiel sur l’écosystème AM5
Sans guidance immédiate d’ASRock, les intégrateurs et power users AM5 restent dans l’incertitude sur les profils BIOS à adopter. À défaut de correctifs officiels, la prudence s’impose sur les firmwares préliminaires et les options susceptibles d’accentuer les contraintes électriques. La réponse d’ASRock déterminera rapidement la confiance autour des cartes 800-series avec les Ryzen 9000.
Le calendrier d’Intel se tend sur le segment des consoles PC portables. Les processeurs Core G3 Panther Lake, initialement attendus plus tôt, seraient désormais repoussés au deuxième trimestre 2026. En cause, des ajustements de planning côté partenaires, alors que deux puces 14 cœurs intégrant des iGPU Arc B380 et B360 sont prévues pour motoriser la prochaine génération de handhelds x86.
Intel Core G3 pour handhelds : fenêtre de lancement décalée
Annoncée au CES 2026 en déclinaison dédiée aux consoles PC, la famille Panther Lake destinée au segment handheld voit son annonce repoussée du T1 au T2, d’après Golden Pig Upgrade. Le Q1 était la cible initiale, mais la série ne se montrerait plus ce trimestre.
Intel n’a pas officiellement confirmé l’appellation Core G3. Le constructeur a toutefois évoqué une version spécifique pour handhelds impliquant MSI, GPD, Acer et même Microsoft, face à des acteurs comme ASUS ou LG qui exploitent aujourd’hui des Ryzen Z2.
Deux puces 14 cœurs Panther Lake, iGPU Arc B380/B360
Deux modèles sont en préparation : Core G3 Extreme et Core G3. Tous deux reposent sur un die Panther Lake 4-8-4 totalisant 14 cœurs CPU. Le package embarque jusqu’à 12 cœurs Xe3 côté iGPU sur la version Extreme, contre 10 Xe3 pour le modèle standard.
Côté graphique, des iGPU Arc B380 et B360 seraient annoncés en parallèle. La nouvelle dénomination viendrait de fréquences GPU légèrement inférieures à la gamme Panther Lake classique. Les documents internes qualifient la série de milieu de gamme, laissant espérer des machines plus abordables que les handhelds Intel actuels, souvent onéreux.
Reste l’incertitude sur les tickets d’entrée. Si Intel maintient un positionnement mid-range, on peut s’attendre à des configurations moins coûteuses que les solutions premium, sans garantie d’un basculement massif face aux plateformes AMD déjà ancrées sur ce segment.
Le fabricant chinois Insta360, spécialisé dans les caméras sportives grand angle/360°/VR et qui est le principal concurrent de l'américain GoPro, annonçait l'été dernier sa nouvelle caméra de poche GO Ultra. Cette dernière peut filmer jusqu'en 4K à 60 FPS et présente la particularité d'être magnétiq...
Utilitaire gratuit, en français, portable, qui remplace l'Explorateur Windows et qui va révolutionner la gestion de vos fichiers sur votre ordinateur...
Logiciel gratuit pour surveiller en temps réel la température du processeur de votre ordinateur, son taux d'utilisation, sa cadence d'horloge, sa consommation d'énergie...
Todd C. Miller, qui maintient sudo depuis plus de 30 ans, a besoin de soutien : c'est dans l'intérêt de tous, car son projet open source est vital pour Linux.
Des joueurs signalent des artefacts visuels, des écrans noirs et des chutes de performances après l’installation d’un correctif Windows 11. Face à ces retours, NVIDIA recommande provisoirement de désinstaller la mise à jour KB5074109 sur les systèmes concernés.
KB5074109 pointé du doigt par NVIDIA
Sur le forum officiel GeForce, Manuel Guzman (NVIDIA) relie des soucis de stabilité en jeu à une mise à jour Windows 11. Le contournement connu à ce stade consiste à désinstaller le correctif KB5074109. Les premiers signalements proviennent d’un fil centré sur Forza Horizon 5, mais les symptômes décrits ne semblent pas exclusifs à ce titre.
Les problèmes évoqués : corruption visuelle et artefacts, chutes de performance, et parfois écran noir. Tous les PC ne sont pas touchés, mais le volume de retours a suffi pour une prise de parole publique indiquant qu’une investigation est en cours. NVIDIA précise que l’origine exacte reste à confirmer, d’autant que les retours coïncident avec un nouveau pilote GeForce.
État des lieux et conduite à tenir
La recommandation est de ne retirer KB5074109 que si les symptômes sont présents. Désinstaller manuellement un patch reste déconseillé hors cas avéré. NVIDIA cherchera à corriger via un futur pilote si nécessaire, le lien avec Windows 11 n’étant pas définitivement établi.
Si la cause se confirme côté OS, Microsoft devra ajuster le correctif. Si le pilote est en cause, on peut s’attendre à une révision rapide chez NVIDIA, la latence d’intervention étant critique sur des titres à large base de joueurs comme Forza Horizon 5.
Fini le casse-tête des épaisseurs de pads, place à un gel thermique qui comble les écarts sans forcer. Alphacool mise sur une pâte non durcissante pour sécuriser GPU, VRM et mémoire tout en abaissant les températures.
Une alternative technique crédible aux pads
Alphacool présente l’Apex Thermal Putty X1, un gel silicone non durcissant et électriquement non conducteur destiné à remplacer les pads thermiques classiques. La matière s’adapte aux irrégularités et aux tolérances d’assemblage avec une faible pression de contact, ce qui améliore le couplage thermique et évite le choix d’une épaisseur de pad.
La consistance a été calibrée pour épouser des hauteurs de jeu variables tout en restant dimensionnellement stable. Résultat : un pont thermique homogène entre source de chaleur et dissipateur, sans écrasement excessif des composants sensibles comme les puces mémoire ou les régulateurs de tension.
Apex Thermal Putty X1 : stabilité verticale et BLT réduite
Le matériau revendique une forte stabilité verticale et des propriétés stables dans le temps : pas d’affaissement, pas de fissuration, pas de contamination des composants adjacents. Alphacool met en avant une conductivité thermique élevée avec une BLT (Bond Line Thickness) réduite, facteur clé pour limiter la résistance thermique dans les montages denses ou verticaux.
Fonctionnellement, l’Apex Thermal Putty X1 vise explicitement les cartes graphiques modernes et autres cartes d’extension où les tolérances et la diversité des composants rendent les pads hétérogènes peu fiables. Les points clés : remplacement direct des pads, adaptation aux irrégularités, tenue en chaleur et en montage vertical.
Si la promesse se confirme en pratique, ce type de gel pourrait devenir un standard pour les waterblocks et backplates multi-niveaux, en particulier sur les GPU actuels aux topologies complexes. Le gain se joue autant sur la thermique pure que sur la réduction des risques mécaniques lors du serrage.
L’intelligence artificielle générative s’impose progressivement dans de nombreux secteurs, et l’industrie du jeu vidéo n’échappe pas à cette transformation. Si son adoption reste controversée auprès d’une partie du public, Strauss Zelnick, PDG de Take-Two Interactive, a récemment confirmé que son entreprise utilise déjà l’IA générative dans « des centaines de projets ». Une déclaration qui […]
Mistral AI lance Voxtral Transcribe 2 avec deux modèles distincts : Voxtral Mini Transcribe V2 pour les lots et Voxtral Realtime pour la dictée continue. Ce dernier est publié avec des poids sous licence Apache 2.0, un geste rare sur ce segment, et vise des intégrations embarquées ou des services temps réel où la latence est critique.
Un modèle temps réel à 4B axé sur la latence
Voxtral Realtime affiche un gabarit de 4 milliards de paramètres et une architecture de streaming repensée. Le moteur démarre la transcription à l’arrivée du flux audio et revendique une latence inférieure à 200 ms, compatible avec les cas d’usage interactifs, les overlays de sous-titres et l’assistance vocale in-app.
Le modèle couvre 13 langues, dont le chinois. L’API est facturée 0,006 $/min, soit environ 0,006 € TTC/min aux taux actuels (conversion indicative).
Un « Mini V2 » calibré pour le volume
Voxtral Mini Transcribe V2 vise le coût par minute et la longueur de contexte. Mistral annonce une précision supérieure à GPT‑4o mini Transcribe et Gemini 2.5 Flash, avec des imports continus jusqu’à 3 heures par requête, utile pour des rushs, des conférences ou des archives podcasts.
L’API est annoncée à 0,003 $/min, soit environ 0,003 € TTC/min en conversion directe. Le modèle supporte également 13 langues, dont le chinois, ce qui simplifie les pipelines multilingues sans changer d’outil.
Ouverture et implications
L’ouverture des poids de Voxtral Realtime sous Apache 2.0 met une pression directe sur les offres cloud fermées en temps réel. Entre un coût plancher pour les traitements massifs et un moteur réactif intégrable on-prem ou en edge, Mistral couvre les deux extrêmes du marché de la transcription, avec un angle agressif sur la latence et le TCO.
Vous faites des sauvegardes régulières de vos données ? Non ?
Bon, je ne vais pas vous faire la morale, mais le jour où votre disque dur décidera de rendre l'âme ou que votre serveur VPS partira en fumée, vous allez vraiment regretter de ne pas avoir investi dix minutes dans un système de backup sérieux.
Alors, ouiiii, c'est vrai, on a souvent la flemme parce que c'est chiant à configurer. Entre les scripts bash qui plantent sans prévenir et les crontabs illisibles, y’a de quoi s'arracher les cheveux. C'est là qu'intervient Zerobyte, un projet open source qui veut réconcilier les allergiques du terminal avec la sécurité de leurs données.
Zerobyte est donc une plateforme d'automatisation de sauvegarde auto-hébergée qui vient poser une interface web moderne et ultra propre par-dessus le moteur Restic. Si vous avez déjà lu mon guide sur les
backups avec Restic
, vous savez que c'est du solide. Ça fait du chiffrement côté client, de la déduplication et de la compression. En gros, vos données sont blindées avant même de quitter votre machine et seules les modifs sont envoyées, ce qui est parfait pour ne pas exploser son forfait data ou son stockage cloud.
L'interface web permet surtout de tout piloter sans jamais toucher à une ligne de commande. Vous définissez vos "volumes" (ce qu'il faut sauver), vos "repositories" (où stocker tout ça) et vos "jobs" (quand lancer les opérations).
Pour les sources, l'outil est hyper flexible puisqu'il supporte aussi bien les dossiers locaux que les partages réseau via NFS, SMB, WebDAV ou SFTP et côté destination, c'est carrément Byzance puisque vous pouvez envoyer vos snapshots vers du S3 (AWS, MinIO, Wasabi), du Google Cloud, de l'Azure ou utiliser l'intégration rclone qui ouvre la porte à plus de 70 fournisseurs différents. C’est l’outil idéal pour mettre en place une véritable
stratégie 3-2-1
sans se prendre la tête.
Pour l'installation, pas de surprise, ça se passe via Docker Compose. C'est léger, ça s'isole bien et ça tourne en deux minutes. Un petit bémol quand même le projet est encore jeune donc ça peut encore bouger pas mal au niveau de l'architecture. Mais pour du monitoring et de la gestion simplifiée de snapshots Restic, c'est déjà redoutable. Vous pouvez explorer vos sauvegardes directement depuis le dashboard et restaurer un fichier précis en trois clics.
Et pour ne rien gâcher, le projet est sous licence libre, ce qui colle parfaitement à l'esprit qu'on aime ici !
Bref, si vous cherchez une solution pour centraliser la gestion de vos sauvegardes sans finir en PLS devant un terminal,
Zerobyte
mérite clairement que vous y jetiez un œil.
Les data brokers, ces intermédiaires invisibles du Web, ont transformé votre vie numérique en produit de consommation courante. Ils collectent, recoupent et monétisent des milliers de détails sur vous : adresse précise, numéros de téléphone, emails secondaires, habitudes d'achat, revenus estimés, présence sur les réseaux, même des inférences sur votre santé ou vos orientations politiques ou sexuelles. Incogni s'attaque à ce rouleau compresseur en demandant, à votre place et en continu, la suppression de ces informations chez plus de 420 courtiers, pour que votre profil cesse enfin d'être un actif coté en bourse.
Le Web aspire vos infos plus vite que vous ne pouvez cliquer sur « refuser »
On pense souvent que les fuites viennent de gros hacks spectaculaires ou sont offertes par nos sites gouvernementaux. Mais la réalité est bien plus banale et implacable. Chaque inscription à un service, chaque programme de fidélité, chaque appli « pratique », chaque extension Chrome boostée à l'IA devient une porte ouverte.
Une étude récente
d'Incogni sur 442 extensions Chrome alimentées par l'IA montre que 67% d'entre elles collectent des données utilisateur, 41% raflent des infos personnelles identifiables (mots de passe, historique, localisation, communications privées), et un tiers ont un impact de risque élevé en cas de compromission. Des outils comme Grammarly, DeepL ou QuillBot, avec des millions d'utilisateurs, demandent des permissions massives pour injecter du code partout et aspirer votre activité. Tout ça au nom de la « productivité ».
Ces données ne restent pas dans un coffre : elles se déversent chez les brokers, qui les raffinent et les revendent. Résultat : votre adresse exacte apparaît sur des sites de recherche de personnes, votre profil d'achat sert à des pubs invasives ou à des hausses de prix ciblées, et des escrocs utilisent ces détails pour monter des phishings crédibles. Sans intervention, votre empreinte s'alourdit d'année en année, rendant les scams plus efficaces et les usurpations d'identité plus simples à exécuter.
Incogni : l'agent qui harcèle les brokers à votre place
Plutôt que de vous laisser batailler avec des formulaires opt-out incompréhensibles et des réponses en 45 jours maximum (comme l'exige le RGPD), Incogni prend le relais dès l'inscription. Le service scanne les brokers susceptibles de détenir vos infos, envoie des demandes légales de suppression, et relance tous les 60 à 90 jours ceux qui traînent ou rechignent. Un audit Deloitte confirme que cela couvre bien 420+ brokers, avec des relances systématiques et des confirmations de suppression obtenues dans la grande majorité des cas.
Le tableau de bord de l'outil est limpide : gravité de l'exposition par broker, statut des requêtes (confirmée, en attente, refus), et même des suppressions personnalisées sur des sites hors liste standard (genre un vieux forum, un annuaire pro, un résultat Google tenace). Et ça va assez vite, avec une baisse notable des spams ciblés dès la première semaine et des fiches publiques qui s'évaporent progressivement. Si un broker ne coopère pas ? Incogni peut escalader vers les autorités de protection des données.
Pourquoi vos données dans de mauvaises mains vous coûtent cher
Avoir ses infos chez les brokers, c'est non seulement envahir sa boîte mail de pubs sur mesure, mais aussi faciliter les scams. Un appel téléphonique cherchant à vous arnaquer, un faux site de livraison avec votre adresse exacte, un mail d'« urgence bancaire » avec vos vrais détails, ou une usurpation qui passe crème parce que le voleur connaît déjà votre contexte. Les rapports sur les fraudes en ligne montrent que ces attaques exploitent précisément ces données achetées à bas prix.
Incogni brise ce cycle
en rendant votre profil moins attractif : moins de détails disponibles, moins de valeur marchande, moins de copies circulant. Les retours d'utilisateurs confirment une réduction des recherches de personnes qui vous listent, des démarchages ciblés qui s'estompent, et une sérénité accrue face aux fuites futures. Le service gère aussi les relances pour que les suppressions tiennent dans le temps, transformant une corvée ponctuelle en maintenance automatique.
Prendre le contrôle : une démarche qui paye sur la durée
Le vrai pouvoir d'Incogni réside dans sa persistance. Contrairement à un ménage manuel qui s'essouffle vite, il continue d'envoyer des demandes, suit les réponses, et ajoute de nouveaux brokers au fil des mises à jour (des dizaines par an). Basé aux Pays-Bas, il respecte scrupuleusement le RGPD et d'autres régimes comme le CCPA, avec une procuration numérique qui vous décharge légalement de tout le process. Son efficacité pour les particuliers comme les pros qui veulent limiter les risques sur des listes clients ou employés n'est pas prise en défaut.
Vos données ne sont pas condamnées à rester en vente éternellement. Des lois vous donnent le droit à l'effacement, et Incogni est l'outil qui passe ses journées à l'exercer pour vous. En 2026, alors que les extensions IA et les brokers s'enhardissent, commencer par nettoyer ce qui traîne est le geste le plus concret pour reprendre les rênes. Moins de données en circulation, c'est moins de spam, moins de scams crédibles, et surtout la fin de cette sensation diffuse d'être constamment observé par des inconnus qui en savent trop long.
Au niveau du prix, ça reste constant. Vous pouvez toujours vous protéger à partir de 77,63€ TTC par année, soit -55% avec le code KORBEN55.