CORSAIR propose une preview du SSD Toolbox 2.0


SolidRun lance le Bedrock RAI300, un PC industriel fanless basé sur l’AMD Ryzen AI 9 HX 370, pensé pour l’edge où l’on combine calcul x86 et accélération IA intégrée.
Au menu, un CPU Zen 5 12 cœurs/24 threads avec boost jusqu’à 5,1 GHz, un iGPU Radeon 890M et un NPU XDNA 2 donné jusqu’à 50 TOPS. SolidRun annonce la prise en charge d’AMD ROCm 7.x sous Windows et Linux.

Le châssis fanless mise sur un TIM en métal liquide, des heatpipes empilés et une enveloppe qui évacue la chaleur via la structure. Températures d’utilisation annoncées de -40°C à 85°C.
Le Bedrock conserve une architecture modulaire avec cartes distinctes pour le compute, le réseau/I&O, le stockage/extension et l’alimentation. Deux configurations principales sont listées : l’une priorise les sorties d’affichage, l’autre l’Ethernet.
Les emplacements M.2 NVMe peuvent être troqués contre des cartes d’extension comme des accélérateurs Hailo ou un modem cellulaire. Des options pro complètent l’ensemble : mémoire ECC, protection contre perte d’alimentation sur NVMe, SPI flash redondant pour le firmware.

Le TDP du CPU est ajustable dans le BIOS de 8 W à 54 W selon la configuration et la marge thermique. SolidRun précise qu’il ne s’agit pas de machines grand public : la série Bedrock vise l’industriel et l’edge durcis.
La combinaison Zen 5 + XDNA 2 avec ROCm 7.x sur un châssis fanless large température élargit l’écosystème x86/IA côté edge, avec un intérêt clair pour les intégrateurs qui cherchent à standardiser des stacks IA sur Windows ou Linux sans GPU dédié et avec des contraintes thermiques strictes.
Source : VideoCardz
Vous avez 15 ans d'emails répartis sur 4 comptes différents et vous aimeriez bien pouvoir chercher dedans sans devenir complétement fou ? Bichon est fait pour vous . C'est un archiveur d'emails open source écrit en Rust qui synchronise vos boîtes mail et vous permet de tout fouiller via une interface web ultra léchée.
Le truc c'est que Bichon n'est pas un client mail. Vous ne pouvez pas envoyer ou recevoir de messages avec. C'est vraiment un outil d'archivage pur qui se connecte à vos serveurs IMAP, aspire tous vos emails, les compresse, les déduplique et les indexe pour que vous puissiez faire des recherches full-text dessus pour par exemple retrouver ce mail de 2012 où votre ex vous expliquait sa recette secrète du tiramisu.
L'interface web est plutôt propre, codée en React avec ShadCN UI. Vous pouvez filtrer par compte, par dossier, par expéditeur, par nom de pièce jointe, par taille, par date... Y'a même un dashboard avec des stats sur vos emails si vous aimez les graphiques. Et bonne nouvelle, le WebUI est disponible en 18 langues, donc le français est de la partie !
Côté authentification, ça gère le mot de passe IMAP classique mais aussi OAuth2 avec refresh automatique du token. C'est hyper pratique pour Gmail ou Outlook qui aiment bien compliquer les choses. Y'a aussi un support proxy si vous êtes derrière un firewall capricieux et une découverte automatique des serveurs IMAP. Hop, on branche et ça synchronise !
La stack technique envoie du bois également puisque le backend est en Rust basé sur le framework Poem, et le moteur de recherche/stockage utilise Tantivy. C'est un moteur de recherche full-text codé lui aussi en Rust, l'équivalent de Lucene mais sans la lourdeur de la JVM. Pour les métadonnées et la config, le projet utilise Native_DB et le tout est packagé en binaires pour Linux, macOS et Windows, ou en image Docker si vous préférez le self-hosted sans prise de tête.
Un truc important depuis la version 0.2.0 c'est que le modèle d'authentification a changé. L'ancien compte "root/root" a sauté au profit d'un compte admin par défaut (identifiants : "admin" / "admin@bichon"). Pensez donc à changer le mot de passe immédiatement, sinon ce sera la fête du slip dans vos archives. Et notez bien que le mot de passe de chiffrement que vous définissez au premier lancement ne peut pas être changé ensuite, donc choisissez-le bien, genre "KorbenCestLePlusBeau123".
Et si vous avez déjà des tonnes de vieux mails qui traînent en local, sachez que depuis la v0.3.0, y'a également un outil en ligne de commande qui s'appelle bichonctl. Ça permet d'importer vos archives au format EML ou MBOX directement dans le bouzin. C'est nickel pour centraliser tout votre passé exporté par ailleurs.
Bref, si vous cherchez un moyen propre d'archiver vos mails sans que ça bouffe toute votre RAM comme un client Java des années 2000, Bichon fait grave le taff. C'est léger, c'est rapide, et c'est en Rust. Ensuite, vous pourrez dormir tranquille !
Merci à Lorenper pour l'info et si vous cherchez d'autres outils cools pour vos mails, jetez aussi un œil à Mailspring ou si vous kiffez le stockage en Rust, Garage est une pépite.

Je trouve qu'il n’y a rien de plus idiot qu’un débat philosophique sur ce qu'est "vraiment" l'intelligence quand on a juste besoin que le boulot soit fait... J'en vois certains en faire des tartines à longueur de journée sur Linkedin, notamment pour tenter de définir le niveau d'intelligence des IA mais de mon point de vue, c'est vraiment perdre son temps que d'essayer d'évaluer ça.
Récemment, je suis tombé sur un billet de Bertrand Meyer sur le Blog de CACM qui met enfin des mots sur mon malaise... En fait il explique qu'il y a 2 grandes visions qui s'opposent concernant la définition de l'intelligence.
D'un côté, on a l'approche plutôt "européenne" où l'intelligence, c'est comprendre les choses, comprendre le monde, savoir expliquer le "pourquoi du comment". Et de l'autre côté, on a une vision plus "américaine" et pragmatique où l'intelligence c'est avant tout réussir à s'adapter et agir en conséquence avec succès.
En gros, ça veut dire que pour les ricains, si ça marche, c'est une preuve d'intelligence.
Et là, tout s'éclaire car l'IA d'aujourd'hui, nos chers LLM d'amour et autres réseaux neuronaux, correspondent parfaitement à cette seconde définition. En effet pour beaucoup de chercheurs, ces systèmes ne "comprennent" pas le monde au sens cognitif du terme mais réussissent quand même à donner très souvent les bonnes réponses et à trouver de bonnes solutions à tout un tas de problèmes.
Un peu comme ces modèles médicaux de Google capables d'aider les médecins dans leurs diagnostics... ça marche, c'est utile, et même si ça ne remplace pas (encore) l'expertise humaine (enfin sauf celle des internes ^^), c'est déjà génial !
Perso, je me positionne sur ça de manière un peu plus basique. Parce que je suis un mec basique... Je suis un techos, pas un marketeux ni un philosophe alors la seule question que je me pose finalement c'est "est-ce que ce que ça fait le taf" ?
Et surtout, est-ce que ce que l'IA produit c'est de qualité ?
Quand c'est du texte par exemple, mon premier critère c'est donc de savoir si l'information est juste. Ensuite c'est de savoir si c'est agréable à lire. Et enfin, est ce qu'on en retire quelque chose (un apprentissage, du fun, un élargissement de sa pensée) ?
Voilà c'est tout... et ça je l'applique aussi bien aux textes écrit par des humains qu'à ceux écrits par des algos.
Si ces 3 conditions ne sont pas remplies, c'est (pour moi, hein) de la merde. Et donc j'applique ces principes du mieux que je peux, aussi à ce que j'écris.
Je pourrais bien sûr ajouter d'autres critères du genre "Est ce que j'ai fait le tour de la question de manière encyclopédique ?" et "Est ce que en écrivant cela, je ne vais pas insécuriser un random qui va ensuite m'attaquer publiquement pour rassurer son égo auprès de sa communauté ?" mais bon, ici c'est pas Wikipédia et j'suis pas non plus le psy des gens qui détestent mon contenu mais viennent quand même me lire religieusement chaque jour. Donc j'avoue, je fais l'impasse... Ahaha.
Maintenant pour ceux qui se demandent encore comment définir l'intelligence artificielle, voyez plutôt ça comme un outil capable de "faire comme si" avec suffisamment de talent pour que l'expérience soit bluffante de réalisme. Un peu comme quand on regarde un super film avec de super acteurs... On sait qu'ils font semblant et pourtant on ressent de l'émotion. Bah là c'est pareil, l'illusion est douce et hormis certains cas pathologiques où ça pourrait être problématiques, je ne vois pas ça comme un souci de se faire "illusionner" par un texte IA tant que mes 3 critères plus haut sont remplis.
Que ce soit du texte humain ou du texte IA, le résultat peut être perçu par un humain comme similaire si c'est bien fait. Faut pas non plus oublier que beaucoup d'humains ne savent pas s'exprimer correctement et encore moins structurer correctement leur pensée pour la mettre par écrit (et je ne vise personne, mais suivez mon regard vers les services de micro-blogging et autres commentaires Youtube... ^^).
Le point important, crucial même (et là je sors mon panneau "Achtung danger"), c'est que pour chaque texte produit par une IA, un humain devrait le relire, le corriger, et l'améliorer. S'en porter garant en fait, sinon, c'est juste du texte générique de qualité standard avec peu de valeur ajoutée (si ce n'est faire du résumé quoi...) et un fort risque d'hallucinations.
Et je sais que la mode du moment est au slop IA aussi bien dans les mails, les médias, les sites SEO, les discours officiels du gouvernement et j'en passe mais putain, passer un petit coup de vérif / polish manuel par-dessus, c'est pas la mer à boire et hop, on retrouve instantanément une âme dans l'article et cela peu importe que ça passe le détecteur IA ou pas... Ces machins là font principalement de la vérification en surface et si vous écrivez trop parfaitement ou si votre IA écrit trop dégueulasse, vous aurez du faux positif dans un sens ou dans l'autre.
Je pense donc qu'on s'en fout un peu de savoir si la machine a une âme ou si elle "comprend" réellement le sens de la vie (spoiler : ce n'est pas le cas). Moi, tant qu'elle m'aide à coder un script Python vite fait ou à préparer un super article pour vous sans que j'aie à me taper des tonnes de doc, ça me va.
Maintenant reste à savoir si l'IA va un jour détruire nos institutions mais ça c'est une autre histoire..

En visite à Séoul, Shunsuke Nakato, cadre dirigeant de Kioxia, a déclaré que « l’époque où l’on achetait 1 To de SSD à 7 000 yens (environ 45 €) » est révolue. Le groupe affirme que sa capacité NAND pour l’année est presque entièrement allouée.
Selon Nakato, la dynamique tirée par l’IA va perdurer au moins jusqu’à l’an prochain. La demande grimpe sur l’ensemble des produits de stockage, NAND incluse, avec un double effet rareté et hausse tarifaire. Les contrats en cours continuent toutefois d’encadrer les livraisons.
Kioxia dit s’en tenir à ses engagements vis-à-vis de ses clients historiques, sans basculer sur des schémas « premier arrivé, premier servi » ni « au plus offrant ». L’entreprise privilégie des contrats annuels avec répartition de capacité convenue en amont.
Dans le même temps, la direction prévient que les conditions tarifaires évoluent avec le marché. Des relèvements de prix sont jugés inévitables, avec des cas de figure pouvant atteindre 30 % sur certaines références, en fonction du contexte et des volumes.
Le message de Kioxia reflète la tension actuelle : hyperscalers, centres de données et PC se disputent des wafers NAND alors que les investissements liés à l’IA s’accélèrent. Les baisses extrêmes observées fin de cycle en 2023–2024 ne sont plus d’actualité et le « plancher » à environ 43 € pour 1 To ne reviendra pas à court terme.
Pour les OEM comme pour le retail, la conséquence immédiate est une visibilité limitée sur les prix et les disponibilités au fil de l’année. La priorité donnée aux partenaires sous contrat devrait lisser les livraisons, mais elle laisse peu de marge au marché spot, où la volatilité reste élevée.
Cette phase de remontée s’inscrit dans un cycle classique mémoire/stockage, mais la traction IA accentue la vitesse de normalisation. Le point d’attention sera la cadence de ramp des capacités NAND en 2025 face aux besoins des serveurs d’IA et au mix de couches, qui conditionnera l’atterrissage des prix côté SSD grand public.
Source : ITHome
Pulsar officialise une collaboration Blue Archive avec trois souris X2 CrazyLight (taille moyenne) aux couleurs d’Abidos : Hoshino Takanashi, Shirako Sunaokami et Nonomi Izayoi. La base technique reste celle de la X2 la plus légère de la marque, orientée claw/fingertip, avec un châssis symétrique de 39 g et un pack capteur/électronique haut de gamme.
Chaque édition intègre le capteur maison XS-1 à 32 000 DPI, des commutateurs optiques annoncés pour 100 millions d’activations et un encodeur TTC Gold. La souris accepte un polling rate jusqu’à 8 kHz et un mode Turbo à 20 000 FPS de traitement, de quoi coller aux exigences des joueurs FPS compétitifs. Le bundle comprend un récepteur 8K avec socle LED de collection, déjà aperçu sur l’édition Pikachu.

Les trois déclinaisons reprennent l’esthétique des personnages d’Abidos sans modifier l’ergonomie ni les caractéristiques internes. On reste sur le format medium de la série X2 CrazyLight, pensé pour une prise en main rapide et sans surcharge côté masse.

Le tarif est fixé à 149,95 $ (environ 137 €). La commercialisation débute sur la boutique Pulsar et via les canaux habituels selon les régions.
Le recours à un récepteur 8 kHz fourni d’office et à un châssis 39 g confirme la stratégie de Pulsar sur l’ultra-light performant, tout en capitalisant sur des collaborations à forte reconnaissance visuelle. Sur un marché où les éditions spéciales sont souvent cosmétiques, l’apport d’un dongle haut débit intégré évite l’écueil du collector au rabais et positionne ce partenariat sur un segment premium cohérent.
Source : ITHome
DeepCool lance une édition « bois » de son boîtier M-ATX CH260, proposée en noir à 399 ¥ (environ 52 €) et en blanc à 449 ¥ (environ 59 €). Cette variante reprend la base du CH260 dévoilé l’an dernier, avec une touche esthétique : un insert à effet bois intégré au panneau I/O latéral.

Le châssis mise sur une aération généreuse via de larges panneaux Mesh et trois filtres à poussière amovibles. La façade est magnétique et permet un habillage « pixel art » personnalisable. Le boîtier mesure 438 × 225 × 312,5 mm, accepte des cartes mères Mini-ITX et Micro-ATX, y compris des cartes mères Micro-ATX à connecteurs inversés.

La connectique en façade comprend un USB-C 10 Gb/s, deux USB-A 5 Gb/s, ainsi que des jacks audio et micro séparés. À l’intérieur, on trouve 4 slots PCIe, un emplacement 3,5″ et un 2,5″. Les tolérances matérielles sont confortables : ventirad jusqu’à 174 mm, carte graphique jusqu’à 388 mm (413 mm sans ventilateurs en façade), alimentation ATX, et 29,6 mm dédiés au câblage derrière le plateau.
Le CH260 autorise 2 ventilateurs de 120 mm en façade, 1 ventilateur de 120 mm à l’arrière ou un radiateur de 120 mm, et jusqu’à 3 × 120 mm ou 2 × 140 mm au sommet, avec prise en charge des radiateurs 120/240/360 mm. La configuration privilégie un flux d’air direct, l’ensemble Mesh et les filtres multipliés limitant l’encrassement dans le temps.
Cette édition « bois » cible les configurations M-ATX compactes qui veulent éviter l’esthétique gaming trop voyante sans sacrifier la ventilation ni la compatibilité GPU. À ce tarif, l’USB-C 10 Gb/s et la marge de 360 mm en watercooling donnent un avantage fonctionnel face aux boîtiers décoratifs souvent plus limités.
Source : ITHome
DeepSeek prépare visiblement un nouveau jalon côté modèles. À la date anniversaire de DeepSeek-R1, des commits GitHub ont introduit dans FlashMLA une série de références à un identifiant « MODEL1 » disséminé dans 28 sections sur 114 fichiers, apparaissant tantôt aux côtés, tantôt en distinction du « V32 » (DeepSeek-V3.2). L’actualité recoupe un bruit de couloir de début janvier selon lequel un « DeepSeek V4 » serait attendu autour du Nouvel An lunaire, avec un net accent sur les capacités de génération de code.
Les extraits techniques pointent des écarts notables entre « MODEL1 » et « V32 » sur la gestion des caches KV, le traitement de la sparsité et la prise en charge du format FP8 côté décodage. Ce triptyque suggère un chantier ciblé sur l’empreinte mémoire et le débit effectif, avec un pipeline d’inférence potentiellement optimisé pour des séquences longues et des charges interactives intensives.
Ces choix s’alignent avec l’intégration de kernels FlashMLA de nouvelle génération, où le layout KV et la granularité de sparsité conditionnent fortement l’utilisation du cache et le taux d’occupation des unités de calcul. Le support FP8 en décodage laisse supposer une calibration fine entre précision et débit, un levier crucial pour soutenir des fenêtres contextuelles étendues et des graphes d’attention parcimonieux.
Deux publications récentes signées par le groupe de recherche DeepSeek détaillent une méthode d’entraînement baptisée « mHC » autour de l’optimisation des connexions résiduelles, et un module mémoire inspiré du biologique, « Engram ». Sans confirmation officielle, l’hypothèse d’une convergence de ces pistes dans « MODEL1 » reste crédible au vu des cibles affichées: stabilité d’apprentissage, capacités de rappel et efficacité d’inférence.
L’ensemble dessine un modèle distinct de V3.2, moins comme une simple révision qu’une refonte de certains blocs critiques. Si le calendrier évoqué pour « V4 » autour de février se confirme, DeepSeek chercherait à capitaliser sur un couple entraînement-inférence resserré, où les gains de sparsité et de quantification allégée seraient immédiatement convertibles en débit et en coût par token.
Dans un marché où l’avantage bascule désormais sur le coût d’exploitation plus que sur les seuls scores synthétiques, la combinaison d’un KV cache repensé et d’un décodage FP8 peut déplacer la pression du côté des fournisseurs d’infrastructure. Si DeepSeek parvient à stabiliser ces optimisations à large échelle, l’impact pourrait être tangible pour les intégrateurs qui cherchent à pousser des assistants de code à forte contrainte de latence et de fenêtre contextuelle, en particulier sur des grappes hétérogènes.
Source : ITHome
OpenAI confirme l’arrivée de publicités dans ChatGPT au cours des prochaines semaines, y compris dans la version gratuite et dans ChatGPT Go. La décision s’inscrit dans la recherche de financements pour sa feuille de route AGI, avec un message clair de Sarah Friar, directrice financière, qui promet de préserver l’intégrité des résultats générés par le modèle.
Sarah Friar explique que 95 % des utilisateurs de la plateforme sont sur l’offre gratuite, un socle que l’entreprise dit vouloir protéger. OpenAI affirme poser une règle simple : le modèle doit continuer à fournir « la meilleure réponse » possible, et l’identification des promotions sera explicite pour éviter toute confusion entre un résultat et un lien sponsorisé.
La dirigeante critique au passage l’opacité d’autres plateformes où l’on ne sait plus « si c’est un lien sponsorisé ou le meilleur résultat ». OpenAI promet d’éviter cette zone grise et de maintenir une couche d’usage sans publicité, sans détailler l’articulation exacte entre offres gratuites, Go et payantes.
Friar évoque des formats « utiles » plutôt que du bannering à l’ancienne. Exemple donné : une requête de city break où un placement pour une location courte durée peut avoir de la valeur s’il est clairement signalé. OpenAI parle d’innovations « propres au médium » pour éviter d’importer des recettes publicitaires datées dans une interface conversationnelle.
Elle cite par ailleurs ChatGPT Health, présenté comme un module de conversation santé, pour rappeler qu’OpenAI ne l’entraîne pas sur les données des utilisateurs et qu’il restera hors du périmètre publicitaire. L’entreprise martèle l’enjeu de confiance, présentée comme non négociable même avec la montée en charge des annonceurs.
Le pari d’OpenAI est risqué mais rationnel : la publicité est la voie la plus rapide pour monétiser une base gratuite massive, à condition de maintenir une séparation étanche entre réponses du modèle et placements. L’arbitrage produit sera scruté de près par les utilisateurs experts, car le moindre glissement perçu vers des réponses « incitées » entamerait la valeur du service. Tout se jouera dans l’exécution signalétique, la transparence et la pertinence contextuelle des formats.
Source : ITHome
Selon ZDNET Korea, Samsung Electronics prépare des « base dies » HBM personnalisés gravés en 4 nm jusqu’au 2 nm, présentés comme un prolongement de sa stratégie d’avantage de procédé au-delà de HBM4. L’objectif : déplacer davantage de logique au pied des piles HBM, dans le die de base, désormais fabriqué en technologie logique depuis HBM4, afin de contourner la limite de surface des puces monolithiques hautes performances (858 mm² de champ de réticule) et d’améliorer l’efficacité énergétique.
En miroir, TSMC prévoit d’introduire son N3P pour des base dies HBM custom, mais Samsung chercherait à pousser plus agressivement vers le 2 nm. Plus le procédé du base die est avancé, plus il peut héberger de circuits qui, jusqu’ici, restaient sur le XPU central (GPU, NPU ou accélérateur maison), avec à la clé une densité logique et une sobriété accrue à proximité immédiate de la mémoire.
Le recours à des base dies HBM en logique avancée ouvre la voie à des fonctions de prétraitement, de gestion de bande passante et de contrôle plus sophistiquées directement sous la pile mémoire. Couplé aux interconnexions multi-puces, ce déplacement de blocs réduit la pression sur le die principal et aide à franchir le plafond physique du réticule sans exploser les latences.
D’après des sources internes citées, l’initiative est pilotée par l’équipe Custom SoC récemment créée au sein de la division System LSI de Samsung. Le positionnement est clair : proposer un continuum de procédés (4 nm → 2 nm) pour adapter le contenu logique du base die aux besoins des clients AI haut de gamme, alors que la demande en HBM4/HBM4E grimpe et que les roadmaps XPU butent sur la taille de die et les budgets thermiques.
Dans ce segment, la fenêtre se joue sur trois axes: densité logique au pied des piles, maîtrise d’assemblage 2.5D/3D et intégration co-design mémoire/accélérateur. Un base die en 2 nm crédibilise l’intégration de blocs plus lourds sous HBM4, mais impose une supply chain mature en procédés logiques avancés et en empilement TSV. TSMC pousse N3P côté base die custom, ce qui pourrait suffire pour des intégrations ciblées, mais l’avance nominale de Samsung en nœud plus fin lui offre un angle d’attaque différenciant sur l’efficience et l’aire utile.
Si Samsung concrétise une offre 2 nm pour base die HBM, les concepteurs d’XPU pourraient rééquilibrer leur partition logique entre die principal et base die, avec des gains en bande passante utile et en consommation par opération. La clé sera la disponibilité industrielle et les rendements, car toute variabilité à ce niveau se répercute sur le coût total des piles HBM et sur la cadence des plateformes AI haut de gamme.
Source : ITHome
Marathon abaisse la barre d’entrée sur PC. Le shooter extraction de Bungie arrive le 5 mars et affiche des exigences minimales étonnamment modestes, une bonne nouvelle pour les petites configs.
Après un long report et un retour au cahier des charges, le studio a confirmé la sortie au 5 mars. Sur Steam, la fiche mentionne en configuration minimale une NVIDIA GeForce GTX 1050 Ti 4 Go, une AMD Radeon RX 5500 XT ou une Intel Arc A580 avec ReBar activé, associée à 8 Go de RAM et un processeur Intel Core i5‑6600 ou AMD Ryzen 5 2600. Les prérequis recommandés montent à une GeForce RTX 2060 6 Go, une Radeon RX 5700 XT 8 Go ou une Arc A770 16 Go (toujours avec ReBar), plus un Core i5‑10400 ou un Ryzen 5 3500 et 16 Go de RAM.

Aucune cible de framerate ou de définition n’est précisée. D’après les usages du secteur, on peut s’attendre à environ 60 fps en réglages faibles pour la configuration minimale. Bungie n’indique pas non plus si TPM 2.0 ou Secure Boot seront requis pour des raisons d’anti‑triche. La fiche laisse aussi entendre que les PC de poche type ASUS ROG Ally et autres iGPU proches devraient obtenir un rendu jouable en baissant légèrement la définition.
Le studio résume en creux un objectif clair : « barrière d’entrée impressionnante de faiblesse », d’après la présentation des specs sur Steam. Pour rappel, la fenêtre a été confirmée après des mois de silence, avec une nouvelle bande‑annonce de précommande montrant du gameplay. Les cartes Intel Arc listées exigent le Resizable BAR activé, un point à vérifier dans l’UEFI.
En l’état, la combinaison GTX 1050 Ti + 8 Go de RAM et Core i5‑6600 devrait suffire pour démarrer, tandis qu’une RTX 2060 et 16 Go viseront plus confort. Les joueurs sur RX 5700 XT ou Arc A770 devraient également être à l’aise, sous réserve d’optimisations pilotes au lancement.
Source : TechPowerUp
Les patrons de Google DeepMind et d’Anthropic avertissent d’un virage concret : l’IA commence à grignoter les postes d’entrée de gamme dans leurs propres organisations. À Davos, Demis Hassabis a évoqué une première inflexion tangible dès cette année, avec un ralentissement des recrutements sur les stages et les fonctions junior. Dario Amodei, chez Anthropic, maintient pour sa part sa projection d’une contraction majeure des emplois de début de carrière parmi les cols blancs, avec un risque de chômage à 20 %, sans révision de trajectoire à ce stade.
Hassabis confirme une prudence accrue sur l’embauche d’entrants, symptôme souvent précoce d’un basculement de productivité. Amodei cite déjà des effets visibles dans le logiciel et la programmation, domaine où les outils d’IA générative compressent le temps d’exécution sur les tâches répétitives et la production de code standard. Chez Anthropic, la demande en effectifs pourrait se contracter sur certains postes juniors et même une partie des fonctions intermédiaires.
Les deux dirigeants insistent sur la dimension systémique de l’ajustement. Ils appellent à des réponses institutionnelles, en particulier via une gouvernance internationale et des dispositifs économiques d’amortissement pour éviter un choc social. Amodei précise que le risque clé tient au rythme de progression de l’IA : une croissance exponentielle pourrait dépasser la capacité d’adaptation collective en un à cinq ans.
Dans la tech, le mouvement se traduira par une redéfinition des pipelines de formation et de mentoring. Moins de postes d’entrée mettra mécaniquement sous tension la montée en compétence, alors que la valeur se déplace vers la supervision d’agents, la garantie qualité, la sécurité et l’orchestration des modèles. À court terme, le principal indicateur à suivre reste le ratio productivité/embauches sur les tâches « boilerplate », notamment en développement, en data et en fonctions support.
L’enjeu pour les entreprises sera d’éviter un assèchement de la filière junior qui fragiliserait l’écosystème à moyen terme. Les politiques RH devront articuler gains d’efficacité et trajectoires de professionnalisation, quitte à réinventer les formats d’intégration et les contenus d’apprentissage, avec plus d’exigence sur la polyvalence et la vérification humaine du travail assisté par IA.
Source : ITHome
Seasonic annonce que son alimentation haut de gamme PRIME TX-1600 obtient la première certification d’efficacité énergétique « niveau 5 » délivrée par le China Quality Certification (CQC) à un bloc d’alimentation grand public. Ce palier, lié à une conversion culminant à plus de 95 %, s’accompagne d’exigences sur la constance de production et la fiabilité des composants clés.
Le schéma du CQC segmente l’efficacité des alimentations intégrées en sept niveaux (1 à 7). Pour les produits retail, le niveau 5 constitue aujourd’hui l’échelon le plus élevé. Les tests portent sur l’efficacité de conversion, la cohérence entre lots et la robustesse des composants critiques, ce qui dépasse le simple rendement nominal et vise la tenue opérationnelle dans le temps.

Positionnée au sommet du catalogue Seasonic, la PRIME TX-1600 affiche un rendement typique supérieur à 95 % et s’inscrit dans la catégorie des modèles « Titanium ». L’obtention du sésame CQC sur ce niveau donne une lecture supplémentaire de la qualité de fabrication et de la maîtrise des transitoires, critères que les intégrateurs surveillent au-delà des labels usuels.
Seasonic prépare en parallèle la gamme PRIME Enterprise ciblant les stations de travail IA. Le constructeur annonce l’intégration d’un connecteur de protection intelligente OptiGuard, d’un système de double protection de puissance SDP et d’un dispositif de dissipation OptiSink pour optimiser le transfert thermique. Le discours insiste sur une meilleure gestion des variations de charge transitoires et sur l’EMC.
Dans un contexte où les cartes graphiques dédiées à l’IA et les configurations multi-GPU imposent des enveloppes et des crêtes de puissance difficiles, la recherche d’une meilleure immunité CEM et d’une réponse rapide aux surintensités transitoires devient un facteur différenciant. Si les promesses se confirment en test, Seasonic pourrait verrouiller le segment des alimentations haut de gamme pour postes IA, où la stabilité sous impulsions courtes et la tenue thermique priment sur le rendement seul.
Source : ITHome
![]()
![]()