↩ Accueil

Vue normale

Reçu aujourd’hui — 21 janvier 2026 1.2 🖥️ Tech. Autres sites

Bichon - L'archiveur Rust pour garder une trace de vos emails

Par :Korben
21 janvier 2026 à 10:00

Vous avez 15 ans d'emails répartis sur 4 comptes différents et vous aimeriez bien pouvoir chercher dedans sans devenir complétement fou ? Bichon est fait pour vous . C'est un archiveur d'emails open source écrit en Rust qui synchronise vos boîtes mail et vous permet de tout fouiller via une interface web ultra léchée.

Le truc c'est que Bichon n'est pas un client mail. Vous ne pouvez pas envoyer ou recevoir de messages avec. C'est vraiment un outil d'archivage pur qui se connecte à vos serveurs IMAP, aspire tous vos emails, les compresse, les déduplique et les indexe pour que vous puissiez faire des recherches full-text dessus pour par exemple retrouver ce mail de 2012 où votre ex vous expliquait sa recette secrète du tiramisu.

L'interface web est plutôt propre, codée en React avec ShadCN UI. Vous pouvez filtrer par compte, par dossier, par expéditeur, par nom de pièce jointe, par taille, par date... Y'a même un dashboard avec des stats sur vos emails si vous aimez les graphiques. Et bonne nouvelle, le WebUI est disponible en 18 langues, donc le français est de la partie !

Côté authentification, ça gère le mot de passe IMAP classique mais aussi OAuth2 avec refresh automatique du token. C'est hyper pratique pour Gmail ou Outlook qui aiment bien compliquer les choses. Y'a aussi un support proxy si vous êtes derrière un firewall capricieux et une découverte automatique des serveurs IMAP. Hop, on branche et ça synchronise !

La stack technique envoie du bois également puisque le backend est en Rust basé sur le framework Poem, et le moteur de recherche/stockage utilise Tantivy. C'est un moteur de recherche full-text codé lui aussi en Rust, l'équivalent de Lucene mais sans la lourdeur de la JVM. Pour les métadonnées et la config, le projet utilise Native_DB et le tout est packagé en binaires pour Linux, macOS et Windows, ou en image Docker si vous préférez le self-hosted sans prise de tête.

Un truc important depuis la version 0.2.0 c'est que le modèle d'authentification a changé. L'ancien compte "root/root" a sauté au profit d'un compte admin par défaut (identifiants : "admin" / "admin@bichon"). Pensez donc à changer le mot de passe immédiatement, sinon ce sera la fête du slip dans vos archives. Et notez bien que le mot de passe de chiffrement que vous définissez au premier lancement ne peut pas être changé ensuite, donc choisissez-le bien, genre "KorbenCestLePlusBeau123".

Et si vous avez déjà des tonnes de vieux mails qui traînent en local, sachez que depuis la v0.3.0, y'a également un outil en ligne de commande qui s'appelle bichonctl. Ça permet d'importer vos archives au format EML ou MBOX directement dans le bouzin. C'est nickel pour centraliser tout votre passé exporté par ailleurs.

Bref, si vous cherchez un moyen propre d'archiver vos mails sans que ça bouffe toute votre RAM comme un client Java des années 2000, Bichon fait grave le taff. C'est léger, c'est rapide, et c'est en Rust. Ensuite, vous pourrez dormir tranquille !

Merci à Lorenper pour l'info et si vous cherchez d'autres outils cools pour vos mails, jetez aussi un œil à Mailspring ou si vous kiffez le stockage en Rust, Garage est une pépite.

L'IA est-elle vraiment intelligente ? En vrai, on s'en fout un peu non ?

Par :Korben
21 janvier 2026 à 09:21

Je trouve qu'il n’y a rien de plus idiot qu’un débat philosophique sur ce qu'est "vraiment" l'intelligence quand on a juste besoin que le boulot soit fait... J'en vois certains en faire des tartines à longueur de journée sur Linkedin, notamment pour tenter de définir le niveau d'intelligence des IA mais de mon point de vue, c'est vraiment perdre son temps que d'essayer d'évaluer ça.

Récemment, je suis tombé sur un billet de Bertrand Meyer sur le Blog de CACM qui met enfin des mots sur mon malaise... En fait il explique qu'il y a 2 grandes visions qui s'opposent concernant la définition de l'intelligence.

D'un côté, on a l'approche plutôt "européenne" où l'intelligence, c'est comprendre les choses, comprendre le monde, savoir expliquer le "pourquoi du comment". Et de l'autre côté, on a une vision plus "américaine" et pragmatique où l'intelligence c'est avant tout réussir à s'adapter et agir en conséquence avec succès.

En gros, ça veut dire que pour les ricains, si ça marche, c'est une preuve d'intelligence.

Et là, tout s'éclaire car l'IA d'aujourd'hui, nos chers LLM d'amour et autres réseaux neuronaux, correspondent parfaitement à cette seconde définition. En effet pour beaucoup de chercheurs, ces systèmes ne "comprennent" pas le monde au sens cognitif du terme mais réussissent quand même à donner très souvent les bonnes réponses et à trouver de bonnes solutions à tout un tas de problèmes.

Un peu comme ces modèles médicaux de Google capables d'aider les médecins dans leurs diagnostics... ça marche, c'est utile, et même si ça ne remplace pas (encore) l'expertise humaine (enfin sauf celle des internes ^^), c'est déjà génial !

Perso, je me positionne sur ça de manière un peu plus basique. Parce que je suis un mec basique... Je suis un techos, pas un marketeux ni un philosophe alors la seule question que je me pose finalement c'est "est-ce que ce que ça fait le taf" ?

Et surtout, est-ce que ce que l'IA produit c'est de qualité ?

Quand c'est du texte par exemple, mon premier critère c'est donc de savoir si l'information est juste. Ensuite c'est de savoir si c'est agréable à lire. Et enfin, est ce qu'on en retire quelque chose (un apprentissage, du fun, un élargissement de sa pensée) ?

Voilà c'est tout... et ça je l'applique aussi bien aux textes écrit par des humains qu'à ceux écrits par des algos.

Si ces 3 conditions ne sont pas remplies, c'est (pour moi, hein) de la merde. Et donc j'applique ces principes du mieux que je peux, aussi à ce que j'écris.

Je pourrais bien sûr ajouter d'autres critères du genre "Est ce que j'ai fait le tour de la question de manière encyclopédique ?" et "Est ce que en écrivant cela, je ne vais pas insécuriser un random qui va ensuite m'attaquer publiquement pour rassurer son égo auprès de sa communauté ?" mais bon, ici c'est pas Wikipédia et j'suis pas non plus le psy des gens qui détestent mon contenu mais viennent quand même me lire religieusement chaque jour. Donc j'avoue, je fais l'impasse... Ahaha.

Maintenant pour ceux qui se demandent encore comment définir l'intelligence artificielle, voyez plutôt ça comme un outil capable de "faire comme si" avec suffisamment de talent pour que l'expérience soit bluffante de réalisme. Un peu comme quand on regarde un super film avec de super acteurs... On sait qu'ils font semblant et pourtant on ressent de l'émotion. Bah là c'est pareil, l'illusion est douce et hormis certains cas pathologiques où ça pourrait être problématiques, je ne vois pas ça comme un souci de se faire "illusionner" par un texte IA tant que mes 3 critères plus haut sont remplis.

Que ce soit du texte humain ou du texte IA, le résultat peut être perçu par un humain comme similaire si c'est bien fait. Faut pas non plus oublier que beaucoup d'humains ne savent pas s'exprimer correctement et encore moins structurer correctement leur pensée pour la mettre par écrit (et je ne vise personne, mais suivez mon regard vers les services de micro-blogging et autres commentaires Youtube... ^^).

Le point important, crucial même (et là je sors mon panneau "Achtung danger"), c'est que pour chaque texte produit par une IA, un humain devrait le relire, le corriger, et l'améliorer. S'en porter garant en fait, sinon, c'est juste du texte générique de qualité standard avec peu de valeur ajoutée (si ce n'est faire du résumé quoi...) et un fort risque d'hallucinations.

Et je sais que la mode du moment est au slop IA aussi bien dans les mails, les médias, les sites SEO, les discours officiels du gouvernement et j'en passe mais putain, passer un petit coup de vérif / polish manuel par-dessus, c'est pas la mer à boire et hop, on retrouve instantanément une âme dans l'article et cela peu importe que ça passe le détecteur IA ou pas... Ces machins là font principalement de la vérification en surface et si vous écrivez trop parfaitement ou si votre IA écrit trop dégueulasse, vous aurez du faux positif dans un sens ou dans l'autre.

Je pense donc qu'on s'en fout un peu de savoir si la machine a une âme ou si elle "comprend" réellement le sens de la vie (spoiler : ce n'est pas le cas). Moi, tant qu'elle m'aide à coder un script Python vite fait ou à préparer un super article pour vous sans que j'aie à me taper des tonnes de doc, ça me va.

Maintenant reste à savoir si l'IA va un jour détruire nos institutions mais ça c'est une autre histoire..

SSD : Kioxia annonce la fin du 1 To bon marché et une capacité NAND saturée

Par :Wael.K
21 janvier 2026 à 09:01

En visite à Séoul, Shunsuke Nakato, cadre dirigeant de Kioxia, a déclaré que « l’époque où l’on achetait 1 To de SSD à 7 000 yens (environ 45 €) » est révolue. Le groupe affirme que sa capacité NAND pour l’année est presque entièrement allouée.

Selon Nakato, la dynamique tirée par l’IA va perdurer au moins jusqu’à l’an prochain. La demande grimpe sur l’ensemble des produits de stockage, NAND incluse, avec un double effet rareté et hausse tarifaire. Les contrats en cours continuent toutefois d’encadrer les livraisons.

Capacité quasi saturée, contrats annuels et hausses de prix

Kioxia dit s’en tenir à ses engagements vis-à-vis de ses clients historiques, sans basculer sur des schémas « premier arrivé, premier servi » ni « au plus offrant ». L’entreprise privilégie des contrats annuels avec répartition de capacité convenue en amont.

Dans le même temps, la direction prévient que les conditions tarifaires évoluent avec le marché. Des relèvements de prix sont jugés inévitables, avec des cas de figure pouvant atteindre 30 % sur certaines références, en fonction du contexte et des volumes.

Contexte marché : IA, pénurie relative et fin du « plancher » 1 To

Le message de Kioxia reflète la tension actuelle : hyperscalers, centres de données et PC se disputent des wafers NAND alors que les investissements liés à l’IA s’accélèrent. Les baisses extrêmes observées fin de cycle en 2023–2024 ne sont plus d’actualité et le « plancher » à environ 43 € pour 1 To ne reviendra pas à court terme.

Pour les OEM comme pour le retail, la conséquence immédiate est une visibilité limitée sur les prix et les disponibilités au fil de l’année. La priorité donnée aux partenaires sous contrat devrait lisser les livraisons, mais elle laisse peu de marge au marché spot, où la volatilité reste élevée.

Cette phase de remontée s’inscrit dans un cycle classique mémoire/stockage, mais la traction IA accentue la vitesse de normalisation. Le point d’attention sera la cadence de ramp des capacités NAND en 2025 face aux besoins des serveurs d’IA et au mix de couches, qui conditionnera l’atterrissage des prix côté SSD grand public.

Source : ITHome

Pulsar X2 CrazyLight Blue Archive : trois éditions Abidos à 39 g et 8 kHz

Par :Wael.K
21 janvier 2026 à 08:55

Pulsar officialise une collaboration Blue Archive avec trois souris X2 CrazyLight (taille moyenne) aux couleurs d’Abidos : Hoshino Takanashi, Shirako Sunaokami et Nonomi Izayoi. La base technique reste celle de la X2 la plus légère de la marque, orientée claw/fingertip, avec un châssis symétrique de 39 g et un pack capteur/électronique haut de gamme.

Fiche technique et variantes

Chaque édition intègre le capteur maison XS-1 à 32 000 DPI, des commutateurs optiques annoncés pour 100 millions d’activations et un encodeur TTC Gold. La souris accepte un polling rate jusqu’à 8 kHz et un mode Turbo à 20 000 FPS de traitement, de quoi coller aux exigences des joueurs FPS compétitifs. Le bundle comprend un récepteur 8K avec socle LED de collection, déjà aperçu sur l’édition Pikachu.

Trois figurines et souris Pulsar X2 CrazyLight assorties avec Blue Archive.

Les trois déclinaisons reprennent l’esthétique des personnages d’Abidos sans modifier l’ergonomie ni les caractéristiques internes. On reste sur le format medium de la série X2 CrazyLight, pensé pour une prise en main rapide et sans surcharge côté masse.

Vue de dessus de trois souris Pulsar X2 CrazyLight avec motifs Blue Archive.

Prix et disponibilité

Le tarif est fixé à 149,95 $ (environ 137 €). La commercialisation débute sur la boutique Pulsar et via les canaux habituels selon les régions.

Le recours à un récepteur 8 kHz fourni d’office et à un châssis 39 g confirme la stratégie de Pulsar sur l’ultra-light performant, tout en capitalisant sur des collaborations à forte reconnaissance visuelle. Sur un marché où les éditions spéciales sont souvent cosmétiques, l’apport d’un dongle haut débit intégré évite l’écueil du collector au rabais et positionne ce partenariat sur un segment premium cohérent.

Source : ITHome

DeepCool CH260 « bois » : boîtier M-ATX aéré, USB‑C 10 Gb/s et AIO 360 mm

Par :Wael.K
21 janvier 2026 à 08:51

DeepCool lance une édition « bois » de son boîtier M-ATX CH260, proposée en noir à 399 ¥ (environ 52 €) et en blanc à 449 ¥ (environ 59 €). Cette variante reprend la base du CH260 dévoilé l’an dernier, avec une touche esthétique : un insert à effet bois intégré au panneau I/O latéral.

Design, I/O et compatibilité

Boîtier M-ATX DeepCool CH260 bois, vue latérale avant légèrement élevée

Le châssis mise sur une aération généreuse via de larges panneaux Mesh et trois filtres à poussière amovibles. La façade est magnétique et permet un habillage « pixel art » personnalisable. Le boîtier mesure 438 × 225 × 312,5 mm, accepte des cartes mères Mini-ITX et Micro-ATX, y compris des cartes mères Micro-ATX à connecteurs inversés.

Vue intérieure avant du boîtier DeepCool CH260 bois, montrant l'espace de montage

La connectique en façade comprend un USB-C 10 Gb/s, deux USB-A 5 Gb/s, ainsi que des jacks audio et micro séparés. À l’intérieur, on trouve 4 slots PCIe, un emplacement 3,5″ et un 2,5″. Les tolérances matérielles sont confortables : ventirad jusqu’à 174 mm, carte graphique jusqu’à 388 mm (413 mm sans ventilateurs en façade), alimentation ATX, et 29,6 mm dédiés au câblage derrière le plateau.

Ventilation et watercooling

Le CH260 autorise 2 ventilateurs de 120 mm en façade, 1 ventilateur de 120 mm à l’arrière ou un radiateur de 120 mm, et jusqu’à 3 × 120 mm ou 2 × 140 mm au sommet, avec prise en charge des radiateurs 120/240/360 mm. La configuration privilégie un flux d’air direct, l’ensemble Mesh et les filtres multipliés limitant l’encrassement dans le temps.

Cette édition « bois » cible les configurations M-ATX compactes qui veulent éviter l’esthétique gaming trop voyante sans sacrifier la ventilation ni la compatibilité GPU. À ce tarif, l’USB-C 10 Gb/s et la marge de 360 mm en watercooling donnent un avantage fonctionnel face aux boîtiers décoratifs souvent plus limités.

Source : ITHome

DeepSeek MODEL1 : indices d’un nouveau modèle distinct de V3.2 pour l’inférence

Par :Wael.K
21 janvier 2026 à 08:49

DeepSeek prépare visiblement un nouveau jalon côté modèles. À la date anniversaire de DeepSeek-R1, des commits GitHub ont introduit dans FlashMLA une série de références à un identifiant « MODEL1 » disséminé dans 28 sections sur 114 fichiers, apparaissant tantôt aux côtés, tantôt en distinction du « V32 » (DeepSeek-V3.2). L’actualité recoupe un bruit de couloir de début janvier selon lequel un « DeepSeek V4 » serait attendu autour du Nouvel An lunaire, avec un net accent sur les capacités de génération de code.

Des indices d’architecture distincte

Les extraits techniques pointent des écarts notables entre « MODEL1 » et « V32 » sur la gestion des caches KV, le traitement de la sparsité et la prise en charge du format FP8 côté décodage. Ce triptyque suggère un chantier ciblé sur l’empreinte mémoire et le débit effectif, avec un pipeline d’inférence potentiellement optimisé pour des séquences longues et des charges interactives intensives.

Ces choix s’alignent avec l’intégration de kernels FlashMLA de nouvelle génération, où le layout KV et la granularité de sparsité conditionnent fortement l’utilisation du cache et le taux d’occupation des unités de calcul. Le support FP8 en décodage laisse supposer une calibration fine entre précision et débit, un levier crucial pour soutenir des fenêtres contextuelles étendues et des graphes d’attention parcimonieux.

Ponts avec les travaux récents de l’équipe

Deux publications récentes signées par le groupe de recherche DeepSeek détaillent une méthode d’entraînement baptisée « mHC » autour de l’optimisation des connexions résiduelles, et un module mémoire inspiré du biologique, « Engram ». Sans confirmation officielle, l’hypothèse d’une convergence de ces pistes dans « MODEL1 » reste crédible au vu des cibles affichées: stabilité d’apprentissage, capacités de rappel et efficacité d’inférence.

L’ensemble dessine un modèle distinct de V3.2, moins comme une simple révision qu’une refonte de certains blocs critiques. Si le calendrier évoqué pour « V4 » autour de février se confirme, DeepSeek chercherait à capitaliser sur un couple entraînement-inférence resserré, où les gains de sparsité et de quantification allégée seraient immédiatement convertibles en débit et en coût par token.

Dans un marché où l’avantage bascule désormais sur le coût d’exploitation plus que sur les seuls scores synthétiques, la combinaison d’un KV cache repensé et d’un décodage FP8 peut déplacer la pression du côté des fournisseurs d’infrastructure. Si DeepSeek parvient à stabiliser ces optimisations à large échelle, l’impact pourrait être tangible pour les intégrateurs qui cherchent à pousser des assistants de code à forte contrainte de latence et de fenêtre contextuelle, en particulier sur des grappes hétérogènes.

Source : ITHome

OpenAI ajoute des publicités à ChatGPT, promet des réponses intactes et signalées

Par :Wael.K
21 janvier 2026 à 08:46

OpenAI confirme l’arrivée de publicités dans ChatGPT au cours des prochaines semaines, y compris dans la version gratuite et dans ChatGPT Go. La décision s’inscrit dans la recherche de financements pour sa feuille de route AGI, avec un message clair de Sarah Friar, directrice financière, qui promet de préserver l’intégrité des résultats générés par le modèle.

Publicités, mais pas au détriment des réponses

Sarah Friar explique que 95 % des utilisateurs de la plateforme sont sur l’offre gratuite, un socle que l’entreprise dit vouloir protéger. OpenAI affirme poser une règle simple : le modèle doit continuer à fournir « la meilleure réponse » possible, et l’identification des promotions sera explicite pour éviter toute confusion entre un résultat et un lien sponsorisé.

La dirigeante critique au passage l’opacité d’autres plateformes où l’on ne sait plus « si c’est un lien sponsorisé ou le meilleur résultat ». OpenAI promet d’éviter cette zone grise et de maintenir une couche d’usage sans publicité, sans détailler l’articulation exacte entre offres gratuites, Go et payantes.

Formats attendus et périmètre sensible

Friar évoque des formats « utiles » plutôt que du bannering à l’ancienne. Exemple donné : une requête de city break où un placement pour une location courte durée peut avoir de la valeur s’il est clairement signalé. OpenAI parle d’innovations « propres au médium » pour éviter d’importer des recettes publicitaires datées dans une interface conversationnelle.

Elle cite par ailleurs ChatGPT Health, présenté comme un module de conversation santé, pour rappeler qu’OpenAI ne l’entraîne pas sur les données des utilisateurs et qu’il restera hors du périmètre publicitaire. L’entreprise martèle l’enjeu de confiance, présentée comme non négociable même avec la montée en charge des annonceurs.

Ligne de crête entre monétisation et crédibilité

Le pari d’OpenAI est risqué mais rationnel : la publicité est la voie la plus rapide pour monétiser une base gratuite massive, à condition de maintenir une séparation étanche entre réponses du modèle et placements. L’arbitrage produit sera scruté de près par les utilisateurs experts, car le moindre glissement perçu vers des réponses « incitées » entamerait la valeur du service. Tout se jouera dans l’exécution signalétique, la transparence et la pertinence contextuelle des formats.

Source : ITHome

Samsung vise des base dies HBM en 2 nm pour doper l’IA au-delà de HBM4

Par :Wael.K
21 janvier 2026 à 08:42

Selon ZDNET Korea, Samsung Electronics prépare des « base dies » HBM personnalisés gravés en 4 nm jusqu’au 2 nm, présentés comme un prolongement de sa stratégie d’avantage de procédé au-delà de HBM4. L’objectif : déplacer davantage de logique au pied des piles HBM, dans le die de base, désormais fabriqué en technologie logique depuis HBM4, afin de contourner la limite de surface des puces monolithiques hautes performances (858 mm² de champ de réticule) et d’améliorer l’efficacité énergétique.

En miroir, TSMC prévoit d’introduire son N3P pour des base dies HBM custom, mais Samsung chercherait à pousser plus agressivement vers le 2 nm. Plus le procédé du base die est avancé, plus il peut héberger de circuits qui, jusqu’ici, restaient sur le XPU central (GPU, NPU ou accélérateur maison), avec à la clé une densité logique et une sobriété accrue à proximité immédiate de la mémoire.

Vers des HBM « actifs » plus ambitieux

Le recours à des base dies HBM en logique avancée ouvre la voie à des fonctions de prétraitement, de gestion de bande passante et de contrôle plus sophistiquées directement sous la pile mémoire. Couplé aux interconnexions multi-puces, ce déplacement de blocs réduit la pression sur le die principal et aide à franchir le plafond physique du réticule sans exploser les latences.

D’après des sources internes citées, l’initiative est pilotée par l’équipe Custom SoC récemment créée au sein de la division System LSI de Samsung. Le positionnement est clair : proposer un continuum de procédés (4 nm → 2 nm) pour adapter le contenu logique du base die aux besoins des clients AI haut de gamme, alors que la demande en HBM4/HBM4E grimpe et que les roadmaps XPU butent sur la taille de die et les budgets thermiques.

Contexte concurrentiel et implications

Dans ce segment, la fenêtre se joue sur trois axes: densité logique au pied des piles, maîtrise d’assemblage 2.5D/3D et intégration co-design mémoire/accélérateur. Un base die en 2 nm crédibilise l’intégration de blocs plus lourds sous HBM4, mais impose une supply chain mature en procédés logiques avancés et en empilement TSV. TSMC pousse N3P côté base die custom, ce qui pourrait suffire pour des intégrations ciblées, mais l’avance nominale de Samsung en nœud plus fin lui offre un angle d’attaque différenciant sur l’efficience et l’aire utile.

Si Samsung concrétise une offre 2 nm pour base die HBM, les concepteurs d’XPU pourraient rééquilibrer leur partition logique entre die principal et base die, avec des gains en bande passante utile et en consommation par opération. La clé sera la disponibilité industrielle et les rendements, car toute variabilité à ce niveau se répercute sur le coût total des piles HBM et sur la cadence des plateformes AI haut de gamme.

Source : ITHome

Marathon surprend avec des configs minimales très basses sur PC, sortie le 5 mars

Par :Wael.K
21 janvier 2026 à 08:40

Marathon abaisse la barre d’entrée sur PC. Le shooter extraction de Bungie arrive le 5 mars et affiche des exigences minimales étonnamment modestes, une bonne nouvelle pour les petites configs.

Marathon : des specs minimales qui datent presque d’une décennie

Après un long report et un retour au cahier des charges, le studio a confirmé la sortie au 5 mars. Sur Steam, la fiche mentionne en configuration minimale une NVIDIA GeForce GTX 1050 Ti 4 Go, une AMD Radeon RX 5500 XT ou une Intel Arc A580 avec ReBar activé, associée à 8 Go de RAM et un processeur Intel Core i5‑6600 ou AMD Ryzen 5 2600. Les prérequis recommandés montent à une GeForce RTX 2060 6 Go, une Radeon RX 5700 XT 8 Go ou une Arc A770 16 Go (toujours avec ReBar), plus un Core i5‑10400 ou un Ryzen 5 3500 et 16 Go de RAM.

Tableau des configurations système minimales et recommandées pour le jeu Marathon.

Aucune cible de framerate ou de définition n’est précisée. D’après les usages du secteur, on peut s’attendre à environ 60 fps en réglages faibles pour la configuration minimale. Bungie n’indique pas non plus si TPM 2.0 ou Secure Boot seront requis pour des raisons d’anti‑triche. La fiche laisse aussi entendre que les PC de poche type ASUS ROG Ally et autres iGPU proches devraient obtenir un rendu jouable en baissant légèrement la définition.

Spécifications détaillées et contexte de sortie

Le studio résume en creux un objectif clair : « barrière d’entrée impressionnante de faiblesse », d’après la présentation des specs sur Steam. Pour rappel, la fenêtre a été confirmée après des mois de silence, avec une nouvelle bande‑annonce de précommande montrant du gameplay. Les cartes Intel Arc listées exigent le Resizable BAR activé, un point à vérifier dans l’UEFI.

En l’état, la combinaison GTX 1050 Ti + 8 Go de RAM et Core i5‑6600 devrait suffire pour démarrer, tandis qu’une RTX 2060 et 16 Go viseront plus confort. Les joueurs sur RX 5700 XT ou Arc A770 devraient également être à l’aise, sous réserve d’optimisations pilotes au lancement.

Source : TechPowerUp

IA et emplois juniors : DeepMind et Anthropic anticipent un tournant en 2025

Par :Wael.K
21 janvier 2026 à 08:37

Les patrons de Google DeepMind et d’Anthropic avertissent d’un virage concret : l’IA commence à grignoter les postes d’entrée de gamme dans leurs propres organisations. À Davos, Demis Hassabis a évoqué une première inflexion tangible dès cette année, avec un ralentissement des recrutements sur les stages et les fonctions junior. Dario Amodei, chez Anthropic, maintient pour sa part sa projection d’une contraction majeure des emplois de début de carrière parmi les cols blancs, avec un risque de chômage à 20 %, sans révision de trajectoire à ce stade.

Des signaux internes qui se durcissent

Hassabis confirme une prudence accrue sur l’embauche d’entrants, symptôme souvent précoce d’un basculement de productivité. Amodei cite déjà des effets visibles dans le logiciel et la programmation, domaine où les outils d’IA générative compressent le temps d’exécution sur les tâches répétitives et la production de code standard. Chez Anthropic, la demande en effectifs pourrait se contracter sur certains postes juniors et même une partie des fonctions intermédiaires.

Les deux dirigeants insistent sur la dimension systémique de l’ajustement. Ils appellent à des réponses institutionnelles, en particulier via une gouvernance internationale et des dispositifs économiques d’amortissement pour éviter un choc social. Amodei précise que le risque clé tient au rythme de progression de l’IA : une croissance exponentielle pourrait dépasser la capacité d’adaptation collective en un à cinq ans.

Un cap pour l’industrie et les politiques RH

Dans la tech, le mouvement se traduira par une redéfinition des pipelines de formation et de mentoring. Moins de postes d’entrée mettra mécaniquement sous tension la montée en compétence, alors que la valeur se déplace vers la supervision d’agents, la garantie qualité, la sécurité et l’orchestration des modèles. À court terme, le principal indicateur à suivre reste le ratio productivité/embauches sur les tâches « boilerplate », notamment en développement, en data et en fonctions support.

L’enjeu pour les entreprises sera d’éviter un assèchement de la filière junior qui fragiliserait l’écosystème à moyen terme. Les politiques RH devront articuler gains d’efficacité et trajectoires de professionnalisation, quitte à réinventer les formats d’intégration et les contenus d’apprentissage, avec plus d’exigence sur la polyvalence et la vérification humaine du travail assisté par IA.

Source : ITHome

Seasonic PRIME TX-1600 décroche la première certification CQC niveau 5 retail

Par :Wael.K
21 janvier 2026 à 08:08

Seasonic annonce que son alimentation haut de gamme PRIME TX-1600 obtient la première certification d’efficacité énergétique « niveau 5 » délivrée par le China Quality Certification (CQC) à un bloc d’alimentation grand public. Ce palier, lié à une conversion culminant à plus de 95 %, s’accompagne d’exigences sur la constance de production et la fiabilité des composants clés.

Première « niveau 5 » CQC pour une alimentation retail

Le schéma du CQC segmente l’efficacité des alimentations intégrées en sept niveaux (1 à 7). Pour les produits retail, le niveau 5 constitue aujourd’hui l’échelon le plus élevé. Les tests portent sur l’efficacité de conversion, la cohérence entre lots et la robustesse des composants critiques, ce qui dépasse le simple rendement nominal et vise la tenue opérationnelle dans le temps.

Alimentation Seasonic PRIME TX-1600 avec boîte et certificat CQC visible

Positionnée au sommet du catalogue Seasonic, la PRIME TX-1600 affiche un rendement typique supérieur à 95 % et s’inscrit dans la catégorie des modèles « Titanium ». L’obtention du sésame CQC sur ce niveau donne une lecture supplémentaire de la qualité de fabrication et de la maîtrise des transitoires, critères que les intégrateurs surveillent au-delà des labels usuels.

Cap sur les stations de travail IA avec PRIME Enterprise

Seasonic prépare en parallèle la gamme PRIME Enterprise ciblant les stations de travail IA. Le constructeur annonce l’intégration d’un connecteur de protection intelligente OptiGuard, d’un système de double protection de puissance SDP et d’un dispositif de dissipation OptiSink pour optimiser le transfert thermique. Le discours insiste sur une meilleure gestion des variations de charge transitoires et sur l’EMC.

Dans un contexte où les cartes graphiques dédiées à l’IA et les configurations multi-GPU imposent des enveloppes et des crêtes de puissance difficiles, la recherche d’une meilleure immunité CEM et d’une réponse rapide aux surintensités transitoires devient un facteur différenciant. Si les promesses se confirment en test, Seasonic pourrait verrouiller le segment des alimentations haut de gamme pour postes IA, où la stabilité sous impulsions courtes et la tenue thermique priment sur le rendement seul.

Source : ITHome

Capgemini envisage jusqu’à 2 400 suppressions de postes en France sur fond de ralentissement du numérique

21 janvier 2026 à 09:45
Capgemini prépare une coupe de 2 400 postes en FranceLe secteur des services numériques traverse une phase de recomposition marquée par une conjoncture économique plus tendue et par l’accélération des mutations technologiques. Après plusieurs années de croissance soutenue, les grands acteurs du conseil et de l’informatique doivent ajuster leurs effectifs et leurs priorités stratégiques. En France, Capgemini, numéro un du conseil en informatique, se […]

Publicité : les Reels concentrent désormais la majorité des revenus d’Instagram

21 janvier 2026 à 09:44
Instagram mise tout sur Reels pour ses revenus publicitairesLongtemps centré sur le fil d’actualité et les formats photo, Instagram s’est progressivement aligné sur les nouveaux usages, dominés par la vidéo verticale et la consommation rapide de contenus, jusqu’à faciliter le montage vidéo. Une évolution dictée autant par les attentes des utilisateurs que par la pression concurrentielle exercée par TikTok et YouTube. Les derniers […]

WhatsApp Web évolue : les appels de groupe bientôt accessibles sans application

21 janvier 2026 à 09:40
WhatsApp Web comble enfin son retard sur les appels de groupeLongtemps cantonnée à un rôle secondaire, la version Web de WhatsApp a souvent été perçue comme un simple relais de l’application. Meta semble désormais décidé à rééquilibrer l’expérience entre ses différentes plateformes, avec une nouveauté très attendue qui pourrait modifier la manière dont WhatsApp est utilisé au quotidien… Les appels de groupe arrivent enfin sur […]

L’algorithme de X est désormais public : le code dévoile ce qui fait vraiment émerger un post

21 janvier 2026 à 09:37
X ouvre son algorithme : ce que la plateforme révèle vraimentAprès plusieurs mois de critiques sur son fonctionnement interne, X relance le débat sur la transparence algorithmique. Trois ans après une première tentative restée largement symbolique, la plateforme d’Elon Musk publie une nouvelle version open source de son algorithme de recommandation. Présentée comme une refonte complète, cette ouverture soulève autant de promesses que de limites, […]

Étude : la France figure parmi les cinq pays qui utilisent le plus l’IA au monde

21 janvier 2026 à 09:34
La France dans le top 5 mondial de l'adoption de l'IAUne récente étude publiée par Microsoft dresse un état des lieux précis de cette adoption mondiale, et réserve quelques surprises. Parmi elles, la place occupée par la France, qui s’impose désormais comme l’un des pays les plus utilisateurs d’IA à l’échelle internationale… La France, cinquième pays mondial en usage de l’IA D’après les données de […]

iPhone : près de 200 apps laissent fuiter des données personnelles

21 janvier 2026 à 09:31
iPhone : près de 200 apps laissent fuiter des données personnellesDepuis son lancement, l’App Store est souvent présenté comme un environnement contrôlé, où la sécurité et la transparence des applications sont un argument central. Et pourtant, une récente enquête vient rappeler que cette promesse repose aussi sur les pratiques des développeurs, et que des failles peuvent apparaître bien au delà de l’interface visible des applications… […]

Forum économique mondial 2026 : l’IA s’impose comme un levier de puissance globale

21 janvier 2026 à 09:30
Davos 2026 : l'IA, entre promesse économique et rapport de force mondialÀ Davos, l’intelligence artificielle n’est plus cantonnée aux démonstrations technologiques ou aux annonces de produits. Lors du Forum économique mondial 2026, elle s’est imposée comme un sujet transversal, mêlant économie, géopolitique, emploi et infrastructures. Des dirigeants de Microsoft, Google DeepMind ou Anthropic ont partagé leurs visions, révélant une IA désormais perçue comme un levier de […]

Spotify prépare une fonctionnalité qui pourrait changer notre façon de lire des livres

21 janvier 2026 à 09:16
Spotify veut synchroniser livres papier et livres audioAprès la musique, les podcasts et les livres audio, la plateforme suédoise s’intéresse désormais à la lecture papier. Une nouvelle fonctionnalité en cours de test pourrait permettre de synchroniser précisément un livre physique avec sa version audio, afin de passer d’un format à l’autre sans perdre le fil. Une évolution qui s’inscrit dans la stratégie […]

Cyberattaques : pourquoi l’Union européenne durcit enfin ses règles

21 janvier 2026 à 09:13
Cybersecurity Act : l'Europe muscle sa défense numériqueLes cyberattaques contre les hôpitaux, les réseaux énergétiques ou les institutions démocratiques ne relèvent plus de la fiction. Avec un contexte géopolitique plus tendu que jamais, l’Union européenne cherche à renforcer sa capacité de résistance face à des menaces numériques de plus en plus structurées, souvent portées par des groupes criminels organisés ou des États. […]

Snapdragon X2 Elite : Qualcomm tease des PC de bureau compacts et passifs

Par :Wael.K
20 janvier 2026 à 23:42

Snapdragon X2 s’invite sur vos bureaux ! Qualcomm laisse entrevoir des PC de bureau compacts, loin du simple format portable attendu jusqu’ici.

Snapdragon X2 Elite vise le desktop, d’après un teaser de Qualcomm

Qualcomm a publié le 13 janvier sur sa chaîne YouTube un teaser présentant des « desktops nouvelle génération ». Le message est explicite : « next‑gen desktops are here. Snapdragon X Series processors build on the breakthroughs that reshaped laptops… », promet la marque, avec un accent sur la vitesse, l’IA et l’efficacité énergétique.

À 18 secondes, une formule maladroite s’affiche, « these flexible PCs bring what legacy desktops don’t », pendant que des utilisateurs tapent sur des claviers sans fil reliés à des boîtiers compacts et des moniteurs incurvés. Selon VideoCardz, la vidéo pourrait brouiller les pistes, Qualcomm n’ayant montré jusqu’ici, en présentiel, que des prototypes de mini PC à refroidissement passif.

Texte promotionnel pour PC Snapdragon X2 Elite sur fond rouge.

Le constructeur s’appuie sur l’élan de ses laptops Arm pour porter Snapdragon X2 Elite vers des formats desktop. Les images évoquent des boîtiers noirs ou argent métal, minimalistes, raccordés à des écrans de bureau.

Femme utilisant un PC compact sur un bureau en bois.

D’après TechPowerUp, les démonstrateurs les plus marquants remontent au Snapdragon Summit 2025 à Hawaï, avec des échantillons rouges en forme de « sous-verre » et de « palet de hockey ». La notion de « petit PC de bureau Windows » reste ouverte à interprétation, et il semblerait que Qualcomm et ses partenaires devront clarifier la feuille de route à l’approche de la commercialisation.

Base rouge d'un support de PC avec ports visibles.

Des promesses axées IA et Copilot+, mais un hardware encore flou

Le trailer met en avant trois points : Copilot+ pour accélérer les tâches créatives et productives, des designs « versatiles » adaptés à tous les environnements, et des expériences d’IA locales pour la confidentialité, les performances et la réactivité.

En filigrane, Snapdragon X2 Elite cherche à transposer au bureau ses gains d’efficacité énergétique issus du monde des laptops, avec la perspective de machines silencieuses et compactes. Reste que, d’après les précédentes démonstrations publiques, on parle surtout de mini PC passifs, pas de tours extensibles. Prudence donc sur l’ampleur du segment visé.

Source : TechPowerUp

❌