↩ Accueil

Vue normale

Reçu aujourd’hui — 27 janvier 2026 1.2 🖥️ Tech. Autres sites

Nestlé mise sur Qualifio pour booster l’engagement des consommateurs à l’échelle mondiale

27 janvier 2026 à 11:04
Nestlé mise sur Qualifio pour booster l’engagement des consommateurs à l’échelle mondialeLe partenariat entre Nestlé et Qualifio vient de franchir un cap non négligeable. S’il s’agissait au départ d’un projet pilote en Belgique, ce n’est plus le cas. C’est désormais une véritable collaboration. Cette dernière est d’ailleurs déployée sur l’ensemble des marchés du groupe. En 2026, la plateforme belge de collecte de données a l’honneur d’être […]

VoxCSS – Pour faire du rendu 3D façon Minecraft avec du CSS

Par :Korben
27 janvier 2026 à 10:18

Y'a un truc qui me rend joyeux avec le web, c'est quand des devs décident de pousser les technos dans leurs retranchements juste pour prouver que c'est possible.

Et VoxCSS , c'est totalement ça : une bibliothèque JavaScript qui permet de faire du rendu voxel complet en utilisant uniquement le DOM et le CSS. Alors attention, quand je dis "uniquement", je veux dire sans WebGL et sans l'élément <canvas>. Juste des éléments HTML empilés intelligemment qui tirent parti de l'accélération matérielle du navigateur pour les transformations 3D.

Pour cela, VoxCSS utilise des grilles CSS superposées sur l'axe Z pour créer un espace volumétrique. Chaque niveau de profondeur est une grille CSS classique, décalée avec des translations 3D. Les voxels eux-mêmes sont des cuboïdes HTML composés de plusieurs faces positionnées avec des rotations CSS.

Par défaut, la scène utilise une perspective de 8000px et le fameux transform-style: preserve-3d pour que la magie opère... Un pur hack de génie qui transforme votre navigateur en moteur 3D sans passer par les API habituelles !

Et le rendu n'est pas dégueu du tout puisque le moteur gère les couleurs, les textures, et même différentes formes comme des rampes, des pointes ou des coins pour sortir du simple cube de base. Pour ceux qui se demandent comment ça se passe pour les ombres, VoxCSS simule également un éclairage en jouant sur l'opacité des faces, ce qui donne ce petit relief indispensable au style voxel. Vous pouvez même choisir entre différentes projections (cubique ou dimétrique) pour donner le look que vous voulez à votre scène.

Côté performances, même si on parle de manipuler potentiellement des milliers d'éléments DOM, l'équipe de Layoutit Studio a bien bossé. Y'a un système de "culling" pour ne pas calculer les faces cachées (on n'affiche que la surface extérieure, quoi) et une option de fusion (le mergeVoxels) qui permet de regrouper les cubes adjacents pour alléger la structure HTML. C'est pas activé par défaut, mais c'est indispensable dès que votre château Minecraft commence à prendre de l'embonpoint.

L'installation se fait via

npm install @layoutit/voxcss

La lib est hyper flexible puisqu'elle propose des wrappers pour React, Vue et Svelte, tout en restant utilisable en vanilla JS.

Vous posez votre caméra (<voxcamera>) pour gérer le zoom et la rotation, vous injectez votre scène (<voxscene>), et roule ma poule. Cerise sur le gâteau pour les artistes, VoxCSS inclut un parser pour charger directement vos fichiers .vox créés dans MagicaVoxel.

Si vous voulez tâter la bête sans coder, allez faire un tour sur Layoutit Voxels, l'éditeur qui sert de démo technique. Ils ont aussi sorti Layoutit Terra qui génère des terrains entiers avec la même techno.

Franchement, pour un gros jeu en prod, OK pour du WebGL, mais pour créer des éléments interactifs stylés, des petites scènes 3D ou juste pour la beauté du geste technique, c'est un sacré bel outil.

Et puis, faire de la 3D sans toucher à un seul shader, ça a un petit côté cool je trouve.

Alexandrie - L'app de notes qui garde vos données chez vous

Par :Korben
27 janvier 2026 à 08:43

Si vous en avez marre de confier vos notes perso à Notion ou Evernote et que vous voulez reprendre le contrôle de vos données, Alexandrie va vous plaire ! C'est une app open source française qui permet de prendre des notes en Markdown au travers d'une interface plutôt moderne, tout en gardant vos données là où vous voulez qu'elles soient : Chez vous.

Alexandrie, c'est avant tout un éditeur Markdown amélioré qui vous permet d'organiser vos notes par workspaces, catégories et tags. L'interface est clean, la recherche instantanée, et vous pouvez exporter vos notes en PDF ou Markdown !

Ce qui est cool, c'est que l'app fonctionne aussi hors ligne grâce à la technologie PWA. Vous pouvez donc bosser sur vos notes dans le train ou l'avion, et tout se synchronise dès que vous avez du réseau. Et si vous voulez partager des notes avec d'autres personnes, y'a un système de permissions pour gérer qui peut voir et modifier quoi.

Côté technique, Alexandrie tourne sur Vue/Nuxt pour le frontend et Go pour le backend, avec une base MySQL et un stockage compatible S3 et comme d'hab, tout ça se déploie avec un simple "docker compose up".

La grosse différence avec Notion ou Obsidian, c'est que vous contrôlez tout. Vos données restent sur votre serveur ou votre machine, rien ne transite par des serveurs américains. C'est donc de l'auto-hébergé, 100% hors ligne si vous voulez, et c'est compatible avec plein d'autres apps Markdown si vous souhaitez migrer plus tard.

C'est bien de voir une app française qui mise sur la souveraineté des données plutôt que sur le cloud américain ! C'est en train de devenir quelque chose de très recherché en ce moment. Bon après, faut être prêt à gérer soi-même l'hébergement, mais avec Docker c'est pas la mer à boire non plus.

Voilà, si vous cherchez une alternative open source à Notion qui respecte votre vie privée, c'est par ici .

LocalPass – Le gestionnaire de mots de passe 100% offline pour le terminal

Par :Korben
27 janvier 2026 à 08:35

Hier soir, je suis tombé sur ce gestionnaire de mot de passe clairement conçu pour les puristes et je me suis dit que ça pourrait vous intéresser. Parce que si ça vous casse la tête de devoir confier vos identifiants et autres mots de passes à des services dans le cloud qui ont connu quelques déboires de sécurité ces derniers temps (suivez mon regard... Oh Lastpass, comment ça va ?), j'ai exactement ce qu'il vous faut !

Ça s'appelle LocalPass , c'est open source et surtout c'est conçu pour fonctionner 100% en offline. J'ai testé ça ce matin sur mon laptop et c'est assez simple à utiliser.

Mais avant pour ceux qui se demandent quel est l'intérêt d'un gestionnaire de mots de passe local par rapport à un truc comme Bitwarden ou Dashlane , la réponse est simple : la souveraineté. Bah ouais, c'est logique. Avec LocalPass, vos données ne quittent jamais votre machine. Pas de cloud, pas de synchro mystérieuse, pas de télémétrie. C'est vous, votre fichier chiffré, et c'est tout.

Perso, j'ai longtemps utilisé des solutions cloud pour le confort, mais depuis quelques mois, je cherche à revenir sur des trucs plus locaux pour tout ce qui est critique, du coup LocalPass tombe à pic.

Côté technique, c'est du solide (sur le papier en tout cas) puisque l'outil est développé en Python et utilise Argon2id pour la dérivation de clé (ce qui rend les attaques par force brute bien pénibles pour les méchants) ainsi que AES-GCM pour le chiffrement.

L'utilisation ensuite c'est pas compliqué si vous avez déjà touché à une ligne de commande. D'ailleurs, pour l'installer, un petit coup de pip suffit (sauf si vous n'avez pas Python, là faut l'installer avant hein) :

pip install localpass

Ensuite, vous initialisez votre coffre-fort :

localpass init moncoffre.lp

Et hop, vous pouvez commencer à ajouter vos comptes (je vous laisse aller lire la doc sur le github). C'est un peu comme utiliser KeePass (que j'adore hein, pas de méprise), sauf que l'interface graphique de KeePass... comment dire... elle pique parfois un peu les yeux. Là, avec LocalPass, vous restez dans votre terminal chéri. Vous pouvez lister vos entrées, récupérer un mot de passe ou générer des identifiants sécurisés directement depuis votre shell.

Le truc cool, c'est que même si l'outil est "offline first", LocalPass intègre une fonction (totalement optionnelle et manuelle rassurez-vous) pour vérifier si vos mots de passe ont fuité via l'API de Have I Been Pwned. Mais rassurez-vous, ça utilise la méthode k-anonymity ce qui veut dire que votre mot de passe ne transite jamais en clair. Seul un bout de son hash est envoyé. C'est dnc le compromis idéal entre paranoïa et sécurité active.

Après moi le truc qui m'angoisse un peu avec ces gestionnaires de mots de passe locaux, ce sont les backups. Parce que si vous perdez votre fichier ".lp" ou votre mot de passe maître, c'est game over ca y'a pas de "Mot de passe oublié ?" ici. Donc comme toujours, FAITES DES SAUVEGARDES (sur différentes clé USB chiffrées par exemple que vous stockerez à différents endroits y compris hors de chez vous).

Si vous ne le faites pas, faudra pas venir pleurer après ^^.

Source

Ubisoft : plan de reset et RCC à Paris, jusqu’à 18 % de postes visés

Par :Wael.K
27 janvier 2026 à 10:11

Le reset interne s’accélère chez Ubisoft, et Paris est en première ligne. La maison-mère vise des économies d’au moins 200 M€ sur cinq ans, avec un dispositif social qui pourrait toucher jusqu’à 18 % du siège.

Ubisoft enclenche une RCC au siège parisien

Un email interne a dévoilé l’ouverture d’une Rupture Conventionnelle Collective chez Ubisoft International, entité basée à Paris. Le périmètre annoncé évoque jusqu’à 200 postes, soit près de 18 % des effectifs du siège.

La direction confirme avoir entamé des discussions autour d’un accord de départs volontaires avec l’organisation syndicale. Ubisoft précise que cette RCC ne concerne que les équipes d’Ubisoft International en France, sans impact sur les autres entités françaises ni sur les studios à l’international.

Ce mouvement s’inscrit dans un remaniement organisationnel plus large, déjà marqué par l’annulation de plusieurs projets. L’éditeur maintient toutefois certains chantiers stratégiques, dont Beyond Good and Evil 2.

Conséquences et périmètre

Ubisoft vise une réduction des coûts fixes d’au moins 200 M€ sur cinq ans. À ce stade, la RCC parisienne n’affecte pas les autres sites français ni les équipes mondiales, selon le porte-parole.

Le calendrier exact et la ventilation par métiers ne sont pas détaillés. Le dispositif, fondé sur le volontariat, encadre juridiquement les départs et pourrait être étalé en phases.

Projets annulés, priorités maintenues

Après une vague d’annulations touchant plusieurs licences, le groupe réalloue ses ressources à des titres jugés clés. Beyond Good and Evil 2 reste en production, quand d’autres projets ont été mis en pause ou décalés.

Pour le marché, la RCC acte un recentrage classique en fin de cycle d’investissements lourds. La question sera la capacité à livrer les piliers du pipeline tout en conservant les expertises critiques à Paris, siège stratégique des fonctions internationales.

Source : TechPowerUp

XeSS 3 avec Multi-Frame Generation arrive sur Arc, jusqu’à trois images insérées

Par :Wael.K
27 janvier 2026 à 10:01

Intel pousse l’accélérateur côté fluidité: XeSS 3 s’enrichit d’une Multi-Frame Generation capable d’insérer jusqu’à trois images entre deux frames rendues. Objectif affiché: gonfler le frame rate perçu sans toucher à la charge de rendu native du jeu.

XeSS 3 et Multi-Frame Generation

Il s’agit du premier déploiement public de l’item « Intel XeSS 3 Support: Introducing Multi-Frame Generation » souvent aperçu autour de Panther Lake. La fonctionnalité intègre le stack de lancement des Core Ultra Series 3 équipés des iGPU Arc B390 et B370.

Schéma technique Multi Frame Generation XeSS 3 avec cadres générés

La Multi-Frame Generation étend la Frame Generation de XeSS en insérant jusqu’à trois frames générées entre deux frames rendues. Le rendu natif du jeu ne change pas, mais le taux d’images affichées grimpe, avec les limites habituelles dépendant de l’implémentation in‑game.

Compatibilité, pilotes et jeux

Le même package cible un large éventail de plateformes Arc et Core Ultra: GPU Arc A‑series et B‑series en discret, ainsi que plusieurs générations de Core Ultra avec iGPU Arc. Le pilote Arc Graphics listé est la version 32.0.101.8425 / 32.0.101.8362 (WHQL), datée du 26/01/2026 sur la page driver d’Intel.

Capture d'écran logiciel Intel paramètres graphiques en mode sombre La première image a des contrastes plus forts et est plus

Côté software, Intel indique que XeSS 3 conserve un chemin compatible avec les titres XeSS 2. Des contrôles peuvent apparaître via les options d’override d’Intel Graphics Software selon le jeu, mais la disponibilité réelle reste conditionnée par ce que chaque titre expose et par les fonctionnalités XeSS intégrées.

Disponibilité pratique

Le déploiement passe par la mise à jour Windows du pilote Arc Graphics mentionné ci‑dessus. Les utilisateurs d’Arc A‑series/B‑series et des plateformes Core Ultra récentes devraient voir l’option apparaître selon les jeux pris en charge et les menus d’override.

Si la promesse se confirme en jeu, la Multi‑Frame Generation d’Intel vient combler un angle concurrentiel face aux approches rivales, en misant sur une montée du frame rate perçu à coût de rendu constant. L’arbitrage se jouera sur la latence introduite, la stabilité des insertions multi‑frames et l’ampleur du support titres au fil des mises à jour.

Source : VideoCardz

OpenAI teste des annonces dans ChatGPT : inventaire premium, mesure limitée

Par :Wael.K
27 janvier 2026 à 09:22

Selon The Information, OpenAI prépare l’introduction d’annonces au sein de ChatGPT dans les prochaines semaines, avec un CPM d’environ 60 dollars, soit près de trois fois le niveau observé chez Meta pour des formats comparables. Le tarif, particulièrement agressif pour un premier déploiement, cible un inventaire premium centré sur l’assistant conversationnel le plus utilisé du marché.

La diffusion sera limitée aux utilisateurs gratuits et au palier d’abonnement « Go », avec un blocage total pour les moins de 18 ans. Le contexte des échanges fera office de garde-fou : aucun affichage sur des sujets sensibles, notamment santé mentale et politique, afin de réduire les risques d’association de marque et les dérives perçues.

Côté mesure, la granularité restera sobre. Les annonceurs n’accéderont qu’à des indicateurs macro comme les impressions et les clics. Pas de suivi de conversion ni d’attribution fine, OpenAI maintenant sa ligne : pas de vente de données, pas d’exploitation du contenu des conversations à des fins publicitaires. Le positionnement tranche avec Google et Meta, qui capitalisent sur des signaux de performance plus profonds.

Un inventaire premium, une mesure volontairement bridée

Le choix d’un CPM élevé s’explique par la rareté et la qualité perçue du contexte conversationnel, où l’attention est focalisée et la sémantique exploitable en temps réel. Mais l’absence d’attribution robuste limite d’emblée l’appétence des acteurs orientés ROI direct. À ce stade, le format vise d’abord les grandes marques en quête de visibilité et d’innovation de message, plus que les PME à la recherche de CPA bas.

Sur le plan opérationnel, la contrainte de confidentialité bride l’optimisation et les boucles d’apprentissage des campagnes. Sans signaux post-clic détaillés, l’algorithme publicitaire ne peut s’aligner sur les logiques éprouvées du retail media ou du social ads. Ce compromis protège l’expérience utilisateur, mais retarde l’émergence d’un écosystème de performance comparable aux géants établis.

Si la mécanique trouve son public, OpenAI imposera un nouveau standard : celui d’un inventaire IA « brand-safe » à forte valeur perçue, mais mesuré en light. À l’inverse, si la demande fléchit, le CPM devra se réajuster, ou le modèle évoluera vers davantage de signaux d’efficacité. Dans les deux cas, la monétisation de l’IA générative entre dans une phase où l’arbitrage entre confidentialité et performance devient le point de bascule pour le marché publicitaire.

Source : ITHome

DeepSeek-OCR 2 réordonne la mise en page: +3,7 pts et MoE sous plafond de tokens

Par :Wael.K
27 janvier 2026 à 09:22

DeepSeek a dévoilé aujourd’hui DeepSeek-OCR 2, une itération qui revoit en profondeur l’encodage visuel pour la lecture de documents complexes. Le cœur de l’évolution tient à « DeepEncoder V2 », un nouveau bloc qui réordonne dynamiquement les informations visuelles selon la sémantique avant la reconnaissance, en s’éloignant du simple parcours en grille de gauche à droite et de haut en bas.

Tableau des performances des modèles sur OmniDocBench v1.5, incluant DeepSeek-OCR 2.

Nouvelle chaîne de traitement : encodage sémantique, réordonnancement, décodage MoE

Le modèle introduit un « flux causal visuel » avec des tokens de requête apprenants au sein de DeepEncoder V2. Concrètement, l’encodeur combine attention bidirectionnelle pour la perception globale et attention causale pour établir une séquence sémantique, puis ne transmet au décodeur que les tokens réordonnés. Le module remplace la brique CLIP d’origine par une structure de type langage, tout en conservant l’architecture encodeur–décodeur de la génération précédente.

Distances d'édition pour les catégories d'éléments dans OmniDocBench v1.5, incluant DeepSeek-OCR 2.

DeepSeek maintient la contrainte de ressources en limitant les tokens visuels par page entre 256 et 1120, comparable aux systèmes antérieurs. Le décodage s’appuie sur un modèle de langage à architecture Mixture of Experts, qui reçoit uniquement les représentations compactées et déjà ordonnées.

Benchmarks et stabilité en production

Sur OmniDocBench v1.5, qui couvre des documents en chinois et en anglais (articles académiques, magazines, rapports), DeepSeek-OCR 2 atteint 91,09 %, soit +3,73 % par rapport à DeepSeek-OCR, avec un plafond de tokens plus bas. La précision du « reading order » progresse sensiblement : l’édition distance moyenne passe de 0,085 à 0,057, signe d’une meilleure compréhension de la structure logique.

En production, les journaux d’utilisation indiquent une réduction de la répétition d’images en ligne de 6,25 % à 4,17 %. Sur des lots PDF, la répétition baisse de 3,69 % à 2,88 %. Ces gains de stabilité accompagnent le maintien d’un taux de compression élevé, un point crucial pour le coût d’inférence.

Comparaison détaillée entre DeepSeek-OCR et DeepSeek-OCR 2 sur différents types de documents.

En s’alignant davantage sur les heuristiques humaines de lecture et en déplaçant l’effort vers un encodage sémantique ordonné, DeepSeek fixe un jalon pertinent pour l’OCR des documents à mise en page dense. Le choix d’un MoE côté langage et d’un plafond strict de tokens suggère une optimisation assumée du débit et du TCO, avec un potentiel direct pour les pipelines d’extraction en entreprise et l’archivage massif où la stabilité et le respect de l’ordre de lecture priment autant que le score brut.

Source : ITHome

Snap visé pour l’entraînement IA sur HD-VILA-100M : risque d’injonction lourde

Par :Wael.K
27 janvier 2026 à 09:22

Plusieurs créateurs YouTube, dont h3h3, MrShortGame Golf et Golfholics, ont déposé une plainte contre Snap. Ils accusent l’entreprise d’avoir utilisé leurs vidéos pour entraîner un modèle d’IA intégré à Imagine Lens, en s’appuyant sur le jeu de données HD-VILA-100M, réservé à un usage académique et explicitement non commercial.

Les plaignants soutiennent que Snap a outrepassé la licence du dataset, puis déployé le modèle dérivé dans un produit grand public. La procédure vise des dommages légaux et une injonction permanente interdisant tout usage ultérieur litigieux. Snap n’a pas détaillé publiquement son pipeline d’entraînement ni l’étendue de l’exploitation des contenus concernés.

Un contentieux qui s’ajoute à un front judiciaire déjà encombré

Selon la Copyright Alliance, plus de 70 actions similaires visant des sociétés d’IA sont en cours aux États-Unis. La plupart s’enlisent dans des débats sur les licences de datasets, l’exception de fair use et la qualification d’usages commerciaux, sans décision de fond à ce stade.

Le cœur du dossier HD-VILA-100M est classique: un corpus proposé pour la recherche publique, assorti d’une clause interdisant la commercialisation. Si la preuve du chaînage entre ce corpus et un modèle en production est apportée, le risque pour Snap dépasse l’amende: l’injonction pourrait forcer des retrainings, une purge de données et un gel fonctionnel d’Imagine Lens.

Enjeu technique et industriel

Pour les plateformes, la documentation du sourcing de données d’entraînement devient une question de résilience produit. Un modèle lié à un dataset non commercialisable peut contaminer une chaîne complète: checkpoints, pondérations dérivées, voire les fine-tunes. À l’échelle, chaque retrait implique réentraînement, recalibrage qualité et coûts de calcul, avec un impact direct sur le time-to-market des fonctionnalités génératives.

Source : ITHome

Edenlux Eyeary : des lunettes d’entraînement visuel avec 144 points de focus

Par :Wael.K
27 janvier 2026 à 06:22

La jeune pousse coréenne Edenlux prépare le lancement d’Eyeary, une seconde génération d’appareil de « rééducation visuelle » pensée pour les gros utilisateurs de smartphones. L’entreprise annonce une campagne Indiegogo fin mars aux États‑Unis. Eyeary adopte un format de lunettes, à mi‑chemin entre l’accessoire du quotidien et l’outil de training, avec pour promesse d’atténuer la fatigue oculaire et les troubles de l’accommodation liés aux écrans.

Homme stressé regardant un smartphone sur une table.

Un design de lunettes, 144 points de focalisation, app compagnon

Contrairement au premier modèle Otus, plus proche d’un petit casque, Eyeary allège l’ergonomie et travaille la discrétion. Le système optique passe de 5 à 144 foyers de mise au point, permettant des paliers plus fins pour solliciter les muscles ciliaires et affiner les exercices d’accommodation. Le suivi se fait via Bluetooth et une application mobile, qui remonte les sessions vers les serveurs d’Edenlux.

Graphique démontrant les améliorations visuelles avec l'utilisation continue d'OTUS.

La société revendique un cadrage « santé du quotidien » plutôt que médical pur et dur, avec une certification FDA au registre des dispositifs destinés à l’entraînement visuel. Les données utilisateur (âge, sexe, profil visuel) alimentent des modèles d’analyse pour prédire les temps d’amélioration et proposer des plans personnalisés. D’après Edenlux, des utilisateurs d’Otus voient leur dépendance aux lunettes de presbytie diminuer après environ 12 mois, et Eyeary viserait un cycle ramené à 6 mois.

Positionnement: abonnement, portefeuille produits et ancrage industriel

Edenlux étend sa gamme avec Tearmore (sécheresse oculaire), Lux‑S (strabisme), Lumia (prévention de la myopie) et Heary (réhabilitation auditive), d’abord pour l’Asie. Le modèle économique assume l’abonnement: le matériel capte les métriques, le logiciel livre les insights, dans une logique proche d’Oura Ring mais focalisée vision et audition. La R&D et la production sont basées en Corée, avec une filiale à Dallas pour l’assemblage final.

La société a levé 39 millions de dollars en série A en 2020, puis 60 millions en série B en 2022. Le PDG Park Sungyong, ancien médecin militaire, revendique une approche née d’une expérience personnelle de paralysie transitoire des muscles d’accommodation, corrigée via des exercices avec équipements spécialisés. Edenlux cible les utilisateurs intensifs de smartphones et de casques audio, et dit discuter à terme d’intégrations logicielles avec des acteurs comme Apple et Samsung.

Si Eyeary confirme ses gains par rapport à Otus, Edenlux pourrait s’installer sur un créneau encore peu occupé: des lunettes actives pour l’accommodation, calibrées par data et livrées en abonnement. Le défi sera double: prouver l’efficacité à échelle populationnelle et convaincre des partenaires mobiles d’ouvrir l’accès capteur‑logiciel, condition pour un suivi granulaire vraiment utile hors laboratoire.

Source : ITHome

GTA 6 digital-only au lancement: sortie dématérialisée sur consoles et PC dès 2026

Par :Wael.K
27 janvier 2026 à 05:47

Rockstar serre la vis pour GTA VI, et la boutique passe après. Conséquence directe: le lancement serait 100% dématérialisé sur consoles et PC.

GTA 6 digital-only au lancement

D’après des revendeurs cités par le média polonais PPE, Grand Theft Auto VI démarrerait en digital-only, y compris sur consoles, avant une édition physique retardée de quelques semaines. Objectif affiché: réduire les risques de fuites en amont, en privant la distribution d’un stock anticipé.

Rockstar et Take-Two multiplient déjà les mesures anti-fuite, avec des licenciements visant des employés supposément liés à la divulgation d’infos confidentielles. Ce calibrage du calendrier d’expédition évite que des images de packaging ou des extraits de gameplay circulent via des employés ou gérants avant l’heure.

La date visée reste le 19 novembre 2026, après plusieurs reports. Les revendeurs n’avancent pas de fenêtre précise pour l’arrivée en boîte, mais un lancement physique avant Noël paraît plausible si le décalage se limite à quelques semaines.

Un calendrier pensé contre les leaks

Le différé du physique coupe l’accès anticipé des magasins, premier maillon des fuites logistiques. Sur PC, le dématérialisé est devenu la norme; l’extension de cette logique aux consoles marque une inflexion notable, dictée par le contrôle de l’information plutôt que par la demande.

Le compromis paraît mesuré: lancement numérique partout, puis édition physique à court terme. Les joueurs attachés à la boîte devraient patienter, mais sans horizon déraisonnable au vu de la fenêtre des fêtes 2026.

Source : TechPowerUp

TongGeometry : l’IA qui génère et résout des problèmes de géométrie olympique

Par :Wael.K
27 janvier 2026 à 03:22

Un groupe de chercheurs chinois dévoile « TongGeometry », un système d’IA présenté comme le premier à combiner génération autonome d’énoncés de géométrie et résolution automatique. Publié le 26 janvier dans Nature Machine Intelligence, le modèle passe d’une logique d’imitation à une capacité de création, avec des problèmes jugés conformes aux critères esthétiques des mathématiciens selon l’équipe menée par Zhang Chi (Beijing Institute for General Artificial Intelligence).

Fait marquant, trois problèmes générés par l’IA ont été retenus pour des compétitions humaines de haut niveau : la ligue nationale chinoise des lycéens (région de Pékin) et l’Ersatz Math Olympiad aux États‑Unis. C’est la première fois que des énoncés originaux issus d’un système d’IA intègrent de tels concours.

Création d’énoncés et résolution sur une seule carte graphique

Par rapport à AlphaGeometry, qui s’appuyait sur un cluster de calcul conséquent, TongGeometry revendique des performances de pointe sur une simple carte graphique grand public. L’équipe indique qu’une RTX 4090 suffit pour résoudre, en 38 minutes au maximum, l’ensemble des problèmes de géométrie olympique de ces 25 dernières années, avec une efficacité de raisonnement et une précision au niveau des meilleurs systèmes.

Le cœur technique repose sur une « représentation normalisée » qui compresse drastiquement l’espace de recherche et limite les explosions combinatoires. Cette réduction de complexité semble être le levier principal qui permet de passer d’une approche coûteuse en calcul à un pipeline exploitable sur une machine de travail équipée d’une seule carte graphique.

Validation par la communauté compétitive

Au‑delà des benchmarks rétrospectifs, la sélection d’énoncés pour des concours réels donne un signal de robustesse plus crédible que les démonstrations en vase clos. La conformité aux standards esthétiques et pédagogiques des jurys, distincte du simple taux de résolution, était l’un des verrous pour faire admettre des problèmes « nés de l’IA » dans des circuits reconnus.

Si l’on ajoute le coût matériel désormais modeste côté inférence, l’intérêt pratique grimpe pour les laboratoires, les organisateurs de compétitions et, potentiellement, les éditeurs d’outils de préparation aux olympiades. La prochaine étape consistera à observer la reproductibilité des résultats et l’ouverture du code ou des datasets, points souvent déterminants pour une adoption durable.

Source : ITHome

Font Generator - 170 polices stylées pour votre bio Instagram

Par :Korben
27 janvier 2026 à 00:13

Si vous avez envie de pimper votre bio Instagram, votre pseudo Discord ou vos posts TikTok avec des caractères stylisés qui sortent de l'ordinaire, Font Generator va vous plaire ! C'est un outil gratuit en ligne qui convertit votre texte en 170+ styles différents basés sur Unicode, histoire de vous démarquer un peu dans la jungle des réseaux sociaux.

Vous tapez votre texte dans la case, et hop, l'outil vous génère instantanément des dizaines de variantes : polices Script Bold Italic, Fraktur (style Old English), texte dans des bulles, lettres barrées, superscript, et j'en passe. Du coup, vous scrollez les styles disponibles, vous trouvez celui qui vous plaît, et vous le copiez-collez directement où vous voulez. Ça marche sur Instagram, Discord, Twitter/X, et même dans les jeux comme Roblox ou Fortnite.

Ce qui est cool, c'est que tout ça repose sur des caractères Unicode. Concrètement, ça veut dire que ce ne sont pas de vraies polices au sens technique, mais des caractères spéciaux qui existent déjà dans la norme Unicode. Résultat, pas besoin d'installer quoi que ce soit, ça fonctionne partout où l'Unicode est supporté (spoiler : QUASIMENT PARTOUT). Vous copiez, vous collez, et ça s'affiche correctement.

Ayez quand même conscience que pour les personnes malvoyantes, avec les lecteurs d'écran, c'est pas top. Ils ne pourront pas lire ce que vous écrivez comme ça. Donc si vous voulez rester accessibles à tous, ce genre de style d'écriture est à proscrire.

Ah et faut quand même que je précise un truc important : tous les styles ne proposent pas l'intégralité de l'alphabet. Certains ne fonctionnent qu'avec des lettres spécifiques ou ne supportent pas les chiffres. C'est une limite de l'Unicode lui-même, pas de l'outil. Du coup, si votre texte contient des caractères non supportés par un style, ils s'afficheront normalement. Rien de dramatique, mais c'est bon à savoir avant de s'énerver. Et attention, certaines applis mobiles plus anciennes peuvent afficher des carrés vides à la place des caractères exotiques.

L'outil propose aussi des collections spécialisées par plateforme : polices Instagram, polices Discord, polices Twitter, et même des trucs plus niche comme Adopt Me ou Fortnite. Y'a de quoi faire ! Et tout est gratuit, sans inscription, sans pub envahissante.

Perso, je trouve ça pratique pour se démarquer un peu, surtout que tout le monde utilise les mêmes typographies chiantes sur les réseaux. Essayez dans vos bio, ça attire plus l'œil que du texte standard. Après, faut pas en abuser non plus, sinon ça devient illisible. Mais pour une bio qui claque ou un pseudo qui attire l'œil, c'est nickel.

Bref, si ça vous tente de tester, c'est par ici .

Highguard en difficulté : pic à 95 000 joueurs mais évaluations « Mostly Negative » sur Steam

Par :Wael.K
27 janvier 2026 à 01:16

Départ canon, réception glaciale. La joie a été de courte durée : le premier raid shooter PvP de Wildlight Entertainment a culminé à plus de 95 000 joueurs, avant de se heurter presque aussitôt à une note « Mostly Negative » sur Steam.

Highguard, entre afflux massif et rejet express

Lancé par surprise sur Steam, Xbox et PlayStation, Highguard capitalisait sur le pedigree de ses vétérans. Moins de deux heures après la mise en ligne, SteamDB recensait déjà plus de 95 000 joueurs simultanés.

Scène de tir à la première personne dans un jeu vidéo futuriste

La dynamique s’est toutefois brisée côté avis: sur 10 716 évaluations, 78,2 % sont négatives, soit 8 383 critiques défavorables pour seulement 2 333 positives. La page Steam affiche « Mostly Negative » et le studio n’a, à ce stade, fait aucun commentaire sur les performances ou le ressenti des joueurs.

Le contraste rappelle le cas Splitgate: Arena Reloaded, désormais au ralenti malgré un lancement récent et un héritage apprécié. Le parallèle nourrit l’inquiétude autour de la rétention et du positionnement de Highguard.

Critiques récurrentes et dissonance de design

Les retours pointent un manque de cap clair, un design de cartes et d’interactions jugé faible, une boucle de gameplay discordante et des performances en deçà. Plusieurs joueurs décrivent un 3v3 sur une grande carte, alourdi par du minage et du loot jugés laborieux, loin de la promesse d’un gunplay nerveux.

Graphique des avis utilisateurs Highguard sur Steam, majorité négative

Sur r/PS5, des témoignages évoquent une image « floue » et la lassitude face à l’avalanche de MOBAs et de shooters. La critique principale reste la tentation du grand écart: vouloir plaire à tous au détriment d’une expérience focalisée.

Wildlight face au dilemme de l’itération rapide

Si le free-to-play favorise l’ajustement post-lancement, l’écart entre promesse et exécution complique la rétention. Sans feuille de route visible ni message fort à court terme, le pic initial risque de ne pas se transformer en base active durable.

Source : TechPowerUp

RDNA 3.5 iGPU chez AMD jusqu’en 2029, RDNA 5 réservé aux modèles premium

Par :Wael.K
27 janvier 2026 à 00:31

Un iGPU qui refuse de vieillir, et une montée en gamme réservée aux élites. La feuille de route officieuse d’AMD dessine un paysage où la majorité des laptops resterait figée sur la même génération graphique.

RDNA 3.5 maintenu jusqu’en 2029

Une diapositive partagée sur Weibo par Golden Pig Upgrade, réputé pour ses fuites fiables, indique qu’AMD conserverait l’iGPU RDNA 3.5 jusqu’en 2029. Ce n’est pas une roadmap officielle, mais le signal est fort: l’iGPU des Ryzen AI 300 et 400 resterait la norme pour des années.

amd rdna 3 5 processeur graphique

Concrètement, la grande majorité des portables bureautiques et machines milieu de gamme verrait peu ou pas d’évolution graphique, malgré le rythme annuel des raffinements chez la concurrence. Le progrès se déplacerait côté CPU, avec Zen 6 présenté comme l’attraction majeure des laptops mainstream.

RDNA 5 pour le haut de gamme « Halo »

Les véritables nouveautés architecturales basculeraient sur des SKU premium. Les variantes « Medusa Halo » dotées de tuiles GPU séparées adopteraient RDNA 5, tandis que les puces « Medusa Point » standard resteraient en RDNA 3.5. L’unique levier possible pour doper l’iGPU courant serait d’augmenter le nombre de CU via un die plus grand ou un process plus dense, hypothèse jugée peu probable si RDNA 5 est gardé pour le segment Halo.

Un cap déjà perceptible avec RDNA 4

Le lancement des dGPU RDNA 4 a donné le ton : présence limitée au desktop, pas de variantes mobiles ni d’intégration APU, et une stratégie cantonnée au milieu de gamme sans concurrent haut de gamme. Prolonger RDNA 3.5 sur près d’un demi‑décennie accroîtrait l’écart technologique si les rivaux itèrent plus vite.

Si ce scénario se confirme, AMD prendrait un pari industriel clair : réserver l’innovation graphique aux produits phares à forte marge, tout en capitalisant sur l’endurance de RDNA 3.5 pour le volume. À court terme, les utilisateurs de laptops mainstream devraient attendre Zen 6 pour un saut notable, tandis que le jeu en iGPU restera stable, sauf rare hausse de CU.

Source : TechPowerUp

ChatGPT Health et Claude face aux données Apple Watch : l’IA confond VO2 max et biomarqueur

Par :Wael.K
27 janvier 2026 à 00:23

Le chroniqueur tech du Washington Post, Geoffrey A. Fowler, a mis à l’épreuve ChatGPT Health avec dix ans de données issues de son Apple Watch, soit 29 millions de pas et 6 millions de mesures de fréquence cardiaque. Le système l’a catégorisé « F » en santé cardiaque, déclenchant une alerte qui s’est révélée infondée après avis médical.

Un modèle qui confond estimation et biomarqueur

Le cœur du faux diagnostic tient à l’interprétation de la VO2 max. ChatGPT Health l’a traitée comme une valeur clinique absolue alors qu’Apple la présente explicitement comme une estimation utile au suivi de tendance, pas au triage médical. Sur cette base bancale, l’outil a émis un jugement négatif qui ne résiste pas à un examen clinique standard.

ChatGPT Health face aux données Apple Watch : l’IA confond VO2 max et biomarqueur

L’IA a aussi pris pour un signal physiologique une rupture de série provoquée par un changement de génération d’Apple Watch. Le passage à un nouveau capteur a modifié la ligne de base de la fréquence cardiaque au repos, mais l’algorithme l’a assimilé à une dégradation de l’état de santé, ignorant l’effet matériel d’un hardware révisé.

ChatGPT Health face aux données Apple Watch : l’IA confond VO2 max et biomarqueur

Variabilité des réponses et trous de contexte

Au-delà de la lecture erronée des données, la sortie de ChatGPT Health s’est montrée instable. À question identique, Fowler a reçu des évaluations oscillant de « F » à « B ». Le système a en outre « oublié » à plusieurs reprises des informations de base comme l’âge ou le sexe, et a ignoré des résultats sanguins récents pourtant fournis dans le fil de discussion.

ChatGPT Health face aux données Apple Watch : l’IA confond VO2 max et biomarqueur

Pris ensemble, ces comportements traduisent un modèle qui ne gère ni la qualité hétérogène des capteurs grand public ni la persistance contextuelle indispensable à l’analyse santé. Ils posent la question de l’aptitude d’un assistant généraliste à exploiter des métriques portées par des montres connectées, où chaque révision de capteur et chaque changement de portabilité peut altérer la série.

ChatGPT Health face aux données Apple Watch : l’IA confond VO2 max et biomarqueur

Au-delà du cas individuel, l’épisode illustre un écueil structurel: sans calibrage par appareil, sans gestion des ruptures liées au passage à un nouveau capteur et sans hiérarchie explicite entre estimation grand public et biomarqueur clinique, un moteur conversationnel générera des alertes contradictoires et anxiogènes. Tant que ces briques ne sont pas standardisées — détection de drift matériel, métadonnées de capteur, protocole d’incertitude — la valeur ajoutée restera limitée au conseil hygiène plutôt qu’au triage.

Source : ITHome

Mixtral vs DeepSeek-V3 : même architecture MoE ou rupture réelle ?

Par :Wael.K
27 janvier 2026 à 00:23

« DeepSeek-V3 est construit sur notre architecture. » La phrase d’Arthur Mensch, CEO et cofondateur de Mistral, a déclenché un tir de barrage. Dans un entretien récent sur la dynamique de l’open source en Chine, le dirigeant a décrit Mixtral comme le premier « sparse Mixture-of-Experts » maison publié début 2024 et affirmé que DeepSeek-V3 et ses itérations s’appuyaient sur la même architecture, rendue reproductible par Mistral.

La chronologie et la technique compliquent toutefois ce récit. Les deux papiers fondateurs sont apparus à trois jours d’intervalle sur arXiv (Mixtral: 2401.04088 ; DeepSeek: 2401.06066), tous deux axés sur les SMoE avec activation clairsemée pour réduire le coût de calcul et améliorer les performances.

Mixtral vs DeepSeek-V3 : même architecture MoE ou rupture réelle ?

Mais les objectifs divergent : Mixtral procède d’une approche d’ingénierie visant à montrer qu’un socle solide + un MoE éprouvé peut dépasser des denses plus grands, quand DeepSeek revendique une refonte de l’architecture pour traiter deux angles morts du MoE classique, la surcharge de compétence des experts et les redondances d’apprentissage.

Deux voies pour le SMoE

Les deux utilisent un routage Top-K façon GShard. Mixtral conserve une granularité standard : chaque expert est un bloc FFN complet, tous considérés à parité, sélectionnés dynamiquement par le routeur. La distribution des connaissances y reste relativement plate, mêlant généraliste et spécifique au sein des mêmes experts.

Mixtral vs DeepSeek-V3 : même architecture MoE ou rupture réelle ?

DeepSeek introduit une segmentation fine des experts, découpant de « gros » experts en unités plus petites à paramètres constants, pour des combinaisons plus flexibles et un apprentissage plus ciblé. S’y ajoutent des « experts partagés », toujours activés et exclus du routage, qui encapsulent les compétences générales, pendant que les experts soumis au Top-K se spécialisent. Résultat : un découplage explicite des connaissances générales et spécifiques, absent du design Mixtral.

Autre point qui alimente la controverse : la publication « Mixtral of Experts » ne détaille ni données, ni hyperparamètres, ni tokens d’entraînement, ni ablations. À l’inverse, la communauté a relevé fin 2025 que Mistral 3 Large reprenait le schéma architectural popularisé par DeepSeek-V3, renversant de fait l’argument d’antériorité suggéré par Arthur Mensch.

Open source, influence et récit d’antériorité

Sur le fond, l’affirmation d’un « même type d’architecture » tient pour le cadre SMoE/Top-K. Sur les choix structurants, elle s’effrite. L’impact industriel penche aujourd’hui du côté de DeepSeek, dont les contributions sur le MoE clairsemé et la MLA ont marqué l’écosystème, quand Mistral a surtout installé Mixtral comme référence opérationnelle et catalyseur de l’adoption. Au-delà du bruit, le différentiel d’influence technique s’est déplacé, et la bataille d’image autour de l’antériorité reflète la tension entre itération d’ingénierie et réagencement algorithmique.

Mixtral vs DeepSeek-V3 : même architecture MoE ou rupture réelle ?

Dans un marché où la performance/coût sur GPU devient l’axe cardinal, la granularité des experts, le rôle d’experts partagés et la discipline de routage ne sont pas des détails : ils conditionnent l’efficacité d’entraînement, la stabilité et l’utilisation mémoire. La prochaine salve se jouera moins dans les déclarations que dans les courbes de perplexité, la qualité des ablations et les gains visibles en production, alors que DeepSeek prépare déjà une nouvelle fenêtre de tir.

Source : ITHome

❌