↩ Accueil

Vue lecture

GitHub intègre Claude et Codex à Copilot : agents multiples et évaluation native

GitHub intègre directement Claude (Anthropic) et Codex (OpenAI) à sa plateforme dans une préversion publique destinée aux abonnés Copilot Pro Plus et Copilot Enterprise. Les deux agents rejoignent Copilot sur le web, sur l’app mobile et dans Visual Studio Code, avec une logique de sélection au cas par cas selon la tâche à accomplir.

Agents multiples, évaluation intégrée

Cette intégration s’inscrit dans la stratégie « Agent HQ » de GitHub : des agents spécialisés, invocables dans le flux de travail habituel, sans changement d’outil ni perte de contexte. À la création d’une tâche, l’utilisateur choisit Copilot, Claude, Codex ou un agent personnalisé. Chaque appel consomme un crédit de requête avancée, et les agents peuvent être affectés au tri des issues et au traitement des pull requests.

Interface GitHub Copilot avec options d'agents Claude et Codex.

GitHub ajoute un mécanisme d’évaluation comparative des réponses entre Copilot, Claude et Codex pour mesurer la qualité des solutions générées. « Le changement de contexte freine le développement logiciel. En réunissant Codex, Claude et Copilot dans Agent HQ, on conserve le contexte de bout en bout, de l’idéation à l’implémentation », explique Mario Rodriguez, CPO de GitHub.

Ouverture accrue aux modèles tiers

GitHub poursuit son ouverture aux modèles concurrents afin d’optimiser Copilot : les développeurs pouvaient déjà mobiliser des modèles d’Anthropic, Google, xAI et OpenAI dans Copilot. L’accès à Claude et Codex sera élargi à d’autres formules d’abonnement. En parallèle, des intégrations avec Google, Cognition et xAI sont en préparation pour GitHub, VS Code et l’outil en ligne de commande de Copilot.

Contexte notable côté Microsoft : l’éditeur étend l’accès à Claude Code en interne et demande aux équipes de le comparer systématiquement à GitHub Copilot, avec l’objectif affiché d’accélérer l’itération produit chez GitHub. La manœuvre entérine une approche multi-modèles assumée, y compris au sein de l’écosystème Microsoft.

Cette bascule vers des agents concurrents logés à la même enseigne modifie la dynamique de plateforme : GitHub se place comme orchestrateur neutre, et laisse la performance effective, la latence et la maîtrise du contexte trancher. Pour les équipes, le bénéfice potentiel se situe dans la réduction des frictions outillage et le benchmarking continu des modèles, à condition de piloter finement les coûts de crédits et la gouvernance des prompts et contextes.

Source : ITHome

  •  

GPT-5 et Ginkgo Bioworks réduisent de 40 % le coût de la CFPS en boucle fermée

OpenAI a dévoilé le 5 février un partenariat avec Ginkgo Bioworks autour d’un système « bouclé » où GPT-5 conçoit des expériences, pilote un wet lab en cloud, contrôle des robots, analyse les données et planifie les itérations suivantes. Objectif immédiat atteint : réduire le coût de la synthèse protéique sans cellule (CFPS) d’environ 40 %, avec une baisse de 57 % côté réactifs.

Dans cette configuration, le modèle a eu accès à Internet, à la littérature scientifique et à des outils d’analyse. Le protocole a été validé pour garantir que chaque plan expérimental est exécutable physiquement par les robots, évitant les impasses purement théoriques. Les essais ont porté sur plus de 36 000 formulations uniques, réparties sur 580 microplaques automatisées.

Schéma du laboratoire autonome IA avec GPT-5 et équipements d'analyse biochimique.

Trois cycles d’itération ont suffi pour dépasser la meilleure référence humaine antérieure. GPT-5 s’est montré performant dans l’exploration d’espaces de paramètres à haute dimension, identifiant des combinaisons à faible coût que les équipes n’avaient pas testées jusque-là.

Résultats et enseignements

Les nouvelles recettes se distinguent par une robustesse marquée en condition de faible oxygénation, typique des laboratoires automatisés. Le modèle a aussi mis en évidence l’effet de leviers discrets, comme l’ajustement de tampons et de polyamines, permettant un gain de rendement significatif pour un surcoût minime.

Intérieur d'un laboratoire automatisé éclairé en lumière violette, avec divers équipements technologiques.

Au total, la démarche homme–IA a comprimé les coûts globaux de la CFPS de 40 % et les coûts de réactifs de 57 %. Au-delà de la performance chiffrée, l’intérêt tient à la stabilité des résultats dans des environnements contraints et à la capacité d’exploration rapide de zones de formulation peu investies par l’intuition humaine.

Portée technique et limites implicites

Le couplage direct IA–wet lab, avec exécution robotisée et contrôle qualité intermédiaire, confirme l’intérêt des boucles fermées en sciences expérimentales. L’échelle des essais montre une montée en maturité de l’orchestration cloud/automatisation, mais les gains restent conditionnés à la validité des capteurs, à la métrologie et à la standardisation des consommables. La généralisation à d’autres voies biosynthétiques dépendra de la transposabilité des paramètres appris et des contraintes de lots.

Pour l’écosystème, une CFPS moins chère et plus robuste élargit les cas d’usage en prototypage enzymatique, production rapide de protéines spécifiques et biologie de terrain, avec un effet d’entraînement probable sur les plateformes d’automatisation cloud et les fournisseurs de réactifs modulaires. Si l’itération guidée par modèle s’impose, la valeur se déplacera vers la qualité des données de laboratoire, la traçabilité des protocoles et la capacité à intégrer des boucles matérielles fiables plutôt que vers la seule puissance de calcul.

Source : ITHome

  •  

Keychron K3 HE et K3 Ultra : low-profile, Hall Effect et 8 000 Hz dès le 12 février

Deux claviers low-profile pensés pour le jeu arrivent le 12 février, avec au choix des réglages Hall Effect ou un polling à 8 000 Hz. Keychron affine le format mince sans compromettre la réactivité.

Avec les K3 HE et K3 Ultra, la marque associe bords en bois, design compact et deux approches du gaming : précision réglable via l’effet Hall ou latence ultra-faible à 8 000 Hz.

Keychron K3 HE : Hall Effect réglable et compatibilité ouverte

Le K3 HE adopte des interrupteurs magnétiques Lime low-profile à effet Hall. Les points d’actionnement sont ajustables, tout comme le comportement trigger/reset, avec prise en charge des entrées multi‑action et analogiques.

Clavier Keychron K3 HE blanc sur fond de béton.

Keychron annonce la compatibilité avec des switches Hall low-profile tiers, dont Gateron Magnetic Jade Pro et TTC KOM, évitant un verrouillage propriétaire. Le châssis mince reprend l’approche HE récente avec détails bois et cadre métal.

K3HEsellingpoint

Keychron K3 Ultra : mécanique low-profile, 8 000 Hz et ZMK

Le K3 Ultra reste sur des interrupteurs mécaniques low-profile Milk POM pré-lubrifiés. Le polling grimpe à 8 000 Hz pour une latence annoncée à 0,125 ms, ciblant le compétitif.

Clavier Keychron K3 Ultra noir sur support en bois.

Le firmware ZMK est de la partie, avec jusqu’à 550 heures d’autonomie en 2,4 GHz selon la marque. Les deux modèles misent sur la portabilité, un fond de coque en ABS et un cadre mêlant métal et inserts bois.

K3Ultra8K

Disponibilité et variantes

Lancement le 12 février, coloris noir et blanc avec accent bois sur les bords. Pas de prix final communiqué à ce stade ; un accès anticipé est proposé via des réservations facturées 3 $.

Claviers Keychron K3 HE et K3 Ultra, gros plan sur les touches.

La stratégie de Keychron sur le K3 HE, ouverte aux switches Hall tiers, peut stimuler l’écosystème low-profile magnétique et accélérer l’adoption d’analog et de multi‑action sur des claviers fins. En parallèle, le K3 Ultra place la barre haute sur la latence avec 8 000 Hz, point jusqu’ici rare dans ce format.

Source : TechPowerUp

  •  

Ryzen Threadripper Pro 9995WX OC : 1 340 W, waterblock direct-die sur IHS sur-mesure

Un processeur 96 cœurs capable d’absorber 1 340 W sous charge continue. À ce niveau, la contrainte ne vient plus du silicium mais du capot thermique. C’est précisément ce que démontre cette expérimentation extrême autour du Ryzen Threadripper Pro 9995WX.

Ryzen Threadripper Pro 9995WX : un IHS transformé en waterblock

Le Ryzen Threadripper Pro 9995WX (96C/192T, TDP 350 W) a été poussé à 5,325 GHz via un refroidissement direct-die inédit : l’IHS a été usiné pour intégrer des ailettes et servir de waterblock. À pleine charge, la puce a atteint 1 340 W, pour environ 1 700 W au mur sur l’ensemble de la plateforme.

Close-up d'un refroidisseur en cuivre pour processeur haut de gamme

Geekerwan a collaboré avec Tony Yu (ASUS Chine) pour tester des géométries d’ailettes : des simulations ont conclu à une structure ondulée en S, plus efficace qu’un motif droit, avec un gain d’environ 20 % grâce à un trajet de fluide plus long et moins obstrué.

Refroidisseur en cuivre monté sur une base en verre

L’IHS du 9995WX mesure 4,1 mm d’épaisseur. L’usinage a laissé ~2,0 mm de profondeur d’ailettes et ~2,1 mm dédiés à la rigidité pour encaisser la pression du liquide. L’opération a nécessité 19 heures de fraisage CNC.

En charge Cinebench 2026, la plage de température mesurée s’établit entre 30 et 50 °C, ce qui valide l’efficacité thermique du design. Le maintien des fréquences sur 96 cœurs a été assuré par un groupe froid industriel, deux pompes Bosch issues de l’automobile et une cuve d’environ 37 gallons.

Waterblock sur processeur avec tubes de refroidissement installés

Performances et classement

Le système décroche une 7e place sous Cinebench R23, derrière un Threadripper Pro 7995WX à 6,2 GHz refroidi à l’azote liquide. L’approche direct-die intégrée à l’IHS prouve qu’il est possible de conserver une densité de performances élevée sans recourir au LN2.

Il faut toutefois rappeler que l’IHS d’un CPU HEDT vendu autour de 13 000 euros a été sacrifié pour l’expérience. Plus qu’un prototype exploitable, cette démonstration met en lumière un point clé des plateformes HEDT modernes : à ces puissances, la conception des chambres fluidiques et du capot thermique devient aussi déterminante que la tension ou le microcode. Des enseignements précieux, surtout pour l’évolution future des waterblocks haut débit destinés aux stations de travail extrêmes.

Source : TechPowerUp

  •  

Intel aurait écarté le Core Ultra 9 290K Plus, mais maintient les 270K/250K Arrow Lake Refresh

Le haut de gamme prévu bouge avant même d’exister publiquement, avec un recentrage produit qui fige la tête de gamme actuelle et rebat les cartes du refresh Arrow Lake.

Intel Core Ultra 9 290K Plus écarté

Intel n’a jamais annoncé de gamme desktop « Core Ultra 200S Plus », mais des références au Core Ultra 9 290K Plus sont apparues en test, et des échantillons auraient circulé chez plusieurs partenaires. Le projet est désormais arrêté selon des informations concordantes.

Le 290K Plus devait reprendre le die Arrow Lake 24 cœurs avec 8 P-cores et 16 E-cores, des limites de puissance proches du Core Ultra 9 285K et des hausses d’horloges modestes, dont un pic Intel Thermal Velocity Boost relevé. La décision est justifiée en interne par un pivot vers le rapport performance/prix.

Stack rationalisé et maintien des 270K/250K

La cause principale évoquée est le chevauchement du stack : un 290K Plus aurait doublonné le 285K, tandis que le Core Ultra 7 270K Plus, pressenti lui aussi en 24 cœurs, aurait encore resserré l’écart en haut de gamme. Intel conserverait les Core Ultra 7 270K Plus et Core Ultra 5 250K Plus dans les documents partenaires.

test intel core Ultra 9 285K

Concrètement, le Core Ultra 9 285K reste le sommet du LGA1851 pour le moment. Aucun modèle supérieur ne se profile pour le coiffer à court terme.

Un aveu d’échec ?

Pour nous, ce recentrage est surtout un aveu d’échec : Intel n’a pas réussi à redresser la barre avec Arrow Lake desktop et tente de limiter les dégâts. Lancer un 290K Plus qui ne ferait guère mieux que le 285K fragiliserait encore davantage l’image de la gamme Core Ultra 200S, déjà ternie par des performances gaming décevantes et une réception critique. À quelques mois de Nova Lake (prévu fin 2026), Intel préfère éviter un nouveau lancement raté qui creuserait encore le fossé face à AMD et alimenterait le scepticisme avant la prochaine génération.

Pour les intégrateurs et joueurs, le message est clair : Arrow Lake desktop reste une impasse, et mieux vaut attendre Nova Lake ou se tourner vers Ryzen 9000X3D. Le 270K Plus, s’il sort, ne changera pas fondamentalement la donne, c’est un replâtrage, pas un sauvetage.

Source : VideoCardz

  •  

Darmoshark M9 : souris gaming XXL, capteur PAW 3950 et 59 g pour grandes mains

Format imposant, poids plume. Cette nouvelle souris sans fil cible les grandes mains sans sacrifier les specs.

Darmoshark M9 : format XL, approche esports

Darmoshark lance la M9, une souris sans fil pensée pour les grandes mains avec des dimensions de 136,5 × 68,1 × 43,5 mm. La silhouette rappelle la Razer Viper V3 Pro (127,1 × 63,9 × 39,9 mm), mais la M9 gagne quelques millimètres partout, plus qu’entre une Viper Ultimate (126,8 × 57,6 × 37,8 mm) et une Viper Mini (118,3 × 53,5 × 38,3 mm). Le dôme est déplacé légèrement vers l’arrière pour mieux soutenir la paume, sans rehausser les clics.

Schéma détaillé de la souris gaming Darmoshark M9 avec capteur PAW 3950 et switch Omron.

À 59 g, elle reste très légère malgré une coque pleine. On trouve un capteur PixArt PAW 3950, un MCU Nordic 54L15, des switchs optiques Omron et une batterie de 500 mAh. La fiche annonce un polling jusqu’à 8 kHz, un mode 20 FPS et un réglage du lift-off. Deux boutons latéraux programmables et une molette à revêtement caoutchouc complètent l’ensemble.

La marque avance qu’il « pourrait bien s’agir de la plus grande souris à ce jour ». Le positionnement est clair : offrir à ceux qui se sentent à l’étroit sur les formats standards une alternative compétitive dans un gabarit plus long et plus large, sans basculer sur des coques ajourées.

Vue latérale de la souris Darmoshark M9 avec dimensions indiquées.

Prix et disponibilité

Déjà disponible en Chine à 400 RMB, soit environ 54 €. Une sortie globale pourrait entraîner un tarif supérieur selon la distribution.

Si le tarif international reste contenu, la M9 peut bousculer les références ultralégères en offrant un vrai châssis XL proche de la Viper V3 Pro, pour un poids équivalent aux modèles esports phares comme la G Pro X Superlight 2.

Source : TechPowerUp

  •  

HBM4 NVIDIA : SK hynix majoritaire, Samsung en soutien, Micron écarté sur Vera Rubin

NVIDIA renforce l’architecture mémoire de Vera Rubin et redistribue les cartes chez les fondeurs. Micron sort de la HBM4 mais récupère la LPDDR5X du CPU Vera.

HBM4 NVIDIA : SK hynix et Samsung, sans Micron

Les systèmes IA Vera Rubin arrivent en expédition fin d’été sous forme de racks VR200 NVL72. D’après des notes institutionnelles relayées, SK hynix capterait ~70 % de l’approvisionnement HBM4, Samsung environ 30 %. Micron n’aurait aucun engagement HBM4 sur cette génération.

Le recentrage coïncide avec la montée de la bande passante système. Cible initiale : 13 TB/s en mars 2025, revue à 20,5 TB/s en septembre, puis 22 TB/s confirmés au CES 2026. Cette hausse proche de 70 % découle d’un durcissement agressif des spécifications mémoire exigé par NVIDIA.

Plaque de circuit imprimé avec puces HBM visibles et composants NVIDIA.

CPU Vera : Micron bascule sur la LPDDR5X

Micron reste présent côté CPU avec la LPDDR5X utilisée via modules SOCAMM2. Le CPU Vera peut embarquer jusqu’à 1,5 TB de LPDDR5X, Micron étant pressenti comme principal voire unique fournisseur.

NVIDIA propose désormais le CPU Vera en offre standalone face aux Xeon et EPYC. Cette option tire mécaniquement la demande de SOCAMM2 LPDDR5X, un segment où Micron devient clé malgré l’absence en HBM4.

Sur le plan industriel, l’allocation HBM4 verrouille l’exécution de VR200 NVL72 et pousse SK hynix/Samsung à tenir des spécifications agressives. Micron sécurise des volumes sur la mémoire système du CPU, limitant l’impact court terme tout en préservant une position stratégique sur SOCAMM2.

Source : TechPowerUp

  •  

Pénurie CPU serveur en Chine : Intel et AMD allongent les délais, prix en hausse

Les commandes de CPU serveurs se tendent en Chine, et la facture grimpe déjà. La demande liée à l’IA pousse les délais et renchérit les Xeon et EPYC.

Pénurie CPU serveur : délais qui s’allongent, prix qui montent

En Chine, les prix moyens des processeurs serveurs Intel ont augmenté de plus de 10 % selon les conditions contractuelles. Certains modèles Xeon affichent désormais des délais pouvant atteindre six mois.

La situation est la plus critique sur les Xeon de 4e et 5e générations, où les carnets de commandes s’épaississent rapidement. AMD est aussi sous pression, avec des livraisons de CPU serveurs désormais annoncées entre huit et dix semaines.

Intel et AMD sous contrainte d’offre et tirage IA

La demande explose avec les déploiements d’infrastructures IA, y compris des systèmes d’« agentic AI » qui accroissent fortement le besoin CPU en complément des GPU. Les limites industrielles pèsent aussi : Intel évoque des problèmes d’approvisionnement liés à la fabrication et aux rendements.

AMD dépend de TSMC, qui priorise ses lignes pour les puces IA à plus forte marge. En parallèle, la hausse des coûts mémoire en Chine incite les acheteurs à sécuriser des CPU dès maintenant pour éviter un surcoût sur les configurations complètes plus tard.

Chine : un marché critique pour Intel et AMD

La Chine pèse plus de 20 % du chiffre d’affaires d’Intel, avec des clients majeurs parmi les OEM serveurs et les opérateurs cloud comme Alibaba et Tencent. La tension actuelle se reflète directement dans leurs cycles d’approvisionnement.

Intel indique que ses stocks ont touché un point bas au T1 et prévoit une amélioration graduelle jusqu’en 2026. AMD affirme rester confiant dans sa capacité à répondre à la demande via ses accords fournisseurs et son partenariat avec TSMC.

À court terme, les acheteurs doivent composer avec des prix plus élevés et des délais étirés, particulièrement sur les Xeon de dernière génération. Les EPYC restent un peu moins contraints, mais la fenêtre 8–10 semaines devient la norme.

Pour les intégrateurs et opérateurs cloud, le dimensionnement des clusters IA devra tenir compte d’un couplage CPU/GPU moins flexible qu’anticipé. L’arbitrage entre allouer le wafer à des GPU IA et des CPU serveurs chez TSMC, combiné aux rendements Intel, laisse présager des approvisionnements irréguliers au moins jusqu’en 2026.

Source : TechPowerUp

  •  

Une comète fraîchement repérée promet un spectacle céleste en avril

La communauté astronomique s’emballe pour C/2026 A1 (MAPS), détectée le 13 janvier par quatre amateurs utilisant un télescope télécommandé dans le désert d’Atacama. Cet astre appartient aux comètes rasantes de Kreutz, famille incluant les objets les plus éblouissants jamais observés. Son orbite extrêmement allongée la propulse vers un rendez-vous brûlant avec le Soleil début avril, ... Lire plus

L'article Une comète fraîchement repérée promet un spectacle céleste en avril est apparu en premier sur Fredzone.
  •  

Des mèches familiales témoignent du succès contre la pollution au plomb

Des chercheurs de l’université de l’Utah exploitent une ressource inattendue pour documenter l’efficacité des politiques environnementales américaines. Les albums de famille conservés à travers le siècle dernier recèlent des échantillons capillaires précieux révélant la chute spectaculaire de l’exposition humaine au plomb depuis les années 1970. L’Agence de Protection de l’Environnement avait progressivement éliminé cette neurotoxine ... Lire plus

L'article Des mèches familiales témoignent du succès contre la pollution au plomb est apparu en premier sur Fredzone.
  •  

Un lien biologique entre dépression et fragilité osseuse se dessine

Trois neurologues chinois défendent une théorie captivante : cerveau et squelette communiqueraient via un réseau physiologique bidirectionnel. Cette connexion pourrait expliquer pourquoi dépression et ostéoporose coexistent fréquemment chez les patients âgés. Longtemps considéré comme spéculatif, l’axe cerveau-os représenterait désormais un mécanisme légitime selon ces experts. Pengpeng Li, Yangyang Gao et Xudong Zhao publient une synthèse ... Lire plus

L'article Un lien biologique entre dépression et fragilité osseuse se dessine est apparu en premier sur Fredzone.
  •  

Aérer intensivement son logement présente de réels bénéfices sanitaires

Une nouvelle tendance envahit les réseaux sociaux : le « house burping ». Les vidéos montrent des personnes ouvrant simultanément fenêtres et portes pour évacuer l’air vicié. Derrière ce terme amusant se cache une pratique ancestrale allemande appelée Stoßlüften. Certains contrats de location germaniques mentionnent même cette obligation d’aération régulière pour prévenir moisissures et humidité. ... Lire plus

L'article Aérer intensivement son logement présente de réels bénéfices sanitaires est apparu en premier sur Fredzone.
  •  

OpenAI riposte immédiatement après le lancement concurrent d’Anthropic

La bataille fait rage entre les deux leaders de l’intelligence artificielle générative. Lundi dernier, OpenAI dévoilait Codex, un assistant de programmation destiné aux développeurs. Quelques jours plus tard, l’entreprise récidive avec GPT-5.3 Codex, un modèle surpuissant conçu pour décupler les capacités de son outil. Cette annonce survient quelques minutes seulement après qu’Anthropic a présenté sa ... Lire plus

L'article OpenAI riposte immédiatement après le lancement concurrent d’Anthropic est apparu en premier sur Fredzone.
  •  

ArcadeGPU - Un moteur de jeu rétro qui tourne dans votre navigateur

Et si les meilleures techniques de game dev des années 2000 revenaient dans votre navigateur ?

ArcadeGPU, c'est un moteur de jeu complet qui tourne dans le navigateur grâce à WebGPU. C'est une vraie architecture de jeu avec walkmesh, hitbox BSP, moteur de script, pipeline graphique à la PS1 et même la physique Jolt intégrée (un moteur open source utilisé dans certains gros jeux).

Le truc c'est que le dev derrière, un Français qui bosse seul sur le projet, a pris le parti de ressusciter des techniques qu'on utilisait entre 2000 et 2010 dans le développement de jeux. Du walkmesh pour la navigation des personnages, du hitmesh pour les collisions, du draw call only pour le rendu... Des trucs qu'on ne voit quasi plus dans les moteurs modernes, et pourtant c'est redoutablement efficace pour les indés. Bon, après faut quand même être à l'aise avec TypeScript et la stack web, car c'est pas un moteur drag-and-drop à la GameMaker.

Car oui comme tout est en TypeScript, vous codez votre jeu comme une app web classique. Vous modifiez votre fichier main.ts, le jeu se rafraîchit en temps réel sans avoir à tout relancer. Et vous avez toute la pile web en support, du Web Audio API au CSS en passant par les workers async... Quand on compare avec les 45 secondes de build d'un projet Unity moyen, y'a pas photo.

Y'a aussi un paquet de démos jouables directement sur le site du projet et c'est pas des petits exemples bidon avec un cube qui tourne. Vous y trouverez de vrais prototypes de jeux complets, de la 2D rétro au rendu toon 3D avec ombres volumétriques. L'idée c'est de fournir des templates prêts à l'emploi, vous choisissez le gameplay qui vous correspond et vous partez de là (plutôt que de tout repenser from scratch).

D'ailleurs y'a même un jeu en bêta développé avec le moteur, un Sokoban versus, pour voir ce que ça donne en conditions réelles.

Côté compatibilité, ça tourne sur les navigateurs qui gèrent WebGPU (Chrome, Edge, et Firefox en mode expérimental avec le flag dom.webgpu.enabled). Pour Safari et mobile, c'est plus aléatoire pour le moment donc attention si votre cible c'est iOS. Le projet est open source sous licence Apache 2.0, dispo sur SourceForge et ça pèse environ 400 Mo avec toutes les démos.

Et le rendu... C'est du pipeline PSX complet avec ombrage toon, volumes d'ombre, le tout dans le navigateur. Pour les nostalgiques de la première PlayStation, c'est un peu la papillote Révillon version code (oui ça change des madeleines ^^), sauf que là, c'est vous qui créez les jeux.

Voilà, je trouve que cette approche old-school mixée avec la techno web moderne c'est pas bête du tout. Si vous êtes dev indé et que les usines à gaz style Unity ou Unreal vous donnent des boutons, ça vaut peut-être le coup d'aller jeter un oeil. Seul bémol, la doc est encore un peu légère, donc faudra fouiller dans les exemples pour comprendre l'API.

Bref, merci à Slay3r pour le partage et bravo !

  •  

Une cyberattaque paralyse l’université romaine La Sapienza pendant trois jours

L’infrastructure numérique de La Sapienza subit une interruption majeure depuis mardi. Comptant environ 120 000 étudiants, l’établissement romain figure parmi les plus grandes universités européennes. Les systèmes informatiques ont été volontairement désactivés suite à une intrusion malveillante présumée. La direction communique via Instagram pour informer sa communauté des mesures prises et de l’avancement des investigations. ... Lire plus

L'article Une cyberattaque paralyse l’université romaine La Sapienza pendant trois jours est apparu en premier sur Fredzone.
  •  

La course aux investissements IA divise les géants technologiques et leurs actionnaires

L’industrie technologique s’engage dans une compétition sans précédent autour des infrastructures dédiées à l’intelligence artificielle. Amazon et Google mènent la danse avec des budgets d’investissement vertigineux qui dépassent ceux de leurs concurrents. La logique sous-jacente semble limpide : accumuler davantage de capacités de calcul permettrait de concevoir les meilleurs produits IA et ainsi dominer le ... Lire plus

L'article La course aux investissements IA divise les géants technologiques et leurs actionnaires est apparu en premier sur Fredzone.
  •  

Amazon Web Services affiche une croissance record portée par le cloud

Amazon Web Services clôture l’année 2025 sur une performance remarquable. La division cloud du géant du e-commerce dévoile sa plus forte progression trimestrielle depuis plus de trois ans. Les chiffres publiés jeudi révèlent un dynamisme exceptionnel, alimenté par une demande soutenue des entreprises et institutions. Andy Jassy, directeur général d’Amazon, souligne la supériorité de cette ... Lire plus

L'article Amazon Web Services affiche une croissance record portée par le cloud est apparu en premier sur Fredzone.
  •  

Reddit mise sur la recherche intelligente pour stimuler sa croissance

Le réseau social Reddit envisage d’exploiter pleinement le potentiel de son moteur de recherche dopé à l’intelligence artificielle. L’entreprise y voit une opportunité stratégique majeure, tant sur le plan produit que financier. Lors de la présentation de ses résultats trimestriels, la direction a dévoilé ses ambitions : fusionner recherche classique et IA générative tout en ... Lire plus

L'article Reddit mise sur la recherche intelligente pour stimuler sa croissance est apparu en premier sur Fredzone.
  •  

Avatar fire and ash révolutionne l’art du costume avec une approche tangible

La nomination d’Avatar : Fire and Ash aux Oscars dans la catégorie Meilleurs Costumes a suscité des interrogations légitimes au sein de l’industrie cinématographique. Comment des tenues portées par des personnages numériques de neuf pieds de haut peuvent-elles concurrencer des créations physiques comme celles de Frankenstein ou Sinners ? Deborah L. Scott, costumière oscarisée pour ... Lire plus

L'article Avatar fire and ash révolutionne l’art du costume avec une approche tangible est apparu en premier sur Fredzone.
  •  

Claude Opus 4.6 : contexte 1M tokens et bureautique, sans hausse de prix

Anthropic a dévoilé le 5 février Claude Opus 4.6, une évolution rapide deux mois après Opus 4.5, avec un but clair : autonomie accrue, meilleure tenue de cap sur des tâches longues et montée en charge sur le code.

Le modèle introduit en test un contexte étendu à 1 million de tokens, destiné aux dépôts géants, aux corpus documentaires denses et aux pipelines de données volumineux.

Planification renforcée, revue de code et auto-correction

Selon Anthropic, Opus 4.6 réduit les allers-retours grâce à une planification plus rigoureuse et une focalisation plus stable. Le modèle tient mieux la ligne sur des « agentic tasks », détecte les erreurs et les corrige de manière proactive, y compris lors d’itérations de débogage sur de larges bases de code.

Introducing Claude Opus 4.6. Our smartest model got an upgrade.

Opus 4.6 plans more carefully, sustains agentic tasks for longer, operates reliably in massive codebases, and catches its own mistakes.

It’s also our first Opus-class model with 1M token context in beta. pic.twitter.com/L1iQyRgT9x

— Claude (@claudeai) February 5, 2026

La fenêtre de 1 million de tokens (bêta) débarque pour la première fois sur un modèle Opus. Elle permet d’ingérer d’un bloc des arborescences complètes, des documents techniques longs ou des tableaux de données étendus, avec un bénéfice direct dans l’environnement « Cowork » où Claude peut enchaîner des opérations sans micro-orchestration utilisateur.

opus 4.6 claude gdpval aa

Intégrations bureautiques et tarification

Sur le poste de travail, Anthropic pousse les cas d’usage concrets : Excel progresse nettement et une préversion PowerPoint fait son entrée. Opus 4.6 exécute des analyses financières, mène des recherches sectorielles et génère automatiquement feuilles de calcul et présentations, au-delà de la simple conversation.

opus 4.6 claude benchmarks

Le modèle est disponible dès maintenant sur claude.ai, via l’API et sur les principaux clouds. Anthropic conserve ses tarifs : 5 $ par million de tokens en entrée et 25 $ en sortie, soit environ 4,63 € et 23,13 € aux taux actuels. Le positionnement prix reste donc inchangé malgré l’augmentation de portée fonctionnelle.

L’arrivée d’un contexte à 1M tokens dans la gamme Opus fait glisser l’enjeu de la seule qualité de raisonnement vers la tenue opérationnelle sur des workloads réels: revue de PR à l’échelle d’un monorepo, consolidation de données multi-sources, production de supports conformes. Si la bêta tient ses promesses en latence et en cohérence contextuelle, les acteurs qui outillent la bureautique avancée et la chaîne d’ingénierie logicielle auront un levier immédiat, sans révision de budget côté consommation.

Source : ITHome

  •  

Mémoire CXMT : ASUS, Acer, Dell et HP testent une alternative face aux pénuries

La pénurie DRAM détourne l’approvisionnement des PC des circuits habituels. Des OEM de premier plan évaluent la piste chinoise pour sécuriser leurs lignes.

Mémoire CXMT : une option qui monte chez les OEM

ASUS, Acer, Dell et HP sondent des fournisseurs alternatifs, dont CXMT, sur fond de disponibilité limitée chez SK Hynix, Samsung et Micron, monopolisés par les accélérateurs IA. CXMT a présenté fin 2024 au China International Semiconductor Expo des modules DDR5-8000 et LPDDR5X-10667 conformes JEDEC.

cxmt

En LPDDR5X, CXMT propose des puces 12 Gb et 16 Gb. En DDR5, l’offre s’étend à des modules 16 Gb et 24 Gb. Les dies DDR5 16 Gb affichent 67 mm² pour une densité de 0,239 Gb/mm² ; les cellules DRAM G4 gagnent 20 % de compacité face à la génération G3.

Spécifications, process 16 nm et réalité industrielle

La production serait réalisée en 16 nm, environ trois ans derrière les nœuds de Samsung, SK Hynix et Micron. Malgré ce décalage, CXMT progresse rapidement et dépasse par endroits les profils JEDEC annoncés selon les débits communiqués.

Les livraisons LPDDR5X et DDR5 ont débuté. Aucun chiffre d’output wafer n’est public, mais l’objectif est double : couvrir la demande domestique et atténuer le déficit de la chaîne occidentale, fortement absorbée par l’IA. Pour l’utilisateur final, disponibilité et prix primeront sur l’origine.

Impact potentiel pour les configurations OEM

Si les lots confirment stabilité et profils JEDEC sur DDR5-8000 et LPDDR5X-10667, les PC OEM pourraient retrouver des configurations mémoire cohérentes en volume, notamment en 16 Gb/24 Gb côté DDR5 et 12 Gb/16 Gb côté LPDDR5X. Le point d’attention reste la maturité du 16 nm sur les rendements et la variabilité des timings.

Dans un marché aspiré par les besoins HBM et GDDR pour l’IA, l’émergence de CXMT sur DDR5/LPDDR5X pourrait rééquilibrer temporairement l’offre grand public, à condition que la cadence wafer et la qualité lot à lot tiennent la rampe.

Source : TechPowerUp

  •  

Ahnenblatt 4.42

Logiciel de généalogie, disponible en français et ne nécessitant pas d'installation...
  •  
❌