↩ Accueil

Vue normale

Reçu aujourd’hui — 27 janvier 2026 7.1 📜 Résumé - Tech.

La coupure d'Internet en Iran pourrait devenir permanente, avec un accès réservé aux élites. Comment un simple blackout s'est transformé en laboratoire mondial de l'internet à deux vitesses

26 janvier 2026 à 23:51
La coupure d'Internet en Iran pourrait devenir permanente, avec un accès réservé aux élites,
comment un simple blackout s'est transformé en laboratoire mondial de l'internet à deux vitesses

L'Iran vit l'une des coupures d'internet les plus longues et les plus sévères de son histoire. Au-delà d'un simple blackout destiné à étouffer l'information, le régime iranien teste une architecture de réseau à deux niveaux qui réserverait l'accès complet au web mondial à une élite privilégiée, tout en confinant...

L’interdiction des réseaux sociaux aux moins de 15 ans est adoptée à l’Assemblée nationale

26 janvier 2026 à 22:35

Les députés français ont adopté ce lundi à l’Assemblée nationale l’article central d’une proposition de loi visant à interdire les réseaux sociaux aux moins de 15 ans. Porté par la députée Laure Miller (Ensemble pour la République), le texte a été largement validé dans l’hémicycle avec 116 voix …

Lire la suite

Aimez KultureGeek sur Facebook, et suivez-nous sur Twitter

N'oubliez pas de télécharger notre Application gratuite iAddict pour iPhone et iPad (lien App Store)


L’article L’interdiction des réseaux sociaux aux moins de 15 ans est adoptée à l’Assemblée nationale est apparu en premier sur KultureGeek.

Deadhand - Le testament qui transmet vos cryptos après votre mort

Par :Korben
26 janvier 2026 à 23:10

Vous mourrez. Votre crypto meurt avec vous. Et votre famille n'a aucune idée de comment récupérer vos Bitcoins, vos Ethereum ou vos autres actifs numériques. Sympa l'héritage !

C'est exactement le problème que Deadhand vient résoudre avec une approche plutôt bien pensée : le partage de secret de Shamir (Shamir's Secret Sharing pour les intimes). En gros, au lieu de refiler votre seed phrase à quelqu'un en lui faisant confiance les yeux fermés, l'outil la découpe en 3 morceaux qu'il éparpille intelligemment.

Vous gardez le Shard A. Votre bénéficiaire reçoit le Shard B. Et le serveur Deadhand stocke le Shard C. Et là, c'est mathématiquement prouvé : n'importe quelle combinaison de 2 shards permet de reconstruire la phrase complète, mais un seul shard tout seul = zéro info utilisable.

Le truc cool avec ce système c'est surtout le système d'homme-mort automatique. Tous les 30 jours, Deadhand vous envoie un mail "T'es toujours vivant ?". Vous cliquez sur le lien, le timer se réinitialise, et hop c'est reparti pour un tour. Simple, non ? Mais si pendant 90 jours vous ne donnez pas signe de vie (RIP), le serveur envoie alors automatiquement le Shard C à votre bénéficiaire qui peut alors le combiner avec son Shard B pour récupérer la seed phrase originale.

Du coup, personne n'a le contrôle total à aucun moment. Si le serveur se fait hacker ? Les pirates récupèrent que le Shard C, TOTALEMENT INUTILE sans les autres. Si votre bénéficiaire devient malveillant ? Il a juste le Shard B, pareil, ça sert à rien tout seul. Et si vous perdez votre Shard A ? Pas de panique, votre bénéficiaire peut toujours combiner B + C pour récupérer l'accès.

Techniquement, c'est du FastAPI côté backend avec PostgreSQL pour la base de données. Le frontend reste sobre avec du HTML, TailwindCSS et HTMX. Et surtout, tout le chiffrement se passe côté client dans votre navigateur via la bibliothèque secrets.js, donc vos clés ne transitent jamais en clair sur le réseau. Architecture zéro-trust comme on dit... même les administrateurs du serveur ne peuvent pas accéder à vos données.

Bon, faut quand même préciser que c'est un MVP (minimum viable product). Les développeurs sont honnêtes là-dessus : ça demande du durcissement avant la prod. Il faut implémenter HTTPS comme il faut, auditer la lib secrets.js, sécuriser l'infrastructure de la base de données et remplacer le mock email par un vrai fournisseur genre SendGrid ou AWS SES. Donc attention, c'est pas encore prêt pour mettre vos millions de Bitcoin dedans, hein.

Niveau installation, rien de bien compliqué si vous voulez tester en local. Vous clonez le repo GitHub, vous installez les dépendances avec pip install -r requirements.txt, puis vous lancez python -m uvicorn app.main:app --reload --port 8000 et vous accédez à http://localhost:8000. Bon, évidemment faut avoir Python 3.9+ installé, mais ça vous le savez déjà. Et le projet est sous licence MIT donc complètement open source, ce qui fait que vous pouvez auditer le code vous-même si vous en avez les capacités (ce n'est pas mon cas).

Perso, je trouve le concept vraiment intelligent par contre. Pas besoin de faire confiance à une boîte centralisée ou de refiler vos clés à un proche en croisant les doigts pour qu'il ne se fasse pas pirater ou qu'il ne perde pas le bout de papier. Le partage de secret de Shamir, c'est pas nouveau mais l'appliquer à l'héritage crypto avec un dead man's switch automatisé, c'est pas mal du tout !

Bref, si la question de l'héritage de vos cryptos vous turlupine (et elle devrait), Deadhand propose une piste sérieuse à creuser. Et si vous cherchez aussi à sécuriser physiquement vos seed phrases , jetez un œil à SeedKeeper.

Highguard surprend avec un lancement immédiat et un mode raid PvP inédit

Par :Wael.K
26 janvier 2026 à 22:55

Un shooter où l’on capture une épée magique avant d’assaillir la base adverse à dos d’ours, ça change le tempo. Highguard vient de sortir et pose ses règles dès le premier jour.

Highguard pose sa boucle de jeu: raid PvP en 3v3

Nouveau « PvP raid shooter » signé Wildlight Entertainment, Highguard oppose deux équipes de trois joueurs qui fortifient leur base, partent en monture collecter des ressources, puis lancent des raids pour détruire la forteresse ennemie. Mélange de MOBA, survival shooter et reverse Capture the Flag, chaque manche s’articule autour du Shieldbreaker, une épée qui déclenche l’assaut une fois insérée dans l’un des points de la barrière magique adverse.

Cavalier sur cheval galopant à travers une cité médiévale avec dirigeables et montagnes

Le déroulé est cadencé: 1 minute initiale de fortification, exploration en monde ouvert pour looter et convertir des cristaux en améliorations, formation de tempêtes sur des zones prédéfinies où apparaît le Shieldbreaker. L’équipe qui ramène l’épée à la base ennemie ouvre une brèche via une tour de siège servant aussi de point de respawn. Objectif: percer des murs destructibles, armer une charge sur l’un des trois emplacements et tenir jusqu’à l’explosion. Deux cibles infligent de lourds dégâts au total de vie, la cible centrale détruit la base d’un coup.

Si aucune base ne tombe, le match réinitialise la phase et relance un Shieldbreaker plus tard, avec un équipement globalement meilleur disponible en map et en boutiques. Respawns et minutage sont stricts, pour des parties de 10 à 30 minutes, souvent à renversements tardifs.

Montures, arsenal et Wardens: l’ADN Respawn, version Wildlight

Né chez des vétérans d’Apex Legends, Titanfall et Call of Duty, le gunplay est net, la mobilité fluide (course, glissade, mantling) et la nouveauté tient aux montures invocables presque partout: chevaux, ours, panthères, griffons, différences cosmétiques mais impact macro clair pour couvrir de grandes distances et intercepter un porteur du Shieldbreaker.

Trois personnages en tenue de combat, armés, avec un ours, dans un environnement naturel

10 armes au lancement, deux emplacements, plus un outil de raid parmi trois (lance-roquettes, masse explosive, pistolet à tyrolienne) pour l’utilité et la démolition. Les personnages jouables, les Wardens, sont au nombre de huit au lancement, un par équipe, avec passif, tactique à cooldown et ultime à charge. Exemples cités: Atticus qui lance des lances électriques façon bobines Tesla, Una qui invoque des esprits étourdissants et un ultime arbre-guardian, Kai qui érige un mur de glace capital pour le contrôle des choke points.

Les bases elles-mêmes sont un choix d’équipe: six variantes votées puis injectées dans n’importe quelle carte. Hellmouth, suspendue au-dessus d’une fosse de lave avec ponts étroits, se combine parfaitement avec le mur de Kai. L’ensemble Wardens/bases/armes/outils ouvre un vrai terrain de méta et de synergies/counters dès le jour 1.

Vue à la première personne d'un joueur tirant dans une bataille dans un décor de ruines

Roadmap live service: chapitres de deux mois, contenu mensuel

Wildlight cadence Highguard en chapitres bimestriels, chacun scindé en deux. Concrètement, un ajout de contenu chaque mois: nouveaux Wardens, bases, cartes, armes, outils de raid et plus. Le premier update, attendu dans quelques semaines, introduira le classé et des modes alternatifs rotatifs, dont une course montée inspirée Mario Kart. Tout le contenu gameplay est gratuit, la monétisation est strictement cosmétique.

Personnages utilisant une arme géante à énergie près d'un bâtiment ancien
Cavaliers sur animaux chargeant dans une forêt avec des structures anciennes en arrière-plan
Personnage héroïque en cape brandissant une épée électrique avec un ciel orageux
Guerrier masqué avec créature en bois luminescent se tenant sur un champ
Vue à la première personne d'un combat avec un bouclier de glace et des armes à énergie
Chasse à cheval avec fusil à lunette dans une vallée verdoyante et des formations rocheuses

Le studio revendique une préparation spécifique à l’exploitation live, tirée de l’expérience Apex Legends où la phase post-lancement avait connu une latence de contenu. Ici, l’année 1 est déjà bien engagée en production, avec des Wardens non révélés en réserve.

Highguard est disponible gratuitement dès aujourd’hui sur PC/Steam, Xbox Series X|S et PlayStation 5.

Dans un marché saturé, l’originalité du mode raid PvP 3v3, combinée à un rythme de jeu en phases et un pipeline live déjà calé, donne à Wildlight une fenêtre pour s’installer au-delà des catégories établies battle royale/extraction. Le suivi mensuel sera l’arbitre de la rétention et du potentiel esportif, mais la base mécanique est suffisamment distincte pour créer sa niche.

Source : TechPowerUp

NVIDIA CoreWeave : 2 milliards de dollars et 5 GW d’usines d’IA d’ici 2030

Par :Wael.K
26 janvier 2026 à 22:54

Course contre la montre dans l’IA : CoreWeave vise plus de 5 GW de « factories » d’ici 2030. Conséquence immédiate, NVIDIA met 2 milliards de dollars sur la table pour verrouiller l’alignement technologique et l’accès aux capacités.

NVIDIA CoreWeave: cap sur 5 GW d’usines d’IA

NVIDIA et CoreWeave consolident leur partenariat pour accélérer le déploiement de plus de 5 gigawatts d’« AI factories » d’ici 2030. En parallèle, NVIDIA investit 2 milliards de dollars (environ 1,84 Md€) dans CoreWeave via des actions ordinaires de classe A au prix de 87,20 dollars par action.

NVIDIA CoreWeave: 2 milliards de dollars et 5 GW d’usines d’IA d’ici 2030

Objectif affiché: répondre à une demande exponentielle en calcul, du pré-training au post-training. Jensen Huang parle du « plus grand chantier d’infrastructure de l’histoire » et s’appuie sur l’exécution de CoreWeave pour industrialiser les usines d’IA basées sur la plateforme accélérée de NVIDIA.

Le plan comprend l’alignement infrastructure, software et plateforme: CoreWeave développera et opérera ces usines avec la pile NVIDIA, tandis que NVIDIA apportera sa puissance financière pour accélérer l’acquisition de foncier, d’énergie et de shells.

NVIDIA CoreWeave: 2 milliards de dollars et 5 GW d’usines d’IA d’ici 2030

Feuille de route technique et logicielle

Les deux acteurs testeront et valideront le software natif IA de CoreWeave et ses architectures de référence, dont SUNK et CoreWeave Mission Control, avec pour ambition de les intégrer dans les architectures de référence NVIDIA pour les partenaires cloud et les clients enterprise.

CoreWeave adoptera en avance plusieurs générations d’infrastructure NVIDIA: la plateforme Rubin, les CPU NVIDIA Vera et les systèmes de stockage NVIDIA BlueField. Côté inference, CoreWeave met en avant Blackwell comme architecture au coût au plus bas.

NVIDIA CoreWeave: 2 milliards de dollars et 5 GW d’usines d’IA d’ici 2030

Capacité, financement et exécution

Au-delà du silicium, l’accord porte sur la sécurisation du foncier et de la puissance électrique, points de tension clés pour des déploiements multi-gigawatts. CoreWeave capitalise sur son cloud spécialisé, son logiciel et son opérationnel orienté workloads IA intensifs.

L’enjeu pour l’écosystème est double: industrialiser la production d’IA à grande échelle et réduire le coût total d’exploitation des clusters. Si le calendrier 2030 est tenu, les 5 GW annoncés peseront sur l’accès aux GPU, aux CPU Vera et aux infrastructures réseau/stockage BlueField, avec un effet d’entraînement sur l’offre cloud GPU et les prix pour les studios IA comme pour les entreprises.

Source : TechPowerUp

NVIDIA Earth-2 : modèles météo-climat ouverts et accélérés pour la prévision IA

Par :Wael.K
26 janvier 2026 à 22:23

NVIDIA a dévoilé Earth-2, une série de modèles ouverts et accélérés dédiés à la météo et au climat, pensée pour couvrir toute la chaîne opérationnelle: assimilation des observations, prévisions globales à 15 jours et nowcasting kilométrique. Les modèles sont utilisables et déployables sur infrastructures propres, avec entraînement et affinage via le framework open source PhysicsNeMo.

Trois nouveaux modèles au cœur de la pile Earth-2

Earth-2 Medium Range s’appuie sur l’architecture Atlas pour une prévision globale jusqu’à 15 jours sur plus de 70 variables (température, pression, vent, humidité, etc.). Sur les benchmarks de référence, il surpasse les principaux modèles ouverts sur les variables les plus utilisées, tout en restant exploitable en production.

Carte satellite des prévisions météo des États-Unis avec échelle de couleurs

Earth-2 Nowcasting, basé sur StormScope, pousse la prévision de 0 à 6 heures à l’échelle kilométrique au niveau national. Le modèle simule directement la dynamique des systèmes convectifs, prédit images radar et satellite, et revendique des performances supérieures aux approches physiques traditionnelles pour les précipitations à court terme.

Earth-2 Global Data Assimilation, avec l’architecture HealDA, produit en quelques secondes sur GPU les conditions initiales globales à partir d’observations hétérogènes (satellites, radiosondages, stations). Couplé au modèle Medium Range, il constitue une chaîne de prévision entièrement IA, ouverte et optimisée pour l’exécution accélérée.

Intégration de la pile et écosystème

Les nouveautés complètent CorrDiff, génératif de descente d’échelle qui convertit des champs à résolution grossière en champs régionaux fins, avec un gain de vitesse annoncé de 500× par rapport aux méthodes classiques. FourCastNet3 reste positionné sur la prévision multi-variables (vent, température, humidité) avec une précision comparable aux meilleurs modèles de diffusion, tout en étant jusqu’à 60× plus rapide que les approches de référence.

Earth-2 agrège également des modèles ouverts de l’ECMWF, de Microsoft et de Google. L’ensemble se pilote via PhysicsNeMo, cadre Python open source pour le développement à grande échelle de modèles d’IA physique, facilitant entraînement, fine-tuning et déploiement.

La promesse est autant opérationnelle que scientifique: accélérer la production d’analyses initiales, améliorer la qualité des prévisions et standardiser un socle ouvert propice à la collaboration inter-instituts. Pour les centres météo nationaux et privés, la perspective d’une chaîne full-IA, portable et accélérée, peut réduire le coût d’entrée en prévision haute résolution et accélérer le transfert de la recherche vers l’opérationnel.

Source : ITHome

Ryzen 7 9850X3D : AMD préparerait un bundle CPU + DDR5 + ventirad pour la Chine

Par :Wael.K
26 janvier 2026 à 22:08

Ryzen 7 9850X3D en kit complet ? Une photo de boîte retail laisse penser qu’AMD prépare un bundle associant processeur, mémoire DDR5 et ventirad, destiné en priorité au marché chinois.

Ryzen 7 9850X3D : un pack multi‑marques repéré en Chine

D’après une image partagée par JustBuy sur Bilibili, la boîte arbore les logos AMD, Cooler Master et V-Color, signe d’un ensemble co‑marqué plutôt qu’un simple emballage CPU. La liste au dos mentionne un Ryzen 7 9850X3D, un kit V-Color DDR5 au timing CL36 en 32 Go (2 × 16 Go) et un ventirad Cooler Master Hyper 612 APEX PRO. La fréquence exacte de la mémoire n’est pas indiquée.

ryzen 7 9850x3d bundle

Pour situer les tarifs séparés, le Hyper 612 APEX a été vu autour de 79,99 dollars (environ 74 euros). Le kit V-Color Manta XFinity RGB DDR5‑6000 CL36 32 Go correspondant aux marquages et timings est apparu à 509,99 dollars sur Newegg, illustrant des prix DDR5 très variables selon les boutiques. AMD a déjà confirmé le Ryzen 7 9850X3D, référencé sur ses pages produits, avec un lancement annoncé au 29 janvier à 499 dollars (environ 460 euros).

Spécificités listées sur la boîte

  • Processeur : AMD Ryzen 7 9850X3D.
  • Mémoire : V-Color DDR5, 32 Go (2 × 16 Go), CL36, fréquence non spécifiée.
  • Refroidissement : Cooler Master Hyper 612 APEX PRO (aircooling).

Le concept existe déjà.

Le concept n’est pas inédit : aux États‑Unis, des enseignes comme Micro Center proposent régulièrement des combos CPU avec carte mère et mémoire à prix groupé. Reste l’inconnue de la disponibilité : selon JustBuy, ce kit « sera bientôt en vente », sans précision de lieu ni de tarif final. Il semblerait que ce pack vise d’abord la Chine, même si chaque composant est ou sera disponible mondialement.

Mais attention : il n’est pas exclu qu’il s’agisse simplement de kits presse, envoyés aux testeurs avant le lancement. Avec la tension actuelle sur la RAM, imposer un kit mémoire pourrait être délicat, au risque de brider le CPU. Sans compter l’ajout d’un ventirad qui ne conviendrait pas forcément à tous les usages ni à toutes les configurations.

Source : VideoCardz

Quelles sont les meilleures alternatives gratuites à ChatGPT ?

26 janvier 2026 à 21:32

ChatGPT occupe une place notable. Le chatbot d'OpenAI excelle pour des tâches parfois chronophages et permet de gagner beaucoup de temps. Mais il n'est pas la seule IA générative performante — une bonne nouvelle, puisque ChatGPT n'est pas infaillible. En cas de panne, il existe des alternatives à ChatGPT à considérer. Voici les meilleures.

Qwen3-Max-Thinking : le modèle reasoning d’Alibaba vise le niveau GPT-5

Par :Wael.K
26 janvier 2026 à 21:23

Alibaba a dévoilé ce soir Qwen3-Max-Thinking, nouveau modèle « reasoning » haut de gamme de la famille Qwen. La société annonce une architecture dépassant le millier de milliards de paramètres, un entraînement par renforcement élargi et des avancées nettes sur la factualité, le raisonnement complexe, l’alignement et l’utilisation native d’outils. Sur 19 benchmarks de référence, Alibaba revendique des performances du niveau de GPT-5.2-Thinking, Claude Opus 4.5 et Gemini 3 Pro.

Le modèle est disponible dans Qwen Chat avec une capacité de recours autonome au moteur de recherche, à la mémoire et à un interpréteur de code. L’API publique est ouverte sous l’identifiant « qwen3-max-2026-01-23 ».

Focus technique et perfs mesurées

Qwen3-Max-Thinking met l’accent sur deux briques. D’abord, une invocation d’outils auto-adaptative : le modèle choisit et orchestre seul la recherche, la mémoire et l’exécution de code, après un cycle de fine-tuning spécifique puis un entraînement supplémentaire guidé par retours hybrides (règles et feedback modèle). Alibaba indique une baisse sensible des hallucinations, un accès temps réel aux informations et des réponses mieux personnalisées.

Tableau comparatif des benchmarks pour différents modèles de reasoning, incluant Qwen3-Max-Thinking.

Ensuite, une stratégie de Test-Time Scaling itératif orientée « expérience cumulée ». Plutôt que d’augmenter simplement le nombre de trajectoires en parallèle, Qwen3-Max-Thinking limite ces chemins et réinvestit le budget de calcul dans des boucles de réflexion successives. Un mécanisme d’extraction d’« insights » issus des tours précédents évite les répétitions et concentre le raisonnement sur les zones d’incertitude, avec une meilleure utilisation de la fenêtre de contexte à consommation de tokens comparable.

Les gains annoncés, à méthodologie constante, sont chiffrés sur plusieurs suites: GPQA de 90,3 à 92,8, HLE de 34,1 à 36,5, LiveCodeBench v6 de 88,0 à 91,4, IMO-AnswerBench de 89,5 à 91,5, et HLE avec outils de 55,8 à 58,3. Alibaba met en avant des résultats en tête sur GPQA Diamond (sciences), IMO-AnswerBench (maths) et LiveCodeBench (code).

Graphique des performances sur divers tests, avec les scores de Qwen3-Max-Thinking et autres modèles.

Disponibilité et intégration

Qwen3-Max-Thinking est accessible via Qwen Chat (chat.qwen.ai), avec la sélection automatique d’outils activée, et via l’écosystème Alibaba Cloud Bailian. Le déploiement vise autant l’usage direct que l’intégration agentique, le modèle étant conçu pour raisonner tout en exécutant des appels outils de manière fluide.

Au-delà de la surenchère paramétrique, l’enjeu se déplace vers la chaîne de raisonnement et l’efficacité du calcul à l’inférence. La mise en avant d’un Test-Time Scaling mieux capitalisé et de capacités agent natives confirme la bascule des LLM généralistes vers des systèmes orientés tâches, où le pilotage d’outils et la discipline du raisonnement comptent autant que le score brut sur benchmarks.

Source : ITHome

Anker Prime 250W : le chargeur qui transforme votre bureau en centre de contrôle de la NASA

Par :Korben
26 janvier 2026 à 19:01
– Article invité, rédigé par Vincent Lautier, contient des liens affiliés Amazon –

Bon, vous commencez à me connaître, j'ai une passion presque maladive pour les câbles, les batteries et tout ce qui permet de nourrir mes trucs de geek maladif. J’ai acheté il y a quelques semaines ce bloc chargeur de chez Anker équipé d’un grand écran, et franchement, je l’adore. Il trône sur mon bureau, sous mon écran, et je charge absolument tout avec lui. Il fournit 250W en GaN, et autant vous dire qu’avec ce truc, votre bureau ne sera plus jamais le même.

Au premier coup d'œil, la bête ressemble à un petit réveil futuriste, compact et plutôt mignon avec sa robe grise assez classique des produits Anker Prime sortis ces dernières semaines. Puis vous le branchez, et là on change un peu de dimension. On se retrouve face à un chouette écran LCD de 2,26 pouces qui affiche en temps réel ce qui se passe dans le ventre de la bête. C’est le genre de détail dont je ne pourrai plus jamais me passer : voir les watts défiler précisément port par port, c'est limite hypnotique et vraiment très satisfaisant.

La fiche technique est tout simplement monstrueuse avec quatre ports USB-C en façade et deux ports USB-A sur le côté. Le premier port USB-C est capable à lui tout seul de balancer 140W, ce qui vous permettra de redonner 50% de batterie à un MacBook Pro 16 pouces en quelque 25 minutes. Avec une puissance totale de 250W, vous pouvez même alimenter simultanément deux ordinateurs portables, une tablette et vos smartphones divers et variés sans faire chauffer le boîtier (merci la technologie GaN).

L’autre truc très marrant c’est la molette de contrôle située sur le côté de l'appareil. En tournant et en cliquant, on accède à une gestion plus fine de l'énergie délivrée. On peut par exemple activer le mode Dual-Laptop pour prioriser deux ordinateurs, ou passer en mode Low Current pour optimiser la charge des petites batteries de vos AirPods ou de votre Apple Watch durant la nuit. Tout est transparent, intuitif, et on peut même gérer l'ensemble depuis une application dédiée sur son smartphone si l'on a la flemme de tendre le bras. Pour être très honnête je n’utilise jamais la molette, je l’ai branché, et par défaut, c’est déjà parfait.

Pour ceux qui veulent vraiment un réveil sur leur bureau, en mode horloge, le chargeur affiche l'heure et la date proprement. C’est validé pour ça aussi.

Alors certes, c’est 160 euros, mais franchement c’est tellement puissant, pratique, design et satisfaisant, qu’à mon avis, ça vaut vraiment le coup, surtout si vous aussi, vous aimez voir les watts défiler en temps réel. Disponible par ici, sur Amazon !

Article invité publié par Vincent Lautier . Vous pouvez aussi faire un saut sur mon blog , ma page de recommandations Amazon , ou lire tous les tests que je publie dans la catégorie "Gadgets Tech" , comme cette liseuse Android de dingue ou ces AirTags pour Android !

Ce mec a conçu sa propre carte mère 486 from scratch

Par :Korben
26 janvier 2026 à 18:23

Non mais attendez... y'a un mec qui vient de concevoir une carte mère 486 from scratch , en grand 2026 comme disent les jeunes ! Pas une repro. Pas un clone. Non non, une vraie carte mère complète avec son propre chipset custom qui fait tourner DOOM et Linux.

Un PCB 4 couches fait maison, rien que ça !!

Piotr Grzesik, alias maniek86, est un étudiant en électronique polonais qui s'est lancé dans un projet complètement dingue. Tout est parti d'une sombre arnaque sur une carte POST ISA chinoise... et suite à ça, il s'est dit "bon, je vais apprendre le VHDL et l'ISA bus moi-même". En fait, au début je pensais que c'était juste un projet de bricolage de plus, mais non. De fil en aiguille, il a fini par créer la M8SBC-486 , une carte mère qui accueille de vrais processeurs Intel 486 vintage.

La carte mère M8SBC-486 dans toute sa splendeur rétro

Et le bonhomme n'a pas juste fait un PCB, mais a carrément développé son propre chipset baptisé "Hamster" qui tourne sur un FPGA Xilinx Spartan II. Il aurait pu utiliser un FPGA récent mais il a préféré le Spartan II parce que les outils Xilinx modernes supportent plus ces vieilles puces. Donc il bosse avec des logiciels de 15 ans d'âge... logique.

Et dedans, y'a tout ce qu'il faut pour émuler un PC des années 90 : un timer 8254, un contrôleur d'interruptions 8259, un contrôleur clavier PS/2, et même une horloge temps réel.

Côté specs c'est du bon vieux socket PGA-168 compatible avec tous les processeurs 486 5V, que ce soit du Intel ou des compatibles. Le bus tourne à 24 MHz, ce qui donne du 48 MHz avec un DX2 (et théoriquement 72 MHz avec un DX4). Y'a 4 Mo de SRAM, 256 Ko de ROM pour le BIOS, et deux slots ISA 16 bits pour les nostalgiques des cartes d'extension. Attention par contre, si vous comptez utiliser un 486 3.3V genre les derniers AMD, ça passera pas... faut du 5V uniquement.

Perso, ce qui m'impressionne le plus c'est la liste des trucs qui tournent dessus. MS-DOS 6.22 évidemment, FreeDOS, mais aussi Linux 2.2.26 ! Sans oublier DOOM, Wolfenstein 3D, et la démo Second Reality qui en a fait baver plus d'un à l'époque. Même Windows 3.1 démarre. Bon, la souris fonctionne pas, mais quand même...

J'aurais bien voulu tester moi-même sur un vieux 486 DX2/66 qui traîne quelque part dans un carton au garage, mais retrouver ce truc c'est un projet en soi. Finalement, si vous êtes fan d' émulation rétro , c'est pil poil le genre de projet qui fait rêver les vieux grands enfants que nous sommes !

Le plus beau dans tout ça, c'est que Piotr a publié l'intégralité du projet en open source sur GitHub : les schémas, le PCB, le code VHDL du chipset, les sources du BIOS... Tout est dispo. Du coup si vous avez envie de vous lancer dans le rétrocomputing hardcore, vous savez où chercher.

Bon après, y'a quelques limitations. C'est là que ça peut coincer car y'a pas de DMA, donc oubliez les cartes son type Sound Blaster. Pas de second PIC non plus, et le Plug and Play ISA n'est pas encore implémenté dans le BIOS. Sauf si vous êtes prêt à contribuer au code, évidemment.

Mais franchement, pour un premier essai de cette envergure, c'est du très très solide.

Bref, si vous voulez voir la bête en action, la vidéo montre la démo Second Reality qui tourne avec quelques petits glitches visuels et pas de son, mais c'est normal vu les limitations.

Et si vous avez des vieux 486 qui traînent dans un carton, vous avez maintenant une raison de les ressortir !

Source

Reçu hier — 26 janvier 2026 7.1 📜 Résumé - Tech.

LastPass 5.4.0

26 janvier 2026 à 17:43
Enregistrez de manière sécurisée tous vos mots de passe, générez des mots de passe complexes et retrouvez-les simplement et sûrement à partir de n'importe quel ordinateur ou de votre smartphone...

Portage CUDA vers ROCm en 30 min avec IA : promesse ou mirage technique ?

Par :Wael.K
26 janvier 2026 à 21:12

Un développeur affirme avoir porté en 30 minutes un backend CUDA complet vers ROCm en s’appuyant exclusivement sur l’agent de programmation Claude Code. Publié le 22 janvier sur Reddit par « johnnytshi », le récit décrit une migration sans couche d’abstraction intermédiaire, avec une traduction directe des primitives CUDA vers leurs équivalents ROCm via un cadre d’agents capable d’inférer la logique bas niveau du code.

Selon l’auteur, l’interaction s’est faite en ligne de commande, sans mise en place d’un pipeline Hipify. Le seul obstacle notable aurait concerné le « data layout », point sensible dès qu’on touche à la hiérarchie mémoire et aux schémas d’accès. Pour le reste, l’IA aurait géré l’alignement des appels, la réécriture des kernels et l’adaptation des API, profitant du parallélisme conceptuel entre CUDA et ROCm.

La parenté entre les deux piles logicielles facilite les cas simples, mais les limites apparaissent dès qu’un codebase fortement couplé exploite des optimisations fines de cache, des patterns warp/onde spécifiques, ou des chemins critiques sensibles à la latence mémoire. L’auteur reconnaît que les optimisations « deep hardware » restent hors de portée de l’outil dans l’état, et que l’automatisation ne remplace ni la validation de performance ni le profiling ciblé.

La démonstration illustre une tendance: l’IA abaisse le coût d’entrée du portage CUDA→ROCm pour les projets modestes, au moins jusqu’à la compilation et aux tests fonctionnels. Pour des bibliothèques HPC, des runtimes d’entraînement ou des graphes complexes mêlant communications et kernels spécialisés, la barrière reste la stabilité des perfs et la maîtrise des topologies mémoire, deux sujets qui exigent encore des itérations manuelles, du profiling et une connaissance intime des GPU cibles.

À court terme, ce type d’assistance peut accélérer les explorations multi-vendeurs et la réduction de dette technique liée au verrou CUDA. À moyen terme, l’enjeu sera la capacité de ces agents à raisonner sur les modèles d’exécution, la coalescence des accès, l’occupation, et à proposer des transformations sûres au-delà de la simple correspondance d’API.

Source : reddit

GPT-5.2 visé : citations Grokipedia fragilisent l’usage pro et la traçabilité

Par :Wael.K
26 janvier 2026 à 21:01

OpenAI présente GPT-5.2 comme son modèle « le plus avancé pour le travail professionnel ». Une série de tests conduite par le Guardian met pourtant en cause sa fiabilité sur des sujets sensibles, pointant des réponses s’appuyant sur Grokipedia, l’encyclopédie en ligne de xAI déjà critiquée pour ses sources problématiques.

Le quotidien britannique a constaté que ChatGPT citait Grokipedia lorsqu’il répondait à des questions liées à l’Iran, notamment autour d’allégations sur des liens entre le gouvernement et MTN Iran, ainsi que sur des points touchant l’historien Richard Evans, expert lors du procès en diffamation impliquant le négationniste David Irving. En revanche, sur d’autres terrains inflammables comme un supposé biais médiatique en faveur de Donald Trump, l’outil n’aurait pas fait appel à Grokipedia.

Lancé en décembre, GPT-5.2 cible les usages pros, de la production de feuilles de calcul à la gestion de tâches complexes. Grokipedia, antérieure au modèle, a déjà suscité des critiques pour avoir agrégé des références issues de forums néonazis. Des travaux universitaires américains ont également relevé des citations « douteuses » et des sources « problématiques » dans cette encyclopédie générée par IA.

Interrogé, OpenAI explique que GPT-5.2 interroge « des sources et points de vue publiquement accessibles variés » tout en appliquant des filtres de sécurité destinés à réduire l’exposition à des contenus à risque. La formulation reste prudente et ne précise ni le poids accordé à chaque source ni les critères d’exclusion dynamiques.

Contexte et portée des tests

Le constat du Guardian ne vaut pas audit exhaustif du graphe de connaissances de GPT-5.2, mais souligne un angle mort : sur des sujets polarisés, les citations peuvent basculer vers un référentiel controversé sans signalisation claire. Le fait que Grokipedia ne soit pas invoquée de manière systématique renforce l’idée d’une pondération contextuelle, difficile à prédire.

Le différentiel de comportement selon le thème pose une question de gouvernance des sources, au-delà des garde-fous de sécurité. Dans un cadre professionnel, où traçabilité et conformité documentaire priment, l’absence d’explicitation des priorités de citation devient un point de friction.

Implications pour les usages pros

Pour des workflows qui exigent une chaîne de sources vérifiables, l’appel potentiel à une encyclopédie contestée affaiblit la valeur probante des sorties, même si celles-ci restent factuellement correctes. Les entreprises devront durcir les politiques d’attribution, imposer des listes blanches de référentiels et exiger la restitution des citations primaires plutôt que des méta-sources.

L’enjeu dépasse le filtrage des contenus à risque : il s’agit de hiérarchiser des corpus reconnus, de préférence à des agrégateurs dont la gouvernance éditoriale est mouvante. Sans granularité de contrôle côté modèle, le besoin se reporte sur l’orchestration applicative et l’audit humain des réponses sensibles.

À court terme, cette controverse rappelle que les modèles « généralistes » restent fragiles dès qu’ils mêlent assistance à la rédaction et autorité documentaire. Le marché ira vers des piles hybrides combinant LLM, moteurs de RAG verrouillés sur des sources certifiées et politiques d’archivage des citations, faute de quoi la promesse « pro » se heurte à des exigences de conformité que la seule modération automatisée ne couvre pas.

Source : ITHome

Atlas de Boston Dynamics vise l’usine: cadence stable, déploiement dès 2028

Par :Wael.K
26 janvier 2026 à 20:58

Au CES, les humanoïdes ont défilé. Puis Atlas est monté sur scène et la catégorie a changé d’échelle. Conçu par Boston Dynamics, désormais détenu à 80 % par Hyundai, ce robot de 1,5 m (2,3 m bras tendus) cible clairement l’industrie, loin du gadget dansant. Capable de se déplacer avec assurance, de manipuler des pièces fines et, au besoin, d’enchaîner des gestes complexes, Atlas s’inscrit comme le futur bras polyvalent des ateliers où l’automatisation classique cale encore.

Atlas de Boston Dynamics vise l'usine: cadence stable, déploiement dès 2028

Cadence industrielle, pas de « coup de mou »

Hyundai prévoit un démarrage en production au RMAC, son centre d’applications dédié, avec des déploiements dans plusieurs usines du groupe à partir de 2028 et un objectif de 30 000 unités à l’horizon 2030. Le message est limpide : la stabilité prime sur la vitesse. Là où un opérateur humain baisse de régime au fil de la journée, le robot maintient une cadence constante, sans supervision lourde.

Atlas de Boston Dynamics vise l'usine: cadence stable, déploiement dès 2028

Le démonstrateur sur le stand Hyundai à Las Vegas illustrait cette logique. Atlas transférait des composants d’auto entre bacs sans se déplacer, en pivotant le torse et les membres grâce à 56 degrés de liberté. Ses préhenseurs, assez précis pour saisir des objets fragiles, s’accompagnent d’une autonomie pensée pour le terrain : fonctionnement en extérieur, dock de changement de batterie que le robot rejoint seul, architecture modulaire avec bras, jambes et mains remplaçables en quelques minutes par du personnel formé.

Pourquoi un humanoïde, et pourquoi maintenant

Boston Dynamics assume l’option biped pour une raison prosaïque : l’essentiel du parc industriel occidental fonctionne dans des bâtiments de plus de 30 ans, conçus pour des humains. Automatiser sans refaire l’usine impose un gabarit et une cinématique compatibles avec l’existant. Atlas complète un portfolio déjà orienté métier, du chien Spot aux solutions de logistique type Stretch, mais vise le multi-tâches grâce aux progrès de l’IA, notamment sur les modèles de comportement développés avec DeepMind.

À court terme, l’effort porte sur l’intelligence motrice – course, saut, danse ne sont pas qu’un show, ce sont des marges de manœuvre cinématiques pour absorber les aléas des postes. La brique « comportement » suit, avec l’ajout d’outillages et de gestes métier comme le soudage ou la construction légère. L’ambition reste pragmatique : résoudre les tâches que les robots fixes n’attrapent pas, sans restructurer la ligne.

Une course à plusieurs, des positions déjà prises

La concurrence s’aligne : Tesla pousse Optimus, Figure AI, Agility Robotics ou Apptronik avancent leur copie, et en Chine, Zoomlion déploie déjà des humanoïdes en usines. Boston Dynamics oppose une chaîne d’industrialisation existante, financée et outillée par Hyundai, avec support terrain, intégration, maintenance et logistique. Reste la question des coûts : pour beaucoup d’ateliers, l’humain demeure aujourd’hui plus économique.

Le discours social s’ajuste en conséquence. BD parie sur la montée de postes d’« opérateur robot » plutôt que sur une substitution brute à court terme. Et pour le domicile, la réponse est claire : pas avant une décennie. Le ticket d’entrée, les exigences de sécurité et l’imprévisibilité d’un intérieur rendent le marché grand public inopportun. Le calendrier interne place les déploiements industriels massifs entre 2028 et 2030, puis un éventuel virage vers le foyer cinq ans plus tard.

Atlas de Boston Dynamics vise l'usine: cadence stable, déploiement dès 2028

Si Hyundai tient la rampe industrielle et si l’IA comportementale tient ses promesses, Atlas pourrait signer la bascule de l’automatisation vers les « zones grises » de l’usine, celles que l’on a laissées humaines faute de ROI et de flexibilité. Le vrai enjeu n’est pas de remplacer un poste isolé, mais de rendre reconfigurable et résiliente une production brune sans CAPEX massif. C’est là que l’humanoïde, plus qu’un format, devient une interface universelle avec l’existant.

Source : ITHome

Benchmark APEX-Agents : les IA de bureau plafonnent à 24 % de précision

Par :Wael.K
26 janvier 2026 à 20:56

Selon une étude relayée par Digital Trends et menée par Mercor, les grands modèles d’IA peinent à exécuter des tâches de bureau réalistes : aucun ne dépasse 25 % de précision sur le nouveau benchmark APEX-Agents. Ce protocole ne teste ni poésie ni équations, mais des workflows concrets de juristes, consultants et banquiers, avec des séquences multi‑étapes faisant appel à plusieurs sources d’information.

Le meilleur score revient à Gemini 3 Flash (24,0 %), suivi de GPT‑5.2 (23,0 %). Derrière, Claude Opus 4.5 et Gemini 3 Pro affichent 18,4 %, GPT‑5 18,3 %, Grok 4 15,2 %, puis un net décrochage pour GPT‑OSS‑120B (4,7 %) et Kimi K2 Thinking (4,0 %). Ces résultats confirment la difficulté des modèles à tenir une chaîne d’actions fiable lorsqu’il faut enchaîner consultation d’agendas, historiques de messagerie, PDF et feuilles de calcul.

Benchmark APEX-Agents : les IA de bureau plafonnent à 24 % de précision

Contexte et limites du protocole

Mercor attribue l’échec récurrent à la gestion du contexte et au passage d’une source à l’autre, où les modèles confondent, mélangent ou abandonnent des étapes critiques. Dans un environnement de bureau, cette fragilité les cantonne au rôle d’« assistant stagiaire » peu fiable plutôt qu’à celui d’opérateur autonome. La méthodologie APEX-Agents se distingue en imposant une coordination d’outils et de supports hétérogènes, un point névralgique des usages réels que les benchmarks classiques éludent encore trop souvent.

Progrès rapides mais insuffisants

Mercor souligne néanmoins une progression marquée : des tests comparables plafonnaient à 5–10 % il y a un an, contre 24 % aujourd’hui pour le meilleur modèle. L’accélération est nette, sans pour autant valider une substitution proche des travailleurs du savoir tant que la gestion multi‑tâches et les bascules de contexte resteront instables. Pour les déploiements en production, la fiabilisation passera autant par l’orchestration outil‑par‑outil et la vérification systématique que par de nouveaux entraînements focalisés sur l’exécution et la mémoire de travail.

Source : ITHome

GTA 6 ne serait pas disponible au format physique au lancement

26 janvier 2026 à 20:48

Take-Two et Rockstar Games envisageraient de ne pas commercialiser la version disque de Grand Theft Auto VI (GTA 6) en même temps que l’édition numérique pour empêcher la divulgation du contenu du jeu. Cette stratégie de distribution viserait à neutraliser les risques de spoilers inhérents à la logistique …

Lire la suite

Aimez KultureGeek sur Facebook, et suivez-nous sur Twitter

N'oubliez pas de télécharger notre Application gratuite iAddict pour iPhone et iPad (lien App Store)


L’article GTA 6 ne serait pas disponible au format physique au lancement est apparu en premier sur KultureGeek.

Intel Arc Pro B70 et B65 Battlemage: 32 Xe2, jusqu’à 32 Go GDDR6, lancement imminent

Par :Wael.K
26 janvier 2026 à 20:10

Intel muscle ses cartes pro avant même de parler gaming. Les Arc Pro B65 et B70 s’annoncent avec 32 Go de GDDR6, mais la variante grand public reste au frigo.

Intel Arc Pro B70/B65 Battlemage: cap sur le pro

C’est confirmé, Intel délaisse les joueurs et vise les pros avec BMG-G31. Les Arc Pro B70 et Arc Pro B65 arrivent en Q1 de cette année, avec une fenêtre probable en février ou mars. Les deux cartes s’appuient sur le die BMG-G31 destiné au haut de gamme, priorisé pour la visualisation professionnelle et les workloads IA locaux.

L’Arc Pro B70 aligne 32 cœurs Xe2 et 32 Go de GDDR6 sur bus 256-bit, soit 4 096 cœurs FP32 dans sa configuration complète. C’est le double du nombre de cœurs de l’Arc Pro B60, et le double de sa capacité mémoire sur la version mono-GPU.

Tableau des versions Intel Arc Pro B65 et B70 avec détails de lancement

L’Arc Pro B65 coupe le BMG-G31 à 20 cœurs Xe2 pour 2 560 FP32, une configuration identique à l’Arc Pro B60 côté compute, mais avec 32 Go de GDDR6 fournis d’emblée, soit +8 Go par rapport au B60. De quoi viser les stations de travail et le développement LLM local avec un ratio capacité/prix agressif face au duo AMD/NVIDIA.

Photo illustrée d'une puce intel ARC Pro

Gaming en pause: B770 repoussé

Les partenaires cartes ont reçu des dies BMG-G31 pour tests et designs custom, mais uniquement pour les SKU Pro. Aucun échantillon gaming n’a été expédié: le lancement de la grande Arc B770 est retardé, sans fenêtre proche annoncée.

Positionnement et implications

En concentrant ses volumes BMG-G31 sur le pro-viz, Intel Arc Pro s’ouvre un boulevard: beaucoup de VRAM (32 Go GDDR6) et une offre compute lisible pour les studios et l’IA locale. Le revers est clair pour les joueurs: sans B770 à court terme, le segment gaming haut de gamme reste figé, tandis que le marché pro pourrait voir Intel grignoter des parts par la mémoire et le TCO, en attendant des drivers et outils qui scellent la bascule.

Source : TechPowerUp

WhatsApp va devoir respecter les règles du DSA en Europe pour ses chaînes

26 janvier 2026 à 20:04

La Commission européenne a intégré aujourd’hui WhatsApp à la liste des très grandes plateformes en ligne, soumettant ainsi l’application de Meta à une surveillance accrue. Cette décision réglementaire cible spécifiquement les chaînes WhatsApp pour prévenir les risques de manipulation, sous peine de sanctions financières pouvant atteindre 6 % …

Lire la suite

Aimez KultureGeek sur Facebook, et suivez-nous sur Twitter

N'oubliez pas de télécharger notre Application gratuite iAddict pour iPhone et iPad (lien App Store)


L’article WhatsApp va devoir respecter les règles du DSA en Europe pour ses chaînes est apparu en premier sur KultureGeek.

❌