↩ Accueil

Vue normale

Reçu hier — 9 février 2026 7.1.2 🖥️ Sites secondaires

Câbles 12VHPWR/12V-2×6 qui fondent : Aqua Computer Ampinel surveille chaque broche pour 99.99 € (dispo sous 60 jour)

Par :Wael.K
9 février 2026 à 21:47

Votre câble 16 pins 12VHPWR ou 12V-2×6 est parfaitement branché, et pourtant, votre GPU pourrait être en train de fondre en silence. On a longtemps blâmé les erreurs de manipulation, mais la réalité est bien plus insidieuse : un déséquilibre électrique que même le meilleur câble du marché ne peut pas corriger seul.

Le problème ? Vous ne pouvez pas le voir à l’œil nu. Même avec un branchement parfait, les variations de résistance microscopiques entre les contacts créent des déséquilibres de courant. Une broche peut encaisser 12A pendant que sa voisine stagne à 8A. Et quand l’une d’elles franchit le seuil critique de 9,5A ? La surchauffe démarre. Pas d’étincelle, pas d’alerte visible, juste une dégradation progressive qui finit en fusion.

C’est précisément cette faille invisible qu’Ampinel a décidé d’attaquer. Alors que les nouveaux connecteurs 12V-2×6 continuent de faire trembler les possesseurs de RTX haut de gamme, cette solution matérielle inédite développée par Aqua Computer, spécialiste allemand reconnu du monitoring PC, s’attaque à la véritable racine du mal : l’inégalité fatale de courant entre les broches. Dépenser 100 € pour protéger une carte graphique qui en coûte 2000 voire 3000 € ? C’est le pari de cet adaptateur unique en son genre.

Ampinel : une approche matérielle, pas un simple observateur

Avec Ampinel, Aqua Computer propose une réponse radicalement différente des adaptateurs passifs ou des modules de simple monitoring. Le module s’intercale entre le câble d’alimentation et la carte graphique, mais son rôle ne se limite pas à mesurer.

Aqua Computer Ampinel protection 12VHPWR 01

Ampinel intègre un équilibrage actif du courant, entièrement géré en matériel. Dès qu’une ligne dépasse environ 7,5 A, le système redistribue instantanément la charge sur l’ensemble des six lignes afin d’éviter toute surcharge locale. L’objectif n’est pas d’augmenter ou de réduire la puissance consommée par le GPU, mais de s’assurer qu’aucun pin ne devienne un point chaud.

ampinel aquasuite 2 en

Cette régulation active fonctionne indépendamment du système d’exploitation ou d’un logiciel en arrière-plan. Même sans USB, sans aquasuite, ou sous Linux, la protection reste active.

Aqua Computer Ampinel protection 12VHPWR aquasuite 01

Surveillance continue et sécurité autonome

En complément de l’équilibrage, Ampinel surveille en permanence courants, tensions et températures au niveau du connecteur. En cas d’anomalie persistante, un système d’alertes progressives peut intervenir, jusqu’à une coupure matérielle de sécurité via les lignes sense ou l’alimentation elle-même.

Aqua Computer Ampinel protection 12VHPWR aquasuite 03

Point important souligné par Aqua Computer dans le fil de discussion : ces mécanismes critiques ne peuvent pas être désactivés. Même en utilisation totalement plug and play, Ampinel est préconfiguré pour protéger la carte graphique en cas de situation dangereuse. Le logiciel aquasuite n’est requis que pour l’affichage avancé, les notifications Windows ou l’arrêt automatique de certaines applications.

Face aux solutions passives, une philosophie différente

Des produits comme le WireView Pro II de Thermal Grizzly ont popularisé le monitoring du 12VHPWR, mais leur rôle reste essentiellement observateur. Ampinel va plus loin en agissant directement sur la cause du problème, à savoir l’inégalité de charge entre les lignes.

Dans le fil, Aqua Computer insiste sur un point souvent mal compris : l’équilibrage n’augmente pas le courant total, ne “crée” pas de puissance supplémentaire et ne pénalise pas significativement le rendement. Il vise uniquement à empêcher qu’un bon contact ne se retrouve surchargé pendant qu’un autre reste sous-utilisé, scénario typique menant à la dégradation progressive du connecteur.

L’interface ci-dessous illustre concrètement le comportement d’AMPINEL selon le niveau de charge. Elle permet de visualiser à la fois la consommation par fil et l’intervention du module lorsque le courant devient critique.

ampinel balance active

Dans la première phase, le courant reste inférieur à environ 7,5 A par fil. Les écarts de charge sont visibles, mais sans risque thermique, ce qui explique l’absence d’intervention du module. Lorsque la charge augmente et que ce seuil est dépassé, AMPINEL active son équilibrage matériel.

Les six lignes se retrouvent alors quasiment au même niveau d’intensité, signe que la charge est répartie de manière homogène. La dernière zone met en évidence les ajustements internes opérés par AMPINEL pour compenser les différences de résistance entre les contacts, afin d’éviter qu’un seul pin ne devienne un point chaud sous forte sollicitation.

Compatibilité, formats et limites actuelles

Ampinel cible en priorité les GeForce RTX 4000 et RTX 5000, avec deux variantes correspondant à l’orientation du clip du connecteur côté GPU. Les dimensions exactes doivent permettre aux utilisateurs de vérifier la compatibilité avec leur carte, notamment en présence de waterblocks ou de backplates imposantes. D’autres orientations ne sont pas prévues au lancement.

Le support des cartes AMD est évoqué comme en cours de validation. Côté mécanique, Aqua Computer précise que le produit ne peut ni endommager la carte graphique ni perturber son fonctionnement électrique.

Prix, disponibilité et réalité du marché

Annoncé initialement autour de 80 €, Ampinel arrive finalement à 99,90 € TTC. Le fabricant justifie cette hausse par des développements supplémentaires côté firmware et logiciel. À cela s’ajoutent des délais de disponibilité importants, avec des ruptures et des délais pouvant atteindre plusieurs semaines selon les régions.

Tableau comparatif produit Ampinel 12V-2x6 modèles A et B, fond blanc peu contrasté

Face à un WireView Pro II souvent affiché autour de 140 €, Ampinel se positionne comme une solution plus technique et plus ambitieuse, sans toutefois proposer d’extension de garantie constructeur spécifique.

Une réponse pragmatique à une inquiétude bien réelle

Ampinel ne promet pas l’impossible. Il ne rend pas un connecteur indestructible et ne remplace pas une installation soignée. En revanche, il apporte une réponse matérielle crédible à un problème structurel du 12V-2×6 : la variabilité des contacts sous forte intensité.

Pour les utilisateurs de GPU haut de gamme, en particulier sur des configurations compactes ou très sollicitées, l’équilibrage actif et la coupure autonome pourraient bien marquer un tournant. Reste une inconnue majeure pour l’instant : la disponibilité réelle du produit face à une demande déjà très forte.

Source : Forum Aqua Computer

URKL : une ligue de combat pour robots humanoïdes, banc d’essai mécatronique

Par :Wael.K
9 février 2026 à 19:31

Shenzhen Zhongqing Robot annonce l’URKL, une ligue mondiale de « free fight » dédiée aux humanoïdes, avec une récompense inédite : une ceinture en or pur évaluée à 10 000 000 ¥ (environ 1.3M €) pour l’équipe championne. Le CEO Zhao Tongyang présente l’événement comme un banc d’essai technologique et un vivier de talents pour l’écosystème robotique.

URKL : une ligue de combat pour robots humanoïdes, banc d’essai mécatronique

Un format frontal pour éprouver la mécatronique

URKL se positionne comme la première compétition commerciale de combat libre pour robots humanoïdes. L’objectif affiché est de pousser les architectures d’actionnement, la coordination multi-articulations et la robustesse des châssis dans des scénarios de contraintes violentes, loin des démonstrations scénarisées habituelles.

En vitrine, le T800 de Zhongqing, dévoilé en décembre 2025 à partir de 180 000 ¥ (environ 23 300 €). L’humanoïde adopte des modules d’articulation « full-stack » à forte densité de puissance, avec un couple crête coordonné annoncé à 450 N·m et une puissance de pointe instantanée par articulation de 14 000 W. Zhao assure que les performances physiques dépassent « 90 % des hommes », assumant un parti-pris « d’abord solide et puissant ».

Une vidéo de démonstration montre Zhao, équipé de protections, encaisser un coup de pied du T800, en précisant qu’une tentative sans protections « causerait assurément une fracture ». La mise en scène illustre l’angle choisi : valider endurance mécanique, contrôle d’impact et gestion thermique sous charges transitoires élevées, plutôt que de se concentrer sur l’interaction douce.

Si le cahier des charges URKL n’est pas détaillé, l’enjeu technique est clair : fiabilité des transmissions, tenue des réducteurs et moteurs à haut couple, synchronisation capteurs-contrôleurs en latence minimale, ainsi que résistance structurelle des coques et jonctions. Un format compétitif de ce type pourrait accélérer l’itération sur les actionneurs intégrés et les algorithmes de contrôle d’équilibre, avec des retombées directes pour la logistique et l’assistance industrielle.

Source : ITHome

OpenAI teste des publicités dans ChatGPT, sans influencer les réponses

Par :Wael.K
9 février 2026 à 19:24

OpenAI a commencé à tester des publicités au sein de ChatGPT, selon CNBC citant une source proche du dossier. L’entreprise avait précisé en amont que ces annonces seraient clairement signalées, cantonnées au bas des réponses du chatbot et sans incidence sur le contenu généré.

Portée du test et positionnement business

D’après cette même source, la publicité ne devrait pas, à terme, dépasser 50 % du chiffre d’affaires d’OpenAI. Le cadrage est notable dans un marché dominé par Google et Meta, où Amazon progresse rapidement sur le segment retail media. OpenAI se réserve ainsi une trajectoire hybride, entre monétisation directe des modèles et revenus publicitaires additionnels.

chatgpt ads openai mockup

Contexte concurrentiel et communication

Anthropic a profité du Super Bowl pour égratigner l’idée d’insérer des publicités dans un assistant conversationnel. Sam Altman a répliqué sur X, jugeant ces piques « trompeuses » et affirmant qu’OpenAI ne diffuserait « évidemment jamais » des annonces telles que décrites par son concurrent. Le dispositif actuel, limité et balisé, cherche visiblement à éviter toute confusion entre réponse modèle et inventaire publicitaire.

Si le test se généralise, l’équilibre signalétique et la gouvernance des emplacements sponsorisés seront scrutés de près. L’enjeu technique n’est pas trivial: préserver l’intégrité perçue de la réponse générée tout en ouvrant une surface d’inventaire exploitable, sans dérive vers des formats intrusifs qui brouilleraient la confiance—actif central des assistants d’usage quotidien.

Source : ITHome

Même brisée et pliée : une GeForce RTX 3080 Ti sauvée après une scène digne d’un drame de Saint-Valentin

9 février 2026 à 18:28

À l’approche de la Saint-Valentin, certaines histoires rappellent que les ruptures peuvent parfois se transformer en véritables catastrophes… matérielles. En Chine, une GeForce RTX 3080 Ti a récemment fait le tour du web après avoir subi ce que l’on pourrait qualifier de violence conjugale appliquée au hardware : la carte aurait été frappée à plusieurs […]

L’article Même brisée et pliée : une GeForce RTX 3080 Ti sauvée après une scène digne d’un drame de Saint-Valentin est apparu en premier sur HardwareCooking.

La future Xbox pourrait devenir un PC gaming sous Windows 11, avec une couche console dédiée

9 février 2026 à 17:52

Les premières informations sérieuses autour de la prochaine console Xbox commencent à dessiner une trajectoire assez radicale pour Microsoft. Selon plusieurs rapports relayés par Windows Central, la Xbox de 10e génération ne serait plus pensée comme une console traditionnelle au sens strict, mais plutôt comme un PC gaming sous Windows 11, habillé d’une interface et […]

L’article La future Xbox pourrait devenir un PC gaming sous Windows 11, avec une couche console dédiée est apparu en premier sur HardwareCooking.

NVIDIA préparerait une GeForce RTX 5090 Ti ou une RTX TITAN Blackwell pour la seconde moitié de 2026

9 février 2026 à 17:40

NVIDIA pourrait bien avoir une nouvelle carte graphique « halo » dans ses cartons. D’après plusieurs informations, le constructeur travaillerait sur un modèle encore plus haut de gamme que la GeForce RTX 5090 actuelle, avec deux pistes possibles : une hypothétique GeForce RTX 5090 Ti ou le retour d’une carte de type RTX TITAN, cette […]

L’article NVIDIA préparerait une GeForce RTX 5090 Ti ou une RTX TITAN Blackwell pour la seconde moitié de 2026 est apparu en premier sur HardwareCooking.

Coolify - Le PaaS self-hosted qui évite les galères Docker

Par :Korben
9 février 2026 à 17:21

Coolify, c'est un PaaS open source que vous installez sur vos propres serveurs pour déployer vos apps, vos bases de données et vos services... sans vous farcir Docker à la main. En gros, un Heroku ou un Vercel, mais en version self-hosted sans enfermement propriétaire comme on pourrait dire en bon français.

La version auto-hébergée est donc TOTALEMENT gratuite. Pas de limite sur le nombre de serveurs, pas de restriction sur les features, pas de "ah pour les teams faut upgrader". Y'a R comme disait mon grand-père... Vous avez SSH sur une machine ? Ça suffit. VPS, Raspberry Pi, dédié, vieux laptop qui traîne dans un coin... Hop, une seule commande et c'est installé.

Côté déploiement, Coolify détecte automatiquement votre stack via Nixpacks (c'est-à-dire qu'il devine le langage et génère le build tout seul). Mais vous pouvez aussi balancer un Dockerfile, un Docker Compose ou un simple site statique. Du coup, que vous bossiez en Next.js, Django, Laravel, Rails, Phoenix ou SvelteKit, ça passe sans config particulière.

Pour les bases de données, c'est pas mal non plus : PostgreSQL, MySQL, MariaDB, MongoDB, Redis, ClickHouse... tout se déploie en quelques clics. Et au total, le catalogue compte plus de 280 services one-click (Plausible, Gitea, Minio, n8n, et j'en passe). Y'a de quoi monter une infra complète avant même d'ouvrir un terminal.

Le workflow Git est solide puisque c'est du push-to-deploy avec GitHub, GitLab, Bitbucket ou Gitea, avec en prime des déploiements de preview par pull request. Pratique pour tester une branche avant de tout péter en prod (ouais, je vous connais...). Vous avez aussi les webhooks, une API REST documentée, et un terminal temps réel directement dans le navigateur.

Côté ops, les certificats SSL sont automatiques via Let's Encrypt, les backups de vos bases partent vers du stockage S3 compatible , et vous avez du monitoring intégré avec alertes Discord, Telegram ou email. Ça permet de dormir tranquille le vendredi soir. Pour le multi-serveur, Coolify supporte aussi Docker Swarm, donc vous pouvez répartir la charge sur plusieurs machines sans trop de prise de tête.

Si vous voulez pas gérer l'instance Coolify vous-même, y'a Coolify Cloud à 5$/mois (2 serveurs inclus, +3$ par serveur supplémentaire). Vos apps tournent toujours sur VOS machines et c'est juste le dashboard qui est hébergé chez eux. Pour les allergiques à l'admin système, ça peut valoir le coup.

Prise en main rapide

Pour installer Coolify, il vous faut un serveur Linux (Ubuntu LTS recommandé, mais Debian, CentOS, Fedora, Alpine ou même Raspberry Pi OS 64-bit passent aussi), avec au minimum 2 coeurs, 2 Go de RAM et 30 Go de stockage. Un accès SSH root est requis.

L'install tient en une ligne :

curl -fsSL https://cdn.coollabs.io/coolify/install.sh | sudo bash

Le script pose Docker, configure les clés SSH, crée les répertoires dans /data/coolify et démarre le tout. À la fin, il vous affiche l'URL de votre dashboard, généralement http://VOTRE_IP:8000. Premier réflexe : créez votre compte admin TOUT DE SUITE (car le premier qui tombe sur la page d'inscription prend le contrôle du serveur...).

Une fois connecté, la logique est simple. Vous créez un Projet (le conteneur logique de votre app), puis un Environnement dedans (dev, staging, prod...). Ensuite, vous ajoutez une Ressource, c'est-à-dire votre app, votre base de données ou un des 280 services one-click.

Pour déployer un repo Git, vous branchez votre compte GitHub, GitLab ou Gitea, vous sélectionnez le repo et la branche, et Coolify détecte le build pack adapté (Nixpacks, Dockerfile ou Compose). Vous configurez votre domaine, le reverse proxy (Traefik ou Caddy au choix) gère le SSL automatiquement, et hop... git push, c'est déployé.

Si vous voulez ajouter des serveurs distants, même principe : clé SSH, connexion root, et Coolify valide que tout est OK. Chaque serveur a son propre proxy, donc le trafic va directement dessus sans passer par le serveur principal. Pensez juste à pointer vos DNS vers le bon serveur.

Pour ceux qui explorent les alternatives, Dokploy est plus minimaliste (et plus récent), et Tipi reste centré sur les applis grand public type Nextcloud ou Plex. Coolify, c'est plutôt le couteau suisse du dev qui veut TOUT contrôler sur son infra.

Bref, si Docker Compose c'est plus votre truc, Coolify mérite clairement un petit test.

Merci lorenper !

Offpunk - Le navigateur terminal qui déchire passe en version 3.0

Par :Korben
9 février 2026 à 16:05

Un navigateur internet, vous voyez ce que c'est ? En général, ça pèse un âne mort, ça bouffe toute votre RAM et les sites que vous visitez vous bombardent de trackers et de pubs avant même que vous ayez pu lire la première ligne d'un article. Mais imaginez maintenant un outil qui se fout royalement du JavaScript, qui limite drastiquement le tracking et qui vous permet de lire vos contenus préférés en restant tranquillement hors-ligne ? Ce serait bien non ?

C'est là que Offpunk entre en scène. Développé par l'ami Ploum, ce navigateur en ligne de commande vient de passer en version 3.0, et c'est du bon boulot.

Car Offpunk n'est pas juste un navigateur classique... En réalité c'est un outil de lecture "offline-first" qui contrairement à Carbonyl ou Browsh embarquent des moteurs complets pour le web moderne. Offpunk mise en fait sur l'extraction de contenu, du coup, vous synchronisez vos pages quand vous avez du réseau, et vous les lisez plus tard, sans distractions ni scripts qui ralentissent tout.

Perso, j'adore cette approche qui remet le contenu au centre. Par exemple, même sans 4G dans le train, vous pouvez continuer à lire korben.info tranquillement.

Et cette version 3.0 apporte pas mal de nouveautés qui facilitent la vie. Déjà, l'outil est devenu multilingue et surtout, il intègre maintenant « unmerdify ». Comme son nom "françisé" l'indique, c'est une bibliothèque qui permet de nettoyer le HTML souvent bien crado des sites modernes pour n'en garder que l'essentiel.

Selon les sites, on se débarrasse alors d'une bonne partie des menus flottants et des overlays inutiles pour ne garder que le texte propre. Attention quand même, si vous tombez sur une page codée avec les pieds avec des scripts de 50 Mo partout, l'extraction peut parfois ramer une ou deux secondes... mais c'est le prix à payer pour la tranquillité.

Pour ceux qui se posent la question, Offpunk gère aussi les protocoles Gemini et Gopher, qui sont un peu les paradis perdus du web sans fioritures. Et si vous avez besoin de vous connecter à certains comptes abonnés demandant des cookies, y'a maintenant une commande pour importer vos fichiers cookies.txt directement. Il suffit de rajouter le chemin dans votre fichier de config ~/.offpunkrc et le tour est joué.

Un accès illimité au savoir dispo en ligne sans quitter la console, c'est beau non ! Sauf évidemment si votre terminal ne gère pas les couleurs... là, ça risque d'être un peu tristoune visuellement.

Le petit truc en plus qui tue c'est l'intégration qu'a fait Ploum de xkcdpunk pour lire vos BD XKCD préférées directement dans le terminal. Pas mal du tout pour s'occuper pendant les longs trajets en train sans Wi-Fi.

Vous pouvez l'installer via apt install offpunk ou pacman -S offpunk sur la plupart des distros, ou simplement cloner le dépôt Git et lancer le script avec python offpunk.py.

Pas besoin de compiler quoi que ce soit, on est entre gens civilisés ! J'ai galéré au début avec une vieille version de BeautifulSoup, mais en fait, une fois les dépendances à jour, c'est hyper stable.Bref, si vous saturez du web moderne et que vous voulez retrouver le plaisir de la lecture pure sans vous faire traquer par la moitié de la planète, allez tester ça. C'est léger, c'est intelligent et ça redonne un peu d'espoir dans l'avenir du terminal.

Source

FlashSpace - Le switcher de bureaux virtuels qui va plus vite que macOS

Par :Korben
9 février 2026 à 15:11

Si vous bossez sur Mac, vous connaissez sûrement la galère des Spaces. C'est sympa sur le papier, mais les animations natives d'Apple sont d'une lenteur... y'a de quoi se taper la tête contre les murs quand on veut switcher rapidement entre ses outils de dev et son navigateur. (Et ne me parlez pas du temps de réaction sur un vieux processeur Intel, c'est l'enfer). Bref, moi perso j'utilise pas trop ces trucs là parce que je trouve que c'est pas agréable.

Mais c'est là que FlashSpace entre en piste. Ce petit utilitaire open source, partagé par Vince (merci pour le tuyau !), a une mission simple : proposer un système de workspaces ultra-réactifs pour remplacer l'usage des Spaces natifs. L'idée déchire car au lieu de subir les transitions mollassonnes de macOS, on passe d'un environnement à l'autre de manière quasi instantanée.

Attention par contre, le fonctionnement est un peu particulier. J'ai d'abord cru qu'il créait de nouveaux Spaces dans Mission Control, mais en fait non, c'est plutôt un jeu de "j'affiche ou j'affiche pas les applications dont t'as besoin"... Pour que ça bombarde, FlashSpace recommande de regrouper toutes vos apps sur un seul et même Space macOS (par écran). L'outil gère ensuite des "workspaces virtuels" en masquant ou affichant les apps selon vos besoins. Résultat, une réactivité impressionnante même si ce n'est pas techniquement du "zéro latence" (faut bien que les fenêtres s'affichent quand même).

Pour ceux qui connaissent AeroSpace , FlashSpace se pose comme une alternative solide. Là où AeroSpace tend vers le tiling window management pur et dur à la i3, FlashSpace reste plus proche de l'esprit initial des Spaces mais en version survitaminée. C'est moins radical, plus invisible, mais perso je trouve ça tout aussi efficace pour rester dans le flow.

L'excitation quand on passe enfin d'un bureau à l'autre sans attendre 3 secondes ( Meme )

Côté fonctionnalités, c'est plutôt complet puisqu'on y retrouve du support du multi-écran (un petit clic dans Réglages Système > Bureau et Dock pour activer "Les écrans disposent de Spaces distincts"), gestionnaire de focus au clavier, et intégration avec SketchyBar . Y'a même un mode Picture-in-Picture expérimental (plutôt pour les navigateurs en anglais pour le moment) pour garder une vidéo sous le coude.

Petit bémol à connaître, il gère les applications, pas les fenêtres individuelles. Si vous avez trois fenêtres Chrome, elles bougeront donc toutes ensemble vers le workspace assigné. C'est un choix de design, faut juste s'y habituer mais grâce à ça on gagne encore quelques secondes de vie par jour.

brew install flashspace

Bref, si vous cherchez un moyen de dompter vos fenêtres sans finir avec des cheveux blancs à cause des animations Apple, allez tester ça.

Source

Un PC gaming dans une machine à écrire

Par :Korben
9 février 2026 à 13:50

Tout le monde veut construire le PC le plus rapide, le plus cher, le plus RGB possibeuuule sauf que Prototype, un YouTuber bien allumé, a décidé quand à lui de prendre le problème à l'envers... en intégrant un PC gaming complet dans une Smith-Corona 210 des années 70. Oui, une bonne vieille machine à écrire électrique de 8 kg.

Vous prenez cette vieille Smith-Corona électrique, vous virez tout ce qui sert à rien, vous gardez le chariot, les marteaux et la clochette (oui, la clochette là), et vous fourrez une carte mère mini-ITX, une alim SFX et une carte graphique low-profile à l'intérieur. Et hop, vous avez un PC qui tape littéralement vos emails !

Sauf que c'est pas exactement comme monter un PC dans un boitier Corsair. Le mec a d'abord dû tout démonter, en fait y'a facilement 200 pièces mécaniques là-dedans, des leviers, des ressorts, des marteaux... et il fallait rien péter. Le problème c'est que l'espace disponible une fois le ménage fait... c'est RIEN DU TOUT. Juste quelques centimètres de marge entre le châssis et les mécanismes, pas plus.

Et pour le clavier, c'est là que ça devient tordu car pas question de brancher un clavier USB lambda... non non, les vraies touches de la machine à écrire doivent fonctionner comme un vrai clavier HID. Du coup, il a fallu concevoir un PCB custom en partant de zéro. Quel courage !!

En gros, chaque touche est câblée avec un switch mécanique Cherry et une diode 1N4148 dans une matrice 8×7, le tout piloté par un Arduino Pro Micro qui traduit les coordonnées ligne/colonne en caractères via QMK. Le design du circuit, il l'a envoyé se faire fabriquer chez JLCPCB à Guangdong en Chine et tout devait passer au millimètre près.

Pour le boîtier, il a d'abord tenté la photogrammétrie. En gros, vous photographiez l'objet sous tous les angles, un logiciel crache un modèle 3D en .STL, et ensuite vous retouchez ça dans SolidWorks pour imprimer une version modifiée en 3D . Sauf que le scan a complètement foiré (en fait la photogrammétrie sur du plastique brillant, ça marche moyen... sauf si vous matifiez la surface avant), du coup il a retracé le mesh à la main dans son logiciel de CAO. C'était des heures de modélisation en plus.

Côté assemblage du PCB, 52 touches à souder une par une avec leurs diodes, soit plusieurs heures de soudure au fer à 350°C, penché sur le plan de travail. Et là, surprise : celui qui a designé le circuit (c'est lui ^^) avait oublié 4 trous pour les pins de l'Arduino. Bon... La solution ? Percer à la Dremel !! La méthode la rache, ça marche toujours !

Ensuite, il a branché le firmware... et a dû recoder la matrice clavier à la main (bienvenue dans le monde réel).

Le premier test du clavier custom, 52 touches soudées à la main

Mais son vrai coup de génie, c'est le servo. En effet, il a intégré un deuxième Arduino qui lit les frappes clavier via le port série et fait bouger un servomoteur SG90 attaché aux marteaux. Du coup, quand vous tapez sur une touche, non seulement ça écrit sur l'écran, mais ça bouge AUSSI le chariot de la machine à écrire. Sans oublier la petite clochette qui sonne en fin de ligne, comme en 1975.

Et ça marche !! C'est fou ! Les machines à écrire USB , on connaissait déjà le concept. Mais là c'est un cran au-dessus puisque le PC complet tient à l'intérieur, avec un écran monté sur le chariot. Le mec le dit lui-même dans sa vidéo... c'est probablement le truc le plus débile qu'il ait jamais fait.

Bref, vivement la partie 2 pour voir le résultat final. En attendant, si l'envie vous prend de transformer du vieux matos en truc improbable , vous savez que c'est faisable...

Source

OpenAI relance ChatGPT : croissance à 10 % et nouveau modèle face à Anthropic

Par :Wael.K
9 février 2026 à 15:38

CNBC affirme avoir consulté un message interne Slack dans lequel Sam Altman assure aux équipes d’OpenAI que la dynamique reste positive malgré la pression d’Anthropic. Selon le PDG, ChatGPT a retrouvé une croissance mensuelle supérieure à 10 % et dépasse désormais les 800 millions d’utilisateurs hebdomadaires. OpenAI prépare aussi le lancement cette semaine d’un « modèle de chat amélioré ».

ChatGPT repart à la hausse, un nouveau modèle en approche

Le message interne mentionne une progression continue des parts de marché de Google et d’Anthropic, sans que cela n’entame, pour l’heure, la traction de ChatGPT. Altman parle d’un retour à un rythme de croissance « au-dessus de 10 % » sur le mois et d’un jalon hebdomadaire à plus de 800 millions d’utilisateurs actifs. OpenAI doit parallèlement déployer un modèle de conversation mis à jour cette semaine, sans détail public sur l’étendue des changements.

Côté développement, la ligne « code » d’OpenAI progresse fortement. Altman indique que les métriques liées à Codex ont bondi d’environ 50 % en une semaine. Un mouvement que le dirigeant qualifie « d’explosif », dans un contexte où Claude Code d’Anthropic a capté une adoption massive sur l’an dernier.

Nouvelle itération Codex et application macOS

OpenAI a lancé la semaine dernière un modèle estampillé « GPT-5.3-Codex » et une application dédiée pour les utilisateurs d’ordinateurs Apple. Cette mise à jour vise à consolider l’offre face à Claude Code, avec un recentrage sur la productivité des développeurs et l’intégration desktop. Altman souligne en interne « une semaine fructueuse » portée par ces annonces.

Si OpenAI parle de « modèle de chat amélioré » à très court terme, l’enjeu sera de mesurer l’écart réel en latence, robustesse des réponses, fiabilité des outils et qualité du raisonnement. Dans un marché devenu comparatif et volatil, la combinaison d’un moteur de conversation plus affûté et d’un Codex en accélération pourrait aider OpenAI à contenir l’érosion de part d’usage face aux offres de Google et d’Anthropic.

Source : ITHome

RTX 3080 Ti 20 Go pré-série : GA102-250, bus 320-bit et perfs proches d’une RTX 3080

Par :Wael.K
9 février 2026 à 15:30

Une RTX 3080 Ti jamais commercialisée refait surface dans une configuration inattendue. Livrée dans un emballage proche du retail mais dotée de caractéristiques techniques atypiques, cette version 20 Go se comporte davantage comme un prototype avancé que comme une carte finalisée. Les performances observées la positionnent sensiblement plus près d’une RTX 3080 que d’une RTX 3080 Ti du commerce, illustrant les compromis ayant probablement conduit à son annulation.

RTX 3080 Ti 20 Go : carte pré-série en GA102-250

Le test mené par ChintzyPC met en lumière une RTX 3080 Ti 20 Go basée sur un GPU GA102-250, une référence distincte de celle utilisée sur les modèles retail. La carte repose sur un PCB hybride intégrant vingt puces de GDDR6X, réparties à l’avant et à l’arrière du circuit imprimé selon une topologie 10+10.

Le sous-système mémoire se distingue par un bus limité à 320-bit, contre 384-bit sur les RTX 3080 Ti commercialisées. Cette configuration implique l’activation de dix contrôleurs mémoire, suggérant une architecture dérivée des RTX 3090, mais simplifiée. L’absence de support NVLink confirme toutefois un positionnement intermédiaire et non finalisé.

RTX 3080 Ti dans sa boîte, présentation soignée sur fond sombre

Particularités matérielles et présentation

Fait inhabituel pour un modèle annulé, la carte a été reçue dans une boîte à l’apparence très proche d’un packaging retail. À l’intérieur, l’implantation mémoire et le routage du PCB renforcent l’idée d’un design avancé, probablement destiné à une phase de validation pré-commerciale plutôt qu’à un simple prototype de laboratoire.

Boîte de la RTX 3080 Ti, design sobre à rayures
Arrière de l'emballage RTX 3080 Ti, texte technique présent
Détails étiquette emballage RTX 3080 Ti, codes et logos visibles

L’ensemble évoque une base technique de RTX 3090 custom, adaptée à une configuration 3080 Ti, mais avec plusieurs choix matériels non conformes aux spécifications finales retenues par NVIDIA pour la gamme Ampere haut de gamme.

Carte RTX 3080 Ti démontée, composants visibles sur fond gris

Pilotes, stabilité et limites de puissance

Sur le plan logiciel, la carte ne fonctionne pas avec les pilotes GeForce standards. Pour obtenir un comportement exploitable en jeu et en benchmark, l’auteur a dû recourir à un patch issu du projet GitHub « NVIDIA-patcher », dans lequel la référence « RTX 3080 Ti 20 GB » apparaît explicitement.

Circuit imprimé RTX 3080 Ti, pâte thermique exposée
Composants internes RTX 3080 Ti, détails techniques sur fond gris

Une fois ce correctif appliqué, les charges ludiques et les benchmarks synthétiques s’exécutent correctement. En revanche, les workloads compute et les rendus lourds provoquent des instabilités rapides, avec des crashs survenant en quelques secondes, traduisant une validation logicielle incomplète.

La limite de puissance est annoncée à 350 W, un niveau cohérent avec le positionnement théorique de la carte, mais insuffisant pour compenser la perte de bande passante induite par le bus mémoire réduit.

Benchmarks et positionnement face aux modèles retail

Les résultats en benchmarks synthétiques orientés gaming confirment un positionnement atypique. En pratique, les scores se rapprochent davantage de ceux d’une RTX 3080 que d’une RTX 3080 Ti commercialisée.

Vue supérieure de la RTX 3080 Ti, grille et ventilateur dominants

Sous 3DMark, la carte affiche notamment 5042 points sur Speed Way en configuration stock et 5403 points après overclocking, tandis que Steel Nomad atteint 4863 points en stock et 5155 points en OC. Port Royal affiche pour sa part 13 105 points en stock et 13 947 points après overclocking.

Les charges compute lourdes échouent systématiquement, limitant fortement l’intérêt réel des 20 Go de VRAM dans les usages professionnels ou créatifs, pourtant censés bénéficier d’une telle capacité mémoire.

Un prototype révélateur d’un arbitrage technique avorté

Des modèles custom de RTX 3080 Ti 20 Go auraient également été aperçus sur certains marchés, notamment en Russie, sans jamais faire l’objet d’une annonce officielle. NVIDIA n’a, de son côté, jamais reconnu l’existence de cette configuration.

Si cette version avait abouti avec un bus mémoire 384-bit et un support pilote complet, elle aurait pu se positionner comme une RTX 3080 Ti plus équilibrée pour les charges lourdes. En l’état, ce modèle pré-série illustre surtout les limites d’un compromis bande passante contre capacité mémoire, ainsi que la fragilité logicielle des variantes abandonnées avant leur mise sur le marché.

Source: ChintzyPC/TechPowerUP

❌