↩ Accueil

Vue normale

GameCap – Enfin des sous-titres traduits en temps réel pour vos jeux vidéo

Par :Korben
30 janvier 2026 à 10:32

Vous avez déjà ressenti cette frustration monumentale de vouloir lancer un JRPG obscur sorti uniquement au Japon, ou de tomber sur un stream coréen de Starcraft sans comprendre un traître mot de ce qui se raconte ?

Moi non ^^, mais j'imagine que quand on est passionné de gaming, c'est le genre de barrière linguistique qui peut vite briser une hype, voire une vie. Heureusement, y’a un petit outil open source qui vient de débarquer sur Windows et qui va vous la changer (la vie...) : GameCap .

Contrairement à d'autres outils qui essaient de lire le texte à l'écran (souvent avec des résultats foireux), GameCap s'attaque directement au son de votre PC. En gros, il utilise le mécanisme de WASAPI loopback pour capturer l'audio de votre système en temps réel. Ce flux sonore est ensuite envoyé vers l'API de Deepgram qui s'occupe de la transcription (transformer la voix en texte) avant de passer par les moulinettes de Google Translate pour la traduction finale.

Comme le traitement se fait via des API cloud, notez que vos flux audio partent faire un petit tour sur les serveurs de Deepgram. C'est pas cool mais c'est le prix à payer pour avoir une transcription de haute volée avec une latence quasi imperceptible. Le résultat s'affiche ensuite dans un overlay personnalisable (police, taille, position) que vous pouvez caler n'importe où sur votre écran pour ne pas gêner l'interface de votre jeu ou de votre vidéo. C'est un peu dans la même veine que ce que propose Buzz , mais optimisé pour l'affichage en surimpression pendant que vous jouez.

Côté langues, c'est plutôt la fête puisqu'il y a plus de 30 langues supportées, dont les indispensables japonais, coréen et chinois. Et le truc cool, c'est que ça ne se limite pas aux jeux. Que vous soyez sur YouTube, Twitch, VLC ou même en plein call Zoom, GameCap peut vous générer des sous-titres traduits pour n'importe quelle source sonore qui sort de vos enceintes.

Pour l'installer, c'est un projet Python, donc rien de bien méchant. Il vous faudra Python 3.8 ou plus sur votre bécane. Commencez par cloner le repo GitHub de VicPitic, installez les dépendances avec un classique pip install -r requirements.txt et lancez le launcher.

Il faudra aussi vous créer un compte gratuit sur Deepgram pour récupérer une clé API, sinon l'outil restera muet.

Une fois configuré, vous pouvez même utiliser le launcher pour détecter automatiquement vos jeux Steam et les lancer directement avec l'overlay activé. C'est top pour ceux qui aiment déjà bidouiller leurs jeux, comme avec le SN Operator pour lire ses propres cartouches. Et si les sous-titres vous saoulent à un moment, un petit raccourci Ctrl+Shift+S et hop, ils disparaissent.

Voilà, pour du contenu interactif ou pour enfin profiter de ces pépites japonaises jamais traduites, c'est un sacré bel outil. Et en plus c'est gratuit !

Helix 02 - Le robot qui vide votre lave-vaisselle pour de vrai

Par :Korben
30 janvier 2026 à 09:06

Vous vous souvenez peut-être de Figure 01 qui nous avait tous bluffés l'année dernière en se faisant couler un petit café (qui a dit "dans sa couche ??) ?

Hé bien, la startup Figure AI ne chôme pas (contrairement à nous le vendredi matin) puisqu'elle vient de dévoiler son Helix 02, la nouvelle version de son cerveau numérique.

Et là, accrochez-vous bien parce qu'on passe un cap ! En effet, ce robot est désormais capable de vider un lave-vaisselle de manière totalement autonome.

Alors je sais ce que vous vous dites : "Super, un truc à 150 000 balles pour faire ce que mon ado refuse de faire gratuitement". Sauf que la prouesse technique derrière est assez dingue. Jusqu'à présent, les robots humanoïdes, notamment ceux de Boston Dynamics (le fameux Atlas), fonctionnaient beaucoup sur de la "théorie du contrôle". En gros, des maths complexes pour garder l'équilibre, et du code impératif pour dire "lève le bras de 30 degrés". C'est hyper précis, mais c'est lourd à coder et ça manque de souplesse.

Là, Figure a tout misé sur une approche pixels-to-action de type "End-to-End". C'est ce qu'ils appellent le System 0.

En gros, ils ont viré un peu moins de 110 000 lignes de code C++ (le langage bien verbeux qu'on adore détester) pour les remplacer par un modèle d'IA unifié. Le robot "regarde" avec ses caméras et le réseau de neurones décide directement des mouvements. Et c'est comme ça que d'un coup, le robot gère tout : l'équilibre, la manipulation des objets glissants, et même la correction de ses propres erreurs en temps réel.

C'est un peu comme si votre Roomba avait soudainement appris à faire du parkour tout en tenant un plateau de verres en cristal.

Bon, vous vous en doutez, le marketing ne nous dévoile pas tout car il y a un petit piège derrière cette innovation. En fait cette approche "tout IA" a aussi des limites car si le modèle hallucine un mouvement, le robot peut très bien décider de lancer votre assiette en porcelaine de Limoges à travers la pièce. C'est donc pour ça qu'ils gardent quand même des garde-fous (System 1 et System 2) pour la planification à long terme. Mais c'est pas encore demain que je laisserai ce machin seul avec mon chat, sauf si je veux le transformer en frisbee ^^.

D'ailleurs, si vous suivez un peu l'actu des robots humanoïdes , vous savez que la concurrence est rude notamment avec l' Optimus de Tesla . Mais perso, je trouve que Figure a carrément une longueur d'avance sur la fluidité "humaine", là où Optimus fait encore un peu "mec bourré qui essaie de marcher droit". J'adorerai avoir un kit de dev pour jouer avec ce truc, mais vu le prix, je vais plutôt me rabattre sur Raspberry Pi... on fait avec ce qu'on a !

Et pour nous les bidouilleurs dans tout ça ?

Hé bien si vous n'avez pas 150 000 $ sous le matelas, sachez qu'il existe des projets open-source comme le ToddlerBot (un petit robot à environ 250$ imprimable en 3D) qui permettent de s'initier à la robotique bipède sans vendre un rein. C'est moins classe que Helix, mais au moins, si ça tombe, ça casse juste du PLA. Un coup de colle et c'est reparti !

Bref, on n'est pas encore au stade où il viendra vous border le soir, mais pour ce qui est des corvées ménagères, ça sent bon la fin de l'esclavage humain (pour le remplacer par celui des machines, mais chut, faut pas leur dire).

Amusez-vous bien !

Source

❌