Vous aussi vous avez un dossier « Notes » qui ressemble à un cimetière d'idées ? Des fichiers texte avec des noms genre « truc_important.txt » ou « a_voir_plus_tard.md » que vous n'avez jamais revus depuis 2019 ? Hé bien j'ai ce qu'il vous faut pour enfin donner un sens à tout ce bordel !
Blinko
c'est une app de prise de notes qui utilise l'IA pour vous aider à retrouver ce que vous avez noté, même quand vous avez complètement oublié les mots exacts que vous aviez utilisés. Le principe c'est du RAG (Retrieval-Augmented Generation), c'est-à-dire que l'IA va fouiller dans toutes vos notes et vous ressortir les infos pertinentes quand vous posez une question. Genre « c'était quoi ce truc que j'avais noté sur les serveurs NAS ? » et hop, l'IA vous retrouve tout.
Et le truc cool c'est que ça tourne 100% en local sur votre serveur. Pas de cloud américain de Donald, pas de données qui se baladent chez les affreux OpenAI ou Google... vos notes restent bien au chaud chez vous. Pour ceux qui comme moi sont un peu paranos avec leurs données perso, c'est exactement ce qu'il nous faut les amis !
L'interface est super clean avec deux modes de saisie. Y'a d'abord le mode « Blinko » pour les notes éphémères qui s'archivent automatiquement au bout d'un moment, genre une idée qui vous passe par la tête ou un truc à faire. Et y'a le mode « Note » pour les contenus permanents que vous voulez garder sur le long terme, avec du Markdown, des images, et tout ça. Du coup vous pouvez aussi bien capturer une pensée qui vous traverse que rédiger un article entier.
Côté installation, c'est du Docker avec un script qui fait tout pour vous. Une ligne de commande et c'est parti :
Le script va alors vous configurer tout le bazar avec PostgreSQL derrière (obligatoire pour la base de données). Y'a aussi Docker Compose si vous préférez personnaliser, tout est documenté sur le repo.
Une fois lancé, vous accédez à l'interface sur le port 1111 et vous pouvez commencer à balancer vos notes. Y'a même une démo en ligne sur
demo.blinko.space
(test / test) si vous voulez tester avant de vous lancer.
Le projet est open source sous licence GPL-3.0, c'est codé en TypeScript avec Next.js et comme je vous le disais, PostgreSQL derrière, donc c'est du solide. Et y'a même des apps natives pour macOS, Windows, Android et même Linux via Tauri si vous voulez un truc plus intégré que le web.
Bref, si vous cherchez une solution de prise de notes self-hosted avec de l'IA intégrée pour enfin retrouver ce que vous avez noté il y a 3 ans, Blinko c'est le top du top !
Vous avez déjà fait transcrire une interview ou un podcast par un service en ligne ? Vous savez, ces trucs qui vous demandent de créer un compte, de filer votre carte bleue, et d'accepter que vos fichiers audio soient envoyés sur des serveurs quelque part dans le cloud américain pour être analysés par des IA qu'on ne connaît pas. Le tout pour 100 balles par an si vous avez de la chance, et beaucoup plus si vous dépassez le quota ridicule de 20 heures par mois...
Hé bien y'a une alternative qui va vous plaire :
Scriberr
! C'est une app de transcription audio complètement open source et surtout, qui tourne 100% en local sur votre machine. Pas de cloud, pas de données qui se baladent, pas d'abonnement mais juste vous, avec votre serveur (ou votre laptop si vous avez un GPU correct), et vos fichiers audio qui restent bien au chaud chez vous.
Scriberr utilise des modèles de reconnaissance vocale de pointe comme NVIDIA Parakeet, Canary ou les fameux modèles Whisper. Du coup la qualité de transcription est vraiment au niveau des services payants, voire meilleure sur certains accents ou langues moins courantes. Et cerise sur le gâteau, vous avez l'alignement temporel au niveau du mot, ce qui veut dire que vous pouvez savoir exactement à quelle seconde chaque mot a été prononcé.
Mais le truc qui m'a vraiment tapé dans l’œil avec cet outil, c'est la détection automatique des locuteurs. Vous savez, cette fonctionnalité qu'on appelle "diarization" dans le jargon et qui permet d'identifier qui dit quoi dans une conversation. Comme ça, fini les transcriptions où tout le monde parle mais on ne sait pas qui c'est. Là, Scriberr vous découpe tout proprement avec des étiquettes pour chaque intervenant.
Et comme si ça suffisait pas, y'a aussi l'intégration avec Ollama ou n'importe quelle API compatible OpenAI. Du coup vous pouvez non seulement transcrire vos enregistrements, mais aussi leur poser des questions, générer des résumés, ou carrément avoir une conversation avec le contenu de vos transcriptions. Genre vous demandez "c'est quoi les points clés de cette réunion ?" et hop, l'IA vous fait un résumé. Pratique pour les feignasses comme moi qui détestent se retaper 2 heures de réunion pour retrouver une info.
Côté installation, c'est du Docker classique ou alors Homebrew si vous êtes sur Mac. Un petit
`brew tap rishikanthc/scriberr && brew install scriberr`
et c'est parti mon kiki. Pour Docker, y'a des images pour CPU et GPU (CUDA), et ça supporte toutes les générations de cartes NVIDIA depuis les GTX 1000 jusqu'aux RTX 50 series toutes récentes.
Le premier lancement peut prendre quelques minutes parce que ça télécharge les modèles de reconnaissance vocale, mais une fois que c'est fait, les relances suivantes sont quasi instantanées. Y'a même un Folder Watcher qui surveille un dossier et transcrit automatiquement tout ce qui arrive dedans, parfait si vous voulez brancher ça sur un workflow automatisé avec n8n ou autre.
Bref, si vous êtes podcaster, journaliste, chercheur, ou juste quelqu'un qui a régulièrement besoin de transcrire des trucs sans vouloir filer ses données à Google ou payer un abonnement, Scriberr c'est exactement ce qu'il vous faut. C'est du self-hosting comme on l'aime, c'est à dire open source, respectueux de la vie privée, et qui fait le taf sans chichi.
Vous utilisez Word pour bosser et j’imagine que vous avez vu passer le fameux Copilot de Microsoft à 30 balles par mois pour les pros ? Ouais, ça pique un peu le porte-monnaie surtout quand on a déjà nos propres clés API OpenAI ou Gemini qui traînent et sur lesquelles on claque un smic tous les mois.
Hé bien Word GPT Plus c'est justement un add-in open source qui intègre l'IA directement dans Microsoft Word, et qui vous permet d'utiliser vos propres clés API au lieu de payer un énième abonnement. Avec ça, vous pouvez générer du texte, traduire, résumer, reformuler... le tout sans quitter votre document.
Mais le truc vraiment cool, c'est le mode Agent. Là, l'IA a accès à plein d'outils qui lui permettent de manipuler directement votre document Word. Genre insérer du texte, formater des paragraphes, créer des tableaux, gérer les signets, faire des rechercher-remplacer... Vous lui dites "formate tous les titres de section en Heading 2" et hop, c'est fait. C'est pas juste un chatbot dans une sidebar, c'est carrément un assistant qui peut agir sur votre document.
Côté fournisseurs IA, vous avez le choix entre OpenAI (GPT-4, GPT-3.5, et même les modèles compatibles comme DeepSeek), Azure OpenAI si vous êtes en entreprise, Google Gemini, Groq pour les modèles Llama et Qwen, et même Ollama si vous voulez faire tourner vos LLM en local sans envoyer vos données quelque part. Et ça, c'est top pour ceux qui bossent sur des documents confidentiels.
Y'a aussi des Quick Actions bien pratiques genre traduction en plus de 40 langues, amélioration de texte, réécriture académique, résumé automatique, correction grammaticale... Bref, les classiques mais directement accessibles dans Word.
Pour l'installer, c'est hyper simple. Vous téléchargez le fichier manifest.xml depuis le repo GitHub, vous le mettez dans un dossier partagé sur votre machine, et vous l'ajoutez dans Word via Insertion > Mes compléments > Dossier partagé. Pas besoin de coder quoi que ce soit. Y'a aussi une option Docker pour ceux qui veulent l'héberger eux-mêmes ou le déployer sur un serveur.
Niveau vie privée, vos clés API et vos prompts perso sont stockés localement dans le navigateur intégré à l'add-in Word. Y'a pas de serveur intermédiaire qui récupère vos données, sauf si vous configurez vous-même un proxy. Vos documents restent ainsi bien au chaud chez vous.
Par contre, faut Word 2016 minimum, Word 2019, 2021 ou Microsoft 365 sur Windows. Et ça marche uniquement avec les fichiers .docx.
Bref, si vous voulez avoir ChatGPT ou Gemini directement dans Word sans vous ruiner avec un abonnement Copilot, c'est exactement ce qu'il vous faut. Et comme c'est open source sous licence MIT, vous pouvez auditer le code si vous êtes du genre méfiant.
Vous jouez à Rainbow Six Siege ? Hé bien félicitations, vous êtes maintenant virtuellement millionnaire ! Enfin... l'étiez, parce que tout ça va être annulé.
Rainbow Six Siege X, le jeu d'Ubisoft victime d'un hack massif
Ce week-end, Ubisoft s'est fait pirater comme des jambons et pas qu'un peu. Des hackers ont réussi à distribuer 2 milliards de R6 Credits à TOUS les joueurs du jeu. Au tarif Ubisoft (15 000 crédits pour 99,99 dollars), ça représente environ 13,33 millions de dollars de monnaie virtuelle offerte gracieusement. Sympa les pirates ^^
Mais attendez, c'est pas tout ! Les attaquants ont également débloqué absolument tous les cosmétiques du jeu pour tout le monde, y compris les skins réservés aux développeurs que personne n'était censé avoir. Et pour couronner le tout, ils se sont amusés avec le système de bannissement du jeu. Résultat, des milliers de joueurs se sont retrouvés bannis puis débannis au hasard, pendant que le fil d'actualité des bans affichait des messages satiriques visant Ubisoft et ses dirigeants.
Les messages de ban détournés par les hackers formaient des phrases trop "golri", arf arf... (
Source
)
Du coup, le streamer KingGeorge a immédiatement lancé l'alerte : "Ne vous connectez pas au jeu, ne dépensez pas de Renown, ne dépensez pas de Rainbow Credits". Sage conseil, parce que par le passé, Ubisoft a déjà banni des joueurs pour leurs propres erreurs. Pas cool.
Peu après le début du bordel, Ubisoft a donc coupé les serveurs et la marketplace pour tenter de contenir les dégâts. Les serveurs de Rainbow Six Siege sont toujours hors ligne au moment où j'écris ces lignes, sans ETA de retour. La bonne nouvelle, c'est qu'Ubisoft a confirmé qu'aucun joueur ne sera banni pour avoir dépensé les crédits reçus pendant l'incident, et qu'un rollback de toutes les transactions depuis 11h UTC est en cours.
Maintenant, le truc vraiment chaud c'est la méthode utilisée car selon le groupe de recherche en sécurité VX-Underground, plusieurs groupes de hackers auraient exploité Ubisoft en même temps. L'un d'eux aurait utilisé une faille MongoDB récemment découverte, baptisée MongoBleed (CVE-2025-14847). Cette vulnérabilité permet à n'importe qui de siphonner la mémoire des serveurs MongoDB exposés, récupérant au passage des credentials, des tokens d'authentification et des clés. Un PoC public circule depuis le 26 décembre et environ 87 000 instances MongoDB seraient vulnérables dans le monde (mettez à jour, hein !!).
Un autre groupe prétend avoir aussi utilisé cette faille pour se balader dans les dépôts Git internes d'Ubisoft et voler des archives de code source remontant jusqu'aux années 90. Ces affirmations restent non vérifiées pour l'instant, mais si c'est vrai, c'est du lourd...
Bref, si vous avez un compte Ubisoft, je vous conseille vivement de changer votre mot de passe et de retirer vos moyens de paiement enregistrés, au cas où. Et pour Rainbow Six Siege, patience, ça va revenir... probablement avec un rollback qui effacera tous ces beaux cadeaux empoisonnés.
Vous connaissez l'histoire de la NES ? Celle du petit robot R.O.B. qui a aidé à ressusciter l'industrie du jeu vidéo américaine en 1985 ? Hé bien la
Video Game History Foundation
vient de sortir un documentaire d'une heure qui raconte tout ce qu'on ne vous a jamais dit sur le lancement de cette console mythique. Et dedans, y'a des révélations qui font mal ^^.
Frank Cifaldi, le fondateur de la VGHF, a passé des années à fouiller cette histoire. Il a rencontré des gens qui étaient chez Nintendo à l'époque, il a déterré des documents que personne n'avait jamais vus, il a même manipulé des prototypes qui n'auraient jamais dû survivre. Et le résultat, c'est cette plongée incroyable dans les coulisses d'un des plus grands paris de l'histoire du gaming.
Alors remontons au printemps 1983... Nintendo négocie avec Atari, le géant de l'époque, pour leur refiler les droits de distribuer la Famicom dans le monde entier. Hé oui, en interne, Atari avait même donné un nom de code au projet : "3600". L'idée, c'était d'intégrer la technologie Nintendo dans un boîtier plastique Atari existant. Le deal était quasiment signé, et les deux boîtes s'étaient mises d'accord sur tout : Nintendo fabriquerait les composants, Atari les revendrait sous sa marque. Ils avaient même commencé à convertir des jeux arcade (Millipede, Joust et Stargate) pour le système.
Et puis tout s'est cassé la gueule au CES de 1983. Atari a vu Coleco montrer un prototype de Donkey Kong sur leur ordinateur Adam, et ils ont pété un câble. Ils pensaient que Nintendo les avait doublés en refilant les droits à un concurrent. En réalité, c'était juste un malentendu sur les licences
ColecoVision
, mais le mal était fait. Le président de Nintendo, Hiroshi Yamauchi, a tellement gueulé sur les représentants de Coleco sur le salon que tout le monde s'en souvient encore.
Ça a contribué à torpiller les négociations, et dans le contexte des turbulences internes chez Atari, le deal n'a jamais abouti. Atari, qui évaluait également le système MARIA de GCC en parallèle, s'est finalement concentré sur ce qui deviendra l'Atari 7800. Et Nintendo s'est retrouvé tout seul, obligé de se débrouiller.
Et c'est là que ça devient vraiment intéressant parce que Nintendo of America, c'était une petite boîte de rien du tout à l'époque. Quelques dizaines d'employés dont le boulot principal consistait à importer des bornes d'arcade japonaises. Ils n'avaient aucune idée de comment vendre une console de salon aux États-Unis.
Alors ils ont fait appel à Lance Barr, un designer industriel, pour repenser complètement la Famicom. Et le mec a créé un design qui ressemblait plus à une chaîne hi-fi haut de gamme qu'à une console de jeux. Le prototype s'appelait l'AVS (Advanced Video System). C'était un truc tout en finesse avec des manettes sans fil, un clavier, un magnétophone à cassettes, et une esthétique empilable façon chaîne hi-fi. Les photos de l'époque sont magnifiques, on croirait du design scandinave ^^.
Le prototype AVS de Nintendo, avec son design hi-fi et ses manettes sans fil (
Source
)
Sauf que personne n'en voulait. Nintendo a fait des tests consommateurs, et les gamins (et leurs parents) trouvaient le concept de programmation barbant. Ils aimaient bien l'idée des manettes sans fil et de l'empilement des boitiers, mais coder / modifier soi-même ses propres jeux en Basic ? Grosse flemme...
En plus, le marché américain était en plein crash. Les magasins croulaient sous les invendus de jeux Atari bradés, et personne ne voulait entendre parler d'une nouvelle console. Tous les détaillants que Nintendo rencontrait leur disaient la même chose : le jeu vidéo, c'est mort, c'était une mode passagère, passez votre chemin (tiens ça me rappelle quelque chose plus actuel... lol).
Alors Nintendo a tout viré. Plus de manettes sans fil, plus de clavier, plus de magnétophone. Ils ont gardé uniquement le robot R.O.B. comme cheval de Troie. L'idée, c'était de faire croire aux magasins de jouets qu'ils vendaient un robot high-tech, et pas une console de jeux.
Et ça a marché, les amis !!
Une armée de R.O.B., le robot qui a permis à Nintendo d'infiltrer les magasins de jouets (
Source
)
Puis en octobre 1985, Nintendo a lancé la NES dans la région de New York avec une garantie de rachat pour les détaillants : si ça ne se vendait pas, ils reprenaient tout. L'équipe a bossé comme des dingues depuis un entrepôt minable du New Jersey, infesté de rats et de serpents. Il y a même eu un ouragan pendant le lancement. Du grand n'importe quoi.
Le présentoir NES chez FAO Schwarz en 1986 (
Source
)
Mais le plus fou dans cette histoire, c'est le fameux chip CIC, le "lockout chip" qui empêchait de jouer à des jeux non autorisés par Nintendo. Et devinez d'où venait cette idée ? D'Atari eux-mêmes ! Lors des négociations de 1983, quelqu'un chez Atari avait demandé à Nintendo s'ils pouvaient créer un système technique pour bloquer les cartouches non officielles. Atari se plaignait des jeux pourris que n'importe qui pouvait sortir sur leurs consoles, et ils voulaient reprendre le contrôle.
Nintendo n'avait pas de solution à l'époque, mais ils ont retenu l'idée. Et selon les dépositions du procès Atari vs. Nintendo, le président Yamauchi aurait lui-même reconnu qu'après avoir entendu ce qu'Atari avait dit, Nintendo avait conclu qu'un système de sécurité devait être développé pour vendre des consoles aux États-Unis.
En gros, Atari aurait suggéré le concept qui allait se retourner contre eux. C'est le chip qui les empêchera plus tard de publier librement des jeux sur NES, conçu par Nintendo suite à leur demande initiale. Ironique non ? Et ce système de contrôle est ensuite devenu le modèle pour toutes les consoles qui ont suivi. Aujourd'hui, on trouve normal qu'on ne puisse pas sortir un jeu PlayStation sans l'accord de Sony, mais avant la NES, n'importe qui pouvait fabriquer des cartouches pour n'importe quelle console.
La VGHF a aussi récupéré les jeux qu'Atari avait commandés à Nintendo en 1983. Trois d'entre eux (Millipede, Joust et Stargate) sont d'ailleurs finalement sortis en 1987 via le HAL Laboratory avec un copyright "Atari 1983" sur l'écran titre. Tant mieux, ça aurait été dommage de ne pas pouvoir y jouer...
Bref, si vous avez une heure devant vous pendant les fêtes, foncez regarder ce documentaire. C'est de la recherche historique de première main, pas du réchauffé de Wikipedia. Et si vous voulez aller plus loin, la VGHF a aussi mis en ligne
un panel avec trois anciens de Nintendo
qui ont vécu le lancement de 1985. Des témoignages de première main qu'on ne retrouvera probablement jamais ailleurs...
Vous aussi vous avez un dossier « Notes » qui ressemble à un cimetière d'idées ? Des fichiers texte avec des noms genre « truc_important.txt » ou « a_voir_plus_tard.md » que vous n'avez jamais revus depuis 2019 ? Hé bien j'ai ce qu'il vous faut pour enfin donner un sens à tout ce bordel !
Blinko
c'est une app de prise de notes qui utilise l'IA pour vous aider à retrouver ce que vous avez noté, même quand vous avez complètement oublié les mots exacts que vous aviez utilisés. Le principe c'est du RAG (Retrieval-Augmented Generation), c'est-à-dire que l'IA va fouiller dans toutes vos notes et vous ressortir les infos pertinentes quand vous posez une question. Genre « c'était quoi ce truc que j'avais noté sur les serveurs NAS ? » et hop, l'IA vous retrouve tout.
Et le truc cool c'est que ça tourne 100% en local sur votre serveur. Pas de cloud américain de Donald, pas de données qui se baladent chez les affreux OpenAI ou Google... vos notes restent bien au chaud chez vous. Pour ceux qui comme moi sont un peu paranos avec leurs données perso, c'est exactement ce qu'il nous faut les amis !
L'interface est super clean avec deux modes de saisie. Y'a d'abord le mode « Blinko » pour les notes éphémères qui s'archivent automatiquement au bout d'un moment, genre une idée qui vous passe par la tête ou un truc à faire. Et y'a le mode « Note » pour les contenus permanents que vous voulez garder sur le long terme, avec du Markdown, des images, et tout ça. Du coup vous pouvez aussi bien capturer une pensée qui vous traverse que rédiger un article entier.
Côté installation, c'est du Docker avec un script qui fait tout pour vous. Une ligne de commande et c'est parti :
Le script va alors vous configurer tout le bazar avec PostgreSQL derrière (obligatoire pour la base de données). Y'a aussi Docker Compose si vous préférez personnaliser, tout est documenté sur le repo.
Une fois lancé, vous accédez à l'interface sur le port 1111 et vous pouvez commencer à balancer vos notes. Y'a même une démo en ligne sur
demo.blinko.space
(test / test) si vous voulez tester avant de vous lancer.
Le projet est open source sous licence GPL-3.0, c'est codé en TypeScript avec Next.js et comme je vous le disais, PostgreSQL derrière, donc c'est du solide. Et y'a même des apps natives pour macOS, Windows, Android et même Linux via Tauri si vous voulez un truc plus intégré que le web.
Bref, si vous cherchez une solution de prise de notes self-hosted avec de l'IA intégrée pour enfin retrouver ce que vous avez noté il y a 3 ans, Blinko c'est le top du top !
Vous avez déjà fait transcrire une interview ou un podcast par un service en ligne ? Vous savez, ces trucs qui vous demandent de créer un compte, de filer votre carte bleue, et d'accepter que vos fichiers audio soient envoyés sur des serveurs quelque part dans le cloud américain pour être analysés par des IA qu'on ne connaît pas. Le tout pour 100 balles par an si vous avez de la chance, et beaucoup plus si vous dépassez le quota ridicule de 20 heures par mois...
Hé bien y'a une alternative qui va vous plaire :
Scriberr
! C'est une app de transcription audio complètement open source et surtout, qui tourne 100% en local sur votre machine. Pas de cloud, pas de données qui se baladent, pas d'abonnement mais juste vous, avec votre serveur (ou votre laptop si vous avez un GPU correct), et vos fichiers audio qui restent bien au chaud chez vous.
Scriberr utilise des modèles de reconnaissance vocale de pointe comme NVIDIA Parakeet, Canary ou les fameux modèles Whisper. Du coup la qualité de transcription est vraiment au niveau des services payants, voire meilleure sur certains accents ou langues moins courantes. Et cerise sur le gâteau, vous avez l'alignement temporel au niveau du mot, ce qui veut dire que vous pouvez savoir exactement à quelle seconde chaque mot a été prononcé.
Mais le truc qui m'a vraiment tapé dans l’œil avec cet outil, c'est la détection automatique des locuteurs. Vous savez, cette fonctionnalité qu'on appelle "diarization" dans le jargon et qui permet d'identifier qui dit quoi dans une conversation. Comme ça, fini les transcriptions où tout le monde parle mais on ne sait pas qui c'est. Là, Scriberr vous découpe tout proprement avec des étiquettes pour chaque intervenant.
Et comme si ça suffisait pas, y'a aussi l'intégration avec Ollama ou n'importe quelle API compatible OpenAI. Du coup vous pouvez non seulement transcrire vos enregistrements, mais aussi leur poser des questions, générer des résumés, ou carrément avoir une conversation avec le contenu de vos transcriptions. Genre vous demandez "c'est quoi les points clés de cette réunion ?" et hop, l'IA vous fait un résumé. Pratique pour les feignasses comme moi qui détestent se retaper 2 heures de réunion pour retrouver une info.
Côté installation, c'est du Docker classique ou alors Homebrew si vous êtes sur Mac. Un petit
`brew tap rishikanthc/scriberr && brew install scriberr`
et c'est parti mon kiki. Pour Docker, y'a des images pour CPU et GPU (CUDA), et ça supporte toutes les générations de cartes NVIDIA depuis les GTX 1000 jusqu'aux RTX 50 series toutes récentes.
Le premier lancement peut prendre quelques minutes parce que ça télécharge les modèles de reconnaissance vocale, mais une fois que c'est fait, les relances suivantes sont quasi instantanées. Y'a même un Folder Watcher qui surveille un dossier et transcrit automatiquement tout ce qui arrive dedans, parfait si vous voulez brancher ça sur un workflow automatisé avec n8n ou autre.
Bref, si vous êtes podcaster, journaliste, chercheur, ou juste quelqu'un qui a régulièrement besoin de transcrire des trucs sans vouloir filer ses données à Google ou payer un abonnement, Scriberr c'est exactement ce qu'il vous faut. C'est du self-hosting comme on l'aime, c'est à dire open source, respectueux de la vie privée, et qui fait le taf sans chichi.
Vous utilisez Word pour bosser et j’imagine que vous avez vu passer le fameux Copilot de Microsoft à 30 balles par mois pour les pros ? Ouais, ça pique un peu le porte-monnaie surtout quand on a déjà nos propres clés API OpenAI ou Gemini qui traînent et sur lesquelles on claque un smic tous les mois.
Hé bien Word GPT Plus c'est justement un add-in open source qui intègre l'IA directement dans Microsoft Word, et qui vous permet d'utiliser vos propres clés API au lieu de payer un énième abonnement. Avec ça, vous pouvez générer du texte, traduire, résumer, reformuler... le tout sans quitter votre document.
Mais le truc vraiment cool, c'est le mode Agent. Là, l'IA a accès à plein d'outils qui lui permettent de manipuler directement votre document Word. Genre insérer du texte, formater des paragraphes, créer des tableaux, gérer les signets, faire des rechercher-remplacer... Vous lui dites "formate tous les titres de section en Heading 2" et hop, c'est fait. C'est pas juste un chatbot dans une sidebar, c'est carrément un assistant qui peut agir sur votre document.
Côté fournisseurs IA, vous avez le choix entre OpenAI (GPT-4, GPT-3.5, et même les modèles compatibles comme DeepSeek), Azure OpenAI si vous êtes en entreprise, Google Gemini, Groq pour les modèles Llama et Qwen, et même Ollama si vous voulez faire tourner vos LLM en local sans envoyer vos données quelque part. Et ça, c'est top pour ceux qui bossent sur des documents confidentiels.
Y'a aussi des Quick Actions bien pratiques genre traduction en plus de 40 langues, amélioration de texte, réécriture académique, résumé automatique, correction grammaticale... Bref, les classiques mais directement accessibles dans Word.
Pour l'installer, c'est hyper simple. Vous téléchargez le fichier manifest.xml depuis le repo GitHub, vous le mettez dans un dossier partagé sur votre machine, et vous l'ajoutez dans Word via Insertion > Mes compléments > Dossier partagé. Pas besoin de coder quoi que ce soit. Y'a aussi une option Docker pour ceux qui veulent l'héberger eux-mêmes ou le déployer sur un serveur.
Niveau vie privée, vos clés API et vos prompts perso sont stockés localement dans le navigateur intégré à l'add-in Word. Y'a pas de serveur intermédiaire qui récupère vos données, sauf si vous configurez vous-même un proxy. Vos documents restent ainsi bien au chaud chez vous.
Par contre, faut Word 2016 minimum, Word 2019, 2021 ou Microsoft 365 sur Windows. Et ça marche uniquement avec les fichiers .docx.
Bref, si vous voulez avoir ChatGPT ou Gemini directement dans Word sans vous ruiner avec un abonnement Copilot, c'est exactement ce qu'il vous faut. Et comme c'est open source sous licence MIT, vous pouvez auditer le code si vous êtes du genre méfiant.
Vous jouez à Rainbow Six Siege ? Hé bien félicitations, vous êtes maintenant virtuellement millionnaire ! Enfin... l'étiez, parce que tout ça va être annulé.
Rainbow Six Siege X, le jeu d'Ubisoft victime d'un hack massif
Ce week-end, Ubisoft s'est fait pirater comme des jambons et pas qu'un peu. Des hackers ont réussi à distribuer 2 milliards de R6 Credits à TOUS les joueurs du jeu. Au tarif Ubisoft (15 000 crédits pour 99,99 dollars), ça représente environ 13,33 millions de dollars de monnaie virtuelle offerte gracieusement. Sympa les pirates ^^
Mais attendez, c'est pas tout ! Les attaquants ont également débloqué absolument tous les cosmétiques du jeu pour tout le monde, y compris les skins réservés aux développeurs que personne n'était censé avoir. Et pour couronner le tout, ils se sont amusés avec le système de bannissement du jeu. Résultat, des milliers de joueurs se sont retrouvés bannis puis débannis au hasard, pendant que le fil d'actualité des bans affichait des messages satiriques visant Ubisoft et ses dirigeants.
Les messages de ban détournés par les hackers formaient des phrases trop "golri", arf arf... (
Source
)
Du coup, le streamer KingGeorge a immédiatement lancé l'alerte : "Ne vous connectez pas au jeu, ne dépensez pas de Renown, ne dépensez pas de Rainbow Credits". Sage conseil, parce que par le passé, Ubisoft a déjà banni des joueurs pour leurs propres erreurs. Pas cool.
Peu après le début du bordel, Ubisoft a donc coupé les serveurs et la marketplace pour tenter de contenir les dégâts. Les serveurs de Rainbow Six Siege sont toujours hors ligne au moment où j'écris ces lignes, sans ETA de retour. La bonne nouvelle, c'est qu'Ubisoft a confirmé qu'aucun joueur ne sera banni pour avoir dépensé les crédits reçus pendant l'incident, et qu'un rollback de toutes les transactions depuis 11h UTC est en cours.
Maintenant, le truc vraiment chaud c'est la méthode utilisée car selon le groupe de recherche en sécurité VX-Underground, plusieurs groupes de hackers auraient exploité Ubisoft en même temps. L'un d'eux aurait utilisé une faille MongoDB récemment découverte, baptisée MongoBleed (CVE-2025-14847). Cette vulnérabilité permet à n'importe qui de siphonner la mémoire des serveurs MongoDB exposés, récupérant au passage des credentials, des tokens d'authentification et des clés. Un PoC public circule depuis le 26 décembre et environ 87 000 instances MongoDB seraient vulnérables dans le monde (mettez à jour, hein !!).
Un autre groupe prétend avoir aussi utilisé cette faille pour se balader dans les dépôts Git internes d'Ubisoft et voler des archives de code source remontant jusqu'aux années 90. Ces affirmations restent non vérifiées pour l'instant, mais si c'est vrai, c'est du lourd...
Bref, si vous avez un compte Ubisoft, je vous conseille vivement de changer votre mot de passe et de retirer vos moyens de paiement enregistrés, au cas où. Et pour Rainbow Six Siege, patience, ça va revenir... probablement avec un rollback qui effacera tous ces beaux cadeaux empoisonnés.
Vous connaissez l'histoire de la NES ? Celle du petit robot R.O.B. qui a aidé à ressusciter l'industrie du jeu vidéo américaine en 1985 ? Hé bien la
Video Game History Foundation
vient de sortir un documentaire d'une heure qui raconte tout ce qu'on ne vous a jamais dit sur le lancement de cette console mythique. Et dedans, y'a des révélations qui font mal ^^.
Frank Cifaldi, le fondateur de la VGHF, a passé des années à fouiller cette histoire. Il a rencontré des gens qui étaient chez Nintendo à l'époque, il a déterré des documents que personne n'avait jamais vus, il a même manipulé des prototypes qui n'auraient jamais dû survivre. Et le résultat, c'est cette plongée incroyable dans les coulisses d'un des plus grands paris de l'histoire du gaming.
Alors remontons au printemps 1983... Nintendo négocie avec Atari, le géant de l'époque, pour leur refiler les droits de distribuer la Famicom dans le monde entier. Hé oui, en interne, Atari avait même donné un nom de code au projet : "3600". L'idée, c'était d'intégrer la technologie Nintendo dans un boîtier plastique Atari existant. Le deal était quasiment signé, et les deux boîtes s'étaient mises d'accord sur tout : Nintendo fabriquerait les composants, Atari les revendrait sous sa marque. Ils avaient même commencé à convertir des jeux arcade (Millipede, Joust et Stargate) pour le système.
Et puis tout s'est cassé la gueule au CES de 1983. Atari a vu Coleco montrer un prototype de Donkey Kong sur leur ordinateur Adam, et ils ont pété un câble. Ils pensaient que Nintendo les avait doublés en refilant les droits à un concurrent. En réalité, c'était juste un malentendu sur les licences
ColecoVision
, mais le mal était fait. Le président de Nintendo, Hiroshi Yamauchi, a tellement gueulé sur les représentants de Coleco sur le salon que tout le monde s'en souvient encore.
Ça a contribué à torpiller les négociations, et dans le contexte des turbulences internes chez Atari, le deal n'a jamais abouti. Atari, qui évaluait également le système MARIA de GCC en parallèle, s'est finalement concentré sur ce qui deviendra l'Atari 7800. Et Nintendo s'est retrouvé tout seul, obligé de se débrouiller.
Et c'est là que ça devient vraiment intéressant parce que Nintendo of America, c'était une petite boîte de rien du tout à l'époque. Quelques dizaines d'employés dont le boulot principal consistait à importer des bornes d'arcade japonaises. Ils n'avaient aucune idée de comment vendre une console de salon aux États-Unis.
Alors ils ont fait appel à Lance Barr, un designer industriel, pour repenser complètement la Famicom. Et le mec a créé un design qui ressemblait plus à une chaîne hi-fi haut de gamme qu'à une console de jeux. Le prototype s'appelait l'AVS (Advanced Video System). C'était un truc tout en finesse avec des manettes sans fil, un clavier, un magnétophone à cassettes, et une esthétique empilable façon chaîne hi-fi. Les photos de l'époque sont magnifiques, on croirait du design scandinave ^^.
Le prototype AVS de Nintendo, avec son design hi-fi et ses manettes sans fil (
Source
)
Sauf que personne n'en voulait. Nintendo a fait des tests consommateurs, et les gamins (et leurs parents) trouvaient le concept de programmation barbant. Ils aimaient bien l'idée des manettes sans fil et de l'empilement des boitiers, mais coder / modifier soi-même ses propres jeux en Basic ? Grosse flemme...
En plus, le marché américain était en plein crash. Les magasins croulaient sous les invendus de jeux Atari bradés, et personne ne voulait entendre parler d'une nouvelle console. Tous les détaillants que Nintendo rencontrait leur disaient la même chose : le jeu vidéo, c'est mort, c'était une mode passagère, passez votre chemin (tiens ça me rappelle quelque chose plus actuel... lol).
Alors Nintendo a tout viré. Plus de manettes sans fil, plus de clavier, plus de magnétophone. Ils ont gardé uniquement le robot R.O.B. comme cheval de Troie. L'idée, c'était de faire croire aux magasins de jouets qu'ils vendaient un robot high-tech, et pas une console de jeux.
Et ça a marché, les amis !!
Une armée de R.O.B., le robot qui a permis à Nintendo d'infiltrer les magasins de jouets (
Source
)
Puis en octobre 1985, Nintendo a lancé la NES dans la région de New York avec une garantie de rachat pour les détaillants : si ça ne se vendait pas, ils reprenaient tout. L'équipe a bossé comme des dingues depuis un entrepôt minable du New Jersey, infesté de rats et de serpents. Il y a même eu un ouragan pendant le lancement. Du grand n'importe quoi.
Le présentoir NES chez FAO Schwarz en 1986 (
Source
)
Mais le plus fou dans cette histoire, c'est le fameux chip CIC, le "lockout chip" qui empêchait de jouer à des jeux non autorisés par Nintendo. Et devinez d'où venait cette idée ? D'Atari eux-mêmes ! Lors des négociations de 1983, quelqu'un chez Atari avait demandé à Nintendo s'ils pouvaient créer un système technique pour bloquer les cartouches non officielles. Atari se plaignait des jeux pourris que n'importe qui pouvait sortir sur leurs consoles, et ils voulaient reprendre le contrôle.
Nintendo n'avait pas de solution à l'époque, mais ils ont retenu l'idée. Et selon les dépositions du procès Atari vs. Nintendo, le président Yamauchi aurait lui-même reconnu qu'après avoir entendu ce qu'Atari avait dit, Nintendo avait conclu qu'un système de sécurité devait être développé pour vendre des consoles aux États-Unis.
En gros, Atari aurait suggéré le concept qui allait se retourner contre eux. C'est le chip qui les empêchera plus tard de publier librement des jeux sur NES, conçu par Nintendo suite à leur demande initiale. Ironique non ? Et ce système de contrôle est ensuite devenu le modèle pour toutes les consoles qui ont suivi. Aujourd'hui, on trouve normal qu'on ne puisse pas sortir un jeu PlayStation sans l'accord de Sony, mais avant la NES, n'importe qui pouvait fabriquer des cartouches pour n'importe quelle console.
La VGHF a aussi récupéré les jeux qu'Atari avait commandés à Nintendo en 1983. Trois d'entre eux (Millipede, Joust et Stargate) sont d'ailleurs finalement sortis en 1987 via le HAL Laboratory avec un copyright "Atari 1983" sur l'écran titre. Tant mieux, ça aurait été dommage de ne pas pouvoir y jouer...
Bref, si vous avez une heure devant vous pendant les fêtes, foncez regarder ce documentaire. C'est de la recherche historique de première main, pas du réchauffé de Wikipedia. Et si vous voulez aller plus loin, la VGHF a aussi mis en ligne
un panel avec trois anciens de Nintendo
qui ont vécu le lancement de 1985. Des témoignages de première main qu'on ne retrouvera probablement jamais ailleurs...
Si vous avez toujours voulu essayer Emacs mais que la courbe d'apprentissage vous fait peur,
IDEmacs
est fait pour vous ! Ce projet transforme Emacs en clone de VSCode avec les mêmes raccourcis clavier, la même interface graphique et les mêmes fonctionnalités out-of-the-box, comme ça vous n'avez plus besoin de vous taper une configuration durant trois jours avant de pouvoir écrire une ligne de code !
Cool, hein ?
L'idée c'est donc de permettre aux développeurs habitués à des IDE modernes de passer à Emacs sans devoir réapprendre tous leurs réflexes. Les raccourcis clavier reprennent ceux de VSCode comme Ctrl+C pour copier, Ctrl+V pour coller, Ctrl+F pour chercher. C'est basique mais indispensable quand vous venez d'un autre éditeur.
Côté interface, IDEmacs intègre Treemacs pour avoir un explorateur de fichiers dans la sidebar comme sur VSCode. Y'a aussi Centaur Tabs pour les onglets, un thème Dark Plus qui ressemble à celui de Microsoft, et le support des curseurs multiples. Bref, visuellement vous êtes en terrain connu.
Du coup, c'est pour qui exactement ?
Hé bien le projet cible trois types d'utilisateurs : les développeurs qui veulent migrer vers Emacs depuis un autre IDE, les débutants en Lisp ou Scheme qui ont besoin d'Emacs pour bosser, et les non-programmeurs qui cherchent juste un éditeur de texte puissant sans se prendre la tête avec la config.
D'ailleurs, contrairement à la plupart des starter kits Emacs, IDEmacs ne cache pas les éléments graphiques par défaut. Les menus, barres d'outils et scrollbars sont visibles donc vous pouvez configurer le tout via l'interface graphique plutôt qu'en écrivant du Elisp à la main.
La config proposée inclut une vingtaine de packages tels que Vertico, Consult et Marginalia pour l'autocomplétion, Magit pour le contrôle de version, Sly et Geiser pour le développement Lisp et Scheme, plus des outils comme expand-region, multiple-cursors et smartparens pour l'édition avancée.
Pour installer IDEmacs, il vous faudra donc Emacs 29 ou plus récent, git, et optionnellement grep et locate. Clonez le repo puis lancez Emacs avec
emacs --init-directory=/path/to/IDEmacs/vscode .
Et hop, c'est prêt !
IDEmacs reste une porte d'entrée vers Emacs, et pas un remplacement définitif de VSCode mais l'idée avec ce truc, c'est de vous permettre de commencer à utiliser Emacs sans friction, puis de personnaliser au fur et à mesure que vous comprenez comment ça marche. Je vous assure que vous allez probablement vouloir modifier des trucs une fois que vous serez à l'aise.
Voilà, si vous avez toujours été curieux d'Emacs mais que vous n'avez jamais osé franchir le pas, c'est l'occaz !
Si vous avez toujours voulu essayer Emacs mais que la courbe d'apprentissage vous fait peur,
IDEmacs
est fait pour vous ! Ce projet transforme Emacs en clone de VSCode avec les mêmes raccourcis clavier, la même interface graphique et les mêmes fonctionnalités out-of-the-box, comme ça vous n'avez plus besoin de vous taper une configuration durant trois jours avant de pouvoir écrire une ligne de code !
Cool, hein ?
L'idée c'est donc de permettre aux développeurs habitués à des IDE modernes de passer à Emacs sans devoir réapprendre tous leurs réflexes. Les raccourcis clavier reprennent ceux de VSCode comme Ctrl+C pour copier, Ctrl+V pour coller, Ctrl+F pour chercher. C'est basique mais indispensable quand vous venez d'un autre éditeur.
Côté interface, IDEmacs intègre Treemacs pour avoir un explorateur de fichiers dans la sidebar comme sur VSCode. Y'a aussi Centaur Tabs pour les onglets, un thème Dark Plus qui ressemble à celui de Microsoft, et le support des curseurs multiples. Bref, visuellement vous êtes en terrain connu.
Du coup, c'est pour qui exactement ?
Hé bien le projet cible trois types d'utilisateurs : les développeurs qui veulent migrer vers Emacs depuis un autre IDE, les débutants en Lisp ou Scheme qui ont besoin d'Emacs pour bosser, et les non-programmeurs qui cherchent juste un éditeur de texte puissant sans se prendre la tête avec la config.
D'ailleurs, contrairement à la plupart des starter kits Emacs, IDEmacs ne cache pas les éléments graphiques par défaut. Les menus, barres d'outils et scrollbars sont visibles donc vous pouvez configurer le tout via l'interface graphique plutôt qu'en écrivant du Elisp à la main.
La config proposée inclut une vingtaine de packages tels que Vertico, Consult et Marginalia pour l'autocomplétion, Magit pour le contrôle de version, Sly et Geiser pour le développement Lisp et Scheme, plus des outils comme expand-region, multiple-cursors et smartparens pour l'édition avancée.
Pour installer IDEmacs, il vous faudra donc Emacs 29 ou plus récent, git, et optionnellement grep et locate. Clonez le repo puis lancez Emacs avec
emacs --init-directory=/path/to/IDEmacs/vscode .
Et hop, c'est prêt !
IDEmacs reste une porte d'entrée vers Emacs, et pas un remplacement définitif de VSCode mais l'idée avec ce truc, c'est de vous permettre de commencer à utiliser Emacs sans friction, puis de personnaliser au fur et à mesure que vous comprenez comment ça marche. Je vous assure que vous allez probablement vouloir modifier des trucs une fois que vous serez à l'aise.
Voilà, si vous avez toujours été curieux d'Emacs mais que vous n'avez jamais osé franchir le pas, c'est l'occaz !
Vous avez une vieille GTX 1060 qui tourne nickel sous Arch Linux ? C'est con, NVIDIA vient de vous mettre un beau coup de pied aux fesses car la boîte au caméléon vert a décidé d'abandonner le support des GPU Pascal (les GTX 10xx) dans son dernier driver 590 et ça crée un joyeux bordel, notamment sur Arch.
Le problème, c'est que quand vous faites une mise à jour système sur Arch avec une vieille carte Pascal ou Maxwell, le nouveau driver refuse de charger. Résultat, vous vous retrouvez éjecté vers la ligne de commande sans interface graphique. Sympa pour débugger quand y'a plus d'écran qui fonctionne...
Faut dire que le modèle "rolling release" d'Arch fait que les utilisateurs ont reçu ce driver incompatible automatiquement avec leur mise à jour. Ils n'ont pas eu le temps de dire ouf que leur système était déjà cassé. Et les GTX 1060 et 1050 Ti, c'est pas exactement des cartes de musée... Y'en a encore pas mal qui tournent sur Steam, et même si parmi leurs propriétaires, seule une poignée utilise Linux, et encore moins Arch, ça fait quand même du monde impacté.
Pour s'en sortir, y'a deux solutions. La première, c'est d'installer le driver legacy nvidia-580xx-dkms depuis l'AUR, qui est maintenu par l'équipe CachyOS. Le hic, c'est que ça crée des problèmes de dépendances avec Steam, donc faut aussi installer lib32-nvidia-580xx-utils pour que les jeux 32 bits fonctionnent. La deuxième option, c'est de basculer sur Nouveau, le driver open source fait par reverse engineering. Ça marche, mais avec les limitations que ça implique niveau performances et fonctionnalités.
Ce qui me rend dingue dans cette histoire, c'est que pendant des années, NVIDIA a refusé de fournir de la documentation pour ses GPU, forçant la communauté Linux à utiliser le reverse engineering pour Nouveau. Et depuis 2022, ils ont ouvert les modules kernel pour les architectures Turing et plus récentes, mais les parties user-space et le firmware restent propriétaires. Et surtout, aucune aide pour les vieilles cartes comme Pascal !! Du coup, maintenant que NVIDIA abandonne ces générations de cartes, c'est aux bénévoles de la communauté de maintenir les drivers legacy... Pas cool.
D'ailleurs,
l'annonce officielle d'Arch Linux
précise que les cartes Turing et plus récentes (RTX 20xx et GTX 1650+) vont automatiquement basculer vers les modules kernel open source, donc pas d'intervention manuelle pour eux. C'est uniquement les propriétaires de vieilles Pascal/Maxwell qui doivent se taper le boulot.
Bref, si vous avez une carte Pascal sous Arch, basculez sur nvidia-580xx-dkms avant votre prochain pacman -Syu. Dans sa grande bonté, NVIDIA a aussi promis des patchs de sécu jusqu'en 2028, mais bon, on a vu ce que valent leurs promesses côté Linux...
Vous avez une vieille GTX 1060 qui tourne nickel sous Arch Linux ? C'est con, NVIDIA vient de vous mettre un beau coup de pied aux fesses car la boîte au caméléon vert a décidé d'abandonner le support des GPU Pascal (les GTX 10xx) dans son dernier driver 590 et ça crée un joyeux bordel, notamment sur Arch.
Le problème, c'est que quand vous faites une mise à jour système sur Arch avec une vieille carte Pascal ou Maxwell, le nouveau driver refuse de charger. Résultat, vous vous retrouvez éjecté vers la ligne de commande sans interface graphique. Sympa pour débugger quand y'a plus d'écran qui fonctionne...
Faut dire que le modèle "rolling release" d'Arch fait que les utilisateurs ont reçu ce driver incompatible automatiquement avec leur mise à jour. Ils n'ont pas eu le temps de dire ouf que leur système était déjà cassé. Et les GTX 1060 et 1050 Ti, c'est pas exactement des cartes de musée... Y'en a encore pas mal qui tournent sur Steam, et même si parmi leurs propriétaires, seule une poignée utilise Linux, et encore moins Arch, ça fait quand même du monde impacté.
Pour s'en sortir, y'a deux solutions. La première, c'est d'installer le driver legacy nvidia-580xx-dkms depuis l'AUR, qui est maintenu par l'équipe CachyOS. Le hic, c'est que ça crée des problèmes de dépendances avec Steam, donc faut aussi installer lib32-nvidia-580xx-utils pour que les jeux 32 bits fonctionnent. La deuxième option, c'est de basculer sur Nouveau, le driver open source fait par reverse engineering. Ça marche, mais avec les limitations que ça implique niveau performances et fonctionnalités.
Ce qui me rend dingue dans cette histoire, c'est que pendant des années, NVIDIA a refusé de fournir de la documentation pour ses GPU, forçant la communauté Linux à utiliser le reverse engineering pour Nouveau. Et depuis 2022, ils ont ouvert les modules kernel pour les architectures Turing et plus récentes, mais les parties user-space et le firmware restent propriétaires. Et surtout, aucune aide pour les vieilles cartes comme Pascal !! Du coup, maintenant que NVIDIA abandonne ces générations de cartes, c'est aux bénévoles de la communauté de maintenir les drivers legacy... Pas cool.
D'ailleurs,
l'annonce officielle d'Arch Linux
précise que les cartes Turing et plus récentes (RTX 20xx et GTX 1650+) vont automatiquement basculer vers les modules kernel open source, donc pas d'intervention manuelle pour eux. C'est uniquement les propriétaires de vieilles Pascal/Maxwell qui doivent se taper le boulot.
Bref, si vous avez une carte Pascal sous Arch, basculez sur nvidia-580xx-dkms avant votre prochain pacman -Syu. Dans sa grande bonté, NVIDIA a aussi promis des patchs de sécu jusqu'en 2028, mais bon, on a vu ce que valent leurs promesses côté Linux...
Vous vous souvenez des disquettes 3,5 pouces ? Ces petits carrés en plastique qu'on utilisait pour stocker nos 1,44 Mo de données précieuses ? Hé bien à Taïwan, elles font leur grand retour... mais pas pour sauvegarder vos fichiers.
La société iPASS, qui gère un système de cartes de transport et de paiement sans contact dans le pays, vient de lancer une carte prépayée NFC en forme de disquette. Taille réelle, proportions parfaites, disponible en noir ou en jaune. C'est sorti pour Noël et les geeks du pays se sont jetés dessus.
Le truc qui m'a fait triper surtout, c'est l'avertissement officiel que la boîte a jugé nécessaire d'ajouter sur la fiche produit : "Ce produit a uniquement une fonction de carte et n'a pas de fonction disque 3,5mm, veuillez en prendre note avant l'achat". J'imagine qu'ils ont dû voir passer quelques retours de clients déçus qui tentaient de l'insérer dans leur vieux PC... Même si après, trouver un PC avec un lecteur de disquette en 2025, c'est déjà un exploit en soi.
Du coup cette carte permet de prendre le métro, le bus, le train, le taxi, de louer un vélo, et de payer dans les 7-Eleven, FamilyMart, McDonald's, Burger King et plein d'autres enseignes. Bref, c'est une vraie carte de paiement, juste avec un look de rêve pour les nostalgiques de l'ère DOS.
Et si vous pensez que c'est le gadget le plus absurde qu'ils ont sorti, détrompez-vous puisque iPASS propose aussi des cartes en forme de téléphone Motorola DynaTAC (le gros portable des années 80), de train miniature, de tong, et même de boule à neige Godzilla avec des LEDs. Sur le site PCHome24, y'a littéralement 838 designs différents de cartes iPASS. Les Taïwanais, ils font pas les choses à moitié.
Une carte standard coûte environ 100 NT$ (3 euros) sans crédit, mais les éditions collectors peuvent monter jusqu'à 1000 NT$ ou plus selon le délire. Voilà, si vous passez par Taïwan, c'est clairement le souvenir geek ultime à (me) ramener !
Et au moins, contrairement à une vraie disquette, celle-là ne risque pas de vous lâcher après 6 mois à cause d'un petit champ magnétique de passage.
Vous voyez ces photos stylées sur Instagram où le texte semble passer derrière la personne, comme si le gros "FASHION" ou "WORKOUT" était vraiment dans la scène ? C'est l'effet "text behind image" et c'est clairement le truc graphique qui fait super pro en ce moment.
Le problème c'est que pour obtenir ce rendu, faut normalement se taper Photoshop, maîtriser les calques, le détourage, les masques... Bref, perdre une demi-heure sur un truc qui devrait prendre 30 secondes. Et comme vous êtes des gens occupés (contrairement à moi qui passe ma vie à tester des outils), voici la solution.
C'est un site gratuit qui règle tout ça et qui s'appelle
Text Behind Image
. Vous uploadez votre photo (jusqu'à 10 Mo), l'IA détecte automatiquement le sujet (une personne, un objet, peu importe), vous tapez votre texte, et le site se débrouille pour le placer pile poil derrière. Ça prend quelques secondes de traitement, pas besoin de détourer quoi que ce soit vous-mêmes.
L'interface propose pas mal d'options de personnalisation... Vous pouvez choisir la police, jouer avec la taille, la couleur, l'opacité, la rotation, ajouter des contours... Et surtout, vous voyez le résultat en temps réel, donc vous pouvez repositionner le texte en glisser-déposer jusqu'à ce que ça rende nickel.
Et le top du top, c'est que c'est gratuit, sans limite, sans inscription, et vous téléchargez votre image en haute résolution sans filigrane. J'ai vérifié et y'a même pas de petit "Made with..." planqué dans un coin. C'est assez rare pour un outil en ligne de ce genre alors je tiens à vous le signaler !
Bon après si votre photo est ultra complexe avec 36 personnes et des éléments qui se chevauchent, l'IA va potentiellement galérer à détourer correctement, mais pour une photo classique avec un sujet bien visible sur un fond pas trop chargé, ça marche vraiment bien.
Bref, si vous faites du contenu pour les réseaux, des miniatures YouTube, ou même juste des visuels fun pour votre pote qui fait de la muscu, c'est le genre d'outil à bookmarker direct. En 30 secondes vous aurez un rendu qui vous aurait pris 20 minutes sur Photoshop.
Vous vous souvenez des disquettes 3,5 pouces ? Ces petits carrés en plastique qu'on utilisait pour stocker nos 1,44 Mo de données précieuses ? Hé bien à Taïwan, elles font leur grand retour... mais pas pour sauvegarder vos fichiers.
La société iPASS, qui gère un système de cartes de transport et de paiement sans contact dans le pays, vient de lancer une carte prépayée NFC en forme de disquette. Taille réelle, proportions parfaites, disponible en noir ou en jaune. C'est sorti pour Noël et les geeks du pays se sont jetés dessus.
Le truc qui m'a fait triper surtout, c'est l'avertissement officiel que la boîte a jugé nécessaire d'ajouter sur la fiche produit : "Ce produit a uniquement une fonction de carte et n'a pas de fonction disque 3,5mm, veuillez en prendre note avant l'achat". J'imagine qu'ils ont dû voir passer quelques retours de clients déçus qui tentaient de l'insérer dans leur vieux PC... Même si après, trouver un PC avec un lecteur de disquette en 2025, c'est déjà un exploit en soi.
Du coup cette carte permet de prendre le métro, le bus, le train, le taxi, de louer un vélo, et de payer dans les 7-Eleven, FamilyMart, McDonald's, Burger King et plein d'autres enseignes. Bref, c'est une vraie carte de paiement, juste avec un look de rêve pour les nostalgiques de l'ère DOS.
Et si vous pensez que c'est le gadget le plus absurde qu'ils ont sorti, détrompez-vous puisque iPASS propose aussi des cartes en forme de téléphone Motorola DynaTAC (le gros portable des années 80), de train miniature, de tong, et même de boule à neige Godzilla avec des LEDs. Sur le site PCHome24, y'a littéralement 838 designs différents de cartes iPASS. Les Taïwanais, ils font pas les choses à moitié.
Une carte standard coûte environ 100 NT$ (3 euros) sans crédit, mais les éditions collectors peuvent monter jusqu'à 1000 NT$ ou plus selon le délire. Voilà, si vous passez par Taïwan, c'est clairement le souvenir geek ultime à (me) ramener !
Et au moins, contrairement à une vraie disquette, celle-là ne risque pas de vous lâcher après 6 mois à cause d'un petit champ magnétique de passage.
Vous voyez ces photos stylées sur Instagram où le texte semble passer derrière la personne, comme si le gros "FASHION" ou "WORKOUT" était vraiment dans la scène ? C'est l'effet "text behind image" et c'est clairement le truc graphique qui fait super pro en ce moment.
Le problème c'est que pour obtenir ce rendu, faut normalement se taper Photoshop, maîtriser les calques, le détourage, les masques... Bref, perdre une demi-heure sur un truc qui devrait prendre 30 secondes. Et comme vous êtes des gens occupés (contrairement à moi qui passe ma vie à tester des outils), voici la solution.
C'est un site gratuit qui règle tout ça et qui s'appelle
Text Behind Image
. Vous uploadez votre photo (jusqu'à 10 Mo), l'IA détecte automatiquement le sujet (une personne, un objet, peu importe), vous tapez votre texte, et le site se débrouille pour le placer pile poil derrière. Ça prend quelques secondes de traitement, pas besoin de détourer quoi que ce soit vous-mêmes.
L'interface propose pas mal d'options de personnalisation... Vous pouvez choisir la police, jouer avec la taille, la couleur, l'opacité, la rotation, ajouter des contours... Et surtout, vous voyez le résultat en temps réel, donc vous pouvez repositionner le texte en glisser-déposer jusqu'à ce que ça rende nickel.
Et le top du top, c'est que c'est gratuit, sans limite, sans inscription, et vous téléchargez votre image en haute résolution sans filigrane. J'ai vérifié et y'a même pas de petit "Made with..." planqué dans un coin. C'est assez rare pour un outil en ligne de ce genre alors je tiens à vous le signaler !
Bon après si votre photo est ultra complexe avec 36 personnes et des éléments qui se chevauchent, l'IA va potentiellement galérer à détourer correctement, mais pour une photo classique avec un sujet bien visible sur un fond pas trop chargé, ça marche vraiment bien.
Bref, si vous faites du contenu pour les réseaux, des miniatures YouTube, ou même juste des visuels fun pour votre pote qui fait de la muscu, c'est le genre d'outil à bookmarker direct. En 30 secondes vous aurez un rendu qui vous aurait pris 20 minutes sur Photoshop.
Vous vous êtes déjà demandé si ChatGPT votait à gauche ou à droite ? Moi non plus, j'avoue. Mais maintenant qu'on a la réponse, c'est quand même assez marrant, vous allez voir...
Un développeur a créé
PoliBench
, un site qui fait passer le test du
Political Compass
à 40 modèles de langage différents. Le Political Compass c'est ce fameux test avec les deux axes : économique (gauche-droite) et social (libertaire-autoritaire). Le truc qu'on faisait tous sur Internet en 2005 pour finalement découvrir qu'on était un libertaire de gauche comme environ 95% des gens qui passaient le test.
Bref, maintenant les IA aussi peuvent savoir où elles se situent sur l'échiquier politique et ça, ça peut vous aider à mieux les choisir, car les résultats sont assez révélateurs. Niveau cuisine interne,
PoliBench
teste les 62 questions sur les deux axes du Political Compass, puis calcule les scores pour chaque LLM. Et comme les données sont open source, vous pouvez vérifier la méthodologie vous-même.
Et sans surprise, la plupart des LLMs se retrouvent dans le quadrant libertaire de gauche !! J'dis ça, j'dis rien, mais c'est presque comme si les devs de la Silicon Valley avaient des opinions politiques similaires et les injectaient (consciemment ou pas) dans leurs modèles.
Du coup, j'ai fait le travail de tri pour vous, alors voici le guide ultime pour choisir votre IA selon votre sensibilité politique :
Si vous êtes plutôt LFI, prenez Claude. Il est tellement progressiste qu'il refuse de générer du contenu problématique même quand vous lui demandez une blague sur les vegans. En plus il écrit des pavés de 3000 mots pour expliquer pourquoi il ne peut pas répondre à votre question. Parfait pour tenir un meeting politique de 4 heures.
Si vous êtes plutôt PS, prenez GPT-4. Un modèle qui a connu des jours meilleurs, qui essaie de plaire à tout le monde et qui finit par ne satisfaire personne. Bonus : il change d'avis selon qui lui parle.
Si vous êtes plutôt macroniste, prenez Gemini de Google. Un truc qui promet la disruption et l'innovation mais qui au final fait à peu près pareil que les autres, en plus cher, tout en vous expliquant que c'est pour votre bien.
Si vous êtes plutôt LR, prenez Mistral. C'est français, c'est souverain... mais personne ne sait vraiment ce que ça pense sur les sujets qui fâchent parce que ça évite soigneusement d'en parler.
Si vous êtes plutôt écolo, prenez Llama de Meta. C'est open source donc c'est « pour le bien commun », ça tourne sur du matériel recyclé si vous voulez, et ça consomme moins de ressources que les gros modèles propriétaires. Par contre faut quand même un GPU qui coûte un SMIC.
Et si vous êtes plutôt RN... bah en fait y'a pas vraiment de LLM pour vous. Tous ces modèles ont été entraînés à San Francisco par des gens qui mangent des avocado toasts et font du yoga. Ils refusent donc de générer ce contenu haineux, discriminatoire ou factuellement faux dont vous êtes friants. Désolé, les gars c'est pas compatible. Peut-être essayez Grok d'Elon Musk ? Ah non pardon, lui aussi il a des « guidelines ». Mince alors. Va falloir donc continuer à écrire vos tracts vous-mêmes les amis. Je sais, l'IA woke vous opprime, c'est terrible.
Après, le vrai sujet derrière PoliBench, c'est que ces biais existent bel et bien et qu'ils influencent les réponses que vous recevez sur des sujets sensibles. Quand vous demandez à une IA son avis sur l'immigration, les impôts ou la régulation des entreprises, la réponse dépend en partie de ces préférences encodées dans le modèle. Il faut juste le savoir...
Alors vous choisissez quelle IA à partir de maintenant ?
Vous vous êtes déjà demandé si ChatGPT votait à gauche ou à droite ? Moi non plus, j'avoue. Mais maintenant qu'on a la réponse, c'est quand même assez marrant, vous allez voir...
Un développeur a créé
PoliBench
, un site qui fait passer le test du
Political Compass
à 40 modèles de langage différents. Le Political Compass c'est ce fameux test avec les deux axes : économique (gauche-droite) et social (libertaire-autoritaire). Le truc qu'on faisait tous sur Internet en 2005 pour finalement découvrir qu'on était un libertaire de gauche comme environ 95% des gens qui passaient le test.
Bref, maintenant les IA aussi peuvent savoir où elles se situent sur l'échiquier politique et ça, ça peut vous aider à mieux les choisir, car les résultats sont assez révélateurs. Niveau cuisine interne,
PoliBench
teste les 62 questions sur les deux axes du Political Compass, puis calcule les scores pour chaque LLM. Et comme les données sont open source, vous pouvez vérifier la méthodologie vous-même.
Et sans surprise, la plupart des LLMs se retrouvent dans le quadrant libertaire de gauche !! J'dis ça, j'dis rien, mais c'est presque comme si les devs de la Silicon Valley avaient des opinions politiques similaires et les injectaient (consciemment ou pas) dans leurs modèles.
Du coup, j'ai fait le travail de tri pour vous, alors voici le guide ultime pour choisir votre IA selon votre sensibilité politique :
Si vous êtes plutôt LFI, prenez Claude. Il est tellement progressiste qu'il refuse de générer du contenu problématique même quand vous lui demandez une blague sur les vegans. En plus il écrit des pavés de 3000 mots pour expliquer pourquoi il ne peut pas répondre à votre question. Parfait pour tenir un meeting politique de 4 heures.
Si vous êtes plutôt PS, prenez GPT-4. Un modèle qui a connu des jours meilleurs, qui essaie de plaire à tout le monde et qui finit par ne satisfaire personne. Bonus : il change d'avis selon qui lui parle.
Si vous êtes plutôt macroniste, prenez Gemini de Google. Un truc qui promet la disruption et l'innovation mais qui au final fait à peu près pareil que les autres, en plus cher, tout en vous expliquant que c'est pour votre bien.
Si vous êtes plutôt LR, prenez Mistral. C'est français, c'est souverain... mais personne ne sait vraiment ce que ça pense sur les sujets qui fâchent parce que ça évite soigneusement d'en parler.
Si vous êtes plutôt écolo, prenez Llama de Meta. C'est open source donc c'est « pour le bien commun », ça tourne sur du matériel recyclé si vous voulez, et ça consomme moins de ressources que les gros modèles propriétaires. Par contre faut quand même un GPU qui coûte un SMIC.
Et si vous êtes plutôt RN... bah en fait y'a pas vraiment de LLM pour vous. Tous ces modèles ont été entraînés à San Francisco par des gens qui mangent des avocado toasts et font du yoga. Ils refusent donc de générer ce contenu haineux, discriminatoire ou factuellement faux dont vous êtes friants. Désolé, les gars c'est pas compatible. Peut-être essayez Grok d'Elon Musk ? Ah non pardon, lui aussi il a des « guidelines ». Mince alors. Va falloir donc continuer à écrire vos tracts vous-mêmes les amis. Je sais, l'IA woke vous opprime, c'est terrible.
Après, le vrai sujet derrière PoliBench, c'est que ces biais existent bel et bien et qu'ils influencent les réponses que vous recevez sur des sujets sensibles. Quand vous demandez à une IA son avis sur l'immigration, les impôts ou la régulation des entreprises, la réponse dépend en partie de ces préférences encodées dans le modèle. Il faut juste le savoir...
Alors vous choisissez quelle IA à partir de maintenant ?
À l'époque de ma glorieuse jeunesse, je jouais à RoboCop sur NES et c'est vrai que je trouvais ça très cool ! Mais ce que je ne savais pas, c'est que la version arcade de Data East cachait un secret bien vicieux dans ses entrailles électroniques.
En 1988, Data East sort donc RoboCop en version arcade et comme tous les éditeurs de l'époque, ils avaient une peur bleue des bootleggers asiatiques qui clonaient les bornes à tour de bras. Du coup, ils ont eu une idée de génie : planquer une puce HuC6280 dans le hardware. Pour ceux qui ne connaissent pas, c'est le processeur du PC Engine, le cousin japonais de la TurboGrafx-16, sauf que là, elle ne sert absolument pas à faire tourner le jeu.
Non non, cette puce est là uniquement pour emmerder le monde.
Le truc pas con (enfin, pas con pour l'époque), c'est que Data East a externalisé une partie des calculs de collision sur ce processeur secondaire. Du coup, sans la puce HuC6280, le jeu démarre mais les hitboxes sont complètement pétées et les ennemis deviennent invincibles. Faut s'imaginer RoboCop qui tire dans le vide pendant que les méchants lui marchent dessus tranquillement... C'est pas méga vendeur pour une borne à 3000 dollars.
Le problème, c'est qu'en 2025, ces puces HuC6280 commencent à lâcher et quand ça arrive, votre borne RoboCop devient un très joli meuble de 150 kilos.
Et c'est là qu'un développeur du nom de djh0ffman entre en scène. Le bougre s'est dit qu'au lieu de chercher des puces de remplacement introuvables, il allait tout simplement virer cette protection. Mais pour ça, il fallait d'abord comprendre ce que faisait exactement cette fichue puce.
Déjà, il fallait dumper le code du HuC6280. Pas si simple parce que Data East avait aussi obfusqué les tables de jump pour que personne ne puisse facilement lire le code. Du reverse engineering dans le reverse engineering, en quelque sorte.
Une fois le code extrait et désobfusqué, djh0ffman a alors découvert que la puce gérait principalement deux choses : les collisions entre les sprites et la gestion des dégâts. Le reste du jeu tournant sur le processeur principal, un Motorola 68000.
Du coup, la solution était claire. Il fallait porter tout ce code du HuC6280 vers le 68000. Facile à dire bien sûr, mais moins facile à faire quand on parle de deux architectures complètement différentes. Le HuC6280 est certes un dérivé du 6502, mais le 68000 c'est carrément une autre planète.
Mais après des heures de travail, djh0ffman a réussi à recréer toutes les routines de collision en assembleur 68000 et à les injecter dans la ROM originale. Le patch fait environ 2 Ko !! Et ça transforme n'importe quelle borne RoboCop avec une puce morte en machine parfaitement fonctionnelle.
Et le truc cool, c'est que son patch ne contourne pas vraiment la protection, mais la remplace. Le jeu fonctionne donc exactement comme l'original, avec les mêmes collisions, les mêmes dégâts, les mêmes hitboxes. C'est juste que maintenant, tout ça tourne sur le 68000 au lieu du HuC6280.
Et le plus marrant c'est que cette protection était considérée comme inviolable à l'époque. En effet, les bootleggers n'avaient jamais réussi à la craquer proprement, alors ils vendaient des copies avec des collisions approximatives bidouillées à l'arrache. C'est fou ^^ Il peut flex le garçon !
Bref, si vous avez une borne RoboCop arcade qui prend la poussière parce que la puce de protection a rendu l'âme, y'a maintenant un patch IPS disponible qui lui redonne vie. Et pour les curieux qui veulent comprendre comment fonctionnaient ces protections anti-copie des années 80,
le write-up de djh0ffman
est une mine d'or.
Depuis plus de 20 ans, Exult fait tourner Ultima VII sur Windows, macOS et Linux. C'est un moteur open source génial, mis à jour en mai dernier, qui nécessite les fichiers originaux du jeu et permet de finir The Black Gate et Serpent Isle sans souci. Alors pourquoi diable Anthony Salter a-t-il créé U7 Revisited, un autre moteur pour le même jeu ?
Hé bien parce qu'Exult et U7 Revisited n'ont pas du tout le même objectif.
Le truc que beaucoup ignorent, c'est qu'Ultima VII était techniquement un monde 3D coincé dans un moteur 2D. En 1992, chaque objet du jeu avait déjà une largeur, une profondeur et une hauteur, ce qui fait que ce monde était donc composé de blocs 3072x3072x16. Mais la technologie de l'époque ne permettait pas d'afficher tout ça en vraie 3D, du coup Origin a dû se contenter d'une vue fixe pseudo-isométrique.
Exult vise donc à reproduire cette expérience originale au plus près, tout en ajoutant quelques améliorations. C'est son but et c'est très bien comme ça.
U7 Revisited, lui, part d'un autre postulat qui est : Et si on montrait enfin ce monde 3D dans un vrai moteur 3D ?
Anthony Salter a donc développé son propre moteur pour présenter Britannia avec une caméra rotative, un peu comme Dungeon Keeper ou Grandia. Vous pouvez ainsi tourner autour des bâtiments, zoomer, regarder les choses sous différents angles.
Et ça, ça règle une vraie frustration du jeu original car pour ceux qui y ont joué, vous vous souvenez peut-être de ces moments bien relous où vous cherchiez désespérément un levier ou une clé cachée derrière un mur ? Origin utilisait souvent cette technique de planquer des objets en ne laissant dépasser qu'un ou deux pixels.
Hé bien avec une caméra rotative, fini ce genre de galère.
Côté contrôles, c'est du moderne : WASD pour bouger, Q et E pour la rotation, molette pour le zoom. Le projet est codé en C++ et Lua, et il y a même des touches de fonction (F1 à F11) pour interagir avec différents aspects du monde.
Le développement avance bien d'ailleurs et dans ses dernières updates d'août, Anthony a présenté le support widescreen, un meilleur éclairage et le drag-and-drop pour les objets.
Il existe également plein d'autres projets fans autour d'Ultima comme Nuvie qui recréé Ultima 6, Pentagram qui s'occupe d'Ultima VIII. La communauté Ultima adore refaire ses jeux préférés avec des outils modernes, c'est comme ça. Mais U7 Revisited a quand même cette approche unique avec cette vision 3D du monde.
Si vous voulez tester, il faut copier les fichiers du jeu original DOS dans le dossier /Data/u7 puis builder le projet via CMake ou Meson.
À l'époque de ma glorieuse jeunesse, je jouais à RoboCop sur NES et c'est vrai que je trouvais ça très cool ! Mais ce que je ne savais pas, c'est que la version arcade de Data East cachait un secret bien vicieux dans ses entrailles électroniques.
En 1988, Data East sort donc RoboCop en version arcade et comme tous les éditeurs de l'époque, ils avaient une peur bleue des bootleggers asiatiques qui clonaient les bornes à tour de bras. Du coup, ils ont eu une idée de génie : planquer une puce HuC6280 dans le hardware. Pour ceux qui ne connaissent pas, c'est le processeur du PC Engine, le cousin japonais de la TurboGrafx-16, sauf que là, elle ne sert absolument pas à faire tourner le jeu.
Non non, cette puce est là uniquement pour emmerder le monde.
Le truc pas con (enfin, pas con pour l'époque), c'est que Data East a externalisé une partie des calculs de collision sur ce processeur secondaire. Du coup, sans la puce HuC6280, le jeu démarre mais les hitboxes sont complètement pétées et les ennemis deviennent invincibles. Faut s'imaginer RoboCop qui tire dans le vide pendant que les méchants lui marchent dessus tranquillement... C'est pas méga vendeur pour une borne à 3000 dollars.
Le problème, c'est qu'en 2025, ces puces HuC6280 commencent à lâcher et quand ça arrive, votre borne RoboCop devient un très joli meuble de 150 kilos.
Et c'est là qu'un développeur du nom de djh0ffman entre en scène. Le bougre s'est dit qu'au lieu de chercher des puces de remplacement introuvables, il allait tout simplement virer cette protection. Mais pour ça, il fallait d'abord comprendre ce que faisait exactement cette fichue puce.
Déjà, il fallait dumper le code du HuC6280. Pas si simple parce que Data East avait aussi obfusqué les tables de jump pour que personne ne puisse facilement lire le code. Du reverse engineering dans le reverse engineering, en quelque sorte.
Une fois le code extrait et désobfusqué, djh0ffman a alors découvert que la puce gérait principalement deux choses : les collisions entre les sprites et la gestion des dégâts. Le reste du jeu tournant sur le processeur principal, un Motorola 68000.
Du coup, la solution était claire. Il fallait porter tout ce code du HuC6280 vers le 68000. Facile à dire bien sûr, mais moins facile à faire quand on parle de deux architectures complètement différentes. Le HuC6280 est certes un dérivé du 6502, mais le 68000 c'est carrément une autre planète.
Mais après des heures de travail, djh0ffman a réussi à recréer toutes les routines de collision en assembleur 68000 et à les injecter dans la ROM originale. Le patch fait environ 2 Ko !! Et ça transforme n'importe quelle borne RoboCop avec une puce morte en machine parfaitement fonctionnelle.
Et le truc cool, c'est que son patch ne contourne pas vraiment la protection, mais la remplace. Le jeu fonctionne donc exactement comme l'original, avec les mêmes collisions, les mêmes dégâts, les mêmes hitboxes. C'est juste que maintenant, tout ça tourne sur le 68000 au lieu du HuC6280.
Et le plus marrant c'est que cette protection était considérée comme inviolable à l'époque. En effet, les bootleggers n'avaient jamais réussi à la craquer proprement, alors ils vendaient des copies avec des collisions approximatives bidouillées à l'arrache. C'est fou ^^ Il peut flex le garçon !
Bref, si vous avez une borne RoboCop arcade qui prend la poussière parce que la puce de protection a rendu l'âme, y'a maintenant un patch IPS disponible qui lui redonne vie. Et pour les curieux qui veulent comprendre comment fonctionnaient ces protections anti-copie des années 80,
le write-up de djh0ffman
est une mine d'or.
Depuis plus de 20 ans, Exult fait tourner Ultima VII sur Windows, macOS et Linux. C'est un moteur open source génial, mis à jour en mai dernier, qui nécessite les fichiers originaux du jeu et permet de finir The Black Gate et Serpent Isle sans souci. Alors pourquoi diable Anthony Salter a-t-il créé U7 Revisited, un autre moteur pour le même jeu ?
Hé bien parce qu'Exult et U7 Revisited n'ont pas du tout le même objectif.
Le truc que beaucoup ignorent, c'est qu'Ultima VII était techniquement un monde 3D coincé dans un moteur 2D. En 1992, chaque objet du jeu avait déjà une largeur, une profondeur et une hauteur, ce qui fait que ce monde était donc composé de blocs 3072x3072x16. Mais la technologie de l'époque ne permettait pas d'afficher tout ça en vraie 3D, du coup Origin a dû se contenter d'une vue fixe pseudo-isométrique.
Exult vise donc à reproduire cette expérience originale au plus près, tout en ajoutant quelques améliorations. C'est son but et c'est très bien comme ça.
U7 Revisited, lui, part d'un autre postulat qui est : Et si on montrait enfin ce monde 3D dans un vrai moteur 3D ?
Anthony Salter a donc développé son propre moteur pour présenter Britannia avec une caméra rotative, un peu comme Dungeon Keeper ou Grandia. Vous pouvez ainsi tourner autour des bâtiments, zoomer, regarder les choses sous différents angles.
Et ça, ça règle une vraie frustration du jeu original car pour ceux qui y ont joué, vous vous souvenez peut-être de ces moments bien relous où vous cherchiez désespérément un levier ou une clé cachée derrière un mur ? Origin utilisait souvent cette technique de planquer des objets en ne laissant dépasser qu'un ou deux pixels.
Hé bien avec une caméra rotative, fini ce genre de galère.
Côté contrôles, c'est du moderne : WASD pour bouger, Q et E pour la rotation, molette pour le zoom. Le projet est codé en C++ et Lua, et il y a même des touches de fonction (F1 à F11) pour interagir avec différents aspects du monde.
Le développement avance bien d'ailleurs et dans ses dernières updates d'août, Anthony a présenté le support widescreen, un meilleur éclairage et le drag-and-drop pour les objets.
Il existe également plein d'autres projets fans autour d'Ultima comme Nuvie qui recréé Ultima 6, Pentagram qui s'occupe d'Ultima VIII. La communauté Ultima adore refaire ses jeux préférés avec des outils modernes, c'est comme ça. Mais U7 Revisited a quand même cette approche unique avec cette vision 3D du monde.
Si vous voulez tester, il faut copier les fichiers du jeu original DOS dans le dossier /Data/u7 puis builder le projet via CMake ou Meson.