Les Ray-Ban Meta, c'est quand même le gadget parfait pour les voyeurs technophiles. Ce sont quand même des lunettes qui filment, prennent des photos et diffusent en live... le tout sans que PERSONNE autour ne s'en rende compte (ou presque). Alors forcément, quelqu'un a fini par coder une app pour les détecter !
Nearby Glasses
, c'est une application Android développée par Yves Jeanrenaud qui scanne en permanence les signaux Bluetooth Low Energy autour de vous. Chaque appareil BLE diffuse en fait des trames pour s'annoncer avec un identifiant constructeur et les lunettes caméra de Meta utilisent les IDs 0x01AB et 0x058E (Meta Platforms) ainsi que 0x0D53 (Luxottica/Ray-Ban). Donc cette app écoute ces identifiants et vous balance une alerte dès qu'elle en capte un.
La détection repose sur le RSSI, en gros la puissance du signal reçu et par défaut, le seuil est à -75 dBm, soit environ 10-15 mètres en extérieur et 3-10 mètres en intérieur. Donc c'est pas foufou non plus mais c'est configurable, évidemment. Vous pouvez donc le durcir un peu pour ne choper que les lunettes vraiment proches, ou l'assouplir pour ratisser large (au prix de faux positifs en pagaille).
Les faux positifs, parlons-en d'ailleurs... Les casques Meta Quest utilisent les mêmes identifiants constructeur, du coup ça ne marche pas à tous les coups. Par exemple, si votre voisin joue en VR, votre téléphone va sonner ! L'app détecte aussi les Snap Spectacles (0x03C2)... pour les trois personnes qui en portent encore ^^.
Ah et l'app est UNIQUEMENT pour Android. La version iOS serait "on the way" selon le développeur... faut donc pas être pressé mais au moins c'est open source (AGPL-3.0), du coup n'importe qui peut vérifier ce que l'app fait de vos données Bluetooth.
Si le sujet vous parle, vous connaissez peut-être
Ban-Rays
, un projet hardware à base d'Arduino et de LEDs infrarouges qui détecte les Ray-Ban Meta via infrarouge et Bluetooth ! Hé bien Nearby Glasses, c'est l'approche 100% logicielle plutôt que hardware, ce qui est plus accessible mais forcément plus limitée... pas besoin de fer à souder, cela dit ^^.
C'est une rustine mais bon, c'est mieux que de se retrouver à poil sans permission sur le web.
Amazon, fournisseur officiel de mauvaises idées en matière de vie privée depuis 1870 vient de nous pondre une nouvelle trouvaille !! À partir du 25 mars, si quelqu'un vous achète un cadeau via votre liste de souhaits Amazon, le vendeur tiers récupère votre adresse de livraison. Oui, votre VRAIE adresse !! Après en tant que français
on a l'habitude que tous les escrocs de la planète aient nos infos persos
. Mais rassurez-vous, Amazon a trouvé une solution ! Est-ce qu'il s'agit de corriger le problème ? Que nenni !! Ils nous recommandent simplement d'utiliser une boîte postale. Sympa !
Parce que jusqu'ici, quand un pote vous envoyait un truc depuis votre wishlist, le vendeur tiers voyait votre ville et votre région... c'est déjà pas top, mais bon. Sauf que maintenant, c'est l'adresse COMPLÈTE qui part chez le vendeur. Numéro, rue, code postal, la totale...
Et vous vous en doutez, ça touche en premier lieu les créateurs de contenu, les streamers, et tous les crevards qui ont une wishlist publique pour que leur communauté puisse leur offrir des trucs net d'impôts ^^.
Donc suffit qu'un harceleur crée un faux compte vendeur sur Amazon Marketplace (La vérification d'identité ? Minimale !), met un article à 3 euros, attend qu'un fan l'achète via la wishlist de sa cible... et hop, il a l'adresse complète récupérée. Pas besoin d'être un génie. Ou alors suffit d'attendre que le vendeur tiers laisse fuiter le fichier Excel dans lequel il stocke ses commandes... La vie est toujours pleine de surprises quand il s'agit de leaker des données perso.
Petite précision quand même, pour l'instant, ce changement a été annoncé uniquement sur Amazon.com (US). J'ai vérifié sur Amazon.fr, en fait les conditions n'ont pas encore bougé. Mais vu l'historique d'Amazon qui aligne ses politiques mondiales avec quelques mois de décalage... autant anticiper et aller faire le ménage dans vos wishlists comme je viens de le faire.
Et côté RGPD ?
En Europe, le RGPD impose que le partage de données personnelles repose sur une base légale. Consentement explicite, intérêt légitime, ou exécution d'un contrat et pas une case pré-cochée planquée dans les CGU.
Le problème, c'est qu'Amazon change les règles du jeu en cours de route, sans demander un consentement spécifique pour ce nouveau partage d'adresse avec des tiers. Et bien sûr, le moment venu, la CNIL pourrait avoir deux mots à dire là-dessus... après, on sait comment ça se passe, les amendes mettent des années à tomber. D'ailleurs, Amazon s'est déjà pris 746 millions d'euros par le Luxembourg en 2021 pour non-respect du RGPD mais visiblement, ça ne les a pas trop calmés.
Maintenant concrètement, voici ce que vous pouvez faire (ça ne marche pas à 100% mais c'est mieux que rien) :
Allez dans votre compte Amazon,
section "Listes"
puis "Gérer la liste". Vérifiez que votre wishlist est bien en mode "Privée" si vous ne voulez pas que n'importe qui la voie. Attention, le réglage par défaut c'est "Publique"... donc si vous n'avez jamais touché à ça, c'est probablement ouvert aux quatre vents.
Et si vous VOULEZ la garder publique (streamers, créateurs), utilisez une adresse qui n'est pas votre domicile. En France, une boîte postale La Poste coûte ~50 euros par an. Y'a aussi les Amazon Locker ou les points Mondial Relay... ce qui revient quand même à dire "débrouillez-vous", j'en ai bien conscience.
Le vrai problème
Le fond du problème, vous l'aurez compris, n'est pas technique. C'est qu'Amazon traite l'adresse de livraison comme une donnée de transaction banale alors que c'est une info sensible. Mais non, une adresse postale c'est pas un numéro de commande. Et surtout ça casse tout le principe d'anonymat des wishlists surtout quand la plateforme encourage les wishlists publiques depuis des années.
Bref, on n'est pas encore concernés en France, mais prenez les devants et prévenez votre influenceur préféré de faire le switch avant que ce soit le cas.
Vous voulez désactiver l'IA dans votre navigateur ? Bonne chance pour les couillons qui utilisent Chrome... faut passer par 5 réglages planqués dans chrome://settings et chrome://flags, tripatouiller des flags expérimentaux, bref, c'est un vrai parcours du combattant. Firefox 148, de son côté, a eu une idée folle : Mettre UN bouton. Hop, terminé.
Mozilla vient en effet de sortir la
version 148 de Firefox
et le gros morceau, c'est la section "Contrôles de l'IA" dans les paramètres (about:preferences#ai). Un seul toggle "Bloquer les améliorations IA" et paf, toutes les fonctions IA du navigateur sont coupées d'un coup. Traductions automatiques, regroupement d'onglets, previews de liens, texte alternatif des PDF, et même les chatbots de la barre latérale (ChatGPT, Claude, Gemini, Copilot, Le Chat). Tout dégage !
C'est le top pour les fragilous qui refusent le progrès ^^... Roohh ça va je blague ! Et le vrai intérêt du truc, c'est que ça verrouille les futures fonctions IA aussi. Du coup, si Mozilla ajoute de nouvelles features IA plus tard, elles seront automatiquement bloquées. Pas besoin de revenir fouiller dans les paramètres à chaque update. D'ailleurs, toutes les fonctions IA sont déjà désactivées par défaut... faut donc les activer manuellement si vous en voulez.
Et attention, ça ne bloque pas les extensions tierces qui intègrent leur propre IA, genre les "résumeurs" de page ou les assistants de rédaction. Le toggle, lui, garantit uniquement que les fonctions NATIVES restent coupées quoi qu'il arrive.
Et maintenant comparons avec la concurrence, parce que c'est là que ça pique les yeux.
Comme je vous le disais dans mon intro trollesque, chez Google,
désactiver l'IA dans Chrome
(et ses dérivés) relève carrément du sport extrême. Faut couper Gemini (chrome://settings/ai), désactiver le mode IA et Help Me Write (chrome://flags), bloquer la recherche IA dans l'historique, et pour les AI Overviews... ben y'a pas vraiment de bouton.
Brave fait un peu mieux heureusement ! Leur assistant Leo est opt-in par défaut, tourne dans un profil isolé qui ne peut pas accéder à vos données de navigation, et applique une politique zéro log. Même leur mode "agentic AI" en Nightly est désactivé de base. C'est propre, mais y'a pas de kill switch global comme Firefox. Du coup, si vous voulez la solution radicale plutôt que du cas par cas, Firefox gagne.
Et pour ceux qui se demandent pourquoi Firefox investit dans l'IA tout en permettant de la couper... en fait, Mozilla joue la carte de la transparence. Les modèles locaux utilisés par Firefox sont supprimés du disque quand vous désactivez les fonctions et tout est vérifiable dans about:processes si vous êtes du genre parano.
Au passage, cette version corrige également une quarantaine de failles de sécurité et embarque la
Sanitizer API
, ce qui est une première parmi les navigateurs. Et si vous êtes encore sur Firefox ESR, ça ne marchera pas... faudra donc attendre la prochaine ESR pour en profiter.
Voilà, si l'IA dans votre navigateur vous gave, vous savez où aller -> Firefox, tout simplement.
Un dungeon crawler dans l'explorateur de fichiers Windows c'est maintenant une réalité grâce à
Directory Dungeon
qui transforme votre arborescence de fichiers en donjon, avec monstres, du loot et des combats au tour par tour. Du coup forcément, ça m'a intrigué.
Dans ce jeu, vous ouvrez un dossier C:\DirectoryDungeon sur votre PC et dedans y'a des salles de donjon. Ensuite, pour vous déplacer, vous glissez-déposez votre dossier "Player" dans une nouvelle pièce. Oui du vrai drag-and-drop dans explorer.exe.
Et votre inventaire, c'est un sous-dossier. Vos armes et armures, vous les équipez en les déposant dans le répertoire "Equipment". Et quand vous tombez sur un monstre, le combat se résout automatiquement dans une fenêtre console cmd.exe à côté. Du texte, des chiffres, du tour par tour. C'est old school à mort.
Vous l'aurez compris, y'a pas de surcouche graphique. C'est très nerd comme truc... Vous jouez dans explorer.exe que vous utilisez tous les jours, sauf que là y'a des squelettes dedans. C'est assez absurde en fait et c'est pour ça que ça le fait plutôt bien !
Côté config requise, faut 64 Mo de RAM, 65 Mo de stockage, un processeur 1 GHz minimum et... "un moniteur" comme indiqué dans les prérequis. En fait, si votre PC fait tourner Windows 7, vous pouvez jouer et c'est compatible jusqu'à Windows 11, donc pas besoin d'une bête de course.
Le développeur JuhrJuhr a donc choisi de coller un vrai système RPG complet dans l'arborescence de votre disque dur plutôt que de faire un jeu classique et rassurez-vous, le jeu ne touche à aucun fichier en dehors de son propre répertoire, donc vos documents et autres nudes sont safe. Et comme le mentionne fièrement le dev, aucune IA générative n'a été utilisée pour le développement. On dirait bien que c'est devenu un argument de vente ! lol
Voilà, si vous aimez les
dungeon crawlers rétro à l'ancienne
ou les délires qui détournent votre OS (genre
DOOM en screensaver Windows
), ce petit RPG est pile dans cette veine. Y'a les achievements Steam, le partage familial, et une démo v1.8 déjà dispo pour tester avant la sortie prévue en mars 2026. Seul bémol, c'est Windows uniquement pour le moment, sauf si un portage Linux finit par arriver... On ne sait jamais...
Standard Intelligence
vient d'annoncer FDM-1, un modèle IA capable de contrôler n'importe quel ordinateur... en regardant l'écran et en cliquant. Comme nous !!
En gros le modèle regarde des pixels, comprend l'interface et exécute des actions. Clics, mouvements de souris, saisie clavier... et ça tourne à 30 FPS avec 11 ms de latence. Donc c'est beaucoup plus réactif que la plupart des français devant un formulaire administratif, quoi... ^^
Concrètement, vous pourriez lui demander de remplir vos tableurs Excel ou Google Sheets, de naviguer dans SAP, Salesforce ou n'importe quel logiciel métier sous Windows, macOS ou Linux, ou d'automatiser ces clics débiles que vous faites 200 fois par jour. Attention, c'est pas un bot Selenium ou un macro AutoHotkey hein. C'est vraiment un truc qui comprend ce qu'il voit à l'écran.
Du coup, ça se compose de 3 blocs. Un encodeur vidéo qui compresse le flux visuel, un modèle de dynamique inverse, entraîné sur 40 000 heures de données humaines, qui relie les actions aux changements d'écran, et bien sûr le modèle d'action, qui prédit le prochain clic.
Le truc carrément dingue, c'est l'échelle d’entrainement de ce modèle... 11 millions d'heures de vidéo d'entraînement, 80 000 machines virtuelles en parallèle, un seul GPU NVIDIA H100 qui pilote 42 VMs à la fois. Ça représente plus d'un million de simulations par heure. Y'a de quoi faire donc !
Et les applications vont loin... Par exemple, CAO sur Blender 3D, conduite autonome avec moins d'une heure de vidéo à 1080p, et même du fuzzing d'applications bancaires (Ahaha, je sais ça va vous plaire ça !).
Si vous connaissez déjà des agents comme
ByteBot
ou
Skyvern
, FDM-1 joue dans une autre catégorie. Ces outils s'appuient sur des LLMs pour comprendre ce qu'ils voient mais FDM-1, lui, fonctionne sans aucun modèle de langage. En fait, c'est du pur apprentissage visuel sans aucun GPT en dessous. C'est un
agent IA autonome
sous stéroïdes, quoi.
Et comparé aux solutions RPA classiques genre UiPath ou Automation Anywhere, la différence est radicale. Le RPA traditionnel, c'est des scripts qui cassent dès qu'un bouton bouge de 3 pixels. Mais l'agent de Standard Intelligence lui s'en fiche puisqu'il comprend visuellement ce qu'il voit et saura s'adapter en quelques minutes. Je sens que les scrapers qui me lisent vont mouiller leur culotte...
Par contre, c'est maintenant le moment où je vous déçois un peu car le truc n'est pas encore dispo publiquement et aucune date n'est annoncée. Et les démos viennent de l'équipe elle-même... donc voilà, je reste prudent.
Et côté sécurité, y'a de quoi flipper un peu car un agent capable de cliquer partout sur n'importe quelle interface, ça ouvre la porte au phishing automatisé ou au clickjacking à grande échelle, sauf si des garde-fous sérieux sont mis en place (et pour l'instant, j'en vois pas).
Bref, c'est du lourd sur le papier mais reste à voir quand on pourra y toucher.
Votre pseudo de justicier masqué sur Reddit ne vaut plus grand-chose, les amis... En effet, des chercheurs de l'ETH Zurich viennent de prouver qu'un LLM peut retrouver votre vraie identité à partir de vos posts anonymes, avec 67% de réussite... et pour moins de 4 dollars par profil.
L'
étude a été publiée sur arXiv
par six chercheurs, dont Nicholas Carlini d'Anthropic (les créateurs de Claude) et le principe fait flipper. En fait ils ont mis au point des agents IA qui analysent vos commentaires publics, créent un profil structuré... ou plutôt un portrait-robot de vos habitudes et centres d'intérêt, puis ratissent des milliers de candidats pour trouver à qui ça correspond.
Budget total de l'opération : environ 2 000 dollars pour 338 profils Hacker News passés au crible. Et sur tout ça, 226 ont été identifiés correctement, 25 sont des erreurs et 86 sont des "abstentions" quand le modèle doutait trop. Ça revient à 1 à 4 dollars par profil, et quand le modèle est assez sûr de lui pour donner une réponse (donc hors abstentions), il tape juste 9 fois sur 10. Pas cher payé donc pour s'offrir la fin de votre anonymat TOTAL !
Le truc, c'est que Hacker News c'était juste l'apéro. La même technique a été lâchée ensuite sur des interviews anonymisées, des profils LinkedIn et ce bon vieux Reddit. Même recette, et surtout mêmes résultats.
Le côté obscur de cette recherche, c'est que ça ouvre encore plus la porte aux arnaques d'ingénierie sociale sur mesure, au ciblage pub ultra-personnalisé sans votre consentement, et pire... à la traque de journalistes ou d'activistes planqués derrière un pseudo...
Notez que ce taux de 67%, c'est sur des profils Hacker News où les gens qui postent beaucoup de contenu technique assez spécifique. Mais sur un compte avec trois commentaires génériques, ça ne marche pas aussi bien. Mais bon, qui poste que 3 fois sur un forum ? Le piège, c'est qu'on finit toujours par en dire plus qu'on croit...
Maintenant côté protection, attention, c'est pas la fête. Si vous voulez éviter de vous faire traquer, faudra varier votre style d'écriture entre les plateformes, éviter de balancer trop de détails perso (ville, job, stack technique) dans vos commentaires, et surtout utiliser des comptes séparés plutôt qu'un seul pseudo partout. D'ailleurs le
fingerprinting de navigateur
c'est déjà un problème connu, mais là on parle de fingerprinting de votre STYLE D'ÉCRITURE donc carrément autre chose !
Perso, ça confirme finalement ce qu'on savait depuis le documentaire
Rien à cacher
: l'anonymat en ligne c'est surtout une illusion. Sauf que maintenant, même pas besoin d'être la NSA pour lever le voile... un LLM à 4 balles suffit.
Le pseudonymat face à un LLM c'est un grillage face à une perceuse... Bon courage aux anonymes qui me lisent...
Si vous utilisez
Notion
au quotidien et que vous avez toujours rêvé de piloter vos bases de données depuis un terminal... y'a enfin un truc qui tient la route.
Ça s'appelle
notion-cli
, c'est un binaire Go qui embarque 39 commandes couvrant TOUTE l'API Notion. Il s'agit d'un seul exécutable pour macOS, Linux et Windows (amd64 et arm64) sans dépendance qui vous permet de gérer pages, bases de données, blocs et commentaires sans jamais ouvrir un navigateur.
L'installation, c'est du classique : brew install 4ier/tap/notion-cli sur macOS, go install pour les puristes, npm install -g notion-cli-go ou même Docker. Il faut juste un token d'intégration Notion (le ntn_xxxxx que vous générez sur notion.so/my-integrations), vous le collez dans ~/.config/notion-cli/config.json ou en variable NOTION_TOKEN, et c'est parti.
notion-cli en action dans le terminal
Le truc cool, ce sont les filtres humain-friendly. Au lieu de se taper du JSON pour filtrer une base, vous écrivez Status=Done et l'outil se débrouille tout seul. En fait, il détecte le type de chaque propriété (texte, date, sélection...) et adapte le filtre automatiquement. C'est carrément pas mal, je trouve.
Et côté Markdown, c'est la fête ! Vous exportez une page entière avec notion block list <page-id> --md --depth 3, et inversement, vous injectez un fichier .md dans Notion via notion block append <page-id> --file notes.md. Pour ceux qui bossent avec de la doc technique, ça simplifie sérieusement les choses. Bon, ça ne marche pas avec les blocs synchronisés ou les embeds exotiques, mais pour le reste c'est nickel.
D'ailleurs le mode "pipé" est vraiment malin. Car dans le terminal, l'outil affiche de jolies tables colorées mais dès que vous le "pipez" vers jq ou un script, il bascule en JSON automatiquement. Du coup, intégrer ça dans un pipeline shell ou un cron... c'est aucun parsing à faire. Voilà quoi.
Après des CLI pour Notion, y'en a déjà quelques-uns. Sauf que la plupart sont soit limités aux tâches (comme
notion-cli-go
qui gère surtout le côté todo), soit cantonnés à l'export (et souvent liés à un OS ou un langage précis).
Celui de 4ier, c'est donc le premier à couvrir l'API en entier : pages, bases, blocs, commentaires, fichiers, utilisateurs, et même un accès REST brut via notion api GET /v1/endpoint. En gros, c'est le gh de GitHub, mais pour Notion (et pour une fois, c'est pas juste du blabla marketing ^^).
Les cas d'usage qui tuent c'est par exemple un script cron qui crée une entrée hebdo avec notion page create <db-id> --db "Name=Weekly" "Status=Todo". Un backup qui exporte vos pages critiques en Markdown toutes les nuits. Ou un CI/CD qui met à jour un changelog Notion à chaque deploy. Quelques lignes de bash et c'est réglé, car l'outil gère tout le reste ! C'est hyper rare un CLI qui couvre autant de terrain.
Y'a aussi le côté agent-friendly pour ceux qui kiffent l'IA. L'outil retourne des codes de sortie propres, du JSON exploitable, et s'installe comme skill agent via npx skills add 4ier/notion-cli. Dans la lignée de
Gemini CLI
, on voit de plus en plus d'outils pensés terminal-first... et je trouve que c'est carrément bien.
Après comme souvent quand je vous présente des outils, le projet est tout frais (v0.3.0, licence MIT), avec une petite communauté donc attention, car comme tout ce qui dépend d'une API tierce, si Notion bouge ses endpoints... voilà quoi. Mais c'est propre, c'est testé, et ça tourne déjà très bien.
Des faux entretiens d'embauche avec des repos GitHub vérolés pour piéger les devs Next.js... on croit rêver et pourtant,
Microsoft vient de documenter cette campagne ciblée
et vous allez voir, c'est violent.
En fait, un groupe de hackers se fait actuellement passer pour des recruteurs et contacte des développeurs JavaScript en leur proposant un entretien technique. Le deal c'est de cloner un repo GitHub pour un "test de compétences"... sauf que le repo en question est truffé de malware.
Microsoft a ainsi identifié plusieurs vecteurs d'infection planqués dans ces repos. Le premier, c'est via les fichiers de configuration VS Code, c'est à dire ceux dans le dossier .vscode/, qui peuvent exécuter du code dès que vous cliquez "Trust" à l'ouverture du projet (ce que la plupart des devs font sans réfléchir).
Le deuxième passe par un npm run dev piégé, la commande de dev classique qui lance le malware en même temps que le serveur (car oui, c'est aussi simple que ça...).
Et le troisième est encore plus sournois puisqu'il s'agit d'un module backend qui décode une URL depuis le fichier .env, exfiltre toutes les variables d'environnement (tokens cloud, clés API...), puis exécute du JavaScript reçu en retour. Sympaaaaaa....
Du coup, le malware est plutôt bien pensé. C'est un loader JavaScript qui se télécharge depuis l'infrastructure Vercel (comme ça, ça a l'air légitime), et qui s'exécute entièrement en mémoire, et spawne un processus Node.js séparé pour ne pas éveiller les soupçons. Une fois installé, il se connecte alors à un serveur C2 qui change d'identifiant régulièrement, histoire de compliquer la détection. Et là, ça se met à exfiltrer tout ce qui traîne... code source, secrets, credentials cloud... bref, tout ce qui a de la valeur.
Alors, comment on se protège de ce genre de menace quand on est un simple dev ? Hé bien déjà, vérifiez le profil du "recruteur". Pas de site d'entreprise vérifiable, des messages génériques... c'est un joli red flag !
Ensuite, avant de lancer quoi que ce soit, lisez le package.json à la recherche de scripts suspects dans preinstall, postinstall ou prepare, inspectez le dossier .vscode/ (surtout tasks.json), et faites un npm install --ignore-scripts pour bloquer l'exécution automatique des hooks. Lancez aussi un
safe-npm
et un npm audit une fois les dépendances installées. Et côté VS Code, désactivez l'exécution auto des tasks avec "task.allowAutomaticTasks": "off" dans vos settings.
Ça me rappelle les campagnes type
Shai-Hulud et les packages npm vérolés
, mais avec un vecteur social bien plus élaboré. Le piège, c'est qu'on ne balance plus des packages malveillants dans le registry en espérant qu'un dev les installe par erreur... non, non, on cible directement les développeurs, un par un, en exploitant ce stress de la recherche d'emploi comme le ferait un conseiller France Travail quand vous arrivez en fin de droits chomdu...
Et si vous êtes en pleine recherche d'emploi, attention, ne lancez JAMAIS un projet d'un inconnu dans votre environnement principal. Utilisez une VM, un container Docker (docker run --rm -it -v $(pwd):/app node:20 bash et c'est réglé), ou au minimum un compte utilisateur séparé sans accès à vos tokens et clés SSH. On n'est jamais trop prudent !
Maintenant vous savez... si un recruteur vous envoie un repo GitHub sans profil LinkedIn ni site d'entreprise véritable et vérifiable... c'est que c'est pas un recruteur. Voilà voilà...
Hey mais on dirait bien que c'est Red Hat qui débarque sur le marché des apps desktop pour conteneurs... mais lol ! Car oui, pendant que Docker Desktop trône depuis des années et qu'OrbStack séduit de plus en plus d'utilisateurs macOS, Red Hat se réveille ENFIN avec sa propre version Enterprise de
Podman Desktop
.
Bah mieux vaut tard que jamais !
Pour ceux qui débarquent (bouuuuh) Podman Desktop, c'est un outil open source qui existe depuis des années pour gérer vos conteneurs, images et pods via une interface graphique. C'est dispo sous Linux, macOS, Windows et le projet a même rejoint la
CNCF
(rien à voir avec les trains... lool) en janvier 2025 en même temps que d'autres briques Red Hat (Buildah, Skopeo, bootc, Composefs... chacun en projet séparé).
Interface de Podman Desktop
Et donc Red Hat a décidé de lancer sa propre "build" enterprise de cette app de conteneurs. En gros, c'est la même base que Podman Desktop, mais avec une couche admin par-dessus. Les responsables IT peuvent donc verrouiller des paramètres au niveau de la flotte tels que les registry mirrors, proxies HTTP, certificats custom... On est dans une ambiance un peu plus corporate quoi.
Côté Kubernetes, c'est également plutôt bien pensé. Vous créez vos pods en local, l'outil génère le YAML correspondant, et hop, déploiement sur Kind, Minikube ou directement sur OpenShift, les doigts dans le nez.
Pour ceux qui se demandent si ça remplace Docker Desktop, bah, ça dépend en fait. Podman tourne sans daemon et en rootless, du coup c'est un vrai plus côté sécurité. Mais par contre, le support Docker Compose passe par un système d'aliasing... ça marche bien, sauf si vous avez des configs Docker très exotiques... là faudra tester avant de tout basculer comme le early adopter fifou que vous êtes.
D'ailleurs, si vous êtes sur RHEL, Podman est déjà inclus dans votre abonnement et Red Hat a aussi bossé sur des extensions pour les images bootable OCI et le mode image RHEL.
Le truc, c'est que Red Hat arrive tard. TRÈS tard. Docker Desktop, c'est le standard de facto depuis des lustres,
OrbStack
a conquis les devs macOS avec sa légèreté sans oublier que Rancher Desktop et Portainer Business Edition occupent aussi le terrain. Du coup, leur stratégie c'est de cibler les boîtes déjà full Red Hat plutôt que d'essayer de convertir les utilisateurs Docker. C'est une ambition plutôt réaliste, je trouve.
Ça vient donc de passer en disponibilité générale via les canaux développeurs Red Hat, c'est gratuit, open source, et plutôt bien fichu pour ceux qui bossent dans un environnement RHEL au quotidien. Après, c'est pas non plus la révolution car ça reste Podman Desktop avec un petit chapeau d'entreprise.
Je pense que pour un usage hors Red Hat, Docker Desktop ou OrbStack restent devant. Mais si vous avez l'abonnement RHEL, ça peut valoir le coup d'y jeter un oeil.
Claude Code tourne en local et c'est son gros avantage car ça permet par exemple d'agir sur votre machine, de lancer des scripts...etc. Mais c'est aussi sa grosse limite car à cause de ça, vous êtes cloué devant votre terminal. J'étais en quête depuis un moment d'une solution et je vous avais déjà parlé de
Vibe Companion
y'a pas longtemps mais tous ces outils vont disparaitre puisque Anthropic vient de sortir Remote Control, une feature qui transforme claude.ai ou l'app mobile en télécommande pour votre session locale. Comme ça, vos fichiers restent chez vous et seule l'interface voyage.
Votre ordi fait tourner Claude Code normalement, et vous, vous pouvez continuer à lui parler depuis votre iPhone, votre Android, votre iPad ou n'importe quel navigateur Chrome, Firefox, Safari... Pas de serveur exposé, pas de port ouvert, que du HTTPS sortant. C'est plutôt bien foutu vous allez voir !
Ce qu'il vous faut
Bon déjà, un abonnement Pro (Édit : ? on me dit que c'est pas encore actif pour les pro ?) ou Max (pas le choix, les clés API ne marchent pas et les plans Team/Enterprise sont exclus pour le moment). Ensuite, vérifiez que Claude Code est installé et que vous êtes connecté via /login. Acceptez ensuite le "workspace trust" dans votre projet et hop, c'est tout côté prérequis.
Lancer une session
Deux options s'offrent à vous ensuite... Soit vous démarrez une nouvelle session dédiée :
claude remote-control
Soit vous êtes déjà en train de bosser dans Claude Code et vous tapez /rc (alias de /remote-control). Avec claude remote-control, seule l'URL apparaît... donc appuyez sur espace pour afficher le joli QR code.
3 flags utiles (uniquement avec claude remote-control, pas /rc) : --verbose pour voir ce qui transite, --sandbox pour forcer le mode bac à sable (désactivé par défaut) et --no-sandbox pour le couper si vous l'avez activé dans votre config.
Se connecter depuis un autre appareil
Ensuite, la méthode la plus rapide c'est de scanner le QR code avec votre téléphone. Sinon, copiez l'URL affichée et collez-la dans n'importe quel navigateur. Dernière option, allez sur
claude.ai/code
et votre session apparaît dans la liste (les sessions actives ont un petit point vert).
Une fois connecté, vous récupérez votre conversation en cours, vos fichiers, votre contexte... tout. Vous pouvez envoyer des messages, voir les résultats, approuver les modifications de fichiers. Bref, comme si vous étiez devant votre terminal, sauf que vous êtes dans votre canapé, votre lit ou en train de pousser le caddie chez Auchan !
Activer par défaut
Maintenant, si vous voulez que CHAQUE session Claude Code soit automatiquement accessible à distance, tapez /config dans une session Claude Code, puis activez l'option "Enable Remote Control for all sessions". Et voilà, plus besoin d'y réfléchir ! Chaque claude lancé dans un terminal sera pilotable depuis votre navigateur ou l'app mobile.
Vos sessions prennent le nom de votre dernier message (ou "Remote Control session" par défaut), donc utilisez /rename mon-projet-cool pour les retrouver facilement dans la liste sur claude.ai/code.
Sinon, dans Claude Code avec /mobile vous pouvez aussi afficher directement le QR code pour télécharger l'app Claude sur iOS ou Android.
Les limites à connaître
Bon, après c'est pas non plus parfait car déjà, c'est cappé à UNE SEULE session à distance par instance de Claude Code (si vous en lancez une deuxième, la première se déconnecte). Par contre, plusieurs instances dans des terminaux différents peuvent chacune avoir leur session remote. Le terminal doit également rester ouvert (si vous le fermez, c'est fini). Mais bonne nouvelle quand même, si le laptop passe en veille ou que le réseau saute, ça se reconnectera tout seul au réveil. Le piège, c'est si la machine reste sans réseau plus de 10 minutes... là, la session expire et il faudra relancer claude remote-control.
Soyez rassurés quand même côté sécurité c'est propre (uniquement du HTTPS sortant sur le port 443, zéro port entrant et des identifiants éphémères), mais gardez en tête que
Claude Code a accès à votre terminal
donc sauf si vous activez --sandbox, il peut de ce fait exécuter n'importe quelle commande... donc les mêmes précautions qu'en local s'appliquent !
Du coup si vous en avez marre de rester scotché devant votre terminal, maintenant vous savez quoi faire.
Bonne nouvelle pour ceux qui en ont ras la casquette de se taper des allers-retours entre Figma et VS Code ! Parce qu'avec
Onlook
, l'éditeur visuel open source qui vous permet de modifier le design de vos apps React directement dans le navigateur, vous allez pouvoir cliquer simplement sur un élément de design, et en changer la couleur, la typo...etc et hop, ça modifiera le code derrière.
Pas mal, non ?
Vous ouvrez votre projet Next.js dans Onlook, et vous vous retrouvez avec une interface à la Figma, sauf que c'est branché sur votre code source. Vous sélectionnez un titre, un bouton, n'importe quel composant, et vous modifiez son style visuellement... couleurs, padding, marges, polices, tout y passe.
Et en fait, le truc qui change tout par rapport à un inspecteur CSS classique, c'est que quand vous cliquez sur "Publish", les modifications atterrissent DIRECTEMENT dans vos fichiers .tsx. C'est donc du vrai code propre, pas du CSS inline dégueulasse.
Côté technique, l'outil gère nativement TailwindCSS (parce que bon, en 2026, si vous faites du React sans Tailwind, vous aimez forcément le cuir qui claque et la souffrance). Vous éditez en mode visuel, ça génère les bonnes classes Tailwind, et vous gardez un contrôle total. Y'a aussi un mode LLM intégré... "rends ce bouton bleu avec des coins arrondis" et hop, c'est fait. Comme ça, pas besoin de chercher si c'est rounded-lg ou rounded-xl dans la doc.
Pour ceux qui connaissent
Bolt.DIY
ou qui se souviennent d'
Amplify Studio
(le truc de AWS qui tentait de faire le pont Figma vers React), Onlook prend le problème dans l'autre sens. Au lieu de partir du design pour générer du code, on part du code existant et on le modifie visuellement. Du coup, pas de code généré bancal à maintenir, c'est finalement VOTRE codebase qui est éditée.
Le projet est open source sous licence Apache 2.0 sur
GitHub
et la version open source est gratuite et self-hostable, donc vous pouvez la faire tourner chez vous sans débourser un centime. Après pour ceux qui veulent du cloud managé avec collab temps réel, y'a des plans payants.
Après attention, c'est encore jeune et le support se limite à React et Next.js pour l'instant, donc si votre stack c'est Vue ou Svelte, ça ne marchera pas. Et l'IA mouline un peu sur les layouts complexes mais le projet avance vite, la communauté est active, et pour un outil gratos qui fait le lien entre design et code en open source, y'a pas grand-chose d'équivalent.
Les clés API Google que vous collez dans votre JavaScript pour afficher une carte Maps... hé bien elles ne sont plus si inoffensives. Car depuis que Gemini est entré dans la danse, ces mêmes clés donnent maintenant accès à vos fichiers privés et surtout à votre facture IA.
Et personne ne nous a prévenu...
En gros, Google utilise un format de clé unique, les fameuses AIza..., aussi bien pour Maps et Firebase (public, collé dans le HTML, tout le monde s'en fout) que pour
Gemini
(privé, accès aux fichiers, facturation). Le problème c'est que quand vous activez l'API Gemini sur un projet Google Cloud, TOUTES les clés existantes de ce projet héritent automatiquement de l'accès Gemini. Sans warning, sans notification, sans rien... Ouin !
Les chercheurs de
TruffleSecurity
ont ainsi trouvé presque 3000 clés API Google valides dans le dataset Common Crawl de novembre 2025. Des clés qui trainent dans du code JavaScript, des pages HTML, des repos GitHub publics... et qui fonctionnent sur l'endpoint Gemini. Il suffit d'un simple curl avec une clé Maps récupérée sur un site web, et hop, vous accédez à l'API Gemini du propriétaire. Fichiers privés, contenu en cache, facturation sur son compte.
Et parmi les victimes, on trouve des institutions financières, des boîtes de cybersécurité, et... Google eux-mêmes (oui oui, vraiment).
Le 21 novembre 2025, TruffleSecurity signale donc le problème et la réponse de Google le 25 novembre c'est : "intended behavior" (comportement normal)... Sauf que le 2 décembre, Google a reclassifié ça en bug, puis le 13 janvier 2026, ça passe finalement en Tier 1. On est donc passé du "c'est normal les frérots" à "ah oui quand même, oupsi oups", en 7 semaines.
Maintenant, pour ceux qui se demandent si leurs clés API Google sont concernées, direction
console.cloud.google.com
, section "APIs & Services" puis "Identifiants".
Si vous voyez l'API "
Generative Language
" de Gemini API activée sur un projet avec des clés non restreintes... attention, c'est le moment de faire le ménage. Ajoutez des restrictions IP ou HTTP referrer, et surtout, utilisez des comptes de service plutôt que des clés API pour tout ce qui touche à Gemini (sauf si vous aimez les surprises sur votre facture ^^).
Le truc tordu, c'est que la doc Firebase dit noir sur blanc que les clés API ne sont pas des secrets. Google Maps vous dit carrément de les coller dans votre HTML. Et maintenant, ces mêmes clés donnent accès à une IA qui peut lire vos fichiers. Du
CWE-1188
pur et dur ! Et c'est pas la première fois que Google se fait taper sur les doigts pour ce genre de
souci avec Gemini
.
Du coup, Google a annoncé des nouvelles mesures, du scoped defaults, du blocage de clés fuités, des notifications proactives...etc. Reste donc à voir si ça arrivera avant que les presque 3000 clés exposées soient exploitées par des gens moins bien intentionnés.
Bref, dix ans à dire que c'est public, et hop, aujourd'hui c'est devenu top secret. Bien joué Google !!
Salut les amis du net ! Aujourd'hui, on va encore parler d'un outil que j'utilise au quotidien et dont on me demande souvent des nouvelles : Surfshark VPN. Pas de blabla corporate, pas de langue de bois. Juste du concret, du testé, du validé.
Si vous cherchez une solution pour naviguer peinard, débloquer vos séries préférées ou simplement éviter que votre FAI ne sache que vous regardez des vidéos de chats à 3h du mat', restez par là. On décortique tout.
Les perfs : ça tient la route ou c'est du vent ?
J'ai testé. Pas juste cliqué sur "Quick Connect" en croisant les doigts. J'ai lancé des speed tests, streamé en 4K, téléchargé des torrents, joué en ligne. Voici ce que ça donne :
Scénario
Résultat
Mon ressenti
Navigation web
90-95% de la vitesse initiale
Fluide comme un dimanche matin
Streaming Netflix US
Aucun buffering, qualité max
Ça charge, ça joue, nickel
Téléchargement P2P
Vitesses stables, IP masquée
Tranquille, pas de fuites détectées
Gaming en ligne
Ping +15-30ms sur serveurs proches
Jouable, même en prsque compétitif
Le secret ? WireGuard, le protocole moderne qui allie vitesse et sécurité. Surfshark l'a optimisé avec sa techno maison FastTrack (dispo sur macOS pour l'instant) qui peut booster les connexions jusqu'à 70% en routant intelligemment votre trafic. Et si la connexion saute ? Pas de panique : Everlink, leur feature brevetée, rétablit automatiquement le tunnel VPN sans que vous ayez à lever le petit doigt. C'est discret et efficace, exactement ce qu'on veut.
On est d'accord, la sécurité c'est pas optionnel
Un VPN qui ne protège pas, c'est comme un parapluie avec des trous. Heureusement, Surfshark coche toutes les cases :
Chiffrement AES-256-GCM : le standard militaire, point.
MultiHop : doublez votre protection en passant par deux serveurs.
Kill Switch (soft et strict) : coupe internet si le VPN lâche, pour éviter les fuites.
CleanWeb 2.0 : bloque pubs, trackers, malware… et oui, même les pubs YouTube (utilisez Firefox ou Safari pour ça).
Mode Camouflage : pour contourner les restrictions dans les pays où internet est... disons "sélectif".
Politique no-logs vérifiée : auditée par Deloitte en 2024 et 2025, ils ne gardent rien de ce que vous faites.
Et cerise sur le gâteau :
Alternative ID
est désormais inclus pour tous les utilisateurs. Créez un profil secondaire (nom, email, âge) pour vous inscrire sur des sites sans exposer vos vraies infos. Malin, non ?
Si vous voyagez à l'étranger : ça marche ou pas ?
Alors, la vraie question, celle qui revient en boucle : "Ouais, mais ton VPN, il fonctionne si je suis à la plage ou pas ?". Je vous comprends. Personne n'a envie de payer pour un service et se retrouver avec un catalogue limité quand on est en déplacement. J'ai passé plusieurs semaines à tester Surfshark en conditions réelles : soirée binge-watching, téléchargement de gros fichiers, sessions de gaming avec des potes restés en France (roooh la loose). Le constat est simple : ça marche, et plutôt bien.
Pour le streaming, Surfshark ne joue pas la carte des serveurs "spécialisés" avec des étiquettes flashy. À la place, ils ont optimisé l'ensemble de leur infrastructure pour que la majorité des nœuds fonctionnent avec les grandes plateformes. Concrètement, si vous êtes en voyage aux États-Unis et que vous voulez retrouver votre catalogue Netflix français, vous vous connectez à un serveur en France, vous lancez l'application, et ça lit. Sans chorégraphie compliquée. J'ai testé plusieurs plateformes : même constat. Si par hasard un serveur rencontre un souci (ça arrive, les détections automatisées évoluent constamment), un simple changement de ville dans le même pays d'origine suffit généralement à rétablir l'accès. L'application est suffisamment intuitive pour que ça prenne dix secondes, montre en main.
Important à noter : les VPN sont légaux dans la plupart des pays mais utiliser un VPN pour accéder à un service en dehors de sa région licenciée peut violer les conditions d'utilisation de la plateforme. Surfshark ne garantit pas le contournement systématique des restrictions géographiques, et cette fonctionnalité est surtout utile pour retrouver l'accès à vos abonnements légaux lorsque vous voyagez à l'étranger.
Côté téléchargement de fichiers lourds, c'est là que WireGuard montre ses muscles. J'ai vérifié l'absence de fuites DNS et IPv6 avec plusieurs outils en ligne et rien ne filtre. La vitesse reste stable (proche de votre connexion native) grâce à un chiffrement efficace qui ne plombe pas le débit. Et si vous vous connectez depuis un réseau restreint (hôtel, aéroport, certaines entreprises), le mode Camouflage rend votre trafic VPN indiscernable d'un trafic HTTPS classique. Tranquillité assurée.
Petite astuce en passant : activez CleanWeb dans les paramètres. En plus de bloquer les pubs et les trackers, il filtre les domaines connus pour héberger des malwares. Utile quand on télécharge un peu à l'arrache sur des forums obscurs. On ne sait jamais.
Le rapport 2025 de Surfshark : les chiffres qui parlent
Chaque année, Surfshark publie un "
Annual Wrap-up
". Celui de 2025 est particulièrement intéressant si vous aimez creuser sous le capot. J'ai épluché le rapport et voici ce qui mérite vraiment votre attention, côté technique.
D'abord, l'infrastructure. Surfshark a franchi la barre des 4 500 serveurs physiques et virtuels, répartis dans plus de 100 pays. Mais le nombre ne fait pas tout : la majorité de ces nœuds tournent désormais sur du matériel RAM-only, ce qui signifie qu'aucune donnée n'est stockée physiquement. En cas de saisie ou d'intrusion, il n'y a tout simplement rien à récupérer. C'est du hardening au sens propre.
Côté protocoles, WireGuard est évidemment le standard par défaut, mais Surfshark a poussé l'optimisation plus loin avec FastTrack, leur algorithme de routage dynamique. En analysant en temps réel la latence, la perte de paquets et la charge des serveurs, FastTrack peut rediriger votre trafic vers le chemin le plus efficace, gagnant jusqu'à 70% de vitesse sur certaines connexions macOS. C'est transparent pour l'utilisateur, mais ça se sent : moins de buffering, des temps de réponse plus courts, une expérience globalement plus fluide.
L'autre avancée majeure l'année dernière c'est Everlink. Cette technologie brevetée gère les micro-coupures réseau (changement de Wi-Fi, passage en 4G, instabilité du FAI) en maintenant une session VPN "en suspens" plutôt que de la terminer brutalement. Résultat : plus besoin de se reconnecter manuellement, et surtout, plus de fuite accidentelle d'IP pendant la transition. C'est le genre de feature qu'on ne remarque que quand elle n'est pas là et une fois qu'on l'a testée, on ne revient pas en arrière.
Enfin, Surfshark anticipe l'après-quantique. Le rapport 2025 mentionne le déploiement progressif de serveurs équipés de chiffrement post-quantique, basé sur des algorithmes résistants aux futures capacités de calcul. C'est encore marginal aujourd'hui, mais c'est exactement le genre de vision long terme qui différencie un fournisseur sérieux d'un simple revendeur de tunnels chiffrés. Et depuis son apparition, Surfshark est sans doute l'un des VPN les plus proactifs et qui pousse les autres à monter le niveau.
Et pour ceux qui aiment les preuves plutôt que les promesses, les audits no-logs par Deloitte se sont poursuit en 2025. Avec une vérification approfondie de l'infrastructure, du code client et des processus internes. Le rapport est public, les méthodologies sont documentées. Pas de langage flou, pas de "we take privacy seriously" générique. Juste des faits.
Mon petit avis
Alors, est-ce que je vous recommande toujours Surfshark en 2026 ? Oui, sans hésiter. Mais pas forcément pour les raisons habituelles.
Ce n'est pas "juste" le VPN le moins cher du marché, même si son rapport qualité-prix est objectivement difficile à battre. Ce n'est pas non plus l'outil miracle qui transformera votre connexion ADSL en fibre optique. Non, ce qui fait la différence, c'est l'équilibre rare qu'il parvient à trouver entre simplicité d'usage, transparence technique et respect réel de la vie privée.
Beaucoup de VPN promettent la lune. Surfshark livre une expérience cohérente, à savoir une application qui ne vous noie pas sous les options tout en laissant les réglages avancés accessibles, une infrastructure qui tient la route même aux heures de pointe et une politique de confidentialité qui ne se contente pas d'être écrite en petit, mais qui est vérifiée, auditée, assumée. Et cela devrait continuer dans ce sens en 2026 avec une volonté annoncée de subir encore plus d'audits extérieurs.
Est-ce qu'il y a des limites ? Bien sûr. Comme tout VPN, vous perdrez un peu de vitesse (minime avec WireGuard). Comme tout service cloud, vous dépendez de la disponibilité de leurs serveurs. Et comme tout outil de protection, il ne remplace pas une hygiène numérique globale (mots de passe robustes, mises à jour régulières ou bon sens face aux phishings). Mais si vous cherchez un compagnon de route pour naviguer plus librement, protéger vos données sans devenir ingénieur réseau, et accéder à vos contenus préférés où que vous soyez... Surfshark est l'un des rares choix qui ne vous demandera pas de sacrifier l'un pour l'autre.
L'offre du moment (parce que oui, il y a un deal)
En ce moment, Surfshark propose 87% de réduction + 3 mois offerts sur l'abonnement 24 mois. Ça revient donc à 1,99 €/mois (soit moins de 65€ TTC pour 27 mois), avec garantie satisfait ou remboursé de 30 jours. Vous testez puis vous restez ou vous vous faites rembourser. Aucun risque. Juste de la tranquillité en plus.
Du 25 février et jusqu'au 23 mars (ou jusqu'à épuisement des stocks), Surfshark propose en plus une offre combinée avec CALM, l'application de méditation et de sommeil la plus téléchargée au monde. En souscrivant à n'importe quel abonnement Surfshark de 1 ou 2 ans, vous recevez 12 mois de CALM Premium gratuitement (peu importe la durée du plan choisi).
Comment ça marche ? Après la période de garantie satisfait ou remboursé (30 jours), votre code d'activation apparaîtra directement dans l'application web Surfshark. Vous avez jusqu'au 23 mai pour le réclamer et activer votre abonnement CALM. C'est l'occasion de sécuriser votre connexion tout en prenant soin de votre santé mentale (et vous en avez bien besoin), une combinaison plutôt maline pour l'ère numérique.
Vous allez halluciner... Le Pentagone américain vient de poser un ultimatum à Anthropic. C'est Pete Hegseth, le patron du désormais "Department of War" (oui, Trump a rebaptisé le Pentagone par executive order... no comment...), exige que la boite de Dario Amodei lève toutes ses restrictions éthiques sur Claude d'ici ce vendredi.
Et la menace, c'est pas du bluff puisque ça parle du
Defense Production Act
, une loi de 1950 qui permet au gouvernement de réquisitionner une entreprise privée. Sinon, l'autre option sur la table de ces dingos, c'est de coller Anthropic sur une liste noire "supply chain risk", à côté de Huawei et Kaspersky. Ah ça c'est la classe.
En fait faut savoir qu'Anthropic a signé un contrat à 200 millions de dollars avec le Département de la Défense en juillet dernier et OpenAI, Google et xAI ont signé exactement le même type de contrat. Sauf que xAI a accepté les termes "
all lawful purposes
" sans sourciller et est déjà approuvé pour l'usage classifié alors qu'OpenAI et Google, eux, négocient encore leurs conditions.
Anthropic, eux, ont établi 2 lignes rouges à ne pas franchir : La surveillance de masse des citoyens américains et les armes autonomes capables de tuer sans intervention humaine. C'est tout ! Et visiblement, c'est déjà trop pour l'administration US qui qualifie ça de "woke AI".
Anthropic, c'est quand même une boite qui publie ses recherches sur la
mécanique interne de ses modèles
, qui écrit des papiers sur l'éthique de l'IA, et qui a carrément publié une "constitution" pour encadrer le comportement de Claude. Ils essayent de faire les choses proprement... Dario Amodei a même écrit un essai en janvier de cette année où il dit clairement que les démocraties ont un intérêt légitime à utiliser l'IA dans le domaine militaire... mais "dans certaines limites"... Mais apparemment ça ne suffit pas à l'oncle Sam.
Sean Parnell, le porte-parole du Pentagone, a déclaré que "la relation avec Anthropic est en cours de réévaluation" et Emil Michael, sous-secrétaire à la Défense, confirme que les négociations sont bloquées. Et comme je vous le disais en intro, la deadline c'est vendredi, 17h01 heure de la côte Est. Soit 23h01 à Paris. Sauf si Anthropic cède avant, ça pourrait aller très vite...
Perso, ça me rend dingue. Vous avez une boite qui essaye de garder un minimum de barrières éthiques, dans un secteur où tout le monde se couche, et le gouvernement lui tombe dessus comme un vieil empire soviétique exigeant sa soumission totale. Franchement, à la place de Dario, je prendrais mes cliques et mes claques et j'irais installer Anthropic en Europe ou en Asie. Quand votre propre gouvernement vous menace d'une loi datant de la guerre de Corée pour vous forcer à retirer vos garde-fous, ça va bien au-delà d'une simple pression. Ils veulent vraiment s'approprier la techno pour faire la guéguerre...
Notez que Chris Liddell, ancien adjoint du chief of staff de Trump, vient d'être ajouté au board d'Anthropic et la boite prépare son IPO pour 2026 donc autant vous dire que la pression est maximale de tous les côtés.
Si vous bossez sur des serveurs distants, vous connaissez cette douleur... D'un côté, vous avez votre terminal local aux petits oignons, vos alias, vos plugins... et hop, un petit ssh root@serveur et vous vous retrouvez avec un shell tout pourri, tout basique. Mais c'était sans compter sur Joknarf qui a pondu
TheFly
, un gestionnaire de plugins shell qui téléporte votre environnement via SSH ou sudo en un instant.
Le principe est pas bête du tout vous allez voir. En fait, vous installez vos plugins et dotfiles dans ~/.fly.d/ sur votre machine, et quand vous lancez flyto user@serveur, tout est empaqueté et envoyé dans /tmp/.fly.$USER/ distant. Prompt perso, alias, fonctions... tout débarque avec vous, un peu comme un sac à dos pour votre shell.
Et le truc bien, c'est que ça ne modifie RIEN sur le serveur distant car tout vit dans /tmp, donc quand vous vous déconnectez... pouf, tout a disparu. Pas de fichier qui traîne, pas de .bashrc modifié donc c'est plutôt safe pour les environnements de prod où vous ne voulez pas laisser de traces.
Ça marche avec bash, zsh et même ksh (pour les nostalgiques). L'installation, c'est un curl en une ligne (à relire comme d'hab), ou alors brew, dnf, paquets .deb... y'a le choix. C'est du pur shell POSIX, donc y'a ZÉRO dépendance externe. Attention par contre, si votre ~/.fly.d/ dépasse 128 Ko, ça risque de ramer sur des connexions un peu lentes.
Ah et y'a aussi flyas pour faire pareil en sudo (attention, ça téléporte aussi vos plugins, donc vérifiez que ça colle avec votre politique de sécu), et flysh pour switcher de shell sans perdre vos réglages. Et puis flypack génère une archive auto-extractible pour avoir un script shell qui s'installe tout seul. Pas mal donc aussi pour partager votre config.
Côté plugins, c'est pas
Oh My Zsh
avec ses 350+ plugins, mais y'a l'essentiel. Un prompt custom (nerdp), un historique amélioré (redo), de la navigation de répertoires (seedee)... et shell-ng qui regroupe le tout d'un coup. Perso, c'est bien suffisant je trouve.
D'ailleurs si vous êtes du genre à
customiser votre shell
au millimètre, TheFly s'intègrera bien dans votre workflow. En plus c'est sous licence, open source, et ça tourne sur Linux, macOS et même SunOS (bon ok, je sais, quasi personne utilise SunOS en 2026 mais bon...).
Voilà, comme ça si vous gérez une dizaine de serveurs au quotidien, ça vous fera gagner un paquet de temps !
Si vous avez lu
mon article sur Meshtastic
, vous savez déjà que les réseaux mesh LoRa, c'est le genre de truc qui fait rêver tous les geeks en manque de hors-piste numérique. Mais y'a un cran au-dessus, et ça s'appelle
Reticulum
.
En gros, c'est une stack réseau chiffré de bout en bout qui fonctionne sur n'importe quel support physique : LoRa, WiFi, Ethernet, liaison série, radio amateur en packet... TOUT y passe. Du coup, là où Meshtastic reste avant tout taillé pour les messages texte sur LoRa, ici vous pouvez faire transiter des fichiers, des appels vocaux, des pages web et même un shell distant à travers votre mesh. En fait au début je pensais que c'était juste un Meshtastic sous stéroïdes, mais non... c'est carrément une couche réseau complète.
Sideband, l'app de messagerie mesh pour Reticulum
L'avantage c'est surtout la flexibilité car plutôt que d'être coincé sur un seul médium, vous pouvez mixer LoRa longue portée et WiFi courte portée dans le même réseau via un simple fichier ~/.reticulum/config, et les paquets se débrouillent tout seuls comme des grands pour trouver le chemin le plus efficace.
Côté chiffrement, c'est du lourd : X25519 pour l'échange de clés, Ed25519 pour les signatures, AES-256-CBC pour le chiffrement symétrique, et du forward secrecy par-dessus. Le truc malin, c'est que les paquets ne contiennent aucune adresse source. Votre identité sur le réseau, c'est juste une paire de clés au niveau du protocole, donc personne ne peut remonter à l'expéditeur.
L'écosystème d'apps est même plutôt costaud. Y'a Sideband, une app dispo sur Android via F-Droid, Linux et macOS, qui gère les messages, les appels vocaux, le transfert de fichiers et même les cartes, le tout à travers le mesh. Y'a aussi NomadNet pour héberger des pages sur un réseau totalement hors-ligne, et rnsh qui permet de lancer un shell distant (oui, du SSH sans Internet, sur le port que vous voulez... ça fait rêver ^^).
D'ailleurs pour les radioamateurs, tout ça tourne nickel sur des bonnes vieilles liaisons packet radio en AX.25. Modems KISS, TNCs classiques... tout est supporté, j'vous dit !
Et pour l'installer, c'est d'une simplicité presque suspecte : un pip install rns et hop, vous avez votre noeud Reticulum dans /home/user/.reticulum/. Ça tourne sur un Raspberry Pi 3 ou 4, un vieux laptop sous Debian, votre téléphone via Sideband... et si vous voulez du LoRa, vous branchez un RNode sur l'USB et c'est parti.
Attention quand même, sous Windows c'est un poil plus compliqué (Faut passer par WSL2, sauf si vous avez déjà un Python 3.x bien configuré dans le PATH), et la doc est intégralement en anglais.
Notez que la bande passante s'adapte sans problème au support, de 150 bps en LoRa longue portée sur 868 MHz (faut pas s'attendre à du Netflix non plus) jusqu'à 500 Mbps en Ethernet local. Et un lien chiffré s'établit en seulement 3 paquets pour 297 octets. C'est pas gourmand.
C'est le genre de projet que je trouve super cool même si c'est clairement pas pour tout le monde (faut être à l'aise avec un terminal et le fichier config.yml), mais un protocole pensé dès le départ pour fonctionner sans infrastructure, avec du chiffrement partout et ZÉRO dépendance aux géants du web... ça force le respect et ça nous servira peut-être dans un futur proche, donc gardez ça dans un coin de votre tête...
Le code est dispo sous une licence MIT modifiée (y'a 2 restrictions : pas pour nuire, pas pour entraîner des IA), le protocole est dans le domaine public depuis 2016, et c'est essentiellement le boulot d'un seul mec, Mark Qvist. Donc chapeau à lui !
Bref, allez jeter un oeil à
Reticulum sur GitHub
... et merci à F4JWS pour le tuyau !
MultiDrive, c'est un outil Windows gratuit pour cloner, sauvegarder et effacer vos disques. Jusque-là, rien de foufou... sauf que derrière, y'a Atola Technology. Et dans le monde du forensic numérique, Atola c'est pas n'importe qui (labos d'investigation, forces de l'ordre, 20 ans de métier, basés au Canada avec une équipe en Ukraine)... bref, ce sont des gens qui connaissent les disques durs sur le bout des doigts.
Du coup, quand ils sortent un outil gratuit pour le grand public, je tends forcement l'oreille.
Côté fonctionnalités, vous avez donc le
clonage disque-à-disque
(HDD vers SSD, tout ça), y compris le disque boot (pratique pour migrer votre Windows vers un SSD), la sauvegarde complète en ZIP ou RAW, et l'effacement sécurisé avec patterns HEX ainsi que de la vérification d'intégrité en MD5, SHA256, SHA512... bref, y'a ce qu'il faut. Mais le gros plus pour les admins, c'est le mode CLI via mdcli. Comme ça, hop, vous scriptez vos backups et ça tourne tout seul !
En gros, ça donne ça :
# Lister les disques connectés
mdcli list
# Sauvegarder un disque boot en ZIP compressé
mdcli backup d1 E:\myfolder\backup.zip
# Cloner un disque vers un autre avec checksum SHA1
mdcli clone d3 d4 -q SHA1
# Effacer un disque avec un pattern HEX perso
mdcli erase d2 -p BADA
# Restaurer un disque depuis un backup ZIP
mdcli restore E:\folder\backup.zip d3
Et les tâches peuvent tourner en parallèle comme ça, vous lancez PLUSIEURS clonages en même temps, chacun avec son propre bouton pause/reprise. Et si votre vieux disque a des secteurs morts, MultiDrive s'en fiche puisqu'il gère les erreurs de lecture et continue sans broncher. Pour ceux qui connaissent
Rescuezilla
, c'est un peu la même philosophie mais natif Windows, SANS clé USB bootable.
Après, c'est closed-source mais c'est 100% gratuit (même en usage pro), et Atola s'engage à garder ça gratos. On verra s'ils respectent leur parole... quoiqu'il en soit, la
licence est consultable
sur leur site si vous voulez creuser avant d'aller plus loin.
Et côté doc, ils ont des tutos pour à peu près tout : backup sur disque externe, migration de Windows vers un autre disque, clonage SSD vers SSD, wipe de clé USB... chaque opération est détaillée étape par étape, c'est bien ficlé.
Un développeur vient de prendre le contrôle de plus de 10 000 appareils DJI (dont
7 000 robots aspirateurs Romo
- lien affilié) répartis dans 24 pays... en voulant juste piloter le sien avec une manette PS5.
Oui oui c'est un grand malade ^^.
À la base, Sammy Azdoufal, responsable IA chez Emerald Stay, voulait juste s'amuser avec son aspi alors il a d'abord essayé d'y connecter sa manette DualSense en Bluetooth, et puis il a fini par utiliser Claude Code pour décompiler l'appli mobile DJI (version Android) et reverse-engineerer les protocoles MQTT de DJI. Bien sûr, il lui fallait un token d'auth pour prouver qu'il était bien proprio du Romo et jusque-là, rien de méchant...
Sauf que le broker MQTT de DJI n'avait AUCUN contrôle d'accès au niveau des topics (c'est la chaîne de caractères qui sert d'adresse pour router les messages entre les publishers et les subscribers). Du coup, avec un seul token TLS, il voyait le trafic de tous les appareils en clair sur le broker cloud de DJI. Pas de brute force, pas d'exploit sophistiqué mais juste un pauvre token et un client MQTT.
Et hop, le voilà avec les flux vidéo des caméras embarquées, les micros, les plans 2D des maisons, les adresses IP et les numéros de série de milliers de machines. Un journaliste de
The Verge
lui a même filé son numéro de série, et depuis Barcelone, Azdoufal a pris le contrôle de son Romo, a pu voir qu'il était à 80% de batterie et en train de nettoyer le salon, pour finir par générer le plan de l'appart. Flippant hein ??
En gros, DJI avait un problème de validation de permissions côté backend. Ils l'ont patché début février sauf que... Azdoufal a trouvé une DEUXIÈME faille (un bypass du PIN caméra) qui serait toujours pas corrigée. Et c'est pas fini, le bonhomme aurait encore 2 autres vulnérabilités majeures sous le coude qu'il n'a pas divulguées publiquement et sur lesquelles DJI bosse activement pour les corriger. Cerise sur le gâteau, les batteries DJI Power étaient aussi accessibles via cette archi MQTT. Ce sont de grosses batteries portables qu'on garde chez soit pour avoir un peu de jus en cas de coupure de courant ou quand on est off the grid..
Attention par contre, si vous avez un Romo, vérifiez bien que le firmware est à jour. Vous vous en doutez, DJI a d'abord nié le problème avant de finalement patcher mais bon, moi aussi j'ai une caméra sur mon aspi robot et comme j'adore me balader en slip chez moi, je plains le hacker qui passera par là... Et je vous raconte pas quand on aura des robots humanoïdes comme ce qu'on a vu avec la
faille des robots Unitree
, tiens...
WorldMonitor
, c'est un dashboard open source qui agrège en temps réel à peu près TOUT ce qui se passe sur la planète. Géopolitique, conflits armés, marchés financiers, menaces cyber, catastrophes naturelles, trafic maritime... le tout sur une carte interactive avec 35 couches de données superposables !
Le truc, c'est que c'est pas juste un agrégateur de news. Là-dedans y'a 150+ flux RSS, du tracking de 220+ bases militaires, du suivi de vols militaires en direct via ADS-B, de la surveillance des câbles sous-marins, et même de la détection de feux de forêt par satellite via NASA FIRMS.
Ah et y'a aussi 8 flux vidéo live (Bloomberg, Al Jazeera, France24...), un index d'instabilité par pays calculé en temps réel et il y a même
l'indice Pizza du Pentagone
.
Rien que ça !
Côté IA, le dashboard génère des briefs de situation via un LLM et bon, le plus sympa c'est que ça peut tourner en local si vous le désirez (c'est compatible avec Ollama et LM Studio). ZÉRO donnée ne sort de votre machine, du coup, pour ceux qui font de l'
OSINT
ou qui veulent juste
surveiller ce qui bouge
dans le monde, c'est du lourd.
Perso j'ai choisi World pour mon test car l'angle géopolitique est dingue et y'a aussi une variante Tech et une Finance si les marchés c'est votre came. Attention par contre, faut pas être allergique à la surcharge d'infos ! Et sauf si vous avez un écran ultra-wide, ça peut vite devenir le bordel.
Je vous avoue que c'est pas le truc que je vais utiliser au quotidien parce que je suis plutôt à fuir l'actualité internationale et même nationale pour me recentrer uniquement sur moi et sur l'actualité tech que j'aime tant. Mais pour les accro à l'anxiété, je pense que vous allez kiffer.
Voilà, ce projet tourne en TypeScript + React avec deck.gl pour le globe 3D, c'est dispo en 16 langues et y'a même une app desktop via Tauri. Après franchement, faut voir si votre ordi tient le coup avec tous ces flux en temps réel...
AsteroidOS
, c'est une distro Linux open source qui tourne... sur des
montres connectées
! Oui oui, du manchot au poignet et l'idée en fait, c'est de virer
WearOS
et toute la télémétrie Google qui va avec, pour le remplacer par un OS libre sans tracking ou de compte à se créer.
Ce projet existe depuis 2015 et supporte aujourd'hui une trentaine de montres (LG Watch, Huawei Watch, TicWatch, Asus Zenwatch, Fossil Gen 4/5/6...). Vous flashez votre tocante connectée, et vous récupérez un OS avec agenda, météo, chronomètre, boussole, moniteur cardiaque, contrôle musical et même un petit jeu. Le tout en Qt/QML, avec des cadrans communautaires et un affichage permanent !
Côté
vie privée
, c'est même le JOUR ET LA NUIT avec WearOS donc pour ceux qui flippent que leur montre balance tout à Mountain View, c'est plutôt rassurant.
Pour la synchro avec votre téléphone, y'a également
AsteroidOSSync
sur F-Droid ou
Gadgetbridge
. Si vous hésitez, sachez que Gadgetbridge est plus maintenu et plus universel. Ça couvre l'essentiel et si vous avez les chocottes, un mode dual-boot permet de tester sans virer WearOS.
Attention par contre, c'est pas la fête du slip non plus car y'a pas de store d'apps (faut pousser les APK en ligne de commande via ADB), pas de réponse aux appels depuis le poignet, et les apps WearOS ne tournent évidemment pas dessus. A moins que votre montre soit dans la liste officielle, n'y pensez même pas ! Faut aimer bidouiller, en fait mais ça, je sais que vous adorez ^^.
Et grâce à cet OS, vous atteindrez peut-être les 48h d'autonomie annoncées sur le site. Après faut voir en vrai évidemment... mais pour
une distro communautaire
portée par des passionnés depuis 11 ANS quand même, c'est honnête.
VYALO
, c'est une app gratuite (
iOS
et
Android
) qui part d'un constat que tout le monde connaît... 9 résolutions sur 10 finissent à la poubelle. Vous savez de quoi je parle car on sort à peine du nouvel an et je pense que vous avez déjà abandonné le sport et la gentillesse sur les réseaux sociaux... Mais c'est normal car ces bonnes résolutions, on les fait dans son coin, sans personne pour nous secouer.
Heureusement celui qui va nous secouer pour nous aider à les tenir, c'est Nathan, dev solo de 22 ans en Haute-Savoie et fidèle lecteur de Korben.info qui eu une idée plutôt pas con : Vous faire surveiller par vos pôtes !!
En gros, vous posez vos objectifs (
sport
, lecture, code, peu importe), vos amis voient si vous les validez ou pas grâce au système de suivi des jours consécutifs. La mise en route prend 3 clics, c'est pas la mer à boire et c'est 'achement mieux que les 45 rappels dans Calendrier.app que je m'inflige chaque lundi.
Y'a même des défis entre potes où le premier qui craque a perdu... l'enjeu, c'est vous qui le fixez donc ça peut être un resto, 50 pompes en story Instagram, un pari de 20 euros ou un bisou sur la bouche (pouah !)...etc. De quoi vous motiver !
Le VRAI morceau de son app, c'est surtout le mode Roast. Activez-le dans les réglages et l'app vous balancera des notifs hyper sarcastiques quand vous avez rien foutu de la journée. Genre "T'as encore rien fait aujourd'hui". Ça pique.
48 badges à débloquer, un feed social pour encourager (ou chambrer) ses potes, un mode focus avec
sons d'ambiance
, et des widgets sur l'écran d'accueil. Mon compte c'est @Korben si vous voulez venir me taquiner quand je fais pas mon sport de la journée...
Sauf si vous avez un groupe de potes ultra-motivés, le système d'accountability va tourner dans le vide. Donc faut des copains sérieux, en fait.
Pour un mec de 22 ans qui a TOUT fait seul (dev, design, marketing sur
vyalo.app
) c'est pas mal du tout ! Bravo Nathan !
C'est fou ce qu'on peut faire avec trois bouts de ficelle et un peu de jugeote. Ou plutôt, avec 140 caractères de JavaScript et un élément
Le concept c'est que vous avez une fonction u(t) où t est le temps qui passe, et vous devez pondre un truc visuellement bluffant sans dépasser la taille d'un tweet (époque pré-Elon, le fameux 140 caractères). Et là, c'est la claque car les mecs qui participent à ce défi arrivent à caser des univers entiers, des forêts en parallaxe ou des simulations de colonies de fourmis dans un mouchoir de poche.
Et c'est du code pur jus, généré en temps réel par votre propre navigateur. J'ai d'ailleurs testé le fameux "Ants!" et on sent que KilledByAPixel (le boss final du site) a poussé l'optimisation dans ses derniers retranchements avec des astuces de sagouin comme eval(unescape(escape...)).
Dwitter, c'est né en 2016 lors de la demoparty Solskogen où son créateur
lionleaf
a d'ailleurs remporté la Wild Compo. Le projet est totalement open source (disponible sur GitHub pour les curieux) et la communauté est super active sur Discord.
En jetant un oeil au top de l'année sur la version Beta (beta.dwitter.net), on tombe sur des perles comme "Solar Orbit" qui vous colle un système planétaire en quelques octets :
Ou encore ce genre de forêts qui défile en parallaxe :
Le plus cool, c'est que tout est lisible et modifiable en direct. Vous voyez un truc qui vous plaît ? Hop, vous cliquez sur le code, vous changez une variable au pif et vous regardez le chaos s'installer. C'est l'école du partage version demoscene mais évitez quand même d'ouvrir 50 onglets en même temps si votre CPU date un peu, car certains shaders déguisés en JS peuvent être assez violents.
Bref, si vous avez 5 minutes à perdre (ou 2 heures, je vous connais), allez faire un tour sur le site. Ça vide la tête, ça pique un peu les yeux parfois, mais ça redonne foi en la créativité humaine !
Si vous codez un peu avec des assistants IA, vous avez sûrement le même petit souci que moi chaque matin après mon premier café : Claude ou ChatGPT ? Lequel est le plus chaud aujourd'hui pour ce refactoring complexe ?
Hé bien j'ai trouvé un truc qui va mettre tout le monde d'accord.
Ça s'appelle Mysti et c'est une extension VS Code qui part d'un principe simple mais génial : Pourquoi se limiter à un seul cerveau quand on peut en avoir deux qui bossent ensemble ?
L'extension intègre ce qu'ils appellent le "Brainstorm Mode" où concrètement, vous sélectionnez deux modèles (par exemple Claude via claude-code et OpenAI via openai-codex) et vous les lancez sur votre problème.
On choisit son équipe de choc
Si vous activez le "Full Mode", c'est assez marrant à regarder puisque les deux IA vont discuter entre elles, débattre de la meilleure approche, critiquer les propositions de l'autre et finir par pondre une solution qui combine le meilleur des deux mondes. C'est un peu comme avoir deux seniors devs en pair programming derrière votre épaule (sans l'odeur de café froid et de dessous de bas ^^).
Ça discute sec entre les agents
Au-delà du brainstorming, Mysti propose aussi un système de Personas (16 au total). Vous pouvez alors demander à votre "équipe" IA d'adopter un rôle spécifique comme "Architecte" pour penser la structure globale ou "Security-Minded" pour auditer votre code. D'ailleurs, cette approche agentique rappelle un peu ce qu'on a vu émerger dans des outils comme
Kilo Code
.
L'IA propose un plan d'action avant de coder
Techniquement, attention car l'extension ne fait "que" piloter les outils CLI installés sur votre machine. Il faudra donc avoir installé et authentifié les CLI correspondants (@anthropic-ai/claude-code, @google/gemini-cli, etc.) pour que ça fonctionne. L'installation de l'extension elle-même passe par le Marketplace VS Code :
ext install DeepMyst.mysti
Perso, je trouve ça vraiment bien pour les tâches d'architecture, là où une seule IA a souvent tendance à foncer tête baissée. Avoir un "second avis" automatique, ça évite pas mal d'erreurs bêtes. Après si je devais lui trouver un défaut c'est que comme ça utilise vos propres clés API via les CLI, une session de débat intense peut vite consommer quelques tokens.
Je sais, vous vous en foutez parce que vous êtes blindé mais c'est à utiliser avec modération !
L'entraînement de l'oreille, c'est le truc que les musiciens amateurs repoussent en général à plus tard... Et puis après ils jouent faux ^^ !
Heureusement, pour vous améliorer, il existe
Lend Me Your Ears
qui est un jeu d'entraînement musical, 100% gratuit, dans le navigateur qui va vous permettre de vous entrainer à l'oreille sans prise de tête. Ce site c'est le boulot d'un seul dev, Shaun Pedicini et y'a pas besoin de compte ni d'abonnement.
Le principe c'est que le site joue une mélodie, et vous la reproduisez. En mode "Simon" les séquences s'allongent au fil des niveaux et si vous vous plantez, faut recommencer. Et en mode Practice, la difficulté monte progressivement avec un verrou pour bloquer un niveau et s'y acharner en boucle. Ça débute à 4 notes, puis ça augmente...
Pour jouer, y'a plusieurs options. Soit piano à l'écran (C3 à C6, trois octaves), ou un clavier MIDI, ou votre clavier d'ordinateur. Les touches ASDF jouent les notes blanches, QWERTY les noires.
Attention, au premier lancement (1 clic suffit), l'audio est muet car le navigateur bloque le son. Y'a aussi une entrée micro pour guitares et pianos acoustiques pour ceux qui veulent.
Et les réglages sont carrément fins. Vous choisissez parmi 24 gammes (majeures et mineures), vous ajustez le tempo de 40 à 220 BPM, et vous configurez votre niveau d'aide. Du mode "il vous montre la prochaine note" jusqu'au mode d'entraînement pur, où vous bossez entièrement de mémoire. Ce dernier, c'est pour les courageux !
Grâce à ça, 20 petites minutes par jour et vous progresserez ! La régularité, ça finit toujours par payer !