↩ Accueil

Vue normale

Reçu aujourd’hui — 29 novembre 2025 Korben

WSABuilds - Le retour du Windows Subsystem pour Android (Avec le Google PlayStore, svp !)

Par :Korben
29 novembre 2025 à 08:47

Microsoft a officiellement enterré le Windows Subsystem for Android (WSA) le 5 mars dernier car le projet n’a jamais réussi à générer d’argent et l’absence de Google Play Services a été le dernier clou dans le cercueil. Du coup, plus de mises à jour, plus de support, plus d’Amazon Appstore dans le Microsoft Store.. Snif…

Sauf que voilà, y’a des gens qui refusent de lâcher l’affaire et c’est comme ça qu’est né le projet WSABuilds dispo sur GitHub qui propose des builds pré-compilées de WSA avec tout ce qui manquait à la version officielle : le Google Play Store, Magisk ou KernelSU pour le root, et des versions stables régulièrement mises à jour !

WSABuilds vous permet donc de continuer à faire tourner des apps Android sur Windows 10 et 11, même après l’abandon de Microsoft et les builds sont disponibles en plusieurs variantes. Soit avec ou sans Google Apps, avec Magisk ou KernelSU pour le root, en version stable ou LTS…etc. Et vous avez aussi le choix entre x86_64 et ARM64 selon votre config.

L’installation est plutôt simple puisque vous n’avez qu’à télécharger l’archive depuis les releases GitHub ou OneDrive, vous extrayez tout ce bordel, vous renommez le dossier en “WSA” (important d’avoir un nom court), et vous lancez l’install via PowerShell. Le projet contient des scripts qui gèrent tout le processus, donc c’est encore plus confortable que votre chaise de gamer acheté sur Aliexpress.

Côté prérequis, il vous faut Windows 11 build 22000.526 ou plus, ou Windows 10 22H2 avec minimum 8 Go de RAM, même si 16 Go sont recommandés pour une expérience fluide. Et bien sûr, faudra activer la virtualisation dans le BIOS.

Et si vous aviez déjà WSA installé d’avant ce 5 mars 2025 fatidique, il continue de fonctionner mais sans aucune mise à jour, donc WSABuilds devient donc la seule option viable pour avoir une version maintenue et avec le Play Store intégré !

Et pour ceux qui préfèrent les alternatives classiques comme BlueStacks ou NoxPlayer , c’est toujours possible mais WSA reste la solution la plus propre car elle s’intègre nativement à Windows sans passer par un émulateur tiers.

Amusez-vous bien !

Ban-Rays - Les lunettes qui détectent les smart glasses

Par :Korben
29 novembre 2025 à 07:42

De nos jours, quand un mec chelou avec des lunettes cheloues nous fixe, on ne sait plus si c’est parce qu’il nous trouve irrésistible ou s’il est en train de balancer notre tronche à une IA pour savoir qui on est. Bon, pour vous, la question se pose peut-être moins, mais vous voyez l’idée ^^.

Heureusement, pour lutter contre ça, y’a maintenant un projet open source pour détecter ces petits curieux équipés de Ray-Ban Meta ou d’autres lunettes-caméras. Ce projet s’appelle Ban-Rays (jeu de mots avec “banned”, roh roh roh) et le but c’est de créer des lunettes capables de repérer les smart glasses équipées de caméras.

Et pour arriver à cela, le dev derrière ce projet utilise deux approches complémentaires.

La première, c’est l’approche optique basée sur un principe physique assez marrant. En effet, mes capteurs CMOS des caméras ont la particularité de renvoyer la lumière infrarouge directement vers sa source. C’est ce qu’on appelle l’effet “cat-eye” ou rétro-réflectivité, du coup, en balançant des impulsions IR vers une paire de lunettes suspecte et en analysant le signal réfléchi, on peut théoriquement détecter la présence d’une caméra. Et les capteurs produisent des pics de signal bien nets et rapides, contrairement aux surfaces réfléchissantes classiques qui génèrent des ondes plus longues.

Pour le moment, les tests avec les Ray-Ban Meta montrent des résultats un peu inconsistants à courte distance (genre 10 cm), mais le principe est là et ça s’améliore. Ah oui et le matos utilisé c’est un Arduino Uno, des LEDs infrarouges (940nm et 850nm), une photodiode et un transistor. Rien de bien méchant donc niveau budget.

Et la deuxième approche, c’est côté réseau avec la détection Bluetooth Low Energy. Les Ray-Ban Meta utilisent un identifiant fabricant spécifique (0x01AB pour Meta) et un Service UUID bien particulier (0xFD5F). Le souci c’est que pour le moment, ça ne détecte les lunettes que pendant l’allumage ou le mode appairage. Pour une détection continue pendant l’utilisation normale, faudrait du matos plus costaud genre modules nRF pour sniffer les paquets CONNECT_REQ. Mais bon, ça viendra puisque c’est dans la roadmap du projet.

Alors oui, vous allez me dire que les Ray-Ban Meta ont une petite LED qui s’allume quand elles filment, donc c’est pas discret. En théorie oui auf que cette LED est tellement minuscule que la Data Privacy Commission irlandaise a carrément remis en question son efficacité comme protection de la vie privée. Et surtout, un bidouilleur propose maintenant de désactiver cette LED pour une soixantaine de dollars. Meta a bien prévu une protection qui empêche les lunettes de fonctionner si on couvre la LED avec du scotch, mais le gars a trouvé comment contourner ça et sa liste de clients s’allonge…

Et l’autre truc que j’ai remarqué avec ces lunettes connectées, c’est qu’elles se déclenchent tout le temps pour tout et n’importe quoi. Comme ça écoute en permanence pour répondre aux commandes vocales, impossible d’avoir une conversation normale sans que le machin réagisse à un mot qui ressemble vaguement à “Hey Meta”. C’est encore pire que Siri ou Alexa qui font déjà des déclenchements intempestifs. Perso, c’est pour ça que je ne veux pas de ce genre de lunettes, même si je reconnais que c’est pratique pour photographier ou filmer des choses (dans le cadre de mon boulot hein…)

Et les inquiétudes sont d’autant plus justifiées qu’une étude de 2024 a montré qu’en combinant des Ray-Ban Meta hackées avec de la reconnaissance faciale en temps réel, on pouvait identifier des inconnus dans la rue. Encore plus récemment, l’Université de San Francisco a dû alerter ses étudiants après qu’une personne mystérieuse ait utilisé ces lunettes pour filmer des femmes sur le campus et partager les vidéos en ligne. Sympa l’ambiance de parano.

Bref, si vous êtes inquiet par ça (ou juste soucieux de votre vie privée), le projet Ban-Rays est sur GitHub avec tout le code en C++, Python et un peu de C. C’est encore expérimental mais les deux approches sont prometteuses et si vous voulez contribuer, y’a plein de trucs à améliorer comme les patterns de balayage IR, la fusion des données multi-longueurs d’onde, l’interrogation active BLE…

Source

La montre Pebble est de retour - Mais ça part en vrille

Par :Korben
29 novembre 2025 à 07:06

Je ne suis pas très montre. Je n’en porte pas, je n’en possède pas… Ce temps qui passe c’est l’angoisse mais je me souviens très bien des montres Pebble qui avec leur écran e-ink tenaient des semaines sur une charge et qui ont carrément démocratisé le concept de smartwatch grand public dès 2012.

Hé bien good news, le fondateur Eric Migicovsky a décidé de les ressusciter sauf que c’est en train de tourner au vinaigre avec les bénévoles qui ont maintenu l’écosystème durant 9 ans.

Pour ceux qui ont raté tout le feuilleton, après la faillite de Pebble en 2016 et le rachat par Fitbit (puis Google), une communauté de passionnés appelée Rebble s’est formée pour sauver les meubles. Ils ont récupéré les données de l’App Store, monté une infrastructure de serveurs, financé des développements… Bref, ils ont maintenu en vie un écosystème que tout le monde avait abandonné.

Puis en janvier 2025, Google a ouvert le code source de PebbleOS et Migicovsky a sauté sur l’occasion et a lancé sa boîte Core Devices en mars pour vendre de nouvelles montres Pebble : La Pebble 2 Duo à 149$ et la Pebble Time 2 à 225$. D’ailleurs, 70% des premières unités ont déjà été livrées. Bref, jusque là, tout va bien.

Sauf que Rebble accuse maintenant Core Devices de piller leur travail sans compensation. Selon ce qu’ils racontent leur blog , Migicovsky aurait “scrapé leurs serveurs” le jour même où il devait les rencontrer pour discuter partenariat. Rebble affirme avoir investi des centaines de milliers de dollars pour maintenir l’App Store et les services backend… et Core voudrait un accès illimité à tout ça pour potentiellement créer un App Store concurrent propriétaire.

La bibliothèque mobile libpebble3 utilisée par l’app Core Devices s’appuie notamment sur du code que Rebble a financé via son programme de subventions. Et c’est pareil pour le portage Bluetooth open source vers PebbleOS puisque c’est Rebble qui a payé les devs. Et bien sûr quand ils demandent un engagement écrit que Core ne créera pas un store concurrent… C’est silence radio.

Migicovsky a ensuite répondu sur son blog perso histoire de se justifier. Il nie tout vol et affirme que 90% du code de libpebble3 a été écrit par Core Devices, et pas par la communauté. Et pour le scraping, il explique qu’il construisait juste une petite webapp pour afficher ses watchfaces préférées et que ça n’a rien téléchargé de substantiel.

Et il contre-attaque en accusant Rebble de vouloir créer un pré-carré bien verrouillé emprisonnant les 13 000 et quelques applications que des développeurs indépendants ont créées. Rebble revendiquerait 100% des données de l’App Store alors qu’ils ne sont que l’hébergeur…

Alors qui croire ? Difficile à dire mais la bonne nouvelle c’est que Core Devices a ouvert les schémas électriques et mécaniques de la Pebble 2 Duo sur GitHub et bientôt, l’installation d’apps se fera via un système de feeds multiples, un peu comme les gestionnaires de paquets open source. Chacun pourra alors choisir son store.

Reste à savoir si les deux camps arriveront à s’entendre puisque Rebble a apparemment fait marche arrière sur certaines revendications, notamment sur la propriété du contenu hébergé. Mais le climat de confiance est sérieusement entamé et pour la communauté qui a bossé durement et gratos pendant 9 ans pour sauver tout écosystème… c’est sûr que ça fait mal de voir le fondateur original débarquer et se servir OKLM.

Après pour ceux d’entre vous qui ont une Pebble ou qui lorgnent sur les nouvelles, surveillez le subreddit r/pebble et le Discord Rebble car c’est là que tout ça se passe.

Source

Une ÉNORME liste des meilleurs chaînes IPTV gratuites et sans abonnement pour votre box ou Smart TV

Par :Korben
29 novembre 2025 à 06:48

Si vous voulez monter votre propre service IPTV pour vos besoins personnels et arrêter de payer des services mafieux ou décodeurs pirates pour regarder de la TV en streaming, j’ai ce qu’il vous faut en accès gratuit.

Il existe plusieurs dépôts Github qui compilent des playlists au format .m3u regroupant de nombreux streams en IPTV. Attention, comme la radio en streaming , rien d’illégal pour l’utilisateur ici, c’est tout simplement des chaînes dont les flux sont accessibles gratuitement et légalement sur le web sans décodeur.

Pour le commun des mortels, ça suffira largement à votre bonheur, et vous pourrez lire toutes ces chaînes sans céder à l’achat d’un boitier IPTV ou abonnement IPTV spécifique. Un simple lecteur vidéo comme VLC suffira. Ça fonctionnera également sur votre téléviseur avec l’application Smart IPTV ou sur votre box Android.

Free-TV/IPTV - La playlist communautaire de qualité

Le premier dépôt que je vous recommande c’est Free-TV/IPTV . Il est maintenu par une communauté de bénévoles qui privilégient la qualité plutôt que la quantité. Y’a que des chaînes qui fonctionnent vraiment, pas de contenu adulte, religieux ou politique, juste du mainstream entertainment et des chaînes d’info.

Pour commencer à regarder la TV sans décodeur ni box android, lancez simplement VLC ou tout autre lecteur vidéo capable de lire les fichiers M3U comme Kodi puis faites Fichier -> Ouvrir un flux réseau et copiez-collez simplement le lien suivant :

https://raw.githubusercontent.com/Free-TV/IPTV/master/playlist.m3u8

Cette playlist regroupe des chaînes TV gratuites du monde entier, soit localement en hertzien, soit gratuitement sur internet via des services comme Plex TV, Pluto TV (en anglais, espagnol, français, italien), Samsung TV Plus, Roku TV ou encore des flux YouTube en direct.

iptv-org/iptv - Le mastodonte

Y’a aussi un autre projet encore plus massif : iptv-org/iptv . Celui-là c’est un véritable monstre avec près de 370 contributeurs et des milliers de chaînes du monde entier. La playlist principale est dispo ici :

https://iptv-org.github.io/iptv/index.m3u

Ce projet propose également un guide de programmes électronique (EPG) via un dépôt séparé, ce qui permet d’avoir les horaires des émissions directement dans votre lecteur si celui-ci le supporte. Y’a aussi une API publique et une base de données complète des chaînes disponibles. Vous trouverez également des playlists triées par pays, par langue ou par catégorie dans leur documentation. Ils maintiennent aussi une liste awesome-iptv qui recense tous les outils et ressources autour de l’IPTV.

Quel lecteur utiliser ?

Si VLC ça ne vous convient pas, vous avez plusieurs options. IPTVnator reste un excellent choix : c’est un player open source avec 5 100 stars sur GitHub, dispo sur Windows, Mac et Linux, qui supporte les playlists M3U/M3U8 et l’EPG. Il est passé de Electron à Tauri récemment, ce qui le rend plus léger.

Si vous préférez une solution directement dans le navigateur sans rien installer, y’a M3U IPTV Browser qui permet de charger vos playlists et regarder les chaînes directement dans votre navigateur. Sinon, TiviMate ou Ellipto IPTV sont un lecteur web moderne avec une interface sympa et compatible avec tous les navigateurs récents.

Pour ceux qui veulent aller plus loin, Kodi avec le plugin PVR IPTV Simple Client reste la solution la plus complète pour gérer l’IPTV sur à peu près n’importe quelle plateforme.

Ces listes sont maintenues par des communautés actives et mises à jour régulièrement et couvrent des dizaines de pays et proposent des chaînes en plusieurs langues. Par contre, gardez en tête que certains liens peuvent être géobloqués selon votre localisation, et que les flux peuvent parfois changer d’URL. C’est le jeu avec l’IPTV gratuit !

Profitez-en bien !

Article publié initialement le 21/03/2024 et mis à jour le 29/11/2025

Reçu hier — 28 novembre 2025 Korben

Telehack - Replongez dans l'Internet de 1985

Par :Korben
28 novembre 2025 à 16:03

Quand je revoie des films comme WarGames ou Hackers, je me rends compte que je suis un poil nostalgique de ces écrans noirs avec du texte vert, des modems qui crapotent, et de la magie des connexions longue distance sur des réseaux qui tenaient avec du scotch et des prières… Hé bien cool pour moi (et pour vous, si vous avez la même pathologie de moi) y’a un taré des Internet qui a recréé tout ça, et c’est jouable directement dans votre navigateur.

Ça s’appelle Telehack , et c’est une simulation complète de l’ARPANET et d’Usenet tels qu’ils existaient entre 1985 et 1990. Le site propose 26 600 hôtes virtuels, des milliers de fichiers d’époque, des jeux d’aventure textuels, un interpréteur BASIC fonctionnel et même des utilisateurs historiques reconstitués à partir de vraies archives. Le créateur, connu uniquement sous le pseudo “Forbin” (une ref au film “Le Cerveau d’acier” de 1970), a vraiment pondu un truc de dingue que vous devez tester absolument !

Le plus beau dans tout ça, c’est que vous pouvez vous y connecter comme à l’époque. En telnet sur les ports 13, 1337 ou 8080, en SSH sur le port 2222, et même… avec un vrai numéro de téléphone américain (+1 213 835-3422) accessible en modem analogique 14,4 kbps. Pour les nostalgiques du grésillement, c’est du bonheur.

Une fois connecté, vous vous retrouvez donc avec une invite de commande minimaliste. Tapez ensuite netstat pour voir la liste des hôtes accessibles, puis telnet pour vous connecter à un système distant, ou dial pour composer des numéros de téléphone virtuels comme un vrai phreaker des années 80. Y’a même des outils de hacking d’époque comme wardial.exe et porthack.exe pour progresser dans le jeu et débloquer de nouveaux systèmes.

Côté contenu, c’est également un vrain musée vivant. Toutes les archives Usenet intégrées proviennent de la collection d’Henry Spencer, un type de l’Université de Toronto qui a sauvegardé plus de 2 millions de messages entre 1981 et 1991 sur 141 bandes magnétiques récupérées de justesse avant d’aller à la poubelle.

Ces messages sont les plus anciens posts Usenet encore existants, et vous pouvez donc les lire directement dans Telehack. C’est pas ouf ça ?

Pour les amateurs de jeux, y’a Zork , Adventure et tout un tas de jeux en Z-code jouables directement. L’interpréteur BASIC inclus permet également d’exécuter des centaines de programmes historiques et si vous aimez Star Wars en ASCII , le film complet en animation texte est disponible.

D’ailleurs, la simulation au sein de Telehack va assez loin dans le réalisme puisque comme je vous le disais, les utilisateurs historiques sont reconstitués à partir de vraies archives UUCP de l’époque. Vous pouvez faire un finger @host sur n’importe quel système pour voir qui est “connecté”. Les mots de passe des systèmes sont volontairement faibles (secret, love, trustno1…) comme c’était le cas à l’époque et le côté hacking vous fera gagner des badges (HACK5, HACK10, HACKER) au fur et à mesure que vous compromettez des systèmes.

Telehack est passé à ce jour d’un petit projet en 2010 à une communauté de plus de 50 000 utilisateurs et vu la qualité du truc, c’est mérité. Pour ceux qui ont connu cette époque ou ceux qui veulent comprendre comment c’était avant le web, c’est une expérience unique, les amis !

Pour y accéder : telehack.com dans votre navigateur, ou telnet telehack.com si vous voulez faire les choses proprement. Enjoy !

Quand Microsoft limite à 3 fois par an votre droit de refuser la reconnaissance faciale sur OneDrive

Par :Korben
28 novembre 2025 à 11:49

Microsoft vient encore de frapper un grand coup à base de “on vous a pas demandé votre avis mais c’est activé par défaut”. En effet, la firme de Redmond déploie actuellement une fonctionnalité de reconnaissance faciale basée sur l’IA dans OneDrive. Jusque-là, rien de surprenant, Apple Photos et Google Photos font pareil depuis des lustres et c’est pratique car ça permet avec une simple recherche de retrouver dans votre photothèque toutes les photos d’une personne en particulier.

Sauf que Microsoft a décidé d’y ajouter une petite subtilité bien nulle…

Car oui, vous pouvez désactiver cette fonction, ouf ! Sauf que vous ne pouvez le faire que trois fois par an. 3 putain de fois par an ! Donc si vous désactivez, puis réactivez, puis désactivez à nouveau ce paramètre, vous êtes bloqué jusqu’à l’année suivante. Pour le moment, cette fonctionnalité est en test uniquement auprès des utilisateurs de la version Preview donc y’aura peut-être rétropédalage mais les testeurs sont pas jouasses.

Le pire c’est que Microsoft a la fâcheuse habitude de réinitialiser vos paramètres de confidentialité à chaque mise à jour majeure de Windows, donc si Redmond décide de réactiver l’option une quatrième fois dans l’année sans vous demander votre avis… Hé bien y’a de fortes chance que vous soyez coincé plus vite que prévu.

Alors pourquoi cette limitation débile ?

Et bien Microsoft n’a pas daigné donner d’explication officielle à nous pauvre gueux, mais les experts en dingueries de Redmond supposent que c’est lié au coût de suppression des données biométriques. En effet, quand vous désactivez la fonction, Microsoft s’engage à effacer toutes vos données de regroupement facial sous 30 jours et la réactiver ensuite nécessite de réanalyser toutes vos photos avec l’IA. Et ça, ça coûte un pognon de dingue en ressources serveur.

En gros, Microsoft veut éviter que des petits malins fassent du toggle en boucle et mettent leurs clusters GPU à genoux et leur tréso à sec. L’explication se tient c’est vrai, mais du point de vue utilisateur, c’est complètement absurde, surtout que comme d’hab, personne n’explique rien. Puis c’est quand même une fonctionnalité qui scanne les visages de votre famille, vos amis, vos enfants, et qui est activée par défaut sans votre consentement explicite, hein…

D’ailleurs, Thorin Klosowski de l’Electronic Frontier Foundation a réagi officiellement en expliquant que, je cite, “Toute fonctionnalité liée à la vie privée devrait vraiment être opt-in, et les entreprises devraient fournir une documentation claire pour que les utilisateurs comprennent les risques et les avantages avant de faire leur choix.

Ça me semble parfaitement sain et logique… Espérons que Microsoft comprenne cela aussi. La firme assure que vos données biométriques ne sont pas utilisées pour entraîner leurs modèles IA globaux, et on va faire semblant de les croire, mais ça reste du stockage de données biométriques sur des serveurs tiers, activé par défaut, avec une capacité de contrôle artificiellement limitée.

Et comme vous le savez, ça s’inscrit dans une tendance plus large chez Microsoft où Word sauvegarde maintenant par défaut sur OneDrive plutôt qu’en local, où Notepad est connecté au cloud, où Paint tourne à l’IA…et j’en passe. Bref, tout est fait pour que vos données quittent votre machine et atterrissent sur les serveurs de M$.

Bref, si vous utilisez OneDrive et que vous tenez à votre vie privée, gardez bien en tête que vous n’avez droit qu’à trois changement par an donc, comme les 3 voeux du génie de la lampe, utilisez-les avec parcimonie, et priez pour que les mises à jour Windows n’aient pas la bonne idée de réactiver ce truc dans votre dos.

Source

L'Esport sur Excel existe et des milliers de gens en sont fans !

Par :Korben
28 novembre 2025 à 11:17

Jusqu’à ce matin, je pensais que l’esport était une activité consacrée à 100% aux jeux vidéos et en fait non !! Je viens de découvrir qu’il y a des mecs qui font des compétitions de tableurs Excel à Las Vegas, devant des centaines de spectateurs en IRL et des 60 000 personnes sur YouTube, avec diffusion sur ESPN et une même une ceinture de champion façon catch à remporter !

Bienvenue dans le monde merveilleux du Microsoft Excel World Championship.

Screenshot

Ce truc existe depuis une douzaine d’années, mais ça a vraiment décollé en 2021 quand le Financial Modeling World Cup s’est associé avec Microsoft pour créer un format plus spectaculaire. Parce que regarder des gens faire de la modélisation financière pendant des heures… Disons que c’est pas le contenu Twitch le plus palpitant. Du coup ils ont totalement gamifié le truc !

Et c’est en décembre 2024 que s’est tenue la finale au HyperX Arena de Las Vegas avec un prize pool de 60 000 dollars avec comme grand gagnant Michael Jarman, un Canadien de Toronto qui bosse comme directeur de modélisation financière chez Operis. Le mec a détrôné Andrew Ngai, surnommé “The Annihilator”, qui avait remporté les trois éditions précédentes.

D’ailleurs, le thème de la finale 2024 c’était World of Warcraft et les participants devaient tracker des stats comme l’XP, l’or et les capacités de leur équipe jusqu’au raid final de Molten Core… Le tout dans Excel évidemment. Et les années précédentes, y’a eu des thèmes détective, du Scrabble, des jeux de cartes type poker, et même du décodage. Ça a l’air trop fun !

Le format de la compétition se veut brutal avec 30 minutes par round, des problèmes logiques de plus en plus complexes, et toutes les 5 minutes le dernier du classement dégage. Y’a aussi des questions bonus risquées pour gratter des points supplémentaires et tout ça avec un public de fans hystériques qui beuglent autour des candidats. Bref, mentalement, c’est épuisant !

Pour se qualifier, les joueurs peuvent participer à une série de 10 battles mensuelles appelée “Road to Las Vegas” qui s’étend de janvier à octobre et si vous accumulez assez de points, vous décrochez votre ticket pour la finale.

La prochaine finale aura lieu du 1er au 3 décembre, donc si ça vous chauffe, toutes les infos sont ici !

Alors oui, y’a pas encore d’esport pour les blogueurs, snif, (quoique, un concours de vitesse de frappe avec des fautes d’orthographe obligatoires, ça pourrait le faire) mais si jamais vous êtes du genre à kiffer les problèmes logiques et les tableurs, le MEWC recrute alors foncez !

+4300 workflows n8n prêts à l'emploi pour automatiser toute votre life !

Par :Korben
28 novembre 2025 à 10:51

Si vous n’utilisez pas encore n8n pour automatiser vos tâches, c’est le moment de vous y mettre parce que c’est open source et c’est la meilleure alternative que vous pourrez trouver à Zapier et ce genre de services payants.

La boîte a levé 180 millions de dollars récemment avec une valorisation à 2,5 milliards, et contrairement à Zapier qui facture à la tâche (et ça devient vite très cher), n8n facture à l’exécution ! Mais bien sûr, si vous aimez mettre les mains dans le cambouis c’est totalement gratuit !

Si vous connaissez pas encore n8n, c’est vraiment le genre d’outil qui peut vous changer la vie car ça vous permet de connecter vos apps entre elles avec une interface visuelle (genre des blocs qu’on relie), et vous pouvez automatiser à peu près n’importe quoi : synchroniser des données entre outils, envoyer des notifications, créer des pipelines de traitement… Et comme c’est open source et que vous pouvez l’héberger sur votre propre serveur, ce qui règle tous les problèmes de confidentialité des données.

Après, j’avoue que créer des workflows from scratch, c’est parfois un peu relou. Heureusement, y’a ce super dépôt GitHub qui contient plus de 4 300 workflows prêts à l’emploi que vous allez pouvoir utiliser pour vous !

La collection est organisée en 15 catégories : Marketing, Sales, DevOps, et tout ce que vous voulez ! Y’a même un système de recherche full-text qui répond en moins de 100ms, des filtres par niveau de complexité (Low, Medium, High), par type de trigger, par service… Bref, vous trouverez ce que vous cherchez en quelques secondes.

Pour l’utiliser, vous avez plusieurs options. Soit vous passez par l’interface web hébergée sur GitHub Pages, soit vous installez ça en local avec Python :

git clone https://github.com/Zie619/n8n-workflows.git
cd n8n-workflows
pip install -r requirements.txt
python run.py

Ou si vous préférez Docker :

docker run -p 8000:8000 zie619/n8n-workflows:latest

Une fois lancé, vous avez accès à une API REST pour chercher et récupérer les workflows. Le endpoint /api/search pour les requêtes, /api/workflow/{id} pour récupérer le JSON d’un workflow spécifique, /api/categories pour la liste des catégories… Tout est documenté évidemment.

Ce truc utilise SQLite avec FTS5 (Full-Text Search) pour les recherches rapides, FastAPI pour le backend, et Tailwind CSS pour le frontend.

Bref, si vous cherchez de l’inspiration pour vos automatisations ou si vous ne voulez pas réinventer la roue à chaque fois, cette collection vaut vraiment le détour.

Source

Reçu avant avant-hier Korben

Voxel Duke Nukem 3D

Par :Korben
27 novembre 2025 à 19:10

Si comme moi, vous avez grandi avec Duke Nukem 3D, vous vous souvenez forcément de ces sprites 2D qui tournaient sur eux-mêmes quand vous faisiez le tour d’un ennemi. C’était l’époque, on faisait avec les moyens du bord… Un jour j’ai même tenté de passer entre les jambes d’un ennemi, mais en vain. Quel con ^^.

Hé bien vous allez kiffer car le moddeur Cheello vient de sortir un mod qui transforme tous ces sprites en modèles 3D voxelisés, et c’est magnifique.

Voxel Duke Nukem 3D remplace donc tous les affreux monstres, les babes sexy, les objets et les décors par des voxels. Pour vous la faire courte, les voxels c’est comme les pixels, sauf que ce sont des cubes.

Et le résultat est tellement bien foutu que pendant une partie normale, vous aurez du mal à voir la différence avec les sprites originaux… Mais c’est quand vous “ circle-strafez ” autour d’un ennemi que ça saute aux yeux car à la place d’un sprite qui pivote comme un panneau publicitaire, vous avez un vrai modèle 3D avec du volume.

Le mod couvre donc les trois premiers épisodes du jeu original et garde fidèlement le style artistique d’origine. Ce n’est donc pas un remaster RTX de kéké qui dénature le jeu, mais plutôt c’est une modernisation subtile qui respecte l’esthétique pixel art qu’on aime avec ce jeu.

Pour l’installation, vous aurez besoin d’ EDuke32 (le source port de référence pour Duke 3D) mais attention à bien désactiver le mode Polymer dans le launcher sinon les voxels ne chargeront pas. No stress, le readme du mod explique tout ça en détail.

Le mod est dispo gratuitement sur ModDB donc si vous avez Duke Nukem 3D qui traîne quelque part sur votre disque dur, dans votre bibliothèque GOG/Steam, ou tombé du camion, y’a vraiment pas de raison de s’en priver.

Hail to the King, baby ! Et merci à Lorenper pour le partage !

Comment cacher 🤔󠄻󠅟󠅢󠅒󠅕󠅞󠄞󠅙󠅞󠅖󠅟󠄐󠅓󠄗󠅕󠅣󠅤󠄐󠅠󠅢󠅕󠅣󠅡󠅥󠅕󠄐󠅑󠅥󠅣󠅣󠅙󠄐󠅒󠅙󠅕󠅞󠄐󠅡󠅥󠅕󠄐󠅜󠅕󠄐󠅖󠅢󠅟󠅝󠅑󠅗󠅕󠄐󠅖󠅟󠅞󠅔󠅥 un message dans un simple EMOJI ??

Par :Korben
27 novembre 2025 à 13:13

Vous voyez cet emoji ? 😎󠄺󠄗󠅑󠅙󠄐󠅠󠅑󠅣󠄐󠅥󠅞󠄐󠅠󠅕󠅥󠄐󠅜󠅕󠄐󠅝󠅕󠅙󠅜󠅜󠅕󠅥󠅢󠅣󠄐󠅣󠅙󠅤󠅕󠄐󠅔󠅥󠄐󠅝󠅟󠅞󠅔󠅕󠄐󠄯 Hé bien, il contient peut-être un message secret que vous ne pouvez pas voir.

Non je ne suis pas devenu fou, c’est de la stéganographie Unicode et c’est le sujet de ma dernière vidéo.

L’idée c’est de planquer du texte invisible à l’intérieur de n’importe quel caractère grâce aux sélecteurs de variation Unicode. Ces petits caractères invisibles se glissent après un emoji et peuvent encoder un message complet. À l’oeil nu, vous voyez juste un smiley. Mais en réalité, y’a peut-être tout un paragraphe caché dedans.

Dans cette vidéo, je vous montre donc comment utiliser l’outil open source de Paul Butler pour encoder et décoder vos propres messages. On teste aussi si ChatGPT arrive à lire ces messages cachés et je vous explique les applications concrètes comme le watermarking de contenu ou l’envoi de messages discrets.

C’est une technique à la fois fun et utile à connaître, que ce soit pour protéger vos créations ou juste pour impressionner vos potes geeks.

J’ai tout expliqué en 13 minutes, accessible même si vous n’y connaissez rien en Unicode. Et un grand merci à mes soutiens sur Patreon sans qui rien ne serait possible !

Un système de fichiers compressé grâce à un LLM

Par :Korben
27 novembre 2025 à 13:02

Vous connaissez peut-être FUSE (Filesystem in Userspace), ce truc qui permet de créer des systèmes de fichiers custom sans toucher au noyau Linux. C’est grâce à lui notamment qu’on peut monter un Google Drive, un bucket S3 ou même un dossier distant via SSH comme un simple répertoire local.

Hé bien, Rohan Gupta a poussé ce concept jusqu’à l’absurde en créant LLMfuse, un système de fichiers où toutes les opérations sont gérées par un modèle de langage fine-tuné.

Ainsi, quand vous faites un ls, un chmod ou un cat sur ce filesystem, c’est un LLM qui répond et chaque opération FUSE devient une requête au modèle. Pour parvenir à ces fins, le développeur a entraîné un Qwen3-4B sur environ 15 000 paires prompt/completion générées à partir de simulations d’opérations filesystem. Le modèle a alors appris à lire le contenu des fichiers, modifier les métadonnées, et même à représenter l’arborescence complète en XML.

Bon, dit comme ça, ça ressemble à une expérience de savant fou un peu conne… Mais y’a un truc vraiment intéressant qui découle de tout ça. En effet, l’auteur a découvert que la combinaison du codage arithmétique avec son modèle fine-tuné permettait d’atteindre des taux de compression délirants. Sur un fichier texte classique, il obtient par exemple une compression 22 fois meilleure que gzip. Et pour une arborescence de fichiers représentée en XML, c’est environ 8 fois mieux que squashfs.

Alors comment c’est possible cette magie noire ? Bah ça remonte au théorème de Shannon de 1948 sur l’entropie où plus un modèle prédit bien les données, moins il faut de bits pour les encoder. Un LLM fine-tuné sur un type de données spécifique devient alors un compresseur hyper efficace pour ces données.

L’auteur est le premier à admettre que c’est une expérimentation, donc, pas de quoi vous emballer non plus… Après si vous souhaitez l’utiliser, vous avez besoin d’un GPU, que l’intégralité du système de fichiers tienne dans la fenêtre de contexte du modèle, et ça ne marche vraiment bien que sur des données textuelles. Pour vos vidéos 4K ou votre bibliothèque de jeux Steam, on repassera… snif…

D’ailleurs, le fait que lipsum.txt (le classique Lorem Ipsum) soit surreprésenté dans les données d’entraînement des LLM aide beaucoup à gonfler les chiffres de compression mais même sur d’autres types de textes “normaux” qui ressemblent à ce qu’on trouve sur Internet, les gains restent entre 5x et 20x par rapport à gzip.

Le code source est disponible sous licence MIT, avec notamment un utilitaire CLI appelé llmencode que vous pouvez tester en local si vous avez une bonne carte graphique sous la main.

Amusez-vous bien !

Source

HashJack - L'attaque qui met à mal les navigateurs IA

Par :Korben
27 novembre 2025 à 12:30

Les chercheurs de Cato Networks viennent de publier leurs travaux sur une nouvelle technique d’attaque baptisée HashJack, et l’idée c’est d’exploiter les fragments d’URL, vous savez le petit # suivi d’un truc à la fin des adresses web, pour injecter des instructions malveillantes dans les assistants IA intégrés aux navigateurs.

En temps normal, tout ce qui se trouve après le # dans une URL ne quitte jamais votre navigateur et c’est utilisé pour naviguer vers une section précise d’une page web, et les serveurs web ne voient jamais cette partie. Du coup, les outils de sécurité réseau non plus. Et c’est justement là que ça devient vicieux…

Car les assistants IA comme Gemini dans Chrome, Copilot dans Edge ou Comet de Perplexity ont accès à l’intégralité de l’URL, fragment compris. Un attaquant peut donc crafter une URL d’apparence légitime avec des instructions cachées après le #, et quand vous demandez à votre assistant IA de vous aider avec cette page, il va gentiment exécuter les commandes planquées. Cato Networks décrit ça comme la première injection de prompt indirecte capable de transformer n’importe quel site légitime en vecteur d’attaque.

D’après les tests de l’équipe de Cato, les scénarios d’attaque possibles sont variés puisque ça va du phishing classique où l’assistant vous donne un faux numéro de téléphone à appeler, à l’exfiltration de données vers des serveurs contrôlés par l’attaquant. Y’a aussi la désinformation avec de fausses infos boursières ou médicales, ou encore des instructions détaillées pour installer des backdoors.

Bref, c’est le jackpot pour les attaquants.

Niveau compatibilité de l’attaque, les trois principaux touchés sont Gemini pour Chrome, Copilot pour Edge et Comet de Perplexity. Bonne nouvelle quand même, Claude pour Chrome et Atlas d’OpenAI ne sont pas vulnérables, puisqu’iils n’accèdent pas directement aux fragments d’URL.

Côté réponse des éditeurs, c’est un peu le grand écart puisque Perplexity a classé le problème comme critique et a appliqué un correctif, Microsoft a fait pareil pour Copilot fin octobre mais par contre, Google a décidé de classer ça comme un “comportement attendu” et a marqué le bug en “Won’t Fix”.

Argh !! Donc si vous utilisez Gemini dans Chrome, vous êtes toujours exposé les amis !

Après faut relativiser quand même car l’attaque nécessite plusieurs étapes d’interaction de la part de l’utilisateur. C’est pas juste cliquer sur un lien et hop vous êtes pwned. Il faut visiter la page vérolée ET demander à l’assistant IA d’interagir avec le contenu. Mais bon, vu que de plus en plus de gens utilisent ces assistants pour des tâches quotidiennes, le risque existe.

D’ailleurs, HashJack s’inscrit dans une tendance plus large. Brave a publié une étude montrant que l’injection de prompt indirecte est un défi systémique pour toute la catégorie des navigateurs boostés à l’IA et des techniques similaires ont été testées avec succès contre Atlas de ChatGPT et d’autres. Même le CISO d’OpenAI admet que, je cite “l’injection de prompt reste un problème de sécurité non résolu à la frontière de la recherche”.

Voilà, si vous utilisez un Navigateur IA, soyez vigilant sur les URLs bizarres qu’on vous envoie et si c’est Gemini dans Chrome, peut-être qu’il vaut mieux attendre que Google se décide à considérer ça comme un vrai problème de sécu… ces fous !

Source

AIR SNES - Une Super Nintendo fonctionnelle intégrée dans une paire de Nike Air Max

Par :Korben
27 novembre 2025 à 11:34

Salut les boomers ! Je sais que vous jouez comme des pieds aux jeux vidéo, mais est-ce que vous avez déjà rêvé de jouer aux jeux vidéo avec vos pieds ?

Perso, moi, non. Mais Gustavo Bonzanini , un designer basé à Singapour, l’a quand même fait. Pour célébrer les 35 ans du lancement de la Super Nintendo au Japon, il a créé l’AIR SNES. C’est une paire de Nike Air Max 90 customisées avec une console SNES entièrement fonctionnelle intégrée dedans.

Le mec s’est dit “les collabs entre marques de sneakers et jeux vidéo c’est cool, mais ce serait pas encore plus cool si les chaussures qui ressemblent à des consoles étaient vraiment des consoles ?”.

Ah les artistes 🤪 !

Résultat, un Raspberry Pi Zero W qui tourne sous RetroPie, planqué dans la languette de la basket, et hop, ça va faire le tour du monde !

Niveau specs, on a donc une autonomie d’environ 30 minutes de jeu (oui c’est court, mais c’est une chaussure les gars), un port HDMI intégré pour brancher sur une télé, plus un petit convertisseur RCA pour les écrans vintage. Et côté manettes, ça supporte les pads SNES originaux mais aussi les kits 8BitDo pour du sans fil via le Bluetooth.

Parce que jouer avec des fils qui sortent de sa basket, c’est moyen pratique quand même. Et si vous vous demandiez, oui, c’est vraiment jouable. Le designer a montré des vidéos où il fait tourner Donkey Kong Country sur son pied. C’est clairement un projet artistique complètement barré, et pas un produit commercial viable et c’est exactement pour ça que c’est génial !

Malheureusement c’est une pièce unique, donc c’est pas à vendre sauf si vous êtes prêts à poser quelques millions sur la table car tout homme a un prix (surtout les artistes ^^, rooh ça va je plaisante !!). Donc si vous voulez impressionner vos potes au prochain tournoi rétrogaming en sortant une console de votre pompe, va falloir apprendre à bricoler vous-même parce que n’est pas Bernard Arnault qui veut…

Source

Meshy 6 - La génération de modèles 3D par IA atteint un niveau sculptural

Par :Korben
27 novembre 2025 à 11:10

Je viens de tester Meshy et leur nouveau modèle Meshy 6 dispo en preview est très impressionnant ! Donc je ne pouvais pas passer à côté d’un petit article sur mon site. Pour vous faire un topo rapidos, c’est un générateur de modèles 3D par IA qui permet de créer des assets 3D à partir d’une image, d’une photo, d’un assemblage de plusieurs images ou simplement d’une description textuelle (un prompt quoi). Et le résultat est foufou !

Meshy 6 Preview a été lancé mi-octobre et c’est un bond qualitatif énorme par rapport à la version précédente. On parle de détails au niveau “sculptural”, avec des surfaces plus riches, des structures géométriques plus précises, des expressions plus réalistes pour les personnages. Pour les modèles hard-surface (objets mécaniques, architecture…), les bords sont également plus nets et les formes plus claires.

Concrètement vous uploadez une image ou vous tapez une description, et en quelques secondes vous avez un modèle 3D exploitable. Y’a aussi une fonction de texturing IA qui permet de coloriser vos modèles ou d’appliquer la texture de la photo que vous avez uploadée. C’est vraiment bien foutu et vous pouvez même générer des images multi-angles avant la conversion 3D pour un résultat plus précis, ou faire du batch processing pour créer jusqu’à 10 assets d’un coup.

Côté exports, tous les formats standards sont supportés : GLB, FBX, OBJ, STL, USDZ, BLEND… avec les PBR maps (Diffuse, Roughness, Metallic, Normal) pour une intégration directe dans vos outils de prod. Y’a même du rigging automatique et une bibliothèque de plus de 500 animations pour les personnages.

Maintenant le hic c’est qu’en mode gratuit (100 crédits/mois), vous pouvez générer des modèles mais pas les télécharger (en tout cas avec Meshy 6). C’est un peu frustrant mais si vous allez fouiller dans la console développeur de votre navigateur, vous pouvez facilement récupérer le fichier .glb qui est chargé pour la prévisualisation. Ensuite vous le convertissez en STL ou autre format si ça vous amuse. Je dis ça, je dis rien… ^^

Pour ceux qui veulent faire les choses proprement, y’a également un plan Pro à 20$/mois et un plan Studio à 60$/mois avec tous les exports débloqués. La boîte cartonne avec 15 millions de dollars de revenus annuels, 5 millions d’utilisateurs et plus de 40 millions de modèles générés. Ils sont clairement devenus la référence du marché 3D GenAI.

Bref, que ce soit pour du prototypage rapide, du jeu vidéo, de l’impression 3D ou juste pour vous amuser, Meshy 6 vaut vraiment le coup !

Encore merci à Bot_0x pour la découverte !

La plateforme de création de jeux s&box passe en open source !

Par :Korben
27 novembre 2025 à 10:58

Vous vous souvenez de Garry’s Mod ? J’en ai parlé y’a loooongtemps !! C’est ce bac à sable complétement dingue où on pouvait faire absolument n’importe quoi avec le moteur Source de Valve.

Eh bien bonne nouvelle les amis, puisque Facepunch, le studio derrière Garry’s Mod (et aussi les créateurs de Rust), vient de frapper un grand coup en passant s&box en open source sous licence MIT.

S&box est une plateforme de création de jeux construite sur Source 2 (le moteur de Half-Life: Alyx et Counter-Strike 2) combiné avec .NET 10. Le truc, c’est que contrairement à Unity ou Unreal où vous créez votre jeu dans votre coin, s&box adopte un modèle plus proche de Roblox. Vous créez des “expériences” jouables directement via la plateforme, avec un launcher qui permet aux joueurs de découvrir et rejoindre les créations de la communauté.

Côté technique, c’est du lourd puisque tout le code haut niveau est en C# : l’éditeur, le networking, le système de scènes, l’UI… Ils ont même implémenté un système de hotload qui permet de modifier son code et voir les changements instantanément sans recompiler. Pour les créateurs de contenu, y’a l’éditeur Hammer (les vétérans de Source connaissent..), un système de terrain, ActionGraph pour le scripting visuel, et ShaderGraph pour les shaders custom.

Bien sûr, si le code de s&box est sous licence MIT et donc librement réutilisable, le moteur Source 2, lui, reste propriétaire à Valve donc vous pouvez contribuer au projet, le forker, l’analyser… mais vous restez quand même dépendants de Valve pour le cœur du moteur.

Mais en tout cas, vu ce qu’ils ont fait avec Garry’s Mod (qui reste un des jeux les plus joués sur Steam, 20 ans après sa création), y’a moyen que s&box devienne un terrain de jeu assez énorme pour les créateurs !

Source

Spiral Betty transforme vos photos en spirales hypnotiques

Par :Korben
27 novembre 2025 à 10:48

Vous connaissez ces dessins où une seule ligne continue forme un visage ou un portrait ? Hé bien c’est exactement ce que fait Spiral Betty , un petit outil en ligne gratuit qui convertit n’importe quelle photo en spirale artistique.

Vous uploadez une image, vous la cadrez dans un cercle, et l’outil génère une spirale unique dont l’épaisseur varie pour reproduire les contrastes de votre photo. Ça fait donc une seule ligne qui part du centre et s’enroule jusqu’au bord, avec des variations d’épaisseur qui font apparaître votre image comme par magie.

L’idée est en fait inspirée d’une technique du 17ème siècle quand Claude Mellan , un peintre et graveur français, avait créé une œuvre célèbre appelée “ Sudarium of Saint Veronica ” représentant le visage du Christ avec une seule ligne en spirale partant de la pointe du nez. Spiral Betty démocratise donc cette technique et vous permet de faire pareil avec la tête de votre chat, votre tronche ou celle de belle-maman.

Pour que ça rende bien, faut quand même respecter quelques règles. L’image doit être simple avec un bon contraste, pas trop de détails fins, et idéalement un gros plan de visage (humain ou animal) qui rentre bien dans un cercle. Si vous balancez une photo de groupe ou un paysage chargé, le résultat sera illisible.

Une fois votre spirale générée, vous pouvez ajuster le nombre d’anneaux avec un curseur. Plus y’a de spirales, plus y’a de détails… mais aussi plus c’est fin à découper si vous voulez en faire quelque chose de physique. D’ailleurs, pas mal de gens utilisent ça avec des machines de découpe type Cricut pour faire des stickers en vinyle ou des décorations.

Et justement, ça ouvre des possibilités sympas niveau DIY car on peut imaginer découper ça au laser, l’imprimer en 3D en relief, en faire des dessous de verre, des cadres déco…etc. Le format SVG que génère l’outil se prête bien à ce genre de bidouilles.

Voilà, le site est gratuit et y’a aussi des apps mobiles si vous préférez faire ça sur votre téléphone.

Merci à Bot_0x pour l’info !

AltSendme - Pour transférer vos fichiers en P2P

Par :Korben
27 novembre 2025 à 09:53

Marre de passer par WeTransfer ou Google Drive pour envoyer un fichier à quelqu’un ? Bah ouais, faut se créer des comptes, attendre que ça upload sur un serveur tiers, et puis est ce que vous savez ce qu’ils font réellement de vos données ?

Ça tombe bien alors car AltSendme est fait pour vous ! C’est un fork

C’est une application desktop open source (sous licence AGPL-3.0) qui permet d’envoyer des fichiers directement d’un ordi à un autre en peer-to-peer. Pas de serveur intermédiaire, pas de stockage cloud, pas de compte à avoir, vous déposez simple votre fichier sur l’app et celle-ci génère un code de partage (un “ticket”) que vous devez ensuite envoyer à votre destinataire par le moyen de votre choix (mail, SMS, chat, pigeon voyageur…), et le transfert se fait en direct !

Le truc cool avec AltSendme c’est que ça utilise, tout comme SendMe , la techno Iroh pour le networking P2P avec du QUIC + TLS 1.3 pour le chiffrement. Donc vos fichiers sont chiffrés de bout en bout et ne transitent jamais par un serveur tiers. Et si la connexion directe entre les deux machines n’est pas possible (becoz du NAT un peu capricieux), l’app fait du hole punching automatique et peut basculer sur un relais chiffré en fallback.

Côté performances, ça peut monter jusqu’à 4 Gbps en théorie ce qui est pas mal pour du P2P. Et si votre connexion saute en plein transfert, pas de panique les amis puisque les téléchargements peuvent reprendre là où ils en étaient.

L’application est dispo sur Windows, macOS et Linux et le code est sur GitHub . Y’a même une interopérabilité possible avec l’outil CLI sendme pour ceux qui préfèrent le terminal. Notez aussi que le dev accepte les dons via Buy Me a Coffee ou GitHub Sponsors si vous voulez soutenir le projet.

Bref, si vous cherchez une alternative à WeTransfer qui respecte votre vie privée et qui ne fait pas transiter vos fichiers par des vilains serveurs d’américains, AltSendme vaut le détour !

Merci à Lorenper pour la découverte !

Il installe iOS 6 sur un iPod touch 3

Par :Korben
27 novembre 2025 à 07:42

Vous vous souvenez des vieux iPod touch ? Je dois encore en avoir un qui traine au fond d’un tiroir et malheureusement, l’iPod touch de 3ème génération, sorti en 2009, n’a jamais officiellement reçu iOS 6 puisqu’Apple a décidé de le laisser sur le bord de la route avec iOS 5.1.1. Snif c’est pas gentil ! Mais c’était sans compter sur NyanSatan , un dev qui vient de prouver que c’était parfaitement possible faire tourner iOS 6 dessus.

Le projet s’appelle SundanceInH2A et l’idée bien que tordue est géniale, vous allez voir. En effet, l’iPod touch 3 partage quasiment le même hardware que l’iPhone 3GS qui, lui, a eu droit à iOS 6 officiellement. C’est la même famille de puces (S5L89xx), une architecture proche et donc on peut se demander pourquoi Apple n’a pas voulu le support si c’était aussi similaire. Probablement une histoire de segmentation marketing, mais bon, bref, passons…

La manip c’est donc de prendre le firmware iOS 6 de l’iPhone 3GS et de le transplanter sur l’iPod touch 3. Mais ça implique de modifier pas mal de trucs : le DeviceTree (la carte d’identité matérielle du device), le kernelcache (le noyau + toutes ses extensions), le bootloader iBoot, et même des morceaux du système comme le dyld shared cache.

Le plus technique dans l’histoire, c’est la reconstruction du kernelcache car l’iPod touch 3 avait des builds internes d’iOS 6 avec un noyau compatible, mais les kexts (extensions kernel) n’étaient pas tous présents. Du coup, NyanSatan a dû utiliser un outil Apple non public appelé kcgen pour reconstruire tout ça proprement. Et pour installer ce firmware modifié sans que l’appareil refuse de démarrer, il a exploité une faille HFS+ dans le bootloader d’iOS 5, permettant un jailbreak untethered.

Cette restauration prend alors environ 5 minutes et vous vous retrouvez sur l’écran de configuration d’iOS 6. Bon après, faut pas s’attendre à des miracles niveau utilisation quotidienne car iOS 6 date quand même de 2012 ce qui fait que la plupart des services en ligne (y compris ceux d’Apple) ne fonctionnent plus. Mais pour les collectionneurs et les curieux de l’archéologie iOS, c’est un exploit technique sympa !

Et NyanSatan a tout documenté ici en détails. Les firmwares des coprocesseurs (Wi-Fi, Bluetooth, multitouch) viennent d’iOS 5.1.1, le SpringBoard a été patché pour fusionner les capacités des deux versions, et même le démon FairPlay a été modifié pour permettre l’activation et NyanSatan envisage d’étendre ça à l’iPad 1, un autre appareil qu’Apple avait laissé aussi sur le carreau…

Son code est dispo sur GitHub pour ceux qui veulent tenter l’aventure mais attention quand même, c’est potentiellement dangereux pour votre appareil. Mais bon, après si vous avez un iPod touch 3 qui prend la poussière, vous ne risquez pas grand chose…

Source

Gradio 6 débarque pour créer des interfaces encore plus fluides

Par :Korben
27 novembre 2025 à 07:30

Si vous bidouiller un peu de machine learning et que vous avez la flemme de coder une interface web from scratch pour montrer vos jolis modèles, vous connaissez probablement Gradio , cette librairie Python qui permet de créer des démos interactives en quelques lignes de code.

Hé bien, excellente nouvelle, la version 6 vient de sortir et elle apporte pas mal de nouveautés intéressantes.

La grosse news de cette mise à jour , c’est d’abord la refonte complète de l’architecture avec le passage à Svelte 5 . Pour ceux qui s’en fichent du frontend, ça veut dire concrètement que vos apps seront plus légères et plus rapides à charger. L’équipe a aussi bossé sur l’optimisation des files d’attentes (quand y’a du monde sur votre démo), surtout pour les serveurs MCP (Model Context Protocol), donc si vous hébergez des trucs sur Hugging Face Spaces, vous devriez sentir la différence.

Côté fonctionnalités, y’a aussi quelques ajouts sympas comme le support natif des sous-titres pour les vidéos et l’audio, une nouvelle interface “MultimodalTextbox” améliorée pour le mobile (qui était franchement pas terrible avant), et pour ceux qui font des apps multipages, y’a maintenant un composant “Navbar” dédié à ça !

Le truc qui va plaire aux devs aussi, c’est qu’on peut désormais écrire des composants web personnalisés directement en HTML/JavaScript inline dans le code Python. Comme ça, plus besoin de sortir l’artillerie lourde avec des outils de build externes. Vous collez juste votre HTML, votre JS, et c’est parti mon kiki.

Par contre, attention si vous avez des projets existants… Y’a des changements qui vont casser des trucs. Par exemple, le format tuple dans le Chatbot a été supprimé, le composant Sketch est déprécié, et pas mal de paramètres ont bougé dans les composants graphiques natifs. L’équipe a quand même prévu un guide de migration avec des warnings de dépréciation pour vous aider à faire la transition.

A partir de maintenant, seule la branche 6.x sera maintenue, donc si vous êtes encore sur une vieille version, c’est le moment de migrer. La mise à jour se fait classiquement avec un

pip install --upgrade gradio

Notez que Gradio 6 nécessite Python 3.10 minimum et le support de Python 3.14 a été ajouté pour vous, les early adopters ^^.

Voilà, si vous faites du ML ou autre et que vous voulez montrer vos démos sans vous prendre la tête avec du React ou du Vue, Gradio reste une valeur sûre, et avec cette version 6 qui arrive, ce sera encore plus fluide et rapide !

Source

South Park en Super Panavision 70

Par :Korben
27 novembre 2025 à 07:17

Le concept ici c’est de prendre la série animée trash de Trey Parker et Matt Stone et de la transformer en film d’époque grâce à l’IA. Ça commence donc de manière assez réaliste avec les personnages principaux en version live-action rétro avec une petite voix off à l’ancienne… puis ça part complètement en vrille quand on arrive à Mr. Garrison, Satan et Mr. Hankey (mon préféré).

Et pour ceux qui se demandent, le Super Panavision 70 c’était le format cinéma panoramique haute résolution utilisé pour les grandes productions hollywoodiennes dans les années 50-70 pour Ben-Hur, 2001 l’Odyssée de l’espace, ce genre de trucs épiques.

Maintenant, appliquez ça à South Park et ses personnages bien trash et vous aurez quelque chose de très sympa ! La chaîne Abandoned Films qui a produit ce clip s’est spécialisée dans ce genre de contenus rétro générés par IA donc si vous aimez, vous pouvez aller voir le reste de leur contenu.

C’est le genre de trucs qu’on regarde à 2h du mat’ (ou à 7h du mat comme moi) en se demandant comment on est arrivé là dans sa vie ^^.

La Chine va peut-être interdire les poignées de porte rétractables des voitures

Par :Korben
27 novembre 2025 à 07:05

Vous voyez ces poignées de porte toutes lisses qui s’escamotent dans la carrosserie pour faire genre “je suis une voiture du futur” ? C’est ce qu’il y a sur les Tesla et sur les Ioniq 5 . Hé bien la Chine en a marre de ce design qui privilégie le look au détriment de la sécurité, et a décidé d’agir !

En effet, les régulateurs chinois planchent sur une interdiction pure et simple des poignées entièrement rétractables dès juillet 2027. L’idée c’est d’imposer un système de secours mécanique sur toutes les bagnoles, parce que oui, quand votre voiture électrique prend feu et que le système électronique tombe en rade… Bah bonne chance pour sortir mes petites merguez !

Le problème n’est pas nouveau, mais les drames s’accumulent. Plusieurs passagers de Tesla sont morts brûlés vifs après des accidents parce que les portes refusaient de s’ouvrir et en novembre 2024, cinq personnes sont décédées dans un Model S au Wisconsin après avoir percuté un arbre… Les témoins ont entendu leurs cris durant 5 minutes. Horrible ! Et dernièrement, en Californie, trois ados sont morts carbonisés dans un Cybertruck la veille de Thanksgiving. Les poignées électroniques avaient cramé avec le reste.

Heureusement, le NHTSA (le régulateur américain) a enfin ouvert les yeux et demande des comptes à Tesla avant le 10 décembre. L’enquête qui visait 174 000 Model Y s’étend maintenant à d’autres modèles, ce qui est parfaitement normal et rassurant vu qu’ils ont déjà recensé au moins 9 cas de personnes coincées à l’intérieur pendant que des passants tentaient de casser les vitres pour les sortir.

Et le pire dans cette technologie de poignées du tur-fu, c’est que le gain aérodynamique est ridicule. Selon les ingénieurs , une réduction de 0,01 du coefficient de traînée, ça économise à peine 0,6 kWh pour 100 km… Soit que dalle. En plus, le surpoids des moteurs et mécanismes (7-8 kg) annule quasiment ce maigre bénéfice. Voilà, tout ça pour pouvoir dire que sa caisse fait 0,23 au lieu de 0,24 de Cx (C’est le coefficient de traînée aérodynamique).

Franz von Holzhausen, le designer en chef de Tesla, a admis à Bloomberg qu’ils bossent sur un redesign pour rendre les poignées “plus intuitives pour les occupants en situation de panique”. Youpi !

La bonne nouvelle c’est que les poignées semi-rétractables resteraient autorisées en Chine , du moment qu’elles ont un backup mécanique. Volkswagen a toujours opté pour ce compromis, et Audi propose désormais un câble rouge de secours qui se déploie automatiquement en cas de crash. Comme quoi, c’était pas si compliqué.

Voilà… On n’est encore sûr de rien mais si la Chine passe cette loi, y’a de grandes chances que ça impacte les designs mondiaux… Pas le choix quand on veut vendre sur le plus gros marché automobile de la planète. Mais quoiqu’il en soit, je trouvais que c’était une bonne nouvelle pour la sécurité de tout le monde !

Source

Necroprinting - Des trompes de moustiques recyclées en buses pour imprimante 3D

Par :Korben
26 novembre 2025 à 19:55

Bon alors là on atteint un niveau de chelou assez exceptionnel. Des chercheurs ont eu l’idée d’utiliser des trompes de moustiques morts comme buses pour faire de l’impression 3D haute résolution. Et ils ont baptisé ça le “necroprinting”… gloups !

Le principe c’est que la trompe du moustique (le proboscis pour les intimes) est une structure naturelle incroyablement fine, optimisée par des millions d’années d’évolution pour pénétrer la peau et aspirer le sang. Niveau précision, c’est donc du costaud et cette buse biologique serait 100% plus fine que les meilleures buses fabriquées par l’homme.

Du coup, l’avantage est triple : c’est ultra-fin (donc impression haute résolution), c’est pas cher (les moustiques morts c’est gratuit), et c’est biodégradable. Dans un monde où on cherche des alternatives durables aux composants industriels, recycler des insectes morts pour faire de l’impression 3D de précision, c’est créatif, je trouve.

Les chercheurs affirment ainsi obtenir des résultats extrêmement fins avec cette technique. Ce sont des résolutions difficiles à atteindre avec les équipements conventionnels et même si c’est cool, niveau production industrielle, je vois mal comment ça pourrait scaler. Faudrait élever des moustiques pour les tuer et récupérer leurs trompes, et ça me paraît un peu fastidieux comme chaîne d’approvisionnement. Mais bon, pour de la recherche en labo ou des applications très spécifiques nécessitant une précision extrême, pourquoi pas…

Voilà, la prochaine fois que vous éclaterez un moustique qui s’approche trop près de votre oreille, pensez à tout ce que vous pourriez imprimer avec son petit corps sans vie. Snif.

Source

Signal propose enfin des sauvegardes chiffrées sur iOS

Par :Korben
26 novembre 2025 à 18:59

Une grosse lacune de Signal sur iPhone c’est qu’il était impossible de sauvegarder proprement son historique de messages. Par exemple, si vous changiez de téléphone ou si vous deviez réinstaller l’app, pouf, tout disparaissait.

Hé bien maintenant c’est terminé puisqu’ils viennent de lancer les Secure Backups sur iOS avec la version 7.86.

Techniquement, rien de magique, c’est simplement une sauvegarde chiffrée de bout en bout de tous vos messages et médias, protégée par une clé de récupération de 64 caractères générée localement. Et comme cette clé n’est jamais partagée avec les serveurs de Signal, cela veut dire que personne (même pas Signal) ne peut lire ou restaurer vos données sans elle. Les fichiers médias sont même chiffrés deux fois et modifiés pour masquer leur taille. Bref, du costaud niveau sécu.

Maintenant côté pratique, y’a deux formules. La version gratuite vous permet de stocker jusqu’à 100 Mo de messages texte, plus les photos, vidéos et fichiers des 45 derniers jours. Et si ça vous suffit pas parce que vous êtes un salop de riche ^^, y’a une offre payante à 1,99$/mois qui débloque le stockage de tout votre historique de messages plus jusqu’à 100 Go de médias sans la limite des 45 jours.

C’est d’ailleurs la première fois que Signal propose un truc payant donc ça va encore whiner chez les radins, mais l’idée c’est de couvrir les coûts de stockage des gros fichiers médias sans passer par la pub ou la revente de données. Bref, c’est cohérent.

Maintenant, pour activer tout ça, c’est hyper simple ! Vous allez dans Réglages > Sauvegardes > Configurer > Activer les sauvegardes. Et voilà… L’app génèrera votre clé de récupération, vous choisissez votre formule, et c’est parti mon kiki.

Signal avait déjà lancé cette fonctionnalité sur Android en septembre dernier et pour la suite, ils prévoient d’étendre les sauvegardes sécurisées à l’application desktop et de permettre le transfert d’historique chiffré entre Android, iOS et desktop. Cool non ?

Bref, si vous utilisez Signal sur iPhone, mettez à jour et activez les sauvegardes parce que perdre des années de conversations et tous les contacts de votre cartel pour un changement de téléphone, c’est vraiment pas cool ^^.

Source

Chat Control - 3 ans de débats pour accoucher d'un truc qui ne sert à rien

Par :Korben
26 novembre 2025 à 18:44

Vous vous souvenez de Chat Control ? Ce projet de règlement européen qui voulait scanner tous vos messages privés pour détecter des contenus pédocriminels ? J’en avais parlé à l’époque et je m’étais bien énervé dessus. Hé bien après plus de 3 ans de négociations, de votes ratés, de blocages par l’Allemagne , les Pays-Bas et l’Autriche… le Conseil de l’UE a enfin trouvé un accord.

Et devinez quoi ? Bah c’est du vent.

Le grand compromis trouvé ce 26 novembre c’est donc de rendre le scanning… (roulements de tambours)… volontaire ! Oui, oui, volontaire. Ainsi, au lieu d’obliger toutes les messageries à scanner vos conversations, on leur demande gentiment si elles veulent bien le faire et en parallèle, on prolonge indéfiniment l’exemption qui permet déjà aux plateformes de scanner volontairement sans violer les lois européennes sur la vie privée. Je rappelle quand même que exemption devait expirer en avril 2026… Hé bien là, elle devient permanente.

Alors oui, techniquement c’est moins pire que le projet initial, mais quand même 3 ans de réunions à se tripoter la nouille, à payer des salaires, à faire des notes de frais, à bailler aux corneilles et j’en passe, pour nous pondre un magnifique “Bon ben finalement on change rien, les entreprises font ce qu’elles veulent”, je trouve ça magistral !

Et le pire c’est que même ce compromis light fait tiquer les experts en vie privée car quelques jours avant l’accord, un groupe de scientifiques a envoyé une lettre ouverte prévenant que le texte “présente toujours des risques élevés pour la société” sans bénéfices clairs pour les enfants. Les associations de défense des droits numériques dénoncent en fait une ruse politique car le texte mentionne que seront bonnes “toutes les mesures appropriées d’atténuation des risques” ce qui est une formulation suffisamment vague pour permettre aux gouvernements de dire plus tard que le scanning est essentiel pour la sécurité.

D’ailleurs Signal avait prévenu que si le scanning devenait obligatoire, ils quitteraient le marché européen plutôt que de compromettre le chiffrement de leurs utilisateurs. Bon au final c’est pas arrivé, mais ça donne une idée de l’ambiance.

Voilà, maintenant le Conseil va négocier avec le Parlement européen et les trilogues (les négociations finales) sont prévus début 2026, donc on n’a pas fini d’en entendre parler.

Et voilà comment se passent 3 ans de cirque bureaucratique pour revenir au point de départ ^^.

Source

❌