Les 12 meilleures applications iPhone pour tenir vos bonnes résolutions 2026
![]()
![]()
![]()
![]()
Vous avez remarqué comme Google est devenu pénible ces derniers temps ? Entre les "AI Overviews" qui vous pondent des résumés à côté de la plaque, les panneaux shopping qui envahissent la moitié de l'écran, et les carrousels de vidéos TikTok dont tout le monde se fiche... on en viendrait presque à regretter le Google de 2010. Eh bien figurez-vous qu'il existe un code secret, une sorte de Konami Code du web, qui permet de retrouver un Google propre et fonctionnel : **&udm=14**.
Ce petit paramètre que vous pouvez ajouter à vos recherches Google (du genre google.com/search?q=votre+recherche&udm=14), c'est le ticket magique vers le filtre "Web" de Google. Concrètement, ça vire une bonne partie du bazar... plus d'aperçus IA hallucinés, plus de "Autres questions" qui prennent trois écrans, plus de carrousels vidéo. Bon, les pubs restent là (faut pas rêver), mais au moins vous retrouvez des liens bleus comme au bon vieux temps.
Avant :
Le truc c'est que Google ne documente pas ce paramètre. Pas de page d'aide, pas d'option dans les settings, rien. C'est la communauté qui a découvert le pot aux roses, et depuis ça se répand comme une traînée de poudre. Le site udm14.com propose même un redirecteur qui ajoute automatiquement le paramètre à vos recherches (attention quand même, comme tout proxy, il peut techniquement voir vos requêtes). Les créateurs l'appellent le "disenshittification Konami code", en référence au concept de Cory Doctorow sur la dégradation des plateformes.
Pour ceux qui veulent automatiser le truc, il existe plusieurs solutions. Sur Firefox, l'extension
&udm=14
fait le job en un clic. Sur Chrome, vous avez l'équivalent sur le
Web Store
. Sinon, vous pouvez simplement modifier votre moteur de recherche par défaut dans les paramètres du navigateur en ajoutant &udm=14 à l'URL de recherche.
Après :
Perso, je trouve ça assez révélateur de l'état actuel de Google... Quand tes utilisateurs doivent bidouiller des paramètres cachés pour retrouver une expérience de recherche décente, c'est qu'il y a un problème. Les "AI Overviews" sont régulièrement épinglés pour leurs réponses à côté de la plaque, parfois carrément dangereuses (genre conseiller de mettre de la colle sur la pizza , véridique). Et au lieu de nous donner une option officielle pour les désactiver, Google préfère nous gaver de contenus sponsorisés et de résumés générés par IA.
D'autres valeurs du paramètre udm existent d'ailleurs. &udm=2 donne les résultats images, &udm=7 les vidéos. Mais c'est bien le 14 qui est devenu le symbole de la résistance contre la "shittification" de Google.
Bref, si comme moi vous en avez marre de scroller trois écrans avant de trouver un vrai lien vers un vrai site (au hasard vers mon site. ^^), testez &udm=14. C'est gratuit, ça marche, et ça rend Google presque aussi bon qu'avant.

Ah, Atom... Si vous avez connu l'éditeur de code de GitHub à l'époque, vous savez de quoi je parle. C'était le premier éditeur vraiment moderne, hackable à souhait, avec une communauté de dingues qui créait des extensions pour tout et n'importe quoi. Et puis Microsoft a racheté GitHub, et Atom a fini au cimetière des projets open source en 2022. RIP.
Sauf que les créateurs d'Atom n'ont pas dit leur dernier mot. Nathan Sobo et son équipe ont décidé de repartir de zéro pour créer Zed , un éditeur de code qui corrige toutes les erreurs du passé. Et quand je dis « de zéro », c'est vraiment from scratch, en Rust cette fois, et pas en Electron \o/.
Zed en action
Et ce qu'on obtient, c'est un éditeur qui démarre en quelques millisecondes et qui reste fluide même quand vous ouvrez des projets monstrueux. Là où VS Code commence à ramer sur un gros monorepo, Zed reste stable. C'est pas de la magie, c'est juste du code natif bien optimisé avec un moteur de rendu GPU custom (GPUI pour les intimes).
Mais le truc qui m'a vraiment intrigué, c'est leur concept de « Zed is our office ». En gros, l'équipe de développement de Zed n'a pas de bureau physique. Leur bureau, c'est Zed lui-même. Ils bossent en permanence dans des « channels » partagés où ils peuvent coder ensemble en temps réel, se parler en audio, et voir les curseurs des autres se balader dans le code. C'est du pair programming poussé à l'extrême, et apparemment ça marche plutôt bien pour eux.
Du coup, la collaboration temps réel est au cœur du projet Zed. Vous pouvez inviter quelqu'un dans votre espace de travail, et hop, vous codez ensemble comme si vous étiez sur le même ordi. Chacun voit les modifications de l'autre instantanément, avec des curseurs colorés pour savoir qui fait quoi. Y'a même un système de « follow » pour suivre ce que fait votre collègue dans les fichiers. Pratique pour les reviews de code ou le debugging à plusieurs.
Côté IA, ils ont aussi intégré un assistant qui supporte Claude, GPT et même Ollama pour ceux qui veulent faire tourner des modèles en local. Vous pouvez alors discuter avec l'IA dans un panneau dédié, lui demander de générer du code, de l'expliquer ou de le refactorer. Rien de nouveau en soi (VS Code fait pareil avec Copilot), mais l'intégration est propre et l'assistant a accès au contexte de votre projet.
Pour le reste, c'est du classique mais bien fichu : coloration syntaxique via Tree-sitter (ultra rapide), support LSP pour l'autocomplétion et les diagnostics, terminal intégré, support Vim... Le thème par défaut est plutôt classe et les performances sont vraiment impressionnantes.
Le projet est open source sous licence GPL/AGPL/Apache, et la version de base est gratuite. Y'a aussi une offre payante pour les équipes qui veulent plus de fonctionnalités de collaboration, mais pour un usage perso, vous n'avez pas besoin de sortir la CB.
Bref, si vous en avez marre de voir VS Code bouffer 2 Go de RAM pour éditer trois fichiers, Zed mérite clairement un essai. C'est dispo sur macOS, Linux et Windows.
Merci à Lorenper pour le partage !

![]()
Après avoir fait chauffer les débats, le Ryzen 7 9800X3D fait cette fois chauffer les compteurs. L’équipe iGame OC de Colorful annonce 7335,48 MHz validés sur HWBOT, une barre symbolique pour une puce X3D réputée pour le jeu, pas pour l’overclocking.
D’après Colorful, le score a été établi par Hero, membre de l’équipe iGame OC, à 7335,48 MHz sur la nouvelle carte mère iGame X870E VULCAN OC. Pensée pour la fréquence pure, cette version OC ne propose que deux emplacements DDR5, comme la majorité des plateformes extrêmes du marché notamment la ROG X870E APEX.

Avec un score dépassant les 7 000 pour le processeur, la mémoire atteint ici 9 400 MT/s en CL30, une valeur particulièrement élevée qui illustre aussi le très haut niveau de performances de la DDR5 sur plateforme AM5 avec les Ryzen 9000.


La soumission figure dans la catégorie CPU Frequency de HWBOT, centrée sur le pic d’horloge et non sur la tenue en charge tous cœurs. Ces runs s’appuient sur des validations outillées et des captures, avec un réglage axé sur le spike de fréquence plutôt que la stabilité quotidienne. Concrètement, on parle le plus souvent d’un boost monocœur, parfois avec un seul DIMM DDR5 installé.



Le refroidissement à l’azote liquide est mentionné, sans surprise pour ce type de résultat. Les puces X3D n’offrent pas une large marge en tension, si bien que pousser aussi haut repose surtout sur un refroidissement extrême, un tuning serré et une plateforme capable d’encaisser des variations rapides de charge et de tension. Comme le rappelle la note d’accompagnement, « il s’agit d’une preuve de capacité, pas d’une promesse de performances en jeu ».
Ce record agit aussi comme démonstration des ambitions de la iGame X870E VULCAN OC, récemment lancée et orientée overclocking. Colorful la positionne face aux meilleures cartes X870E pour chasseurs de scores, même si les plus hautes fréquences absolues sur HWBOT dépassent déjà 9 GHz sur Core i9‑14900K (Raptor Lake), un autre univers.
À garder en tête : ce type de fréquence ne se traduit pas directement en gains ludiques. Il s’agit d’un instantané sous conditions extrêmes, utile pour jauger le potentiel de la plateforme et la qualité de l’implémentation VRM, BIOS et mémoire.
Source : VideoCardz
Ceux qui ont déjà essayé de faire de la musique sous Linux savent de quoi je parle. Configurer JACK, gérer les latences ALSA, prier pour que le plugin VST fonctionne... C'était un peu l'enfer, non ? Perso, j'ai abandonné plusieurs fois avant que PipeWire vienne tout simplifier.
Du coup, quand je suis tombé sur LinuxDAW.org , j'ai eu un petit moment d'émotion. C'est un catalogue visuel et bien foutu qui répertorie plein de plugins audio disponibles sous Linux : VST2, VST3, CLAP, LV2, standalone, et même des modules VCV Rack. Le site a été créé par fractalf (le code est sur Codeberg ) qui explique l'avoir créé simplement parce qu'aucun des sites existants ne répondait vraiment à ses besoins quand il a switché vers Linux.
Et ce qui me plaît ici, c'est que ce n'est pas un site puriste open source. Y'a du FOSS bien sûr (et un filtre dédié pour les trouver), mais aussi les plugins commerciaux de u-he, Toneboosters, Kazrog et compagnie. Parce que oui, de plus en plus d'éditeurs supportent Linux nativement maintenant.
Après c'est vrai qu'en cochant le filtre FOSS, on voit nettement la différence de qualité d'interface avec les plugins payants. Vous le savez car je m'en plains souvent, mais niveau design, les projets libres ont encore du chemin à faire... Mais bon, ça reste fonctionnel et gratuit, donc on va pas cracher dessus.
Bref, si vous êtes musicien et que vous envisagez de passer sous Linux (ou si vous y êtes déjà et que vous cherchez des outils), LinuxDAW.org c'est exactement ce qu'il vous faut. Y'a plus quà digger tout ça ! Et si ça vous amusez, vous pouvez même contribuer en ajoutant des plugins qui manqueraient au catalogue.

Si vous traînez dans les coins sombres de GitHub, vous êtes peut-être tombé sur SpotiFLAC, un outil qui promet de récupérer vos playlists Spotify en qualité FLAC.
Encore un truc qui va faire grincer des dents...
J'ai décortiqué le code source de ce projet pour comprendre techniquement comment c'était possible. Avec ce qu'a sorti Anna's Archive il y a quelques jours, j'étais curieux et je me suis dit que ça utilisait peut-être les mêmes ficelles. Alors j'ai récupéré les sources sur Github, et j'ai regardé ça d'un peu plus près.
Déjà, premier constat, SpotiFLAC ne cracke rien du tout. L'outil ne contourne pas directement le DRM de Spotify (qui, rappelons-le, proposait uniquement de l'Ogg Vorbis jusqu'en septembre 2025). Ce qu'il fait, en fait, c'est qu'il utilise l'API Spotify via des identifiants placés directement dans le code (oups) pour récupérer les métadonnées des morceaux, notamment les codes ISRC (International Standard Recording Code) qui servent à identifier chaque enregistrement.
Ensuite, via l'API song.link (un service légitime qui permet de trouver un morceau sur différentes plateformes), l'outil tente de retrouver le même morceau sur Tidal, Qobuz ou Amazon Music. Et c'est là que ça devient rigolo puisque le code contient également en dur des identifiants OAuth Tidal, et surtout des URLs vers des API tierces hébergées sur des domaines comme qqdl.site, yeet.su ou doubledouble.top.
Ces services tiers, c'est eux qui font le sale boulot. On ne sait pas exactement comment ils fonctionnent (comptes premium partagés ? Failles API ? Tokens détournés ?), mais SpotiFLAC n'est en réalité qu'un joli frontend qui leur envoie des requêtes et récupère des liens de téléchargement direct.
Niveau légalité, c'est donc évidemment un no-go complet, car utiliser des identifiants non autorisés, contourner des mesures de protection, télécharger du contenu protégé... Ça coche pas mal de cases du DMCA aux États-Unis et des directives européennes sur le droit d'auteur. Et non, le fait que vous ayez un abonnement Spotify ne change rien, malheureusement...
Je vous rappelle que Spotify a ENFIN lancé son audio lossless en septembre après plus de 4 ans d'attente depuis l'annonce de 2021 (fallait être patient... groumpf !). C'est donc du streaming FLAC intégré à l'app pour les abonnés Premium (dans la plupart des pays), ce qui veut dire qu'il n'y a plus vraiment de raison de pirater pour écouter vos playlists en haute qualité.
Puis si vous voulez aller plus loin dans le hi-res ou posséder vos fichiers, vous avez Qobuz qui existe depuis 1000 ans, qui coûte autour de 15€/mois, Tidal à environ 11€/mois, ou encore Apple Music qui propose du Spatial Audio et du lossless inclus dans l'abo standard. Bref, les alternatives légales y'en a, donc j'avoue que passer par ce genre de service c'est pas ouf... Et si c'est une question de fric, parce qu'on n'a pas tous les moyens, y'a toujours ce bon vieux torrent.
Après c'est quand même mieux je trouve d'aller choper directement vos albums sur Bandcamp ou sur les sites des artistes, ce qui leur permet de toucher une rémunération plus correcte... Puis ça vous permet de choper de vrais fichiers FLAC à vous. Ou alors vous achetez vos albums et vous les rippez pour ensuite sortir du FLAC avec XLD par exemple . Mais pirater via ce genre d'outils je vous conseille pas... Je préfèrerai cent fois mieux un outil qui exploiterait une faiblesse connue pour récupérer le fichier source, un peu comme on peut le faire avec Youtube-DL pour YouTube, que ce truc bizarre qui utilisent des identifiants premium tombés du camion via des sites proxy qui se trouvent on ne sait où...
Vous ne savez pas ce qu'il y a derrière, donc méfiance !

C’est le processeur que tout le monde s’arrache, celui qui trône au sommet des benchmarks gaming. Pourtant, le Ryzen 7 9800X3D se retrouve aujourd’hui au cœur d’une polémique après un témoignage inquiétant sur Reddit.
Un gérant de cybercafé affirme avoir perdu 15 processeurs en quelques mois sur une flotte de 150 machines. Simple série noire ou défaut de conception ? Avec un taux de défaillance estimé à près de 10 %, l’affaire a en tout cas suffi à provoquer une vague de réactions et à soulever de nombreuses interrogations.
L’histoire commence sur Reddit, où un administrateur de parc informatique tire la sonnette d’alarme. Depuis le déploiement de ses nouvelles configurations en mars 2025, le bilan est lourd : un CPU lâche toutes les une à deux semaines.
Avec un taux de panne avoisinant les 10 %, on sort largement des statistiques habituelles du secteur. Dans le milieu du hardware, un composant est jugé « problématique » dès qu’il dépasse les 2 ou 3 % de retours SAV. Ici, la répétition du phénomène pose question.
Lire aussi : Deux Ryzen 7 9800X3D grillés sur une carte ASRock
Selon le gérant, chaque PC repose sur une carte mère ASUS B650M-AYW WiFi, une alimentation Huntkey 850 W certifiée 80+ Gold et de la DDR5 cadencée à 5600 MT/s. Aucun overclocking revendiqué, pas de PBO activé, et des processeurs au format tray. Le BIOS utilisé daterait de septembre, sans mise à jour plus récente.

Sur le papier, rien d’extrême. Dans les faits, cette homogénéité devient un facteur clé : lorsqu’un problème apparaît, il se répète mécaniquement à grande échelle.
Très vite, le fil s’est scindé en plusieurs camps. Premier suspect pointé du doigt : l’alimentation. La certification Gold ne garantit que le rendement, pas la qualité de régulation ni la tenue face aux pics transitoires. Plusieurs intervenants évoquent aussi l’alimentation du bâtiment lui-même, rappelant qu’un cybercafé concentre des dizaines de machines générant des appels de courant brutaux et simultanés.
D’autres élargissent le débat au BIOS et aux tensions mémoire. VSOC, VDD et VDDQ sont mentionnées à plusieurs reprises, certains estimant que des valeurs trop élevées, même sans overclocking explicite, peuvent fragiliser les CPU X3D sur la durée si les profils mémoire ne sont pas parfaitement maîtrisés.
Lire aussi : Ryzen 7 9800X3D en feu : un nouvel utilisateur Reddit témoigne
Face à ces accusations, des voix opposées s’élèvent. Des gérants de cybercafés et intégrateurs affirment exploiter des flottes entières de machines basées sur le même Ryzen 7 9800X3D, sans rencontrer la moindre panne matérielle. Différences notables mises en avant : cartes mères plus robustes, alimentations de marques reconnues, BIOS systématiquement à jour et réseau électrique étudié en amont.
Un autre argument revient souvent : la surreprésentation d’AMD sur le marché actuel. Avec une majorité de nouvelles configurations basées sur Ryzen, il serait statistiquement logique de voir davantage de CPU AMD passer par les ateliers de réparation, sans que cela traduise un défaut structurel du produit.
Ce n’est pas la première fois que des processeurs X3D se retrouvent au centre de discussions similaires. Par le passé, AMD a évoqué des situations « complexes », liées à des implémentations BIOS ne respectant pas toujours strictement les recommandations de tension. Le fondeur a alors insisté sur l’importance des mises à jour de firmware et de profils mémoire conformes.
À ce stade, aucun élément ne permet d’établir un lien direct entre le Ryzen 7 9800X3D et un défaut intrinsèque. Aucune photo des processeurs défaillants n’a été publiée, aucun diagnostic matériel indépendant n’a été partagé.
Faut-il y voir un problème de CPU, de carte mère, d’alimentation ou de réseau électrique ? Probablement un mélange de plusieurs facteurs. Ce qui interpelle, en revanche, c’est le volume concerné et la régularité des pannes décrites. Dans un environnement aussi intensif qu’un cybercafé, la moindre faiblesse de conception ou de configuration est immédiatement amplifiée.
Pour l’instant, l’affaire reste un signal faible, mais suffisamment bruyant pour mériter l’attention. Si des preuves matérielles ou des analyses plus poussées émergent, le débat pourrait rapidement changer de dimension.
Aujourd’hui dans la Cuisine du Hardware, nous passons en test un AiO (watercooling tout-en-un) de chez MSI. En effet, nous avons ici sous la main le MPG CORELIQUID P13 360 qui utilise donc un radiateur 360 mm. Cette référence propose un écran, des ventilateurs CycloBlade 9, mais aussi un système de câble astucieux nommé […]
L’article Test : AIO MSI MPG CORELIQUID P13 360 est apparu en premier sur HardwareCooking.
Crise DRAM ou simple rationnement stratégique ? D’après DigiTimes, Samsung et SK Hynix accorderaient désormais une priorité d’approvisionnement aux géants comme Apple, ASUS, Dell et Lenovo. Un tri qui laisserait des acteurs plus petits face à des stocks incertains.
Le marché encaisse déjà des effets en chaîne : offres « apportez votre propre RAM » chez des assembleurs de PC sur mesure, rumeurs de report pour les prochaines consoles. Selon le média taïwanais, les fournisseurs de mémoire ajustent leur politique commerciale pour exploiter une capacité limitée, en réévaluant plus souvent les volumes et les tarifs. Une pratique qui favoriserait les marques grand public les plus visibles et leurs calendriers de lancement.

TechPowerUp rappelait récemment que les fabricants PC pourraient réviser prix, fiches techniques et dates de sortie d’ordinateurs portables et de smartphones. Les accords révisables recherchés par Apple, ASUS, Dell et Lenovo viseraient précisément à atténuer ces glissements. En filigrane, il semblerait que la priorité d’allocation accentue la fracture entre mastodontes et challengers. Comme le résume le rapport cité : « les fournisseurs réévaluent plus fréquemment les accords ».
D’après DigiTimes, ce pivot contractuel permet d’ajuster rapidement prix et volumes à la faveur des plus gros acheteurs, en priorité sur la DRAM. Conséquence probable : tension accrue pour les intégrateurs de niche, voire absence temporaire de modules mémoire à intégrer. Les offres BYO-RAM et les spécifications revues à la baisse pourraient se multiplier si la capacité reste contrainte.
Source : TechPowerUp
Vous utilisez Google Maps pour vos balades ou vos trajets en bagnole, comme tout le monde. Sauf que vous savez aussi bien que moi ce que ça implique... Google qui sait où vous êtes, où vous allez, à quelle heure vous bougez, et combien de temps vous passez chez votre nouvelle voisine (pas assez longtemps à son goût).
Mais bonne nouvelle les amis, y'a une alternative qui existe depuis un moment et qui mérite vraiment qu'on s'y intéresse. Ça s'appelle Organic Maps et c'est exactement ce que son nom suggère : des cartes propres, sans pesticides publicitaires ni tracking chimique.
Le principe est simple. Vous téléchargez les cartes des régions qui vous intéressent, et ensuite vous pouvez naviguer en mode 100% offline. Pas besoin de réseau, pas de connexion data qui se vide à l'étranger, rien. Votre téléphone devient un vrai GPS autonome, comme au bon vieux temps des Tomtom, mais en mieux.
Côté vie privée, c'est le jour et la nuit avec les apps classiques. Zéro pub, zéro tracking et surtout l'app a été vérifiée par Exodus Privacy Project et TrackerControl, donc c'est pas juste du blabla marketing. Même pas besoin de créer un compte pour l'utiliser, vous installez et hop c'est parti.
Pour les randonneurs et cyclistes, c'est là que ça devient vraiment sympa puisqu'Organic Maps affiche les courbes de niveau, les profils d'élévation, les sentiers de rando et les pistes cyclables. Y'a même un mode navigation turn-by-turn avec guidage vocal, et depuis 2024 le support Android Auto est dispo pour l'utiliser en voiture.
Les cartes viennent d'OpenStreetMap, donc c'est collaboratif et parfois plus à jour que ce qu'on trouve chez Google, surtout pour les petits chemins et les POI un peu obscurs. Perso, j'ai déjà trouvé des trucs sur OSM qui n'existaient même pas sur Maps, genre des fontaines d'eau potable en pleine montagne ou des refuges paumés.
L'app est dispo sur iOS , Android (y compris sur F-Droid pour les allergiques au Play Store), et même sur Linux en Flatpak . C'est open source sous licence Apache 2.0, donc vous pouvez aller fouiller le code si ça vous chante. Le projet est financé par des dons et des fondations comme NLnet, et pas par la revente de vos données de localisation.
Après la recherche est moins puissante que Google Maps, ce qui est normal vu qu'ils ont pas des milliards à claquer en IA. Et les infos de trafic en temps réel, bah y'en a pas. Mais pour de la rando, du vélo, ou même des trajets quotidiens quand on connaît un peu le coin, c'est largement suffisant.
Bref, si vous en avez marre de sentir le regard de Google dans votre dos à chaque déplacement, ou si vous voulez juste une app GPS qui marche sans réseau, foncez sur Organic Maps . C'est gratuit, et ça fait le taf !

J'arrête pas de lire en ce moment des articles sur des Américains de moins de 25 ans qui découvrent les cassettes audio et qui nous en font des tartines en mode "c'est trop génial". Ils sont mignons car biberonnés à Stranger Things, ils deviennent nostalgiques de cette époque des années 80 qu'il n'ont pas connu. Je comprends, c’était cool mais moi j'ai connu et je peux vous dire que la cassette audio, ça vaut pas un bon vieux FLAC en termes de qualité audio.
Après Spotify même s'il propose du lossless depuis peu, c'est pas non plus le top parce que bah faut payer l'abonnement et puis la musique ne nous appartient pas vraiment. Alors peut-être que, finalement, la voie de la sagesse, c'est celle qui consiste à se faire une collection de FLAC comme on le faisait à l'époque avec nos vieux MP3.
Et c'est pour ça qu'aujourd'hui je vous parle de HiFidelity qui va probablement vous faire plaisir.
C'est un lecteur audio pour macOS, totalement gratuit et open source, pensé pour les audiophiles qui en ont marre des usines à gaz bardées de trackers et d'abonnements. Le truc fonctionne 100% hors ligne, ne collecte aucune donnée, et utilise la bibliothèque BASS (celle qu'on retrouve dans plein de players pro) pour une lecture bit-perfect. Ça veut dire que vos fichiers audio sont lus tels quels, sans conversion ni dégradation.
Côté formats, c'est la totale : FLAC, WAV, AIFF, APE, MP3, AAC, OGG, OPUS, M4A... bref tout ce qui traîne dans une bibliothèque musicale bien fournie. Et pour les puristes, y'a même un mode "Hog" qui prend le contrôle exclusif de votre périphérique audio. En gros aucune autre app ne viendra polluer votre écoute avec ses petits bips de notifications.
L'interface est propre, avec navigation par artistes, albums, genres, et une recherche super réactive grâce à SQLite FTS5 , recommandations automatiques... Ah et le mini-player flottant est vraiment bien foutu pour bosser avec sa musique sans encombrer l'écran.
Perso, ce qui me plaît, c'est l'approche "local first" et avoir un lecteur qui fait juste... lire de la musique, ça fait du bien. Y'a même la synchro des paroles en temps réel via lrclib et un égaliseur multiband pour ceux qui aiment tripatouiller les fréquences.
Pour l'installer c'est simple... soit via Homebrew avec
brew tap rvarunrathod/tap && brew install --cask hifidelity
Soit en téléchargeant directement depuis GitHub . Faut macOS 14 minimum par contre.
Bref, si vous cherchez un lecteur audio qui respecte vos oreilles ET votre vie privée, HiFidelity mérite clairement le coup d'oeil. Merci à Lorenper pour la découverte !

![]()
![]()
![]()
MSI aime décidément jouer avec les symboles. À quelques jours du CES 2026, le constructeur vient de publier un teaser énigmatique qui ne laisse pourtant que peu de place au doute : la mythique gamme « Lightning » s’apprête à faire son grand retour. Une annonce qui ravive immédiatement l’intérêt des passionnés d’overclocking et de […]
L’article MSI tease du gros pour le CES : le retour des GeForce RTX « Lightning » est imminent est apparu en premier sur HardwareCooking.
![]()
Bon, faut qu'on parle un peu du moteur de recherche de mon site. Ceux qui l'ont déjà utilisé savent de quoi je parle : c'était pas terrible. Enfin, « pas terrible » j'suis gentil. C'est un espèce d'overlay avec des résultats certes fiables mais c'était vraiment pas pratique.
Et en plus de ça, comme j'ai un site statique généré avec Hugo, je passais par Algolia pour la recherche. Si vous ne connaissez pas, Algolia c'est un service cloud qui indexe votre contenu et vous fournit une API de recherche ultra-rapide. Sur le papier c'est génial et dans la pratique aussi d'ailleurs sauf que voilà, ça coûte des sous. Et mon site rencontre un franc succès ces derniers temps (merci à vous !), donc j'ai de plus en plus de visiteurs, donc de plus en plus de recherches, donc une facture Algolia qui grimpe gentiment chaque mois.
Du coup je me suis dit : « Et si je trouvais une solution de recherche pour sites statiques ? » Parce que oui, ça existe et c'est comme ça que j'ai découvert Pagefind.
Pagefind c'est donc un moteur de recherche statique open source développé par CloudCannon qui fonctionne comme ceci : Au moment du build de votre site, Pagefind parcourt tout votre HTML généré et crée un index de recherche qu'on peut interroger avec un peu de JS. Y'a donc plus d'API, et tout se fait localement sur le navigateur des internautes.
Bref, ça avait l'air très cool alors évidemment, je me suis lancé dans l'aventure et comme j'aime bien me compliquer la vie, j'ai décidé de pas juste intégrer Pagefind tel quel. Non non. J'ai voulu recréer l'interface du Google de 1998 parce que à quoi bon avoir son propre site web si on peut pas s'amuser un peu ^^.
Laissez-moi donc vous raconter cette aventure.
Leur service est excellent, je dis pas le contraire, la recherche est rapide, les résultats sont pertinents, l'API est bien foutue mais voilà, y'a le modèle de pricing puisque Algolia facture au nombre de requêtes de recherche.
Plus les gens cherchent sur votre site, plus vous payez et quand vous avez un site qui fait plusieurs millions de pages vues par mois, bah... ça chiffre vite. En gros je dépasse très vite les 10 000 recherches offertes chaque semaine et ensuite ça chiffre. C'est pas la mort, mais c'est un coût récurrent débile pour un truc qui pourrait être gratuit.
En plus de ça, y'a la dépendance à un service externe. Si Algolia tombe, ma recherche tombe. Et si Algolia change ses prix, je vais devoir subir. Même chose si Algolia décide de modifier son API... il faudra que j'adapte mon code. Bref, c'est le cloud dans toute sa splendeur... C'est pratique mais on n'est jamais vraiment chez nous.
Pagefind résout donc tous ces problèmes d'un coup. C'est un outil en ligne de commande qui s'exécute après votre générateur de site statique (Hugo dans mon cas, mais ça marche avec Jekyll, Eleventy, Astro, ou n'importe quoi d'autre).
Concrètement, vous lancez :
npx pagefind --site public
Et Pagefind va :
public/Et le résultat c'est un dossier pagefind/ qui contient tout ce qu'il faut. Ensuite; à vous de servir ces fichiers statiquement avec le reste de votre site, et la magie pourra opérer !
L'index pour mes 18 000 articles fait environ 1,5 Go. Ça peut paraître beaucoup, mais Pagefind est malin car il découpe l'index en fragments et ne charge que ce qui est nécessaire pour la recherche en cours. Du coup en pratique, une recherche typique télécharge quelques centaines de Ko, et pas plus.
Pour intégrer Pagefind dans mon workflow Hugo, j'ai donc été cherché le binaire, je l'ai mis sur mon serveur et je l'ai appelé dans un cron comme ça, je rafraichi l'index de recherche 1 fois par jour (et pas à chaque génération du site).
0 4 * * * /home/manu/pagefind/pagefind --site /home/manu/public_html --output-path /home/manu/public_html/pagefind >> /var/log/pagefind.log 2>&1
J'ai aussi créé un fichier de configuration pagefind.yml pour affiner le comportement :
root_selector: "[data-pagefind-body]"
exclude_selectors:
- "header"
- ".site-header"
- "footer"
- ".sidebar"
L'astuce ici c'est d'indexer uniquement les div ayant la class data-pagefind-body='true' et d'exclure les éléments qui ne font pas partie du contenu éditorial afin de ne pas indexer ce qui se trouve dans le header, les natives, le footer...etc.
Côté JavaScript, Pagefind utilise les imports ES6 dynamiques. Ça veut dire que le moteur de recherche n'est chargé que quand l'utilisateur lance effectivement une recherche :
async function initPagefind() {
pagefind = await import('/pagefind/pagefind.js');
await pagefind.init();
}
Et pour faire une recherche :
const search = await pagefind.search("linux");
// search.results contient les IDs des résultats
// On charge le contenu de chaque résultat à la demande
for (const result of search.results) {
const data = await result.data();
console.log(data.url, data.meta.title, data.excerpt);
}
C'est bien fichu parce que search.results retourne immédiatement les références des résultats, mais le contenu réel (titre, extrait, URL) n'est chargé que quand vous appelez result.data(). Du coup vous pouvez implémenter une pagination propre sans télécharger les données de milliers de résultats d'un coup.
Maintenant que j'avais un moteur de recherche fonctionnel, fallait l'habiller. Et c'est là que j'ai eu cette idée un peu débile : Pourquoi pas recréer l'interface du Google de 1998 ?
Pour les plus jeunes qui lisent ça, Google en 1998 c'était une page blanche avec un logo, un champ de recherche, et deux boutons : « Google Search » et « I'm Feeling Lucky« . Pas de suggestions, pas de carrousels, pas de pubs... Juste un champs de recherche. C'était la belle époque !
J'ai donc créé une page de recherche avec deux vues distinctes. La page d'accueil avec le logo centré et le champ de recherche au milieu, exactement comme le Google originel.
Et la page de résultats avec le logo en petit en haut à gauche et les résultats en dessous.
Pour le code CSS, j'ai voulu être fidèle à l'époque. Times New Roman comme police par défaut, les liens en bleu souligné qui deviennent violet une fois visités. Et surtout, les boutons avec l'effet 3D des interfaces Windows 95 :
.search-button:active { border-style: inset; }
Ce border: outset et border-style: inset au clic, c'est exactement ce qui donnait cet effet de bouton en relief qu'on avait partout dans les années 90. Pour moi, ça fait toute la différence pour l'authenticité. Même le logo, je l'ai volontairement « dégradé » pour qu'il soit de la même qualité que le logo Google d'origine.
Vous vous souvenez de la pagination de Google avec « Goooooogle » en bas de page ? Le nombre de « o » correspondait au nombre de pages de résultats. J'ai fait pareil, mais avec « Koooooorben ».
let logo = 'K'; for (let i = 0; i < oCount; i++)
{
logo += o;
} logo += 'rben'; }
Plus il y a de résultats, plus il y a de « o ». C'est complètement inutile mais ça me fait marrer à chaque fois que je le vois.
Ah, le fameux « I'm Feeling Lucky » de Google, j'ai voulu l'implémenter comme à l'époque ! Si vous tapez une recherche et cliquez sur « J'ai de la chance », vous êtes envoyé sur le premier résultat. Classique. Mais si vous cliquez sur le bouton avec le champ vide sur la home de la recherche, vous êtes envoyé sur un article aléatoire parmi les +18 000 du site.
Pour ça, j'ai utilisé une astuce : le sitemap. Mon Hugo génère un fichier sitemap.xml qui contient toutes les URLs du site et je peux aller piocher dedans en JS :
const articles = [...xml.querySelectorAll('loc')] .map(loc => loc.textContent) .filter(url => {
// Exclure les pages qui ne sont pas des articles
const path = new URL(url).pathname;
return !path.startsWith('/categories/') && !path.startsWith('/page/') && path !== '/';
});
const randomUrl = articles[Math.floor(Math.random() * articles.length)];
window.location.href = randomUrl;
} }
Un seul fetch, un peu de parsing XML natif, et hop c'est le grand retour de la fonctionnalité « article aléatoire » qui vous manquait, je le sais !
Je vous ai aussi mis une listbox qui vous permet d'afficher 10, 25 ou 50 résultats ainsi qu'un tri par pertinence ou data. Et ça aussi Pagefind sait parfaitement le navigateur.
Même si l'interface est rétro, j'ai quand même ajouté quelques fonctionnalités modernes. Le mode sombre respecte les préférences système, et j'ai intégré la police OpenDyslexic pour les personnes dyslexiques.
Le truc important c'est de charger ces préférences avant le rendu de la page pour éviter le fameux flash. J'ai donc un petit script qui lit les préférences dans le localStorage et applique les classes CSS immédiatement :
function() {
if (localStorage.getItem('theme') === 'dark') {
document.documentElement.classList.add('dark-mode');
}
if (localStorage.getItem('dyslexic-font') === 'true') {
document.documentElement.classList.add('dyslexic-mode');
}
});
Un détail qui peut sembler anodin mais qui est super important pour l'expérience utilisateur c'est la gestion du bouton retour du navigateur.
Quand vous faites une recherche, l'URL change selon votre requête du genre /recherche/?q=linux&p=2. Du coup si vous partagez cette URL à un collègue, la personne arrivera directement sur les résultats de recherche. Et si vous utilisez le bouton retour, vous reviendrez alors à la recherche précédente.
window.addEventListener('popstate', () => {
const query = new URLSearchParams(location.search).get('q');
if (query) doSearch(query);
else showHomePage();
});
Et si vous ne trouvez pas votre bonheur dans mes +18 000 articles (ce qui serait quand même étonnant ^^), j'ai ajouté des liens pour relancer la même recherche sur Google, DuckDuckGo, Qwant, Brave et Ecosia. Bref, un petit service bonus pour mes visiteurs, exactement comme le proposait Google à l'époque.
Après 1 semaine d'utilisation, voici donc mon verdict ! Côté portefeuille d'abord, Algolia me coûtait entre 60 et +100 euros par mois et maintenant pour Pagefind, c'est zéro euros ! Et les performances sont également au rendez-vous. Algolia c'était rapide et bien là, ça l'est encore plus. Seul compromis à noter, l'index Algolia se mettait à jour en temps réel, alors que Pagefind nécessite une reconstruction au moment du build.
Voilà, j'ai maintenant une recherche qui marche vraiment bien, qui me coûte 0€ par mois, et qui a un look rétro qui va en surprendre plus d'un...
Alors est-ce que c'était nécessaire de passer autant de temps sur le design rétro ? Hé bien absolument pas. Mais est-ce que ça valait le coup ?
Franchement, oui !! C'est mon site, je fais ce que je veux, et si ça peut faire sourire quelques visiteurs nostalgiques des débuts du web, c'est du bonus. D'ailleurs un grand merci aux Patreons qui me soutiennent car sans eux, je n'aurais pas pu passer mon dimanche là dessus ^^
Et puis surtout, ça m'a permis de découvrir Pagefind qui est vraiment un excellent outil. Donc si vous avez un site statique (ou n'importe quel type de contenu textuel) et que vous cherchez une solution de recherche gratuite et performante, je vous le recommande chaudement. La documentation est claire, l'intégration est simple, et le résultat est top !
Allez, maintenant vous pouvez aller tester la nouvelle recherche sur le site . Et si vous cliquez sur « J'ai de la chance » sans rien taper... bonne découverte !
