Les 11 meilleures coques haut de gamme, pour un iPhone protégé avec chic




Merci à vous de suivre le flux Rss de www.sospc.name.
Nous avons l’habitude de prévisualiser nos fichiers avec l’explorateur Windows. Au travail je cherche beaucoup car j’ai une tonne de fichiers de toutes sortes.
Si par exemple vous double-cliquez sur un MP3 alors c’est votre lecteur média par défaut qui s’ouvrira, si c’est un PDF ce sera sûrement Adobe PDF qui s’ouvrira et il est « lourd » sur certains PC, etc. Personnellement je gagne du temps en prévisualisant tous mes fichiers, quels qu’ils soient.
C’est ce que je vous propose ici, un petit soft qui vous permet cette prévisualisation, que ce soit un MP3, une photo, une vidéo, un Gif, .doc, etc.
QuickLook supporte une palanquée de formats sans les ouvrir dans leurs applis respectives.
Cela me fait gagner du temps car j’ai vraiment beaucoup de docs en tous genres que je consulte tous les jours au boulot et nul besoin d’ouvrir Adobe ni Office pour cette visualisation, c’est vrai aussi que je peux être un peu bordélique ;-) idem pour la musique et mes vidéos.
***
Note de l'administrateur
Charly vous a proposé ce programme en version 3 au mois de décembre 2023, une version 4 étant désormais disponible je vous la propose.
Je publie à nouveau son tutoriel d'alors.
***
Cet article Prévisualisez plus facilement vos fichiers (v4.3), par Charly est apparu en premier sur votre site préféré www.sospc.name
Si vous avez toujours voulu essayer Emacs mais que la courbe d'apprentissage vous fait peur, IDEmacs est fait pour vous ! Ce projet transforme Emacs en clone de VSCode avec les mêmes raccourcis clavier, la même interface graphique et les mêmes fonctionnalités out-of-the-box, comme ça vous n'avez plus besoin de vous taper une configuration durant trois jours avant de pouvoir écrire une ligne de code !
Cool, hein ?
L'idée c'est donc de permettre aux développeurs habitués à des IDE modernes de passer à Emacs sans devoir réapprendre tous leurs réflexes. Les raccourcis clavier reprennent ceux de VSCode comme Ctrl+C pour copier, Ctrl+V pour coller, Ctrl+F pour chercher. C'est basique mais indispensable quand vous venez d'un autre éditeur.
Côté interface, IDEmacs intègre Treemacs pour avoir un explorateur de fichiers dans la sidebar comme sur VSCode. Y'a aussi Centaur Tabs pour les onglets, un thème Dark Plus qui ressemble à celui de Microsoft, et le support des curseurs multiples. Bref, visuellement vous êtes en terrain connu.
Du coup, c'est pour qui exactement ?
Hé bien le projet cible trois types d'utilisateurs : les développeurs qui veulent migrer vers Emacs depuis un autre IDE, les débutants en Lisp ou Scheme qui ont besoin d'Emacs pour bosser, et les non-programmeurs qui cherchent juste un éditeur de texte puissant sans se prendre la tête avec la config.
D'ailleurs, contrairement à la plupart des starter kits Emacs, IDEmacs ne cache pas les éléments graphiques par défaut. Les menus, barres d'outils et scrollbars sont visibles donc vous pouvez configurer le tout via l'interface graphique plutôt qu'en écrivant du Elisp à la main.
La config proposée inclut une vingtaine de packages tels que Vertico, Consult et Marginalia pour l'autocomplétion, Magit pour le contrôle de version, Sly et Geiser pour le développement Lisp et Scheme, plus des outils comme expand-region, multiple-cursors et smartparens pour l'édition avancée.
Pour installer IDEmacs, il vous faudra donc Emacs 29 ou plus récent, git, et optionnellement grep et locate. Clonez le repo puis lancez Emacs avec
emacs --init-directory=/path/to/IDEmacs/vscode .
Et hop, c'est prêt !
IDEmacs reste une porte d'entrée vers Emacs, et pas un remplacement définitif de VSCode mais l'idée avec ce truc, c'est de vous permettre de commencer à utiliser Emacs sans friction, puis de personnaliser au fur et à mesure que vous comprenez comment ça marche. Je vous assure que vous allez probablement vouloir modifier des trucs une fois que vous serez à l'aise.
Voilà, si vous avez toujours été curieux d'Emacs mais que vous n'avez jamais osé franchir le pas, c'est l'occaz !


Vous avez une vieille GTX 1060 qui tourne nickel sous Arch Linux ? C'est con, NVIDIA vient de vous mettre un beau coup de pied aux fesses car la boîte au caméléon vert a décidé d'abandonner le support des GPU Pascal (les GTX 10xx) dans son dernier driver 590 et ça crée un joyeux bordel, notamment sur Arch.
Le problème, c'est que quand vous faites une mise à jour système sur Arch avec une vieille carte Pascal ou Maxwell, le nouveau driver refuse de charger. Résultat, vous vous retrouvez éjecté vers la ligne de commande sans interface graphique. Sympa pour débugger quand y'a plus d'écran qui fonctionne...
Faut dire que le modèle "rolling release" d'Arch fait que les utilisateurs ont reçu ce driver incompatible automatiquement avec leur mise à jour. Ils n'ont pas eu le temps de dire ouf que leur système était déjà cassé. Et les GTX 1060 et 1050 Ti, c'est pas exactement des cartes de musée... Y'en a encore pas mal qui tournent sur Steam, et même si parmi leurs propriétaires, seule une poignée utilise Linux, et encore moins Arch, ça fait quand même du monde impacté.
Pour s'en sortir, y'a deux solutions. La première, c'est d'installer le driver legacy nvidia-580xx-dkms depuis l'AUR, qui est maintenu par l'équipe CachyOS. Le hic, c'est que ça crée des problèmes de dépendances avec Steam, donc faut aussi installer lib32-nvidia-580xx-utils pour que les jeux 32 bits fonctionnent. La deuxième option, c'est de basculer sur Nouveau, le driver open source fait par reverse engineering. Ça marche, mais avec les limitations que ça implique niveau performances et fonctionnalités.
Ce qui me rend dingue dans cette histoire, c'est que pendant des années, NVIDIA a refusé de fournir de la documentation pour ses GPU, forçant la communauté Linux à utiliser le reverse engineering pour Nouveau. Et depuis 2022, ils ont ouvert les modules kernel pour les architectures Turing et plus récentes, mais les parties user-space et le firmware restent propriétaires. Et surtout, aucune aide pour les vieilles cartes comme Pascal !! Du coup, maintenant que NVIDIA abandonne ces générations de cartes, c'est aux bénévoles de la communauté de maintenir les drivers legacy... Pas cool.
D'ailleurs, l'annonce officielle d'Arch Linux précise que les cartes Turing et plus récentes (RTX 20xx et GTX 1650+) vont automatiquement basculer vers les modules kernel open source, donc pas d'intervention manuelle pour eux. C'est uniquement les propriétaires de vieilles Pascal/Maxwell qui doivent se taper le boulot.
Bref, si vous avez une carte Pascal sous Arch, basculez sur nvidia-580xx-dkms avant votre prochain pacman -Syu. Dans sa grande bonté, NVIDIA a aussi promis des patchs de sécu jusqu'en 2028, mais bon, on a vu ce que valent leurs promesses côté Linux...

DRAM hors de prix, pénurie à l’horizon… et voilà que la mémoire dans les champignons devient soudain une piste crédible. On croyait le champignon cantonné à l’omelette ou à la forêt de Rambouillet, mais des chercheurs de l’Ohio State University viennent de lui trouver une nouvelle vocation. Du mycélium de shiitake et de champignon de Paris a été transformé en memristors organiques, capables de conserver une information électrique…Même le champignon de Paris a fait ses calculs : avec le prix de la DRAM, c’est plus rentable de bosser dans la RAM que de finir émincé dans une poêle.
L’équipe a cultivé le mycélium, l’a déshydraté plusieurs jours, puis a fixé des électrodes avant d’appliquer une brumisation légère pour rétablir la conductivité. Objectif : faire circuler des formes d’onde et tensions variées pour observer une résistance à état dépendant de l’historique, signature d’un memristor. D’après les résultats, le comportement le plus cohérent apparaît autour de 1 volt. Les chercheurs ont aussi poussé l’expérience vers une approche type RAM, en atteignant près de 6 kHz avec environ 90 % d’exactitude.

Pas de miracle côté capacité : impossible de stocker des gigaoctets sans un champ de champignons. La rétention de type memristor ne suffit pas à elle seule. Il faut une densité exploitable, des interfaces, de la stabilité et une voie de mise à l’échelle vers de vrais modules. Comme le résume la source, « vous ne pouvez pas stocker des gigaoctets ainsi, sauf avec des hectares de champignons ».

Selon Hackaday et les journaux Plos, ce n’est pas un remède à la hausse des prix de la DRAM, mais un jalon intrigant pour une électronique bio-inspirée à très bas coût. Si les acteurs de l’IA cherchent des supports mémoire alternatifs, le mycélium pourrait servir de banc d’essai, à condition de régler la capacité, la reproductibilité et l’intégration matérielle.
Source: Hackaday, Journals Plos
Vous vous souvenez des disquettes 3,5 pouces ? Ces petits carrés en plastique qu'on utilisait pour stocker nos 1,44 Mo de données précieuses ? Hé bien à Taïwan, elles font leur grand retour... mais pas pour sauvegarder vos fichiers.
La société iPASS, qui gère un système de cartes de transport et de paiement sans contact dans le pays, vient de lancer une carte prépayée NFC en forme de disquette. Taille réelle, proportions parfaites, disponible en noir ou en jaune. C'est sorti pour Noël et les geeks du pays se sont jetés dessus.
Le truc qui m'a fait triper surtout, c'est l'avertissement officiel que la boîte a jugé nécessaire d'ajouter sur la fiche produit : "Ce produit a uniquement une fonction de carte et n'a pas de fonction disque 3,5mm, veuillez en prendre note avant l'achat". J'imagine qu'ils ont dû voir passer quelques retours de clients déçus qui tentaient de l'insérer dans leur vieux PC... Même si après, trouver un PC avec un lecteur de disquette en 2025, c'est déjà un exploit en soi.
Du coup cette carte permet de prendre le métro, le bus, le train, le taxi, de louer un vélo, et de payer dans les 7-Eleven, FamilyMart, McDonald's, Burger King et plein d'autres enseignes. Bref, c'est une vraie carte de paiement, juste avec un look de rêve pour les nostalgiques de l'ère DOS.
Et si vous pensez que c'est le gadget le plus absurde qu'ils ont sorti, détrompez-vous puisque iPASS propose aussi des cartes en forme de téléphone Motorola DynaTAC (le gros portable des années 80), de train miniature, de tong, et même de boule à neige Godzilla avec des LEDs. Sur le site PCHome24, y'a littéralement 838 designs différents de cartes iPASS. Les Taïwanais, ils font pas les choses à moitié.
Une carte standard coûte environ 100 NT$ (3 euros) sans crédit, mais les éditions collectors peuvent monter jusqu'à 1000 NT$ ou plus selon le délire. Voilà, si vous passez par Taïwan, c'est clairement le souvenir geek ultime à (me) ramener !
Et au moins, contrairement à une vraie disquette, celle-là ne risque pas de vous lâcher après 6 mois à cause d'un petit champ magnétique de passage.

Vous voyez ces photos stylées sur Instagram où le texte semble passer derrière la personne, comme si le gros "FASHION" ou "WORKOUT" était vraiment dans la scène ? C'est l'effet "text behind image" et c'est clairement le truc graphique qui fait super pro en ce moment.
Le problème c'est que pour obtenir ce rendu, faut normalement se taper Photoshop, maîtriser les calques, le détourage, les masques... Bref, perdre une demi-heure sur un truc qui devrait prendre 30 secondes. Et comme vous êtes des gens occupés (contrairement à moi qui passe ma vie à tester des outils), voici la solution.
C'est un site gratuit qui règle tout ça et qui s'appelle Text Behind Image . Vous uploadez votre photo (jusqu'à 10 Mo), l'IA détecte automatiquement le sujet (une personne, un objet, peu importe), vous tapez votre texte, et le site se débrouille pour le placer pile poil derrière. Ça prend quelques secondes de traitement, pas besoin de détourer quoi que ce soit vous-mêmes.
L'interface propose pas mal d'options de personnalisation... Vous pouvez choisir la police, jouer avec la taille, la couleur, l'opacité, la rotation, ajouter des contours... Et surtout, vous voyez le résultat en temps réel, donc vous pouvez repositionner le texte en glisser-déposer jusqu'à ce que ça rende nickel.
Et le top du top, c'est que c'est gratuit, sans limite, sans inscription, et vous téléchargez votre image en haute résolution sans filigrane. J'ai vérifié et y'a même pas de petit "Made with..." planqué dans un coin. C'est assez rare pour un outil en ligne de ce genre alors je tiens à vous le signaler !
Bon après si votre photo est ultra complexe avec 36 personnes et des éléments qui se chevauchent, l'IA va potentiellement galérer à détourer correctement, mais pour une photo classique avec un sujet bien visible sur un fond pas trop chargé, ça marche vraiment bien.
Bref, si vous faites du contenu pour les réseaux, des miniatures YouTube, ou même juste des visuels fun pour votre pote qui fait de la muscu, c'est le genre d'outil à bookmarker direct. En 30 secondes vous aurez un rendu qui vous aurait pris 20 minutes sur Photoshop.

Des ateliers chinois multiplient les upgrades vers RTX 5080 32 GB. Le mod double la VRAM par rapport aux 16 GB d’origine et, d’après un technicien, la demande pourrait détourner des cartes du circuit gaming traditionnel.
Selon Zhiqiang Graphics Card Studio, ces modifications vers 32 GB deviennent régulières. Le technicien cite des builds « Turbo » comme moteur de la tendance, un terme utilisé pour désigner les modèles à turbine expulsant l’air par l’arrière, plus simples à empiler dans des boîtiers IA et stations de travail denses. Il anticipe davantage de conversions à mesure que les ateliers maîtrisent la procédure et que les acheteurs réclament plus de VRAM dans un format compact adapté aux serveurs.
a gpu repair technician in china claimed 5080 32g has already been a thing.
— UNIKO's Hardware
"""
目前5080呢
已經是可以成功改32G了
改32G渦輪
所以後期的拆芯片改渦輪呢
應該是還是會很多的
所以我感覺5080的價格有可能會起飛
"""
bilibili 智强显卡工作室https://t.co/X9ygzxd523 pic.twitter.com/Y6TGUbbsvo(@unikoshardware) December 26, 2025
Ce canal alternatif n’est pas inédit : on a déjà observé des reworks à grande échelle de GeForce RTX 5090 en cartes IA à turbine, ainsi que des upgrades mémoire de GeForce RTX 4090 bien au-delà des spécifications d’origine. Certains moddeurs évoquent « des outils personnalisés » et des documents apparus après l’incident de piratage de 2022 comme facteurs ayant facilité la réplication à grande échelle.
NVIDIA préparerait une GeForce RTX 5080 SUPER avec 24 GB de mémoire via des modules GDDR7 de 3 GB, mais le calendrier se serait décalé vers la fin du premier trimestre ou le début du deuxième trimestre 2026, soit entre mars et mai 2026. Même sur cette fenêtre, la capacité resterait sous les 32 GB visés par ces cartes custom modifiées.
Le technicien prévient que l’attrait pour les « Turbo » et les 32 GB pourrait drainer davantage d’unités retail vers les ateliers de rework : « la demande de conversions pourrait retirer des cartes du canal gaming ».
Source: Zhiqiang Graphics Card Studio
Vous vous êtes déjà demandé si ChatGPT votait à gauche ou à droite ? Moi non plus, j'avoue. Mais maintenant qu'on a la réponse, c'est quand même assez marrant, vous allez voir...
Un développeur a créé PoliBench , un site qui fait passer le test du Political Compass à 40 modèles de langage différents. Le Political Compass c'est ce fameux test avec les deux axes : économique (gauche-droite) et social (libertaire-autoritaire). Le truc qu'on faisait tous sur Internet en 2005 pour finalement découvrir qu'on était un libertaire de gauche comme environ 95% des gens qui passaient le test.
Bref, maintenant les IA aussi peuvent savoir où elles se situent sur l'échiquier politique et ça, ça peut vous aider à mieux les choisir, car les résultats sont assez révélateurs. Niveau cuisine interne, PoliBench teste les 62 questions sur les deux axes du Political Compass, puis calcule les scores pour chaque LLM. Et comme les données sont open source, vous pouvez vérifier la méthodologie vous-même.
Et sans surprise, la plupart des LLMs se retrouvent dans le quadrant libertaire de gauche !! J'dis ça, j'dis rien, mais c'est presque comme si les devs de la Silicon Valley avaient des opinions politiques similaires et les injectaient (consciemment ou pas) dans leurs modèles.
Du coup, j'ai fait le travail de tri pour vous, alors voici le guide ultime pour choisir votre IA selon votre sensibilité politique :
Si vous êtes plutôt LFI, prenez Claude. Il est tellement progressiste qu'il refuse de générer du contenu problématique même quand vous lui demandez une blague sur les vegans. En plus il écrit des pavés de 3000 mots pour expliquer pourquoi il ne peut pas répondre à votre question. Parfait pour tenir un meeting politique de 4 heures.
Si vous êtes plutôt PS, prenez GPT-4. Un modèle qui a connu des jours meilleurs, qui essaie de plaire à tout le monde et qui finit par ne satisfaire personne. Bonus : il change d'avis selon qui lui parle.
Si vous êtes plutôt macroniste, prenez Gemini de Google. Un truc qui promet la disruption et l'innovation mais qui au final fait à peu près pareil que les autres, en plus cher, tout en vous expliquant que c'est pour votre bien.
Si vous êtes plutôt LR, prenez Mistral. C'est français, c'est souverain... mais personne ne sait vraiment ce que ça pense sur les sujets qui fâchent parce que ça évite soigneusement d'en parler.
Si vous êtes plutôt écolo, prenez Llama de Meta. C'est open source donc c'est « pour le bien commun », ça tourne sur du matériel recyclé si vous voulez, et ça consomme moins de ressources que les gros modèles propriétaires. Par contre faut quand même un GPU qui coûte un SMIC.
Et si vous êtes plutôt RN... bah en fait y'a pas vraiment de LLM pour vous. Tous ces modèles ont été entraînés à San Francisco par des gens qui mangent des avocado toasts et font du yoga. Ils refusent donc de générer ce contenu haineux, discriminatoire ou factuellement faux dont vous êtes friants. Désolé, les gars c'est pas compatible. Peut-être essayez Grok d'Elon Musk ? Ah non pardon, lui aussi il a des « guidelines ». Mince alors. Va falloir donc continuer à écrire vos tracts vous-mêmes les amis. Je sais, l'IA woke vous opprime, c'est terrible.
Après, le vrai sujet derrière PoliBench, c'est que ces biais existent bel et bien et qu'ils influencent les réponses que vous recevez sur des sujets sensibles. Quand vous demandez à une IA son avis sur l'immigration, les impôts ou la régulation des entreprises, la réponse dépend en partie de ces préférences encodées dans le modèle. Il faut juste le savoir...
Alors vous choisissez quelle IA à partir de maintenant ?

Xbox Full Screen arrive sur les consoles PC de Lenovo. La mise à jour Legion Space 1.3.4.9 ajoute la compatibilité Windows Full Screen Experience (FSE) et revoit plusieurs raccourcis sur les Legion Go.
Le support FSE est l’ajout phare, mais il n’est pas activé par défaut. Il faut d’abord l’allumer dans Windows, puis Legion Space propose un raccourci Toggle FSE qui réplique Win+F11 et une entrée dédiée dans les Paramètres rapides pour accompagner le nouveau flux plein écran.
Lenovo remappe aussi les commandes : un appui long sur Legion R déclenche l’équivalent de Win+Tab (Vue des tâches), tandis qu’un appui court ouvre le widget OEM Legion Space. Une notification signale la disponibilité du FSE, avec option pour la désactiver ensuite. D’après Lenovo, « les téléchargements d’update sont plus rapides », de quoi réduire l’attente à chaque nouveau build.

Côté système, Legion Space définit la clé registre Device Form sur « Handheld », installe l’app Legion Space widget et la place en tête de la liste OEM Game Bar. Le déploiement se fait par vagues : il semblerait que tous les utilisateurs ne voient pas encore la version 1.3.4.9.

La version 1.3.4.9 cible les Legion Go (8APU1), Legion Go S (8ARP1 et 8APU1), ainsi que les deux variantes Legion Go 2 (8AHP2 et 8ASP2). Selon les retours, la diffusion progresse graduellement ; laissez un peu de temps si la mise à jour n’apparaît pas encore.
Source: Lenovo, Reddit/Danzavier
Intel a longtemps régné sans partage sur le marché des processeurs, avant que l’arrivée des architectures Zen d’AMD ne bouleverse durablement l’équilibre des forces. Contraint de réagir, le fondeur américain a multiplié les cœurs et les fréquences pour rester compétitif, jusqu’à atteindre une limite technique évidente avec les Core de 13e et 14e génération, marquées […]
L’article Intel Nova Lake promet +15 % d’IPC, mais à un prix record pouvant atteindre 1 500 euros est apparu en premier sur HardwareCooking.



2026 ne s’annonce pas comme une année favorable pour les joueurs. Une hausse des prix des GPU AIB se profile : selon Board Channels, la remontée des prix liée à la mémoire DRAM devrait frapper les cartes partenaires entre janvier et février 2026, avec un calendrier décalé entre AMD et NVIDIA.
Le post explique pourquoi les tarifs n’ont pas encore bougé malgré des signaux récurrents : question de trimestres fiscaux et de contrats d’approvisionnement. Le T4 2025 de NVIDIA couvre novembre à janvier, celui d’AMD s’étend d’octobre à décembre. Selon la publication, les prix d’achat de la mémoire étaient verrouillés jusqu’à fin 2025, ce qui a limité toute hausse côté AIB sur le T4.

À partir de 2026, ces conditions fixes prennent fin et la pression des coûts mémoire devrait se répercuter sur les GPU. D’après le même canal, les augmentations liées à AMD pourraient démarrer dès janvier 2026, avec potentiellement plusieurs salves ensuite. Pour NVIDIA, la fenêtre clé pointerait février 2026, même si certaines marques auraient déjà retouché leurs tarifs en décembre alors que d’autres non. Le timing exact en janvier resterait à la main des AIB, d’où des déploiements irréguliers selon les vendeurs et les modèles.

Les indices s’accumulaient déjà et des représentants de partenaires évoquaient le début 2026 comme point de bascule. Des hausses locales ont bien eu lieu dans certaines régions, décrites ici comme des ajustements pilotés par les AIB plutôt qu’un mouvement direct de NVIDIA. Si des notifications officielles tombent début 2026, l’inquiétude est de voir les prix retail remonter encore au-delà des niveaux actuels.
Le moteur principal reste la mémoire. Board Channels relie explicitement la hausse aux coûts DRAM, et il semblerait que le même mécanisme finisse par toucher tout le segment. L’auteur glisse au passage qu’Intel n’est pas mentionné par la rumeur, mais ses GPU reposant sur de la GDDR6, ils seraient « très probablement » concernés également.
Source : Board Channels
La pénurie actuelle de mémoire vive est bien réelle et frappe l’ensemble du marché PC. Les prix des puces DDR5 ont été multipliés par quatre en peu de temps avec des tarifs grand public souvent encore plus élevés. Dans ce contexte tendu, l’idée de voir émerger un nouvel acteur capable de soulager le marché peut […]
L’article Non, ASUS ne se lancera pas dans la fabrication de mémoire DRAM ! est apparu en premier sur HardwareCooking.
Serpent Lake : un nom qui commence déjà à inquiéter AMD. Il désigne ce qui serait le tout premier processeur conçu conjointement par Intel et NVIDIA, et les premières informations évoquent une APU hybride extrêmement ambitieux. L’objectif est clair : associer une CPU Intel de nouvelle génération à un GPU NVIDIA très puissant au sein d’une […]
L’article Intel Serpent Lake : l’énorme APU développé par Intel et NVIDIA pour menacer le règne d’AMD est apparu en premier sur HardwareCooking.
Merci à vous de suivre le flux Rss de www.sospc.name.
Ce logiciel de monitoring n'est pas nouveau, il existe depuis... 2010 !
HWMonitor affiche des informations détaillées comme, entre autres, les tensions, les températures des composants ou encore les vitesses de rotation des ventilateurs.
Il est très utile si vous voulez identifier rapidement un composant qui chaufferait trop sur votre config.
Il permet même de connaître l'état d'usure de votre batterie !
Il est en anglais, mais facile à prendre en main, est compatible de Windows XP à Windows 11 et existe en version portable.
Il est proposé par un éditeur que vous connaissez déjà, CPUID, auteur de l'excellent CPU-Z.
Je vous ai parlé des nouveautés de ce logiciel pour la dernière fois en avril avec la version 1.57.
Ne voulant pas publier trop souvent, j'ai attendu que plusieurs versions sortent, je vous propose la toute dernière d'hier 26 décembre.
Cet article HWMonitor, le logiciel de monitoring est disponible en version 1.61 est apparu en premier sur votre site préféré www.sospc.name
À l'époque de ma glorieuse jeunesse, je jouais à RoboCop sur NES et c'est vrai que je trouvais ça très cool ! Mais ce que je ne savais pas, c'est que la version arcade de Data East cachait un secret bien vicieux dans ses entrailles électroniques.
En 1988, Data East sort donc RoboCop en version arcade et comme tous les éditeurs de l'époque, ils avaient une peur bleue des bootleggers asiatiques qui clonaient les bornes à tour de bras. Du coup, ils ont eu une idée de génie : planquer une puce HuC6280 dans le hardware. Pour ceux qui ne connaissent pas, c'est le processeur du PC Engine, le cousin japonais de la TurboGrafx-16, sauf que là, elle ne sert absolument pas à faire tourner le jeu.
Non non, cette puce est là uniquement pour emmerder le monde.
Le truc pas con (enfin, pas con pour l'époque), c'est que Data East a externalisé une partie des calculs de collision sur ce processeur secondaire. Du coup, sans la puce HuC6280, le jeu démarre mais les hitboxes sont complètement pétées et les ennemis deviennent invincibles. Faut s'imaginer RoboCop qui tire dans le vide pendant que les méchants lui marchent dessus tranquillement... C'est pas méga vendeur pour une borne à 3000 dollars.
Le problème, c'est qu'en 2025, ces puces HuC6280 commencent à lâcher et quand ça arrive, votre borne RoboCop devient un très joli meuble de 150 kilos.
Et c'est là qu'un développeur du nom de djh0ffman entre en scène. Le bougre s'est dit qu'au lieu de chercher des puces de remplacement introuvables, il allait tout simplement virer cette protection. Mais pour ça, il fallait d'abord comprendre ce que faisait exactement cette fichue puce.
Déjà, il fallait dumper le code du HuC6280. Pas si simple parce que Data East avait aussi obfusqué les tables de jump pour que personne ne puisse facilement lire le code. Du reverse engineering dans le reverse engineering, en quelque sorte.
Une fois le code extrait et désobfusqué, djh0ffman a alors découvert que la puce gérait principalement deux choses : les collisions entre les sprites et la gestion des dégâts. Le reste du jeu tournant sur le processeur principal, un Motorola 68000.
Du coup, la solution était claire. Il fallait porter tout ce code du HuC6280 vers le 68000. Facile à dire bien sûr, mais moins facile à faire quand on parle de deux architectures complètement différentes. Le HuC6280 est certes un dérivé du 6502, mais le 68000 c'est carrément une autre planète.
Mais après des heures de travail, djh0ffman a réussi à recréer toutes les routines de collision en assembleur 68000 et à les injecter dans la ROM originale. Le patch fait environ 2 Ko !! Et ça transforme n'importe quelle borne RoboCop avec une puce morte en machine parfaitement fonctionnelle.
Et le truc cool, c'est que son patch ne contourne pas vraiment la protection, mais la remplace. Le jeu fonctionne donc exactement comme l'original, avec les mêmes collisions, les mêmes dégâts, les mêmes hitboxes. C'est juste que maintenant, tout ça tourne sur le 68000 au lieu du HuC6280.
Et le plus marrant c'est que cette protection était considérée comme inviolable à l'époque. En effet, les bootleggers n'avaient jamais réussi à la craquer proprement, alors ils vendaient des copies avec des collisions approximatives bidouillées à l'arrache. C'est fou ^^ Il peut flex le garçon !
Bref, si vous avez une borne RoboCop arcade qui prend la poussière parce que la puce de protection a rendu l'âme, y'a maintenant un patch IPS disponible qui lui redonne vie. Et pour les curieux qui veulent comprendre comment fonctionnaient ces protections anti-copie des années 80, le write-up de djh0ffman est une mine d'or.

Depuis plus de 20 ans, Exult fait tourner Ultima VII sur Windows, macOS et Linux. C'est un moteur open source génial, mis à jour en mai dernier, qui nécessite les fichiers originaux du jeu et permet de finir The Black Gate et Serpent Isle sans souci. Alors pourquoi diable Anthony Salter a-t-il créé U7 Revisited , un autre moteur pour le même jeu ?
Hé bien parce qu'Exult et U7 Revisited n'ont pas du tout le même objectif.
Le truc que beaucoup ignorent, c'est qu'Ultima VII était techniquement un monde 3D coincé dans un moteur 2D. En 1992, chaque objet du jeu avait déjà une largeur, une profondeur et une hauteur, ce qui fait que ce monde était donc composé de blocs 3072x3072x16. Mais la technologie de l'époque ne permettait pas d'afficher tout ça en vraie 3D, du coup Origin a dû se contenter d'une vue fixe pseudo-isométrique.
Exult vise donc à reproduire cette expérience originale au plus près, tout en ajoutant quelques améliorations. C'est son but et c'est très bien comme ça.
U7 Revisited, lui, part d'un autre postulat qui est : Et si on montrait enfin ce monde 3D dans un vrai moteur 3D ?
Anthony Salter a donc développé son propre moteur pour présenter Britannia avec une caméra rotative, un peu comme Dungeon Keeper ou Grandia. Vous pouvez ainsi tourner autour des bâtiments, zoomer, regarder les choses sous différents angles.
Et ça, ça règle une vraie frustration du jeu original car pour ceux qui y ont joué, vous vous souvenez peut-être de ces moments bien relous où vous cherchiez désespérément un levier ou une clé cachée derrière un mur ? Origin utilisait souvent cette technique de planquer des objets en ne laissant dépasser qu'un ou deux pixels.
Hé bien avec une caméra rotative, fini ce genre de galère.
Côté contrôles, c'est du moderne : WASD pour bouger, Q et E pour la rotation, molette pour le zoom. Le projet est codé en C++ et Lua, et il y a même des touches de fonction (F1 à F11) pour interagir avec différents aspects du monde.
Le développement avance bien d'ailleurs et dans ses dernières updates d'août, Anthony a présenté le support widescreen, un meilleur éclairage et le drag-and-drop pour les objets.
Il existe également plein d'autres projets fans autour d'Ultima comme Nuvie qui recréé Ultima 6, Pentagram qui s'occupe d'Ultima VIII. La communauté Ultima adore refaire ses jeux préférés avec des outils modernes, c'est comme ça. Mais U7 Revisited a quand même cette approche unique avec cette vision 3D du monde.
Si vous voulez tester, il faut copier les fichiers du jeu original DOS dans le dossier /Data/u7 puis builder le projet via CMake ou Meson.
Merci à Joseph de m'avoir signalé ce projet.

Le moniteur ROG Swift OLED PG32UCDM Gen 3 arrive : ASUS conserve la dalle QD‑OLED 32 pouces en 4K à 240 Hz et 0,03 ms GTG, mais ajoute une couche qui change tout en lumière ambiante.

ASUS détaille son ROG Swift OLED PG32UCDM Gen 3, un modèle 32 pouces 4K prévu pour la gamme 2026, avec un rafraîchissement de 240 Hz et un temps de réponse minimal annoncé à 0,03 ms (GTG). La nouveauté clé est le BlackShield Film, une couche visant à préserver des noirs profonds en pièce éclairée et à réduire la teinte violette typique de certains QD‑OLED sous forte luminosité. Le constructeur indique jusqu’à 40 % d’amélioration des niveaux de noir en environnement lumineux, en complément d’un revêtement antireflet. ASUS affirme aussi une résistance aux rayures jusqu’à 2,5× supérieure aux versions précédentes, pour un nettoyage simplifié et un usage quotidien plus serein.
Côté connectique, la Gen 3 ajoute le DisplayPort 2.1 UHBR20 à l’HDMI 2.1, et un USB‑C avec alimentation 90 W. Pour le HDR, le moniteur prend en charge Dolby Vision et obtient la certification VESA DisplayHDR 500 True Black, un cran au‑dessus du DisplayHDR 400 True Black des variantes PG32UCDM antérieures. La compatibilité NVIDIA G‑SYNC est au programme pour limiter le tearing et lisser les mouvements.

Le ROG Swift OLED PG32UCDM Gen 3 intègre un commutateur KVM, un filetage de trépied pour caméra, et les outils ASUS OLED Care via l’application DisplayWidget Center, avec mise à jour du firmware. ASUS n’a communiqué ni prix ni date de sortie, et précise que la disponibilité dépendra des régions. Le fabricant met en avant une comparaison entre ses modèles phares PG32UCDM et PG32UCDMR, sans préciser de calendrier. D’après ASUS, le film BlackShield « améliore les noirs en lumière vive et réduit la teinte pourpre », une promesse qui cible directement l’un des reproches récurrents aux dalles QD‑OLED.

Source : VideoCardz