↩ Accueil

Vue lecture

Edge Gallery - Faites tourner des IA Google en local sur votre smartphone

Vous voulez faire tourner des modèles d'IA directement sur votre téléphone, sans envoyer vos données à un serveur distant ?

Ça tombe bien puisque Google a sorti Edge Gallery , une application open source qui permet d'exécuter des LLM et des modèles multimodaux en local sur Android et iOS. Et vu que c'est sous licence Apache 2.0, personne ne pourra vous la retirer... même si Google décide un jour de passer à autre chose ^^.

Vous l'aurez compris, ce qui est cool avec cette app c'est que tout se passe sur l'appareil. Vos conversations avec l'IA, vos photos analysées, vos notes audio transcrites... rien ne quitte votre smartphone. Et visiblement, ça plaît puisque l'app a dépassé les 500 000 téléchargements en seulement deux mois après sa sortie sur GitHub.

Et comme je sais que parmi vous, y'a pas mal de paranos comme moi et de gens qui ne prennent pas leurs médicaments (pas comme moi), je pense que c'est le genre de solution qui va vous faire plaisir !

Ce qu'on peut faire avec

Edge Gallery embarque plusieurs fonctionnalités qui couvrent pas mal de cas d'usage du quotidien. Concrètement, vous avez :

AI Chat pour discuter avec un LLM comme vous le feriez avec ChatGPT, sauf que tout reste en local. Pratique pour brainstormer, rédiger des mails ou juste poser des questions sans connexion internet.

Ask Image pour analyser vos photos. Vous prenez un truc en photo et vous demandez à l'IA de vous expliquer ce que c'est. Ça marche pour identifier des plantes, décrypter une facture, ou comprendre un schéma technique.

Audio Scribe pour transcrire de l'audio en texte. Vous enregistrez une réunion, une interview, ou vos propres notes vocales, et hop, ça devient du texte exploitable. Et depuis la dernière mise à jour, vous pouvez même traduire directement dans une autre langue.

L'interface d'AI Edge Gallery sur Android

Prompt Lab pour les développeurs qui veulent tester leurs prompts et benchmarker les différents modèles disponibles. Y'a même des métriques en temps réel (temps de première réponse, vitesse de décodage, latence) pour les geeks de l'optimisation.

Tiny Garden, c'est le petit bonus rigolo : un mini-jeu expérimental entièrement offline où vous utilisez le langage naturel pour planter, arroser et récolter des fleurs. Bon, c'est gadget, mais ça montre bien les possibilités du truc.

Mobile Actions pour les plus aventuriers. Vous pouvez utiliser une recette open source pour fine-tuner un modèle, puis le charger dans l'app pour contrôler certaines fonctions de votre téléphone en offline. C'est encore expérimental, mais ça peut donner des idées intéressantes.

Les modèles disponibles

L'app propose plusieurs modèles selon vos besoins. On retrouve la famille Gemma de Google (Gemma 3 en 1B et 4B paramètres, Gemma 3n optimisé pour les appareils plus modestes et qui gère maintenant l'audio), mais aussi des modèles tiers comme Qwen2.5, Phi-4-mini de Microsoft, ou encore DeepSeek-R1 pour ceux qui veulent du raisonnement plus poussé.

Et les gardes fous sont facilement contournables...

Il y a aussi des modèles spécialisés comme TranslateGemma pour la traduction (55 langues supportées) et FunctionGemma pour l'appel de fonctions et tout ce petit monde tourne grâce à LiteRT , le runtime léger de Google pour l'inférence on-device.

D'ailleurs, la communauté Hugging Face propose déjà pas mal de modèles convertis au format LiteRT donc si les modèles par défaut ne vous suffisent pas, vous pouvez aller fouiller dans leur collection pour trouver votre bonheur. Et pour les plus aventuriers, vous pouvez même charger vos propres modèles au format .litertlm.

Installation sur Android

Pour Android, c'est simple, direction le Play Store et vous cherchez "AI Edge Gallery". Vous pouvez aussi télécharger l'APK directement depuis les releases GitHub si vous préférez. Il vous faut Android 12 minimum et un appareil avec au moins 4 Go de RAM (8 Go recommandés pour les gros modèles).

Au premier lancement, l'app vous propose de télécharger les modèles. Comptez entre 500 Mo et 4 Go par modèle selon la taille. Une fois téléchargés, ils sont stockés localement et vous n'avez plus besoin de connexion pour les utiliser.

Et sur iOS / macOS ?

Pour iOS, l'app est disponible en bêta via TestFlight . Attention, c'est limité à 10 000 testeurs (premier arrivé, premier servi), et il faut un appareil avec minimum 6 Go de RAM. Moi c'est ce que j'utilise et comme c'est pas encore la version finale, il manque quelques trucs mais ça fonctionne. Google vise une sortie officielle sur l'App Store début 2026. J'ai hâte !

Pour macOS par contre... il n'y a pas de version native. L'app est pensée pour le mobile uniquement donc si vous voulez vraiment tester sur votre Mac, la solution c'est de passer par un émulateur Android comme Android Studio (avec l'émulateur intégré) ou BlueStacks. BlueStacks Air est d'ailleurs optimisé pour les Mac Apple Silicon. C'est pas idéal mais ça dépanne.

Cela dit, si vous êtes sur Mac et que vous voulez faire tourner des LLM en local, regardez plutôt du côté d'Ollama ou de LM Studio qui sont nativement compatibles.

Pourquoi c'est intéressant ce truc ?

L'intérêt principal, c'est évidemment la confidentialité. Vos données ne transitent jamais par des serveurs externes donc vous en gardez le contrôle total. C'est particulièrement pertinent si vous bossez avec des documents sensibles ou si vous êtes simplement attaché à votre vie privée.

L'autre avantage, c'est que ça fonctionne hors ligne. Dans le métro, en avion, en zone blanche... votre IA reste disponible. Pas de latence réseau, pas de "serveur surchargé, réessayez plus tard".

Et puis le fait que ce soit open source, ça ouvre pas mal de portes car la communauté peut contribuer, ajouter des modèles, corriger des bugs et même si Google abandonne le projet (ce qui ne serait pas une première), le code restera là et on pourra faire des forks ! (Pourquoi attendre en fait ??)

Voilà, pour ceux qui veulent creuser, le wiki GitHub du projet contient pas mal de documentation sur l'ajout de modèles personnalisés et l'utilisation avancée de l'API LiteRT.

Éclatez-vous bien !

  •  

Votre vieille Wii peut à nouveau commander des pizzas

Si vous pensiez que votre Wii ne servait plus qu'à caler un meuble ou à prendre la poussière au fond du placard, détrompez-vous, car cette dernière vient de retrouver une utilité totalement inutile donc indispensable : Commander des pizzas.

Un rétro-gamer du nom de Pete de la chaine Retro Game Attic a réussi l'exploit de se faire livrer une Domino's Pizza en passant commande directement depuis sa console de 2006. Et ça c'est pas grâce à Nintendo puisque la société japonaise a d'abord coupé les serveurs WiiConnect24 en 2013, puis le service Demae-Can (la chaîne de livraison) a cessé de fonctionner en 2017.

Mais c'était sans compter sur la communauté homebrew qui visiblement avait faim !!

Des projets comme RiiConnect24 avaient déjà ramené la Météo et les Infos mais ici, c'est l'équipe de WiiLink qui s'est attaquée au morceau en ressuscitant le "Demae Channel", cette chaîne de livraison qui n'était sortie qu'au Japon.

Du coup, grâce à leur boulot acharné, la chaîne est de nouveau utilisable, bien que limitée pour l'instant à Domino's US et Canada uniquement. Pete a fait la démo en vidéo, et franchement, l'interface a super bien vieilli. On choisit sa garniture, on valide, et hop, la commande part au restaurant.

Le seul hic, c'est que le paiement en ligne n'est pas supporté. Il faudra donc régler le livreur à l'arrivée et surtout, il ne semble pas y avoir d'option pour les codes promo. Mais bon, commander sa 4 fromages supplément St Nectaire avec une Wiimote, ça n'a pas de prix.

C'est quand même beau de voir des projets comme WiiLink qui continuent de maintenir en vie cette vieille console. J'aurais bien rebranché la mienne pour tenter de la brancher avec une Pizzeria à côté de chez moi parce que j'ai la daaaallle, mais malheureusement, je l'ai revendue y'a des années.

Sniiif.

Source

  •  

apk.sh - Le couteau suisse qui simplifie le reverse engineering Android

L'autre jour, je m'amusais à regarder ce qu'une petite application Android que j'avais installée envoyait comme infos à ses serveurs , et j'ai encore galéré avec une tripotée d'outils différents. Entre ADB pour récupérer le fichier, Apktool pour le désassembler, Jadx pour lire le code et les scripts de signature à rallonge, y'a de quoi se taper la tête contre les murs. On est en 2026, et le reverse engineering Android ressemble encore parfois à de la spéléologie sans lumière dans une grotte remplie de goudron.

Puis c'est là que je suis tombé sur apk.sh, et ça m'a sauvé ma soirée. C'est un script Bash tout simple, mais qui joue le petit chef d'orchestre pour automatiser toutes les tâches les plus chiantes : le pull, le décodage, la reconstruction, le patching et le renommage d'APK. Ça vous mâche le travail sur toute la partie technique pour que vous n'ayez plus qu'à faire un petit adb install à la fin... et voilà ! (Sans les "Trenti anni di qualità", évidemment ^^)

Le truc cool, c'est qu'il ne se contente pas de faire du "pull" et du "decode". Il gère également nativement l'injection de gadgets Frida pour faire de l'instrumentation dynamique, et ça, c'est vraiment le pied pour ceux qui veulent voir ce qui se passe en mémoire sans s'arracher les cheveux. Il peut même patcher automatiquement la configuration de sécurité réseau pour vous permettre d'intercepter le trafic HTTPS plus facilement. Par contre attention, si l'appli utilise du certificate pinning bien costaud, ça servira à QUE DALLE.

Si vous avez déjà essayé de décompiler un APK et de le recompiler , vous savez que la moindre erreur de signature ou d'alignement et c'est le drame. Ici, l'outil s'occupe de tout avec apksigner et zipalign de manière transparente. Et pour les plus barbus d'entre vous, il permet même de modifier directement le bytecode DEX via les fichiers smali pour éviter les bugs de décompilation Java qui font parfois pleurer un admin sys.

Pas besoin d'être root pour la plupart des fonctions, et il gère même les fameux bundles (AAB) que Google Play impose désormais et qui se transforment en "split APKs" une fois sur votre téléphone. En gros, vous faites un pull pour récupérer et fusionner tout ça en un seul APK, puis un decode pour obtenir un dossier tout prêt à être exploré.

C'est typiquement le genre d'outil que j'aurais aimé avoir à l'époque où je vous parlais d'Androguard pour analyser des malwares Android . On gagne un temps de fou malade et on peut se concentrer sur ce qui nous intéresse vraiment dans la vie, c'est à dire le fromage à raclette et la sieste comprendre comment ces applis nous pompent nos données ou juste changer la couleur d'un bouton pour le plaisir (ou des trucs qui vous enverront en zonzon ^^).

Bref, si vous aimez mettre les mains dans le cambouis Android, allez jeter un œil à ce projet pour vos prochaines sessions de reverse.

A découvrir ici

  •  

AMD affirme que de la DDR5 plus lente suffit pour le Ryzen 7 9850X3D… mais l’argument laisse perplexe

AMD pensait tenir un argument marketing original avec son nouveau Ryzen 7 9850X3D : recommander volontairement de la mémoire DDR5 plus lente pour permettre aux utilisateurs « d’économiser ». Une idée surprenante à l’heure où la marque a elle-même popularisé le sweet spot DDR5-6000 sur ses plateformes récentes. Finalement, la diapositive n’a jamais été montrée […]

L’article AMD affirme que de la DDR5 plus lente suffit pour le Ryzen 7 9850X3D… mais l’argument laisse perplexe est apparu en premier sur HardwareCooking.

  •  

IA et emploi : le FMI alerte sur un choc massif, Goldman tempère le risque

À Davos, la directrice générale du FMI, Kristalina Georgieva, a prévenu que l’IA allait frapper le marché de l’emploi « comme un tsunami », avec un risque immédiat pour les jeunes actifs. S’appuyant sur des travaux internes, elle estime que l’IA affectera environ 60 % des postes dans les économies avancées et près de 40 % au niveau mondial. L’onde de choc ne se limitera pas aux métiers directement automatisables.

Dans les pays développés, environ 10 % des postes sont déjà « augmentés » par l’IA, avec des gains de productivité qui soutiennent les salaires et l’activité locale. En parallèle, les emplois d’entrée de gamme – typiquement occupés par des jeunes – figurent parmi les plus exposés, rendant l’accès au premier poste plus difficile. Même sans suppression nette, les travailleurs dont la productivité n’est pas tirée par l’IA pourraient voir leurs revenus sous pression, y compris au sein des classes moyennes.

Georgieva pointe un décalage entre la vitesse de diffusion des modèles et l’état des cadres de sécurité et d’inclusion : « nous ne savons pas encore comment garantir la sûreté ni l’accès équitable, alors que le monde change très vite ». Ce diagnostic tranche avec celui de David Solomon, CEO de Goldman Sachs, pour qui l’IA n’annonce ni « cauchemar » ni contraction massive de l’emploi. Selon lui, la technologie élimine et crée des postes depuis des décennies, et « cette fois ne fait pas exception ».

L’écart de lecture entre institutions et marchés financiers illustre la phase actuelle : montée en puissance rapide des investissements dans l’infrastructure IA, premières retombées mesurables sur la productivité et incertitude de court terme sur la mobilité des emplois. La variable critique reste la vitesse d’absorption par les organisations : si les gains se concentrent sur certains profils et régions, la pression sur les salaires d’entrée et la polarisation des compétences pourraient s’installer avant que la création nette d’emplois ne prenne le relais.

Source : ITHome

  •  

TITAN RTX moddé sur PCB RTX 2080 Ti HOF, 900 W et 24 Go GDDR6

900W de puissance et 24 Go de VRAM : ce monstre n’est pas une RTX 5090, mais une 2080 Ti ressuscitée. Le moddeur Jiacheng Liu a réalisé l’improbable en greffant un GPU complet de TITAN RTX sur un PCB de RTX 2080 Ti Hall of Fame. Une expérience hors normes qui repousse les limites d’une architecture mythique.

TITAN RTX sur PCB 2080 Ti HOF : 4608 shaders, 24 Go, 900 W

La configuration d’origine à 4352 shaders cède la place à 4608 shaders sur TU102-400-A1. La limite de puissance bondit de 300 W à 900 W. La mémoire passe de 11 Go en 352-bit (Samsung HC14) à 24 Go en 384-bit (Samsung HC16), sans pads vides ni unités désactivées.

Composants internes carte RTX sur table bleue, détails visibles, éclairage naturel

En pratique, cette 2080 Ti convertie se comporte comme une TITAN RTX, mais sur un PCB custom HOF taillé pour l’overclocking. Un montage qu’on n’aurait pas vu à l’époque, compte tenu du prix et de la rareté, mais devenu abordable près de huit ans plus tard.

Performances et support logiciel

Liu signe 18 038 points au Time Spy Graphics en aircooling. La moyenne publique TITAN RTX se situe à 14 657 points, tandis que les top 10 historiques naviguent autour de 20 000 points. Les meilleures entrées TITAN RTX sont entre 19 000 et 20 000, indiquant que cette carte modifiée flirte avec le plafond historique de la plateforme.

Écran affichant des benchmarks et spécifications système, fourre-tout d'informations techniques

Malgré l’âge de Turing, la prise en charge continue : mises à jour de pilotes et ajout de DLSS 4.5 ce mois-ci. La TITAN RTX reste la dernière TITAN commercialisée, même si des échantillons d’une RTX TITAN Ada ont existé sans jamais sortir.

Ce type de conversion montre l’intérêt de PCBs HOF surdimensionnés pour prolonger la vie des plateformes, avec des limites de puissance extrêmes et un bus mémoire complet qui replacent une carte de 2018 dans une zone de performance encore compétitive sur certains benchmarks, sans dépendre d’un écosystème logiciel obsolète.

Source : VideoCardz

  •  

NVIDIA met fin à un programme secret de soutien des prix : les GPU gaming risquent d’exploser encore

Une nouvelle fuite secoue le marché des cartes graphiques. NVIDIA aurait discrètement mis fin à un programme interne destiné à maintenir une partie des GPU vendus au prix public conseillé. Une décision qui, si elle se confirme, pourrait marquer un tournant brutal pour les joueurs, déjà confrontés à des tarifs historiquement élevés sur les dernières […]

L’article NVIDIA met fin à un programme secret de soutien des prix : les GPU gaming risquent d’exploser encore est apparu en premier sur HardwareCooking.

  •  

Bon plan : l’alimentation be quiet! Pure Power 13 M 1000W à 135,95 euros

L’alimentation est définitivement l’élément le plus important dans une configuration. En effet avec une alimentation de qualité, on s’assure que tous nos composants soient bien alimentés, mais aussi protégés en cas de court-circuit. C’est pour cela qu’il ne faut pas la sous-estimer. Aujourd’hui la Cuisine du Hardware vous propose un bon plan sur l’alimentation be […]

L’article Bon plan : l’alimentation be quiet! Pure Power 13 M 1000W à 135,95 euros est apparu en premier sur HardwareCooking.

  •  

NVIDIA attaquée en justice pour avoir entraîné ses IA avec 500 To de livres piratés

La course à l’intelligence artificielle laisse derrière elle une traînée de poussière juridique. NVIDIA fait désormais face à une plainte déposée devant un tribunal fédéral californien, accusée d’avoir utilisé plusieurs centaines de téraoctets de livres piratés pour entraîner ses modèles d’intelligence artificielle. Une affaire explosive, mais loin d’être isolée, qui illustre les zones grises dans […]

L’article NVIDIA attaquée en justice pour avoir entraîné ses IA avec 500 To de livres piratés est apparu en premier sur HardwareCooking.

  •  

CoreML CLI - Gérez vos modèles Apple directement dans le terminal sans Xcode !

Si vous bidouillez un peu avec des modèles CoreML sur votre Mac Silicon, vous savez que c'est vite la croix et la misère comme je dis souvent... Car dès qu'il s'agit de tester un truc rapide, faut ouvrir Xcode, pisser du Swift, ou se battre avec des scripts Python... Bref, l'usine à gaz juste pour vérifier une prédiction vite fait.

Hé bien bonne nouvelle les amis, un petit outil en ligne de commande vient de sortir pour nous éviter de trop galérer.

Ça s'appelle coreml-cli et comme son nom l'indique, c'est une interface pour inspecter et lancer vos modèles depuis le terminal. L'objectif c'est de pouvoir manipuler vos fichiers .mlmodel sans jamais avoir besoin de lancer l'IDE d'Apple.

Si vous êtes chaud bouillant, ça s'installe hyper facilement via Homebrew :

brew tap schappim/coreml-cli
brew install coreml-cli

Et une fois que c'est là, vous pouvez TOUT faire. Genre vous voulez voir ce qu'il y a dans un modèle ? Hop, un petit coreml inspect MobileNetV2.mlmodel et vous avez toute la structure, les entrées et les sorties qui s'affichent.

Et pour lancer des prédictions, c'est également très simple plus simple. Par exemple, avec le modèle MobileNet qui détecte les objets présents dans une image, vous lui donnez une image, et avec l'option --json, il vous sort le résultat proprement.

coreml predict MobileNetV2.mlmodel --input photo.jpg --json

Et pour ceux qui veulent automatiser des traitements, le mode "batch" permet de traiter tout un dossier d'images d'un coup. C'est quand même plus rapide que de le faire à la main un par un, comme le ferait un ingé de Perpignan nourri aux graines de chia.

Le développeur a même intégré un outil de benchmark pour mesurer la latence. Ça vous permet de lancer des tests sur le CPU, le GPU ou le fameux Neural Engine d'Apple pour comparer les perfs. C'est le top pour optimiser vos apps avant de les déployer.

Du coup, si vous bossez avec de l'IA locale sur Mac, un peu comme ce qu'on a déjà testé par le passé avec MocoLlamma ou sur de gros clusters Mac Studio comme ce furieux, ce petit binaire risque de vite devenir indispensable dans vos scripts CI/CD.

Amusez-vous bien !

Source

  •  

SFX : Carte mère Gigabyte X870E AERO WOOD Edition

Nos confrères de chez overclocking.com ont testé la carte mère Gigabyte X870E AERO Wood Edition. Dans le cadre de notre format SFX (Synthèse Factuelle Express), voici les éléments clés à retenir sur cette nouvelle carte mère.

Gigabyte X870E AERO Wood Edition

X870E AERO Wood Edition : L’élégance naturelle sans compromis

Cette Gigabyte X870E AERO Wood Edition se distingue immédiatement par un parti pris esthétique audacieux : l’intégration de véritables inserts en bois (noyer) sur ses dissipateurs thermiques. Ce design « Wood Edition » rompt avec les codes habituels du gaming. L’objectif est peut-être de plus s’adresser aux créateurs de contenu et aux amateurs de configurations épurées. Construite autour du chipset haut de gamme AMD X870E, elle est conçue pour accueillir tous les processeurs Ryzen 9000.

https://overclocking.com/test-x870e-aero-wood-edition/

Techniquement, elle repose sur un PCB à 8 couches de haute qualité et dispose d’un système d’alimentation robuste avec 16+2+2 phases de 110A, garantissant une stabilité exemplaire même sous de lourdes charges de travail applicatif. La connectivité est à la pointe de l’actualité avec le support natif de l’USB4, offrant des débits allant jusqu’à 40 Gbps, ainsi que le Wi-Fi 7 pour une liaison sans fil ultra-rapide. On retrouve également un port LAN 2.5 GbE. Côté stockage, elle propose quatre emplacements M.2, dont trois sont compatibles avec la norme PCIe 5.0, permettant d’atteindre des vitesses de transfert stratosphériques. L’ergonomie n’est pas en reste avec le système « EZ-Latch » qui facilite grandement le montage et le démontage de la carte graphique et des SSD M.2 sans avoir besoin d’outils complexes, une attention particulière portée au confort de l’utilisateur final.

X870E AERO Wood Edition : les principales caractéristiques techniques

Caractéristiques Détail
Chipset AMD X870E
Socket AM5 (Ryzen 7000, 8000, 9000)
Étages d’alimentation 16+2+2 phases (110A)
Mémoire 4x DDR5 (jusqu’à 8000 MT/s en OC)
Stockage 3x M.2 PCIe 5.0 + 1x M.2 PCIe 4.0
Réseau Wi-Fi 7 + Ethernet 2.5 GbE
USB 2x USB4 (Type-C), multiples USB 3.2
Format ATX

 

La X870E AERO Wood Edition ça vaut quoi ?

L’un des avantages majeurs soulignés lors des tests est l’efficacité thermique du système de refroidissement. Malgré l’aspect décoratif du bois, les dissipateurs en aluminium situés en dessous gèrent parfaitement la chaleur des VRM et des SSD NVMe PCIe 5.0, qui ont tendance à chauffer énormément. Par exemple, lors de rendus vidéo prolongés, les températures restent contenues, évitant tout phénomène de throttling. Un autre point fort réside dans la richesse de la connectivité arrière, particulièrement les deux ports USB4 qui permettent de chaîner des périphériques de stockage externes haute performance ou des écrans haute résolution. Cependant, tout n’est pas parfait. Le principal inconvénient reste le positionnement tarifaire très élevé, justifié en partie par l’exclusivité du design « Wood ». De plus, bien que la carte soit excellente en applicatif, certains puristes regretteront l’absence de certains boutons physiques directement sur le PCB pour l’overclocking extrême, comme un bouton de « Safe Boot » dédié, même si le public visé ici est celui des créateurs. Enfin, l’esthétique bois est très clivante : elle s’intègre magnifiquement dans un boîtier comme le Fractal North, mais peut paraître totalement hors sujet dans un boîtier RGB plus traditionnel, limitant ainsi les choix de composants périphériques pour garder une harmonie visuelle cohérente.

X870E AERO WOOD EDITION
X870E AERO WOOD EDITION

Conclusion

En conclusion, la Gigabyte X870E AERO Wood Edition est une pièce d’exception qui réussit le pari de marier excellentes performances et élégance. Elle ne se contente pas d’être « belle », elle offre des performances de premier ordre grâce au chipset X870E et une gestion de l’énergie capable de dompter les processeurs les plus gourmands d’AMD. Elle vise clairement un public qui recherchent une machine puissante mais capable de s’intégrer dans un environnement de travail soigné et moderne. Si vous possédez déjà une carte mère X670E performante, le passage à la X870E n’est pas forcément indispensable, sauf pour le support natif de l’USB4 et du Wi-Fi 7. En revanche, pour une nouvelle configuration haut de gamme centrée sur les Ryzen 9000, elle est hautement recommandable, à condition d’avoir le budget nécessaire et l’envie de construire un PC au look unique. C’est un produit « coup de cœur » qui ne sacrifie rien à la technique, une rareté sur le marché actuel souvent saturé par l’esthétique 100% plastique et LED.

Vous pouvez retrouver plus de détails sur cette carte mère ici avec les tests complets et les détails de son bios par exemple.

SFX : Carte mère Gigabyte X870E AERO WOOD Edition a lire sur Vonguru.

  •  

Tau5 - Le successeur de Sonic Pi se met à l'IA

Vous connaissez Sonic Pi, ce logiciel génial pour coder de la musique que je vous ai déjà présenté ? Hé bien Sam Aaron, son créateur, remet le couvert avec son nouveau projet baptisé Tau5.

Si vous avez déjà testé le live coding, vous savez comme moi que c'est une joie totale de pouvoir balancer des boucles en tapant quelques lignes de code, mais là Sam pousse le délire beaucoup plus loin. Ce nouveau joujou, c'est un peu le grand frère de Sonic Pi, pensé dès le départ pour la collaboration, mais aussi la sécurité et la compatibilité web.

Sam Aaron lors de sa keynote GOTO 2025

L'ambition de Tau5 c'est que l'outil puisse à terme intégrer des agents IA via le protocole MCP. Bien sûr, l'objectif n'est pas de remplacer le musicien (ouf !), mais de lui offrir un partenaire d'improvisation qui pourrait l'aider à crafter des boucles ou ajuster des paramètres. C'est en tout cas la vision que Sam a partagée lors de sa keynote au GOTO 2025.

Sous le capot, le système repose sur la machine virtuelle Erlang (BEAM), sur laquelle tourne aussi Elixir. C'est une architecture connue pour sa tolérance aux pannes, comme ça même si vous faites une erreur de syntaxe en plein set, le système encaisse sans que tout s'effondre et vous colle la honte avec des gens qui viendront vous dire à la fin de votre concert : "Hahaha, c'est nul t'es trucs d'IA, ça marche pas, tu vois bien que l'humain n'est pas prêt d'être remplacé ! Hahaha, loser"

Pour ceux qui se demandent ce que ça change par rapport à Sonic Pi, c'est surtout la dimension collaborative qui est mise en avant pour le futur. Avec cette nouvelle mouture, l'objectif c'est de permettre à plusieurs personnes de coder ensemble, potentiellement assistées par une IA. Je trouve que c'est une évolution de la création musicale par ordi plutôt logique vers quelque chose de plus connecté.

Si le sujet vous branche, je vous remets le lien vers mon article sur la découverte de Sonic Pi , histoire de voir d'où on part. Bref, tout ça reste trèss fidèle à la philosophie de Sam qui est depuis le début de rendre le code accessible et créatif à tous.

Bref, si vous aimez la musique, le code, ou juste voir des gens brillants repousser les limites, jetez un œil à sa présentation ou au dépôt GitHub .

  •  

Social Analyzer - Le détective du web qui scanne vos profils sociaux (OSINT)

Qui n'a jamais eu envie de savoir si "KikouLolDu93" avait aussi un compte sur un site de rencontre ou un forum obscur de haxx0rs ? C'est humain, c'est de la curiosité... ou de l'OSINT (Open Source Intelligence) si vous voulez faire genre vous êtes un pro. Et pour ça, j'ai l'outil qu'il vous faut : Social Analyzer .

Ce script est un détective privé numérique qui va frapper à la porte de plusieurs centaines de sites (Facebook, X (ex-Twitter), Instagram, Tinder, et des trucs bien plus niches) pour vérifier la présence d'un pseudo.

Développé par qeeqbox, Social Analyzer ne se contente pas de tester une URL. Il analyse les pages, vérifie les métadonnées, et vous sort un score de confiance de 0 à 100. Notez qu'un score de 100 n'est pas une preuve d'identité absolue (on n'est pas à la police scientifique), mais une forte probabilité basée sur les signaux trouvés. À l'inverse, un score de 0 peut signifier que c'est un homonyme, ou simplement que le site a bloqué la requête. Ça évite en tout cas de stalker la mauvaise personne trop vite.

L'outil est codé en JavaScript et Python, et vous pouvez l'utiliser en ligne de commande ou via une interface web plutôt propre si le terminal vous donne de l'urticaire.

Comment on installe la bestiole ?

Vous avez plusieurs options, mais la plus simple si vous avez Python 3 d'installé, c'est via pip (vérifiez bien que c'est le paquet officiel) :

pip3 install social-analyzer

Et hop, c'est réglé. Ensuite pour lancer une recherche rapide, c'est aussi simple que :

social-analyzer --username "le_pseudo_a_chercher"

Si vous êtes plus team NodeJS, vous pouvez aussi cloner le dépôt GitHub et lancer ça à la main :

git clone https://github.com/qeeqbox/social-analyzer.git
cd social-analyzer
npm install
npm start

Ça lancera l'interface web sur votre machine (généralement sur le port 9005), et vous pourrez faire vos recherches tranquillement en cliquant sur des boutons.

Et ça marche vraiment ?

Franchement, oui. C'est même assez bluffant de voir tout ce qui ressort. Il peut même tenter d'extraire des infos supplémentaires comme la bio ou l'avatar si les sites ne sont pas trop protégés contre le scraping.

Par contre, petit disclaimer habituel : ce genre d'outil, c'est pour de l'investigation légitime. Genre vérifier vos propres traces numériques pour faire du nettoyage, ou pour des enquêtes de sécu. Ne commencez pas à l'utiliser pour harceler les gens, le web n'a pas besoin de ça.

D'ailleurs, si le sujet de l'OSINT vous branche, jetez un œil à mon article sur Blackbird qui fait un boulot similaire, ou apprenez à analyser un profil GitHub comme un chef.

Bref, Social Analyzer c'est puissant, c'est open source, et ça fait le café. À utiliser avec intelligence évidemment !

Merci à Lorenper !

  •  

Wake - L'outil qui donne de la mémoire à Claude Code

Vous utilisez Claude Code et vous passez votre temps à copier-coller vos logs de terminal pour lui donner du contexte ? Du genre, vous lancez une commande, ça se plante comme une merde, et là faut expliquer à l'IA ce qui s'est passé en faisant des screenshots ou du copier-coller à la main.

C'est vite relou mais heureusement, c'est totalement le problème que résout Wake , un petit outil en Rust qui enregistre automatiquement tout ce qui se passe dans votre terminal et le donne en offrande sacrée à Claude Code via le protocole MCP. Du coup, plus besoin de jouer les secrétaires IA, puisque Claudo Code, euuh Claude Code peut interroger votre historique de commandes avec les sorties et le contexte git quand il en a besoin.

Au début, vous lancez wake shell et hop, vous êtes dans une session enregistrée. Ensuite toutes vos commandes, leurs sorties, et même les infos de votre repo git, tout est capturé et stocké localement dans une base SQLite bien planquée dans ~/.wake/. Puis quand vous posez une question à Claude Code, il peut aller piocher dans cet historique pour comprendre ce que vous avez fait.

L'installation se fait en une seule ligne (allez lire le script comme d'hab, hein) :

curl -sSf https://raw.githubusercontent.com/joemckenney/wake/main/install.sh | sh

Après faut ajouter l'init dans votre .zshrc ou .bashrc :

eval "$(wake init zsh)"

Et pour brancher ça sur Claude Code :

claude mcp add --transport stdio --scope user wake-mcp -- wake-mcp

Côté commandes, y'a wake log pour voir l'historique récent, wake search "machin truc" pour fouiller dedans, wake dump pour exporter en markdown et wake annotate "note" si vous voulez ajouter des petites marqueurs pour vous y retrouver plus tard. Le stockage reste en local sur votre machine, et les sorties sont limitées à 1 Mo par commande pour éviter de saturer la base.

Donc si vous êtes le genre de gaillard.e sans peur à laisser Claude piloter votre terminal ou à utiliser plusieurs agents en parallèle , c'est le genre d'outil qui peut vraiment vous faire gagner du temps car là où avant fallait tout expliquer à l'IA, maintenant elle voit directement ce que vous avez fait et pourquoi ça a merdé.

Le projet vient de sortir en v0.1.0, donc c'est encore tout frais. Ça supporte zsh et bash pour le moment. Par contre, fish c'est pas encore au programme.

  •  

Ghostty Config - Un outil GUI pour configurer Ghostty sans se prendre la tête

Vous passez vos journées dans un terminal et vous avez craqué pour Ghostty ? Sauf que voilà... éditer un fichier de config à la main, c'est un peu comme remplir et payer sa déclaration d'impôts. On sait qu'on peut le faire, mais on préférerait que quelqu'un d'autre s'en charge.

Du coup, un développeur de la communauté a eu la bonne idée de créer Ghostty Config, une interface web qui permet de configurer son terminal sans toucher à un seul fichier texte. Vous sélectionnez vos options dans des menus déroulants, vous cochez des cases, et hop, ça génère la config toute seule.

Le truc cool c'est que l'outil couvre pas mal de terrain : les polices (avec un playground pour tester en direct), les couleurs, les raccourcis clavier, les curseurs, la transparence... Et des presets communautaires sont prévus pour ceux qui ont la flemme de tout paramétrer à la main.

Une fois que vous êtes content du résultat, vous exportez le fichier de config et vous le collez dans votre dossier Ghostty. L'inverse marche aussi, vous pouvez importer votre config existante pour la modifier visuellement. Pratique si vous avez déjà passé des heures à peaufiner votre setup et que vous voulez juste ajuster deux ou trois trucs.

Bref, si vous voulez profiter de Ghostty sans vous farcir la doc des 200+ options de configuration, c'est par là que ça se passe .

  •  

OpenAI lance un mois Codex : agent d’ingénierie logicielle et risque élevé

Sam Altman a annoncé sur X le lancement d’un « mois Codex » chez OpenAI, avec une première salve de produits attendue la semaine prochaine. Codex ne se limite plus à un simple API de complétion : l’éditeur le positionne comme un véritable environnement d’ingénierie logicielle, combinant modèles, outils et enchaînements de tâches sous la forme d’un agent logiciel opérationnel.

OpenAI prévient que les nouveaux modèles Codex atteignent pour la première fois le niveau « High » de risque cybersécurité dans son Preparedness Framework, juste en dessous du palier « Critical ». En clair, les capacités franchissent le seuil où l’IA peut lever des verrous techniques existants côté attaque, de l’assistance à la création d’outils d’offensive à l’automatisation d’opérations de bout en bout, jusqu’à la découverte et l’exploitation autonome de vulnérabilités jugées exploitables.

Capture d'écran d'un tweet détaillant le lancement du mois Codex par OpenAI.

Le risque systémique est explicite : un déséquilibre du rapport attaque/défense, avec une hausse du volume et de l’ampleur des intrusions. OpenAI dit adopter un déploiement par étapes : d’abord des restrictions strictes d’usage pour réduire l’abus criminel, puis un recentrage sur « l’accélération de la défense », en s’appuyant sur l’IA pour identifier et corriger plus vite les failles côté utilisateurs et équipes produit.

Feuille de route et garde-fous annoncés

Tableau montrant les scores de risque dans divers domaines, y compris la cybersécurité.

Altman assume une philosophie de publication contrôlée : ne pas sortir les modèles ne serait « pas une solution » alors que des versions plus puissantes émergeront inévitablement. L’objectif affiché est d’augmenter dès maintenant le niveau de sécurité logiciel chez les développeurs et entreprises, tout en calibrant les capacités exposées pour limiter l’industrialisation d’attaques.

En parallèle de l’annonce sur X, OpenAI a détaillé sur son site la logique interne de Codex CLI, un agent local multiplateforme. Le cœur est un « Agent Loop » chargé d’orchestrer les interactions entre l’utilisateur, le modèle et les outils : transformation des instructions en tokens, raisonnement, appels d’outils (y compris opérations fichiers), puis synthèse d’une réponse exécutable.

Codex CLI et boucle d’agent

Cette boucle vise à fiabiliser des séquences d’actions répétables et auditable, un point clé pour contenir les dérives tout en conservant la vitesse d’itération promise par l’IA. L’approche outille surtout l’exécution locale, ce qui peut faciliter l’intégration dans des pipelines CI/CD et des environnements de développement verrouillés.

Schéma de boucle d'agent illustrant les étapes de traitement utilisateur et réponse.

Si OpenAI parvient à livrer un gain net côté défense avant que les capacités d’attaque ne se diffusent, l’impact pourrait être tangible sur les cadences de remédiation, la priorisation des correctifs et la qualité des bases de code. Le point d’équilibre dépendra toutefois des seuils de restriction retenus, de la transparence des journaux d’actions de l’agent et de l’adoption réelle dans les chaînes outillées des grands éditeurs.

Source : ITHome

  •  

ZOTAC annule des commandes RTX 50 et reliste plus cher après « erreur système »

Des acheteurs rapportent que la boutique ZOTAC a annulé des commandes de GeForce RTX 50 passées lors d’un drop récent, avant de remettre en vente les mêmes cartes à des tarifs plus élevés. Les emails évoquent une « erreur système », suivie d’une indisponibilité temporaire du store. Un enchaînement qui intervient dans un contexte de pénurie déjà marquée sur les RTX 5090, et qui relance le débat autour des prix « MSRP » et de la gestion des stocks lors des lancements très tendus.

Cet épisode intervient alors que plusieurs sources évoquent un net ralentissement de l’approvisionnement des RTX 50, NVIDIA priorisant désormais massivement ses capacités de production vers l’IA, au détriment du marché gaming.

ZOTAC RTX 50 annulées, prix en hausse

La page de politique de ZOTAC indique qu’une commande peut être annulée sous 1 jour ouvré si elle n’a pas été expédiée. Elle précise aussi que ZOTAC USA peut ajuster annonces et prix, et décline toute responsabilité en cas d’erreur d’affichage. C’est leur droit, mais l’impact réputationnel est évident quand on vous demande soudain de payer plusieurs centaines de dollars de plus.

Message de ZOTAC annulant des commandes RTX 50 avec instructions pour en passer une nouvelle.

Selon le fil Reddit à l’origine du signalement, les RTX 5090 étaient listées à 2 299, 2 399 et 2 449 $ avant relistage, et la RTX 5080 serait passée de 999 $ à 1 249 $. À titre indicatif, cela représente environ 2 120 à 2 260 € pour les RTX 5090, et 930 à 1 145 € pour la RTX 5080 selon le taux de change courant, hors taxes et frais.

Pénurie et pression sur les prix

La pression sur les RTX 5090 est déjà palpable. Des rapports récents évoquent une rareté chez les grands retailers US, avec des listings tiers souvent entre 3 500 et 4 500 $. ZOTAC est d’autant plus pointé du doigt que ses modèles étaient présentés comme « MSRP » mais, d’après Der8auer, cela ne serait plus garanti.

Depuis la parution de ces informations, l’accès au site ZOTAC a été compliqué. Annoncé en maintenance plus de 24 heures, le store bloque en réalité le trafic non-US.

Si la demande reste supérieure à l’offre sur la RTX 5090, la fenêtre pour des prix « MSRP » se referme. Les annulations suivies d’un relistage plus cher n’aident ni la confiance des acheteurs ni la lisibilité du lancement, et renforcent le rôle des revendeurs tiers dans la formation de prix déjà déconnectés du marché de masse.

Source : VideoCardz

  •  

GIGABYTE GO27Q24G : écran OLED 27″ QHD 240 Hz avec dalle WOLED Glossy MLA+

Alors que le QD-OLED mat s’est imposé comme le standard des écrans gaming haut de gamme, Gigabyte prend une direction inattendue. Le constructeur lance discrètement le GO27Q24G, un moniteur OLED 27 pouces 1440p à 240 Hz qui fait un pari audacieux : abandonner le mat au profit d’un écran WOLED glossy. Une décision qui relance un débat que l’industrie croyait tranché.

En effet, Gigabyte a mis en ligne sans grande communication un nouveau moniteur de jeu, le GO27Q24G. Sur le papier, il ressemble fortement au GO27Q24 lancé fin 2025 : dalle OLED 27 pouces, définition QHD et fréquence de 240 Hz. Mais une différence clé change profondément son positionnement.

Là où le modèle précédent utilisait un panneau QD-OLED à traitement mat, ce nouveau GO27Q24G adopte une dalle WOLED MLA+ avec finition RealBlack Glossy. Un choix qui rompt avec la tendance actuelle, alors que la plupart des fabricants privilégient encore le mat pour limiter les reflets, parfois au détriment du contraste perçu.

realblack glossy woled gigabyte go27q24g oled

Finition RealBlack Glossy à surveiller ?

Avec cette surface brillante, Gigabyte cherche clairement à maximiser les forces intrinsèques de l’OLED. Les noirs gagnent en profondeur, les transitions sombres paraissent plus nettes et l’image retrouve une clarté souvent atténuée par les traitements mats. En contrepartie, la gestion des reflets devient un paramètre à surveiller, notamment dans les environnements lumineux.

SDR à 275 nits en plein écran et HDR jusqu’à 1 300 nits

La luminosité est justement l’un des arguments centraux du GO27Q24G. En usage SDR, l’écran atteint 275 nits en plein écran, tandis que le HDR peut grimper jusqu’à 1 300 nits sur de petites zones. Gigabyte introduit pour l’occasion un mode baptisé HyperNits, conçu pour pousser encore plus loin les pics lumineux. Deux niveaux sont proposés, avec un gain annoncé de 20 à 30 %, selon l’éclairage ambiant, sans écrêtage des hautes lumières.

gigabyte go27q24g oled qhd 240 hz en woled mla

GIGABYTE GO27Q24G : Fiche Technique

Sur le plan technique, la fiche reste solide et cohérente avec le segment visé. La dalle affiche une résolution de 2 560 x 1 440 pixels à 240 Hz, avec un temps de réponse de 0,03 ms. Le moniteur ne propose pas de mode dual-resolution, mais il prend en charge à la fois G-Sync et FreeSync, et bénéficie de la certification DisplayHDR True Black 400. La couverture colorimétrique annoncée atteint 99 % du DCI-P3.

connectique gigabyte go27q24g oled

La connectique se montre classique mais complète, avec deux ports HDMI 2.1, un DisplayPort 1.4, un port USB-C capable de fournir jusqu’à 15 W, ainsi qu’une sortie casque. Le pied fourni est entièrement réglable, sans compromis apparent sur l’ergonomie.

Avis Pause Hardware

La mention d’une dalle WOLED MLA+ ne relève pas uniquement du discours marketing. Cette technologie de micro-lentilles vise à améliorer l’efficacité lumineuse de l’OLED en augmentant les pics HDR sans solliciter excessivement les pixels, ce qui peut contribuer à limiter l’agressivité de l’ABL et la montée en température. En pratique, ces bénéfices restent étroitement dépendants du contenu affiché et ne font pas disparaître les contraintes structurelles de l’OLED, en particulier sur les grandes zones lumineuses.

À ce stade, Gigabyte n’a communiqué ni le prix ni la date de disponibilité du GO27Q24G. Ce silence entretient l’impression d’un lancement volontairement discret, presque expérimental. Reste une question centrale : ce retour assumé vers une surface glossy sur un écran OLED gaming haut de gamme relève-t-il d’un pari de niche, ou annonce-t-il un basculement plus large du marché face aux limites perçues du QD-OLED mat ?

  •  

AMD RDNA 5 « gfx1310 » apparaît dans LLVM : premiers indices dGPU concrets

Une nouvelle entrée « gfx1310 » a fait son apparition dans le dépôt LLVM, confirmant l’amorçage du support pour un GPU AMD de la famille GFX13, autrement dit RDNA 5, et identifié comme une carte graphique dédiée. Ce type d’atterrissage dans l’infrastructure du compilateur précède habituellement les phases de validation interne des pilotes et l’écosystème toolchain, et marque un jalon concret côté logiciel.

Le libellé « gfx1310 » s’inscrit dans la nomenclature AMD où GFX10, 11 et 12 correspondent respectivement à RDNA, RDNA 2 et RDNA 3/3.5. GFX13 est donc le premier indicateur opérationnel d’une bascule RDNA 5 dans les chaînes de compilation. Le code repéré suggère une cible dGPU et non une intégration iGPU, ce qui oriente vers les futures cartes grand public et professionnelles dédiées.

Des fuites antérieures évoquaient des puces RDNA 5/« UDNA » avec jusqu’à 96 unités de calcul et un bus mémoire jusqu’à 512 bits. Ces paramètres n’apparaissent pas dans LLVM et doivent rester considérés comme non confirmés. En revanche, la présence dans LLVM implique que les identifiants matériels et certaines caractéristiques ISA commencent à être figés pour la chaîne de compilation.

AMD RDNA 5 « gfx1310 » apparaît dans LLVM : premiers indices dGPU concrets

Ce que change l’arrivée de « gfx1310 » dans LLVM

L’ajout d’un nouveau target dans LLVM ouvre la voie à l’alignement des pilotes open source (Mesa/ROCm) et aux optimisations spécifiques de l’ISA RDNA 5 côté shader et compute. Les développeurs peuvent commencer à câbler les chemins de compilation, à intégrer les premiers passes d’optimisation et à préparer le support dans les piles graphiques et GPGPU.

Le rythme habituel veut que ces commits précèdent de plusieurs mois toute annonce produit. À ce stade, aucune donnée chiffrée issue du dépôt ne valide les configurations mémoire ou le nombre de cœurs, mais le positionnement « dGPU » laisse augurer un die dédié et non une déclinaison APU.

Si AMD verrouille effectivement un bus 512 bits sur au moins une référence RDNA 5, l’écosystème compiler/pilotes devra intégrer des chemins spécifiques de gestion de bande passante et de hiérarchies de cache, avec des impacts directs sur le scheduling et la coalescence mémoire. C’est typiquement ce que ces premiers commits LLVM permettent d’anticiper côté toolchain, bien avant les benchmarks publics.

Source : ITHome

  •  
❌