↩ Accueil

Vue normale

Reçu aujourd’hui — 7 novembre 2025 7.1 📜 Résumé - Tech.

Zen 6 / Ryzen 11000 : un max de core ?

7 novembre 2025 à 12:20

Zen 6 Ryzen 11000

Avant de commencer, ceci est une rumeur qui n’a fait l’objet d’aucune confirmation officielle. Plusieurs sources affirment que l’architecture Zen 6 sera un bond en avant majeur pour AMD. Concernant les processeurs desktop, les futurs Ryzen 11000 (ce nom reste à confirmer) bénéficieraient de la plus grosse évolution depuis les Ryzen 3000. L’élément central de […]

L’article Zen 6 / Ryzen 11000 : un max de core ? est apparu en premier sur Overclocking.com.

Samsung sort son arme contre Dolby Vision 2 : le HDR10+ Advanced

7 novembre 2025 à 12:10
HDR10+advanced

Samsung riposte. Peu après la révélation du Dolby Vision 2, le titan coréen dévoile le HDR10+ Advanced. Cette version améliorée de son format HDR open source utilise l'intelligence artificielle pour perfectionner l'image, obtenir des luminosités extrêmes et, surtout, enfin résoudre le problème de « l'effet soap opera » qui déforme les films. La bataille des normes est remise en cours.

Prime AP303 : nouveau boîtier signé ASUS !

Par :NHU9B
7 novembre 2025 à 12:07

ASUS Prime AP303

Nouveau boîtier chez ASUS qui élargit sa gamme Prime. La marque initiait cette gamme avec le Prime AP201 puis la complétait avec le Prime AP202. Aujourd’hui, nous apprenons l’annonce du prime AP303, un modèle qui conserve l’esprit de la série, mais qui adopte un format moyen tour et qui se veut compatible avec les cartes mères ATX […]

L’article Prime AP303 : nouveau boîtier signé ASUS ! est apparu en premier sur Overclocking.com.

Hydroshift II-S : nouvel AIO Lian Li avec tuyaux dissimulés !

Par :NHU9B
7 novembre 2025 à 12:01

Lian Li Hydroshift II-S UNI CL

Nouveaux kits watercooling à venir chez Lian Li qui annonce sa série Hydroshift II-S. Au programme, nous retrouvons des kits dont le design est soigné avec des tuyaux et des câbles masqués au maximum. Trois versions sont proposées suivant le style d’éclairage que vous préférez tandis qu’une déclinaison sans ventilateurs vous permettra d’y monter les moulins de […]

L’article Hydroshift II-S : nouvel AIO Lian Li avec tuyaux dissimulés ! est apparu en premier sur Overclocking.com.

Toyota s'inspire du monde animal… pour créer un fauteuil "roulant" pas comme les autres !

7 novembre 2025 à 11:59
Présenté au Japan Mobility Show 2025, le concept Walk Me de Toyota ne ressemble à rien de ce que l’on connaît. Ni voiture, ni robot, ni fauteuil roulant au sens classique : c’est une plateforme de mobilité à quatre pattes, pensée pour aider les personnes à se déplacer dans des environnements où les roues montrent leurs limites.

Networking Toolbox - La boite à outil open source de l'admin réseau

Par :Korben
7 novembre 2025 à 12:00

Vous êtes admin réseau et vous en avez marre de jongler entre différents outils pour calculer un masque de sous-réseau, vérifier un enregistrement DNS, ou tester une config DHCP ?

Ça tombe bien puisque Networking Toolbox débarque avec tous les outils réseau dont vous avez besoin dans une seule interface plutôt propre et carrée.

Le projet est développé par Alicia Sykes , une développeuse qui a déjà pas mal de projets open-source à son actif et son idée c’est de regrouper plus d’une centaine d’utilitaires réseau au même endroit, sans dépendances tierces, sans tracking, et avec une interface qui fonctionne aussi bien sur desktop que sur mobile.

Le site propose des outils dans cinq grandes catégories. Du calcul de sous-réseaux, avec des calculateurs IPv4 et IPv6, de la planification VLSM, des outils CIDR pour convertir des masques ou générer des plages IP. Ensuite, les diagnostics réseau : lookups DNS, vérifications TLS, tests de connectivité, analyses HTTP et email. Vous avez aussi des générateurs pour DHCP et DNS, avec création d’enregistrements, validation DNSSEC, et configuration de zones complètes. Et bien sûr, tout un tas d’utilitaires divers pour convertir, valider, et manipuler des données réseau.

Ce qui est pratique, c’est que vous pouvez bookmark n’importe quel outil avec un clic droit. Ça le rend accessible offline et l’épingle en haut de votre page d’accueil. Si vous utilisez souvent les mêmes choses, ça évite de naviguer dans les menus à chaque fois. L’interface supporte ausis plusieurs langues, plusieurs thèmes visuels, et se contrôle entièrement au clavier.

Niveau techno, c’est du Svelte avec TypeScript, compilé en SvelteKit. Les calculs se font côté client, donc pas de latence serveur et le code est publié sous licence MIT. Vous pouvez donc le déployer sur votre propre infrastructure si vous ne voulez pas utiliser l’instance publique.

3 options principales s’offrent à vous : un conteneur Docker qui se lance avec une ligne de commande, un déploiement sur des plateformes cloud comme Vercel ou Netlify, ou un build statique que vous hébergez où vous voulez.

Pour Docker, c’est hyper fastoche. Vous tapez

docker run -p 3000:3000 lissy93/networking-toolbox

et l’interface est alors accessible sur localhost:3000. Si vous préférez compiler depuis les sources, le repo est ici sur Codeberg . Vous le clonez, vous installez les dépendances avec yarn, et vous lancez le serveur de dev avec yarn dev. Le projet se compile en build statique, en build Node.js, ou avec des adaptateurs pour GitHub Pages et autres hébergeurs statiques…

Le plus intéressant, c’est que Networking Toolbox propose aussi une API gratuite, sans clé, sans restrictions CORS. Si vous développez vos propres outils ou scripts d’automatisation réseau, vous pouvez interroger l’API directement sans config particulière pour par exemple, convertir un masque, valider une plage IP, ou générer un enregistrement DNS programmatiquement !

Voilà, si vous administrez des réseaux ou si vous étudiez les infras, testez-le. Je pense que vous gagnerez du temps et vous arrêterez de chercher “subnet calculator” sur Google toutes les cinq minutes.

Merci à Lorenper pour l’info !

Elon Musk a trouvé comment sauver la planète avec des satellites IA - Et c'est complétement con

Par :Korben
7 novembre 2025 à 10:42

Vous avez déjà vu quelqu’un polluer le ciel avec +10 000 satellites puis proposer d’en lancer des millions de plus pour sauver la planète ?

Bienvenue dans l’univers mental dérangé d’Elon Musk, où la solution à la pollution, c’est toujours plus de pollution… mais en mieux, évidemment !

Le 3 novembre dernier, Musk a balancé sur son réseau social de fachos, une idée qui ressemble à du Rick et Morty dans le texte : “Une large constellation de satellites alimentés à l’énergie solaire et dotés d’une IA serait capable d’endiguer le réchauffement climatique en ajustant légèrement la quantité d’énergie solaire atteignant la Terre”.

Hein ?

C’est une propal qui couterait des trillons de dollars, soit environ 200 ans de budget de la NASA et je vous rappelle quand même que c’est le même gars qui dirigeait le “Department of Government Efficiency” (DOGE) dont la mission était de traquer le moindre dollar de dépense publique inutile. Lol.

En plus, les satellites Starlink actuels posent déjà d’importants problèmes, en perturbant notamment les observations astronomiques. La V2 de ses satellites émet quand même 32 fois plus de radiations électromagnétiques que la V1, ce qui fout en l’air pas mal de radio-telescopes.

Et maintenant, son plan ce serait d’en ajouter des millions de plus ? Autant éteindre un incendie avec de l’essence.

Et puis est-ce que techniquement, ça fonctionnerait ?

Hé bien pour réduire le réchauffement climatique de manière significative, il faudrait bloquer environ 1 à 2% du rayonnement solaire qui atteint la Terre. Ça représente une surface de plusieurs millions de km² en orbite, positionnée au point de Lagrange L1 (à environ 2,36 millions de km de la Terre). Pour vous donner un point de comparaison, l’ensemble des satellites Starlink actuels ont une surface totale vraiment ridicule par rapport à ce qui serait nécessaire pour ce projet.

Et le temps de développement estimé par les spécialistes pour un tel projet serait d’environ 25 ans. En gros, 25 ans durant lesquels on pourrait continuer à cramer du charbon et du pétrole en se disant “c’est bon, on est sauvé, le bouclier spatial arrive”. J’ai comme un arrière-goût de Don’t Look Up dans la bouche…

Et puis il y a surtout ce problème du “termination shock”. Si le système tombe en panne, est saboté pendant une guerre, ou simplement arrêté pour maintenance, ça provoquerait une augmentation brutale et catastrophique des températures. Bref, on aurait créé une dépendance dont on ne pourrait plus se passer sans catastrophe majeure. C’est l’arme climatique parfaite déguisée en solution environnementale. Hé oui, le climat, ça ne marche pas vraiment comme un thermostat…

Et au fait, qui contrôlerait ce thermostat planétaire ?

Musk ? SpaceX ? Le gouvernement américain ? L’ONU ? Ils nous feraient payer combien pour avoir un peu plus de luminosité sur nos tomates ? Et si bloquer le soleil pour refroidir l’Europe provoque une sécheresse en Afrique, on fait quoi ?

On vote ? lol

Bah non… Car pour le moment, il n’existe aucun cadre légal international pour gérer ça. L’ Union of Concerned Scientists s’oppose même officiellement au déploiement de la géo-ingénierie solaire parce que ça pose des risques environnementaux, sociaux et géopolitiques inacceptables. L’agence environnementale allemande dit carrément que c’est “hautement risqué et ne représente pas une solution praticable à la crise climatique”.

Mais le pire, c’est que cette idée ne résout rien au problème de fond. Le CO2 continuera de s’accumuler dans l’atmosphère et l’acidification des océans continuera. Ce serait juste un pansement spatial sur un cancer planétaire.

Quand je pense que pour une fraction du coût de cette constellation de satellites, on pourrait décarboner complètement l’économie mondiale avec du renouvelable, du nucléaire, masse d’isolation des bâtiments…etc. En vrai, on a déjà des tas de solutions qui fonctionnent et qui sont moins chers, mais, bon, on préfère croire en des milliardaires qui se prennent pour des Dieux.

Voilà, une encore une belle idée de merde d’Elon Musk !

Ça buzze, et certains pourraient croire que c’est sérieux. Sauf que ça ne l’est pas. C’est techniquement délirant, économiquement absurde, écologiquement risqué, et politiquement ingérable !

Bref…

PROMPTFLUX - Le malware qui demande à Gemini comment échapper aux antivirus

Par :Korben
7 novembre 2025 à 10:15

Bon vous savez tous comment marche votre antivirus. Il détecte un malware, il le bloque, et tout revient à la normale.

Mais si je vous disais que maintenant, c’est parfaitement possible qu’une heure plus tard le même malware se repointe, sauf que c’est plus le même, parce que son code a changé. Car entre temps, il a demandé à Google Gemini de le réécrire…

Bien c’est pas de la science-fiction, hein, c’est ce que décrit un rapport du Google Threat Intelligence Group (GTIG) qui nous présente une nouvelle génération de malwares qui intègrent des LLM directement dans leur exécution.

Plus de génération statique du code, c’est le malware lui-même qui appelle une API LLM pendant qu’il tourne, demande des modifications, se réécrit, et repart faire sa besogne.

Les deux exemples les plus marquants s’appellent PROMPTFLUX et PROMPTSTEAL .

PROMPTFLUX, c’est un dropper en VBScript qui appelle l’API Gemini pour obfusquer son propre code. Il se réécrit dans la base de registre Windows pour persister au reboot, puis demande à Gemini de générer de nouvelles variantes d’obfuscation. Son module interne s’appelle “Thinking Robot” et il interroge Gemini régulièrement du genre “Comment contourner l’antivirus X ? Propose des variantes de mon code pour éviter la signature Y.

Gemini lui répond, le malware applique le conseil, se modifie, et se relance.

Comme les antivirus détectent les malwares par signatures ou comportements connus, si le malware change toutes les heures, les signatures deviennent immédiatement obsolètes. L’antivirus a alors toujours un coup de retard. Et PROMPTFLUX n’a même pas besoin d’un serveur C2 pour télécharger de nouvelles variantes puisqu’il génère ses propres variantes localement en demandant à Gemini.

GTIG estime que PROMPTFLUX est encore en développement et les échantillons analysés ne montrent pas de capacité réelle à compromettre un réseau. Mais ça reste une preuve de concept active… En gros, quelqu’un, quelque part teste cette approche.

PROMPTSTEAL, lui par contre, est déjà opérationnel. GTIG l’attribue à APT28 (FROZENLAKE), un groupe lié au renseignement militaire russe (GRU). Le CERT-UA l’a documenté sous le nom LAMEHUG en juillet dernier et c’est la première observation d’un malware qui interroge un LLM en opération réelle.

PROMPTSTEAL de son côté est écrit en Python. Il utilise l’API Hugging Face pour accéder au modèle Qwen2.5-Coder-32B-Instruct . Le malware envoie des prompts encodés en Base64, genre “récupère les infos système” ou “trouve les documents sensibles” et le LLM génère des commandes Windows d’une ligne qui sont ensuite exécutées localement par le malware. Ensuite ce dernier collecte les données et les exfiltre tranquillement.

L’astuce donc, c’est que le malware ne contient plus de commandes en dur. Il les génère à la volée selon le contexte comme ça, si l’environnement change, il demande de nouvelles commandes adaptées. Plus de pattern fixe à détecter et chaque exécution est différente.

GTIG mentionne aussi d’autres exemples tels que FRUITSHELL, un reverse shell PowerShell public qui contient des prompts pour contourner les protections LLM ou encore PROMPTLOCK, un concept de ransomware en Go qui utilise un LLM pour générer des scripts Lua de chiffrement.

Il y a aussi QUIETVAULT, un voleur de tokens JavaScript qui cible GitHub et NPM, puis exfiltre les résultats via des repos publics.

Tous ces malwares partagent la même idée : intégrer un LLM dans la chaîne d’exécution. Génération, obfuscation, commandes dynamiques, recherche de secrets… Le LLM devient un composant actif du malware !

Le rapport décrit aussi comment les attaquants contournent les protections des LLM à base d’ingénierie sociale dans les prompts. L’attaquant se fait passer le plus souvent pour un étudiant en sécurité, un participant à un CTF, ou encore un chercheur parfaitement légitime. Le LLM, configuré pour aider, répond alors à toutes les demandes.

Dans un cas documenté par GTIG, une tentative a mal tourné pour les attaquants. On le sait car dans les logs de leurs échanges avec le LLM, GTIG a trouvé des domaines C2 et des clés de chiffrement en clair. Les attaquants avaient oublié de nettoyer leurs tests et c’est grâce à ça que GTIG a récupéré l’accès à leur infrastructure puis l’a neutralisée.

Le rapport liste aussi les groupes étatiques actifs comme UNC1069 (MASAN) , lié à la Corée du Nord, qui utilise les LLM pour générer des deepfakes et voler des cryptoactifs. Ou encore UNC4899 (PUKCHONG) , aussi nord-coréen, qui emploie les modèles pour développer des exploits et planifier des attaques sur les supply chains.

De son côté, APT41 , un groupe étatique chinois, s’en sert pour obfusquer du code. Et le groupe iranien APT42 , a même tenté de construire un agent SQL qui traduirait des requêtes en langage naturel vers des commandes d’extraction de données sensibles. GTIG les a bloqué en coupant les comptes qu’ils utilisaient.

Et sur le marché noire, ce genre d’outils et de services multi-fonctions ont le vent en poupe. Génération de campagne de phishing, création de deepfakes, génération automatique de malwares, abonnements avec accès API…etc.

Leur modèle commercial copie celui des services légitimes avec une version gratuite basique pour gouter et un abonnement payant pour les fonctions avancées, avec des communautés Discord pour le support. Ça permet d’abaisser la barrière d’entrée pour les attaquants les moins expérimentés.

Côté défense maintenant, les recommandations sont assez classiques. Pensez à surveiller l’activité anormale des clés API qui pourraient être volées. Détectez les appels inhabituels à des services LLM externes depuis les processus. Contrôlez l’intégrité des exécutables et protégez tout ce qui est “secrets” sur les hôtes.

N’oubliez pas non plus de ne jamais, ô grand jamais, exécuter aveuglément des commandes générées par un modèle IA (je vous l’ai assez répété).

Voilà, tous ces exemples actuels sont expérimentaux mais le signal est donné et il est plutôt limpide : l’IA est en train de rendre les malwares plus virulents en leur permettant de s’adapter !

Source

MocoLlamma - Ollama gérable depuis iPhone, iPad et Vision Pro

Par :Korben
7 novembre 2025 à 10:00

Vous avez installé Ollama sur votre Mac et vous êtes le plus joyeux de tous les mammifères car vous faites tourner Llama 3.x en local comme un chef. Et puis un soir, posé dans votre canapé avec votre iPad de bourgeois capitaliste, vous vous dites que ce serait bien de pull un nouveau modèle. Et là, vous réalisez qu’il va falloir sortir le MacBook, ouvrir un terminal, taper ollama pull mistral, attendre et attendre… Grosse flemme non ?

Hé oui, Ollama reste un outil en ligne de commande. C’est génial pour les devs, mais galère pour le reste et vous avez beau avoir de la puissance de calcul dans votre poche avec un iPhone ou un iPad, c’est impossible de gérer vos modèles sans SSH et sans Terminal.

Heureusement, MocoLlamma vient combler ce fossé. C’est une app de gestion Ollama pour macOS, iOS, iPadOS, et même visionOS si vous avez ce truc. C’est donc une vraie app native avec interface graphique, développée en Swift et SwiftUI dans laquelle ous ajoutez vos serveurs Ollama, et où vous gérez vos modèles, et vous testez vos LLM via un chat basique.

L’app s’organise autour de trois onglets. Le premier, Server, vous permet d’ajouter et de switcher entre plusieurs serveurs Ollama. Vous pouvez ainsi renommer chaque serveur, gérer les connexions, bref, tout ce qu’il faut pour jongler entre votre Mac local, votre serveur, ou votre instance cloud si vous en utilisez une.

Le second onglet, Model, affiche tous les modèles disponibles sur le serveur sélectionné. Vous voyez ainsi les infos de chaque modèle, vous pouvez les trier par taille, les ajouter ou les supprimer. Comme ça, plus besoin de taper ollama list pour savoir ce qui tourne. Tout est là, visuellement, avec la possibilité de gérer vos modèles d’un tapotage bien senti.

Le troisième onglet, Chat, permet de tester rapidement un modèle. C’est volontairement basique et l’idée n’est pas de remplacer ChatGPT ou Open WebUI, mais juste de vérifier qu’un modèle répond correctement. Genre, vous venez de pull Qwen 3, et vous voulez voir s’il fonctionne avant de l’intégrer dans votre workflow. Hop, quelques questions rapides dans le chat, et vous savez.

Il existe bien sûr des tonnes d’alternatives de GUI pour Ollama comme Open WebUI , LM Studio , Jan , GPT4All … Mais aucune ne supporte nativement visionOS ou les iPad / iPhone. Alors que MocoLlamma, si.

C’est actuellement la seule app qui vous permet de gérer vos LLM locaux depuis ces appareils Apple… C’est assez niche c’est vrai mais ça peut rendre service.

Le nom “MocoLlamma” est ce qu’on appelle un mot valise de “Model”, “Control”, “Ollama”, et “Manage”. C’est moche de ouf, c’est pas super à retenir, mais au moins ça décrit exactement ce que fait l’app.

Y’a la version gratuite qui est disponible sur GitHub, mais uniquement pour macOS (c’est sous license MIT) et la version payante, à 1,99 dollars sur l’App Store, supporte macOS, iOS, iPadOS, et visionOS. La différence principale pour l’app macOS c’est surtout les mises à jour automatiques. Vous payez 2 balles pour le confort.

Et là, un point crucial, sachez que MocoLlamma ne collecte AUCUNE donnée utilisateur. Bref, cette appli vient combler le trou qui se trouve entre “j’ai installé Ollama” et “je peux gérer mes modèles depuis mon iPhone”. Si vous avez ce besoin, c’est donc à considérer.

Merci à Lorenper pour la découverte.

Votre cerveau compresse les images 40 fois mieux qu'un algo

Par :Korben
7 novembre 2025 à 09:50

Vous avez, j’imagine, probablement des dizaines de milliers de photos sur votre disque dur. Ça représente peut-être quelques centaines de Go, peut-être 1 To si vous êtes à l’aise en espace de stockage. C’est beaucoup ?

Pas tant que ça si on pense un peu à votre cerveau. Lui, il stocke depuis toujours des décennies de souvenirs dans environ 1,5 kg de matière organique qui consomme moins qu’une ampoule LED.

Comment est-ce qu’il fait ?

Hé bien, une équipe du Weizmann Institute of Science vient peut-être de le découvrir et au passage, changer la compression d’images telle qu’on la connaît.

Le projet s’appelle Brain-IT , et leur idée c’est de reconstruire des images à partir des signaux fMRI (imagerie par résonance magnétique fonctionnelle) de votre cerveau. En gros, ils scannent votre activité cérébrale pendant que vous regardez une image, et ils arrivent à reconstruire ce que vous avez vu. Le papier scientifique est dispo sur arXiv si vous parlez leur langue.

Évidemment, ce genre de recherche, c’est pas nouveau mais Brain-IT est plutôt un franc succès car le process permet d’obtenir les mêmes résultats que les méthodes précédentes avec seulement 1 heure de données fMRI, contre 40 heures pour les autres approches.

En gros, ça représente 97,5% de données en moins pour obtenir le même résultat. Trop fort non ?

En fait, si Brain-IT peut faire ça, c’est parce que les scientifiques ont découvert comment votre cerveau compresse les images de manière hyper efficace. Et d’ailleurs, ce truc pourrait bien inspirer de nouveaux algorithmes de compression pour nos ordis.

Brain-IT utilise en fait ce qu’ils appellent un “Brain Interaction Transformer” (BIT). C’est un système qui identifie des “clusters fonctionnels” de voxels cérébraux. Un voxel, c’est l’équivalent d’un pixel mais en 3D, et chaque voxel représente environ 1 million de cellules dans votre cerveau.

Le truc génial, c’est que ces clusters fonctionnels sont partagés entre différentes personnes, comme si nous avions tous la même bibliothèque de “primitives visuelles” câblée dans nos têtes. Ce sont des schémas de base que notre cerveau utilise pour reconstruire n’importe quelle image.

Brain-IT reconstruit donc les images en deux passes. D’abord les structures de bas niveau (les formes, les contours), puis les détails sémantiques de haut niveau (c’est un chat, c’est un arbre, c’est votre tante Huguette). C’est un peu comme le JPEG progressif que l’on voyait s’afficher lentement avec nos modem 56K, mais en infiniment plus smart.

Du coup, si on comprend comment le cerveau compresse les images, on pourrait créer de nouveaux formats vidéo ultra-légers. Imaginez un Netflix ou un Youtube qui streame en “brain-codec” à 1/40e de la bande passante actuelle. Ça changerait pas mal de choses… Et c’est pareil pour l’IA générative car actuellement, on entraîne des modèles avec des millions d’images durant des jours alors que notre cerveau, lui, apprend à reconnaître un visage en quelques expositions.

Et grâce à ses modèles de diffusion, Brain-IT est même capable de reconstruire visuellement ce que voit le cerveau ! Par contre, Brain-IT n’a pour le moment été testé que sur des images “vues” et pas des choses imaginées…

Mais les scientifiques n’écartent pas l’idée que ce soit possible donc ce n’est qu’une question de temps avant qu’on puisse capturer en image ses rêves par exemple.

Voilà, j’ai trouvé ça cool parce que ça montre que notre cerveau est probablement le meilleur système de compression d’images jamais créé et qu’on commence à peine à comprendre comment il fonctionne.

Merci Dame Nature !

Voilà, si vous voulez creuser, le code et les détails techniques sont sur la page du projet Brain-IT , et le paper complet est dispo sur arXiv .

Source

Les poupées russes malveillantes de Curly COMrades

Par :Korben
7 novembre 2025 à 09:21

Si vous me lisez depuis longtemps, vous savez que les hackers russes ne manquent jamais d’imagination quand il s’agit de contourner les antivirus… Mais alors là, le groupe Curly COMrades vient de sortir un truc qui déboite du genou de gnome… Ces affreux planquent maintenant leurs malwares dans des machines virtuelles Linux cachées dans des Windows. Oui, des russes qui créent de véritables poupées russes numérique… qui aurait pu prévoir ^^ ?

Et c’est vicieux vous allez voir… les gars activent Hyper-V sur les machines Windows 10 compromises, puis ils y déploient une VM Alpine Linux ultra-minimaliste. 120 Mo d’espace disque et 256 Mo de RAM… C’est tellement léger que ça passe complètement sous les radars des EDR classiques.

Et la beauté du truc, c’est que tout le trafic malveillant qui sort de la VM passe par la pile réseau de Windows grâce au NAT d’Hyper-V. Du coup, pour l’antivirus, tout a l’air de venir de processus Windows parfaitement légitimes.

C’est bien joué non ?

À l’intérieur de cette VM Alpine, les hackers ont installé 2 malwares custom : CurlyShell et CurlCat. Le premier c’est un reverse shell qui communique en HTTPS pour exécuter des commandes à distance. Et le second, c’est un proxy SSH inversé qui encapsule le trafic SSH dans des requêtes HTTP et le fait transiter par un proxy SOCKS. Les deux partagent une grosse partie de leur code mais divergent sur le traitement des données reçues.

Les chercheurs de Bitdefender, en collaboration avec le CERT géorgien, ont documenté cette campagne qui cible principalement la Géorgie et la Moldavie depuis fin juillet 2025. Les attaquants visent surtout les secteurs gouvernementaux, judiciaires et énergétiques… Bref, les infrastructures critiques, comme d’habitude.

Une fois infiltrés, les hackers désactivent alors l’interface de gestion d’Hyper-V pour réduire le risque de se faire griller. Ensuite, ils configurent la VM pour utiliser le Default Switch d’Hyper-V et ajoutent même des mappages domaine-IP personnalisés. Et pour couronner le tout, ils déploient des scripts PowerShell pour l’injection de tickets Kerberos et la persistance via des comptes locaux.

Et les EDR traditionnels, qui se focalisent sur l’analyse des processus au niveau de l’hôte, ne peuvent pas détecter ce qui se passe à l’intérieur de la VM. En fait pour chopper ce genre de menace, il faut des capacités d’inspection réseau avancées… Autant vous dire que la plupart des boîtes n’en sont pas équipées…

Pour lutter contre ça, Bitdefender recommande de ne pas miser sur une seule solution de sécurité, mais d’en empiler plusieurs. D’abord mettre en place une protection du réseau pour bloquer les attaques avant qu’elles n’atteignent les ordinateurs. Y ajouter un système de détection avancé qui surveille en permanence ce qui se passe sur les machines. Et surtout une vraie politique de réduction des risques en fermant tous les services Windows dont on ne se sert pas.

Hé oui, si Hyper-V n’est pas activé d’origine sur les système, c’est bien parce que ça représente un risque supplémentaire, donc si vous ne vous en servez pas, désactivez le.

Source

[Astuce] Réduire le temps d'ouverture des sous-menus sous Windows 10 et 11

7 novembre 2025 à 08:40

Merci à vous de suivre le flux Rss de www.sospc.name.

Je vous propose aujourd'hui une astuce totalement inutile. 😁

Oui, je l'ai trouvée par hasard lors de mes errances sur la toile, c'est vous qui déciderez si elle vous serait utile... ou pas.

Si comme moi vous travaillez longtemps sur des ordinateurs, vous avez peut-être remarqué que lorsque vous effectuez un clic droit les sous-menus ne s'affichent pas immédiatement.

Je veux dire par là qu'il y a une attente - certes brève - avant que ce que vous recherchiez n'apparaisse.

Eh bien le fautif ce n'est pas votre configuration - à moins bien sûr qu'elle soit très ancienne - mais un paramétrage par défaut de Windows.

Oui, le réglage natif décidé par Microsoft est de 400 millisecondes.

Cela ne vous parle pas ? Bon, eh bien cela fait en fait 0.4 seconde, c'est à dire près d'une demi-seconde. 😁

Oui, je sais, ce n'est pas beaucoup, il n'y a pas mort d'homme.

Sauf que si vous enchainez de longues heures de travail cette ''latence'' est au fil du temps agaçante.

Je vous propose de changer ce paramétrage à... 40 millisecondes (soit 0.04 seconde pour celles et ceux qui suivent 😉).

Le résultat ? Eh bien vos sous-menus s'afficheront instantanément !

Cet article [Astuce] Réduire le temps d'ouverture des sous-menus sous Windows 10 et 11 est apparu en premier sur votre site préféré www.sospc.name

Sanctions US : YouTube a supprimé 700 vidéos d’ONG palestiniennes en lien avec la CPI

7 novembre 2025 à 11:53
Broadcast Yourself, mais pas à Gaza
Sanctions US : YouTube a supprimé 700 vidéos d’ONG palestiniennes en lien avec la CPI

YouTube a supprimé les comptes de trois ONG palestiniennes début octobre, et par la même occasion plus de 700 vidéos sur les conséquences de l’invasion de Gaza par Israël. Cela fait suite aux sanctions décidées par Donald Trump contre la Cour pénale internationale, les trois ONG l’ayant aidée dans ses enquêtes.

Début octobre, YouTube a supprimé, sans les prévenir, les chaines de trois organisations non gouvernementales, le Centre Al-Mezan pour les droits humains, Al-Haq et le Centre palestinien pour les droits humains. Selon The Intercept qui a révélé cette suppression, plus de 700 vidéos ont disparu avec ces trois chaines, compilant des heures d’images documentant la situation à Gaza et les suspicions de crimes de guerre d’Israël sur lesquels la Cour pénale internationale devra se prononcer.

Toutes les vidéos ne sont pas perdues. Ainsi, par exemple, on peut voir sur la Wayback Machine d’Internet Archive la vidéo d’une analyse sur la mort de la journaliste américano-palestinienne d’Al Jazeera, Shireen Abu Akleh. On peut aussi retrouver cette vidéo sur la page Vimeo de l’ONG. Mais ces plateformes pourraient elles aussi être contraintes par les États-Unis de supprimer ces contenus.

YouTube suit des sanctions ciblées prononcées par Marco Rubio

Car YouTube (dont la maison mère est Google) a suivi la décision de sanctions prises par l’administration Trump envers ces trois ONG. « Google s’engage à respecter les sanctions applicables et les lois en matière de conformité commerciale », a affirmé YouTube dans un communiqué envoyé en réponse à The Intercept.

Comme plusieurs juges de la Cour pénale internationale visés nommément par l’administration Trump, les trois ONG ont été l’objet d’une décision du secrétaire d’État américain, Marco Rubio début septembre.

« Ces entités ont directement participé aux efforts déployés par la Cour pénale internationale (CPI) pour enquêter, arrêter, détenir ou poursuivre des ressortissants israéliens, sans le consentement d’Israël », affirmait Marco Rubio dans un communiqué annonçant la désignation du Centre Al-Mezan pour les droits humains, d’Al-Haq et du Centre palestinien pour les droits humains. Le secrétaire d’État américain n’évoque aucune autre raison que leurs liens avec l’autorité judiciaire internationale pour justifier cette désignation.

La CPI sanctionnée depuis février

Rappelons qu’en février dernier, Donald Trump a publié un décret imposant « des sanctions à l’encontre de la Cour pénale internationale » en réaction à l’émission des mandats d’arrêt à l’encontre de Benyamin Nétanyahou et de l’ancien ministre israélien de la Défense Yoav Gallant. C’est sur la base de ce décret que s’appuie Marco Rubio pour sanctionner les trois ONG accusées de collaborer avec la CPI.

Selon The Intercept, c’est la première fois que les États-Unis prennent de telles sanctions contre des ONG qui accumulent des informations pour d’éventuelles poursuites en justice.

« Je suis très choquée que YouTube fasse preuve d’un tel manque de courage », explique à The Intercept la responsable de l’association états-unienne Democracy for the Arab World Now, Sarah Leah Whitson. « Il est vraiment difficile d’imaginer un argument sérieux selon lequel le partage d’informations provenant de ces organisations palestiniennes de défense des droits humains violerait d’une manière ou d’une autre les sanctions. Il est décevant et assez surprenant que YouTube cède à cette désignation arbitraire de ces organisations palestiniennes et décide désormais de les censurer. »

Six-Seven : le phénomène absurde qui envahit les cours d'école

7 novembre 2025 à 11:30
smartphone ados

Un nouveau phénomène viral, "Six-Seven", envahit les écoles américaines, et progressivement la France. Venu de TikTok et d'une chanson du rappeur Skrilla, ce terme a été élu mot de l'année 2025. Sa particularité ? Il ne veut absolument rien dire. Il sert de cri de ralliement à la génération Alpha pour se démarquer des adultes.

Au tour de la GIGABYTE Radeon RX 9070 XT GAMING OC ICE 16G

7 novembre 2025 à 11:18

On poursuit notre découverte des cartes ICE chez GIGABYTE, avec la Radeon RX 9070 XT GAMING OC ICE 16G, qui fait suite à la RX 9060 XT la carte a toujours une teinte entre le gris clair et le blanc. Le refroidissement WINDFORCE est basé sur trois ventilateurs Hawk, la structure est renforcée et quelques leds RGB sont présentes sur la tranche supérieure, il est possible de faire glisser le logo GIGABYTE dessus. La carte mesure 281 x118x 40 mm, propose des sorties vidéo DisplayPort 2.1a (x2), HDMI 2.1b (x2) et elle a besoin de trois connecteurs 8-pin externes. […]

Lire la suite

Windows 11 Pro à 20 euros, une offre à ne pas manquer ce vendredi

7 novembre 2025 à 11:11

Microsoft à officiellement mit fin au support de Windows 10. Il est donc temps de passer à Windows 11. Et grâce à notre partenaire GVGMALL, vous n'aurez plus à payer des sommes folles et en plus, vous n'aurez plus le message Windows non activé en bas de votre écran. Mais pourquoi ? Car GVGMALL.com propose des clés OEM authentiques à des tarifs qui sont plus ultra-avantageux : - Windows 11 dès 20 U+20AC - Licences Office dès 27 U+20AC De plus, avec le code promo CCVIP, bénéficiez de 30 % de réduction supplémentaire sur vos achats. Pourquoi attendre ? N'oublions pas non plus que pour gagner quelques euros, vous pouvez aussi opter pour une licence Windows 10 et faire l'upgrade vers Windows 11, malin . Offres spéciales avec le code promo CCVIP Profitez des offres suivantes chez GVGMALL et Cowcotland : - Windows 11 Pro OEM Lifetime à 20 U+20AC - Windows 10 Pro OEM Lifetime à 15 U+20AC - Windows 11 Home OEM Lifetime à 19 U+20AC - Windows 10 Home OEM Lifetime à 13 U+20AC - Microsoft Office 2016 Lifetime à 27 U+20AC - Microsoft Office 2019 Lifetime à 52 U+20AC - Windos 10 Enterprise LTSC 2021 CD Key Global à 11 U+20AC - Windows 10 Pro OEM + Office 2016 à 34 U+20AC - Windows 10 Pro OEM + Office 2019 à 52 U+20AC - Windows 11 Home + Office 2021 Pro Plus à 88 U+20AC - Windows 11 Pro OEM + Office 2021 Pro Plus Pack à 87 U+20AC […]

Lire la suite

Tchou-tchouuuuu ! Le train TER n°5070 arrivera en gare, voie B.

7 novembre 2025 à 10:07

Sheldon Cooper validerait totalement cette trouvaille repérée sur Reddit. Un utilisateur, répondant au doux pseudo Beautiful-Turnip-353, a tout simplement installé un réseau ferroviaire miniature… sur sa carte graphique. Et au petit matin, ça fonctionne. Notre âme d'enfant resurgit instantanément, si tant est qu'elle s'était un jour barrée. […]

Lire la suite
❌