↩ Accueil

Vue lecture

Ente Photos : la plus grosse mise à jour de l’app de photos open source est là

Un article signé GOODTECH.info

Ente Photos commence l’année 2026 sur les chapeaux de roues. L’alternative open source au stockage de photos chiffré vient de déployer ce qu’elle appelle sa plus grosse mise à jour jamais réalisée. Au programme : des fonctions sociales très attendues, […]

L’article Ente Photos : la plus grosse mise à jour de l’app de photos open source est là est apparu en premier sur Goodtech.

  •  

Offpunk 3.0 : le navigateur terminal hors ligne passe le cap du développement communautaire

Un article signé GOODTECH.info

Naviguer sur le web moderne ressemble souvent à une bataille contre les publicités, les traceurs et les scripts gourmands en ressources. Pour Ploum, la solution réside dans la sobriété. Depuis quatre ans, il développe Offpunk, un navigateur en ligne de […]

L’article Offpunk 3.0 : le navigateur terminal hors ligne passe le cap du développement communautaire est apparu en premier sur Goodtech.

  •  

Cisco Silicon One G300 : un ASIC 102,4 Tb/s pour doper les fabrics IA

Cisco a profité de Cisco Live Amsterdam pour présenter son nouveau fleuron Ethernet, le Cisco Silicon One G300. Cette puce de commutation affiche 102,4 Tb/s de capacité agrégée et aligne 64 interfaces 1000GbE en full-duplex, avec des SerDes à 224 Gb/s, la prise en charge de RDMA et RoCE v2.

Un ASIC 102,4 Tb/s pensé pour les fabrics IA

Au-delà des débits, Cisco met en avant une technologie d’orchestration collective intégrée destinée aux charges distribuées, annoncée comme capable d’absorber les variations de trafic et d’améliorer l’utilisation du réseau de 33 %, tout en réduisant le temps d’exécution des jobs de 28 %. Dans un contexte d’entraînement et d’inférence massifs, le constructeur promet un gain direct sur les cadences de génération de tokens.

Le G300 sert de base aux nouveaux commutateurs Cisco Nexus 9000 et aux routeurs Cisco 8000. Ces plates-formes seront proposées en version à refroidissement intégral par liquide, avec une promesse d’augmentation sensible de la densité de bande passante et jusqu’à 70 % d’efficacité énergétique en plus par rapport aux variantes conventionnelles.

Chaîne optique 1,6T et modules 800G LPO

Pour les interconnexions scale-out des clusters IA, Cisco ajoute un OSFP 1,6 Tbit/s et des modules 800G LPO linéaires sans redriver/retimer. Cette approche réduit la complexité et vise directement la consommation, avec un -50 % au niveau du module optique ou -30 % sur la consommation globale du châssis selon le constructeur.

L’ensemble dessine une stratégie très agressive sur le coût énergétique par bit et la densité par U. Si les chiffres internes se confirment en production, l’option full liquid cooling couplée aux LPO pourrait rebattre les cartes sur le TCO des fabrics Ethernet face aux déploiements InfiniBand haut de gamme, notamment dans les salles où la marge thermique est le facteur limitant.

Source : ITHome

  •  

OpenAI abandonne la marque « io » et repousse son appareil IA à 2027

OpenAI ne commercialisera pas sa première machine sous la marque « io ». Selon des documents judiciaires déposés hier et cités par Wired, l’entreprise a renoncé aux appellations « io » et « IYO » pour tout nommage, marketing, publicité et vente liés à ses produits matériels, après une plainte pour contrefaçon de marque initiée l’an dernier par la start-up audio iyO.

Dans le même dépôt, Peter Welinder, vice-président d’OpenAI, précise que le calendrier s’est éclairci côté hardware : aucune livraison au grand public avant fin février 2027. Un contre-pied net face aux déclarations antérieures faisant état d’un lancement envisagé au second semestre de cette année.

Recul stratégique sur la marque et sur le calendrier

OpenAI a acquis en 2023 la société io fondée par Jony Ive, ex-Apple. Le conflit de marque avec iyO a visiblement fermé la porte à « io » pour le branding final. Welinder indique par ailleurs qu’aucun packaging ni support marketing n’a été produit à ce stade, ce qui corrobore un développement encore au stade de prototype.

Le produit visé resterait un appareil sans écran, destiné au bureau, pensé pour fonctionner en tandem avec un smartphone ou un ordinateur portable. OpenAI n’a pas répondu aux demandes de commentaire.

Le décalage jusqu’en 2027 change sensiblement la donne du segment « AI device ». Les acteurs déjà positionnés sur les terminaux IA autonomes gagneront un boulevard temporel pour itérer sur le matériel, l’optimisation énergétique et l’intégration logicielle, tandis qu’OpenAI devra verrouiller l’industrialisation et un écosystème d’usages suffisamment différenciants pour éviter d’arriver avec un simple accessoire vocal de plus.

Source : ITHome

  •  

SilverStone XE02 : deux ventirads SFF 2U pour AM5 et sTR5 jusqu’à 350 W

Deux nouveaux refroidisseurs 2U débarquent chez SilverStone, avec un 60 mm prêt à grimper à 14 000 tr/min. De quoi tenir jusqu’à 350 W sur plates-formes sTR5/SP6/TR4/SP3.

SilverStone XE02 : SFF 2U, cinq caloducs et 60 mm PWM

SilverStone élargit en douceur sa gamme avec deux modèles SFF destinés aux serveurs et stations 2U : SST‑XE02‑AM5B pour AM5 (et compatibilité AM4 indiquée) et SST‑XE02‑TR5B pour sTR5, SP6, TR4 et SP3. Les deux partagent une base à cinq caloducs de 6 mm et un empilement d’ailettes en aluminium.

Vue de dessus du ventilateur SilverStone XE02 avec flèche de flux d'air
Vue de dessus du ventilateur SilverStone XE02 avec flèche verte indiquant le flux d'air

Le ventilateur central de 60 mm, PWM et roulements à billes, annonce une plage de 2 000 à 14 000 tr/min, un débit maximal de 72,8 CFM et une pression statique de 47,18 mmH2O. La MTTF est donnée à 70 000 heures.

Compatibilités et enveloppes thermiques

Le XE02‑AM5B vise les processeurs AM5/AM4 avec une prise en charge jusqu’à 170 W de TDP. Le XE02‑TR5B, légèrement plus massif, monte à 350 W et cible notamment les EPYC 8004 et Ryzen Threadripper 7000 sur sTR5, ainsi que SP6/TR4/SP3.

Ventirad AMD Socket AM5 avec visuel de la carte mère correspondante

Malgré le même ventilateur, l’écart de capacité annoncée provient du design du radiateur et de la surface d’échange adaptée aux IHS et aux répartitions de charges thermiques très différentes entre AM5 et sTR5/SP6/TR4/SP3.

Ventirad AMD TR5 avec visuel de la carte mère correspondante

Positionnement en châssis 2U

Le format bas‑profil et la pression statique élevée répondent aux contraintes de flux en baie 2U, avec une priorité claire au maintien des fréquences sous charge soutenue. La plage PWM étendue offre une marge d’exploitation fine selon la politique acoustique du rack.

Source : TechPowerUp

  •  

HBM3 CXMT : 20 % de la capacité allouée en 2026, 60 000 wafers/mois visés

Le rythme s’intensifie et la part dédiée à la HBM3 progresse nettement chez CXMT, entraînant dès 2026 une réorganisation industrielle de grande ampleur.

HBM3 CXMT : 20 % de la capacité dédiée en 2026

Des rapports récents indiquent que CXMT a lancé la fabrication de masse de modules HBM3. Le fabricant chinois suit la trace des acteurs sud-coréens, qui produisent de l’HBM3 depuis 2023, avec une rampe désormais assumée sur 2026.

Logo de CXMT avec texte sous le nom

Selon une source citée par MK South Korea, CXMT viserait 60 000 wafers par mois dédiés à l’HBM3, soit environ 20 % d’une capacité totale estimée à 300 000 wafers/mois en 2026. Les rendements seraient encore discutés, mais l’objectif de passage en production de volume est évoqué.

Partenariats, lignes produits et contraintes

La filière HBM chinoise s’agrège : un partenariat entre CXMT et Huawei est mentionné, avec une implication de YMTC via une coentreprise apparue à l’automne dernier. Les sanctions internationales limitant l’accès à Micron, Samsung et SK hynix renforcent l’orientation vers des solutions locales, déjà visibles avec l’Ascend AI de Huawei et sa HBM maison.

En parallèle, CXMT a montré en 2025 des avancées sur des lignes commerciales, dont des designs DDR5 et LPDDR5X présentés en avant-première en novembre. Début février 2026, ASUS, Acer, Dell et HP étudiaient l’intégration de ces mémoires grand public pour répondre aux tensions d’approvisionnement.

Capacité et montée en charge

Le positionnement HBM3 reste stratégique face à l’explosion des besoins en VRAM empilée pour l’IA. Réaffecter 20 % des wafers à l’HBM3 suggère une ligne prioritaire, avec un impact potentiel sur les volumes DDR5/LPDDR5X si les rendements HBM3 tardent à converger.

Si la montée en volume se confirme, les accélérateurs IA locaux pourraient réduire leur dépendance extérieure. À court terme, la question clé reste l’atteinte d’un yield compétitif, préalable indispensable pour absorber la demande tout en préservant les marges.

Source : TechPowerUp

  •  

Directive 8020 : sortie le 12 mai 2026, précommandes ouvertes avec upgrade Deluxe

Un huis clos spatial signé Supermassive bascule en phase finale : la sortie arrive en mai et les précommandes intègrent d’emblée un passage à l’édition Deluxe. De quoi attirer les joueurs qui veulent tout voir dès le jour J.

Sortie, plateformes et contenu de précommande

Directive 8020 sera disponible le 12 mai 2026 sur PlayStation 5, Xbox Series X|S et PC (Steam). Éditions physique et numérique sur PS5 et Xbox Series X|S, PC en numérique uniquement. Les précommandes sont ouvertes sur consoles, celles de Steam arrivent prochainement.

Directive 8020 : sortie le 12 mai 2026, précommandes ouvertes avec upgrade Deluxe

Supermassive propose un upgrade gratuit vers la Deluxe Edition pour les précommandes, dans la limite des stocks retail. Le pack inclut The Dark Pictures Outfit Pack, The Dark Pictures Collectables, Cinematic Filter Pack, la bande-son numérique et un artbook numérique.

Gameplay narratif et Turning Points

Le trailer Comply met en avant des décisions à haut risque : Cooper, la médecin de bord, doit choisir s’il faut libérer Mitchell derrière une porte scellée, avec un doute persistant sur sa nature humaine. Autre séquence clé, la révélation d’un « double » où deux versions de Cernan surgissent, obligeant à identifier le mimic sous la menace d’une issue fatale.

Directive 8020 : sortie le 12 mai 2026, précommandes ouvertes avec upgrade Deluxe

Directive 8020 introduit Turning Points, une fonction inédite dans The Dark Pictures pour remonter à des décisions charnières. Trois approches sont prévues : complétionnistes (branches et fins cachées), protection de personnages (annuler une mort), et mode Survivant sans filet, avec décès permanents.

Le trailer tease également l’exploration planétaire de Tau Ceti f. Côté casting, Lashana Lynch incarne la pilote Brianna Young, sur la piste « Comply » du groupe Blood Red Shoes.

Directive 8020 : sortie le 12 mai 2026, précommandes ouvertes avec upgrade Deluxe

Modes de jeu et calendrier multijoueur

Le jeu sortira en solo et en coop locale jusqu’à 5 joueurs, dès le 12 mai. Le multijoueur en ligne arrivera via une mise à jour gratuite après lancement.

Directive 8020 : sortie le 12 mai 2026, précommandes ouvertes avec upgrade Deluxe
Directive 8020 : sortie le 12 mai 2026, précommandes ouvertes avec upgrade Deluxe

Le positionnement mêle la grammaire interactive de The Dark Pictures à un cadre SF plus ouvert avec segments planétaires, tout en laissant la porte à l’expérimentation grâce à Turning Points. L’upgrade Deluxe offert en précommande et la coop canapé jusqu’à 5 joueurs constituent des leviers d’adoption efficaces au lancement, en attendant l’online.

Source : TechPowerUp

  •  

Intel Core Ultra 400 : NPU à 74 TOPS et compatibilité Copilot+ en ligne de mire

Un NPU de bureau affichant 74 TOPS, bien au-delà du seuil Copilot+, place le prochain haut de gamme d’Intel sur une trajectoire radicalement différente de l’actuel Arrow Lake-S.

En effet, comme évoqué précédemment à l’occasion d’une récente rumeur relayée par Jaykihn, cette génération embarquerait le NPU6 annoncé, offrant des performances plus de cinq fois supérieures à celles d’Arrow Lake-S.

Intel Core Ultra 400 et NPU 74 TOPS

La série Core Ultra 400 « Nova Lake-S » serait le premier lineup desktop d’Intel taillé pour l’accélération native Microsoft Copilot+. Son NPU grimperait à 74 TOPS, bien au-delà des 40 TOPS requis par Copilot+. C’est un saut notable face aux 13 TOPS des actuels Arrow Lake-S et du refresh à venir, tous deux héritant du NPU Meteor Lake.

L’information provient cette fois d’une capture issue d’un document ayant fuité, partagée par X86 is dead&back. Elle mentionne un NPU à 74 TOPS pour Nova Lake, contre 13 TOPS pour Arrow Lake Refresh. La fiche évoque également une fenêtre 2H26, ce qui confirmerait une sortie prévue en 2026.

Détails des performances NPU avec Arrow Lake et Nova Lake, affichant 13 et 74 TOPS respectivement.

Toutes les références Nova Lake-S n’atteindront pas nécessairement 74 TOPS, mais l’espace de segmentation laisse envisager un plan produit où même l’entrée de gamme satisferait le plancher des 40 TOPS. Côté mobile, Intel a déjà validé la cible avec Lunar Lake ; en desktop, il faudra attendre le calendrier de la série 4.

AMD en embuscade sur Copilot+ desktop

AMD pourrait toutefois coiffer Intel au poteau sur le premier processeur socket desktop Copilot+ ready. Les APU Ryzen AI 400 « Gorgon Point » en Socket AM5 sont évoqués plus tôt que la fenêtre fin 2026 prêtée aux Core Ultra Series 4 desktop. Le timing de commercialisation pourrait donc décider du premier badge Copilot+ sur tour.

Enjeux pour l’écosystème PC

Si le NPU 74 TOPS se généralise en desktop, on verra converger les exigences Copilot+ avec des profils d’usage créa et productivité lourds sans carte dédiée. Pour les intégrateurs, la barre Copilot+ à 40 TOPS devient un axe de différenciation clair, que ce soit via APU AMD ou CPU Intel avec iGPU/NPU renforcés.

Source : TechPowerUp

  •  

Intel TDX : audit conjoint Intel-Google, 5 vulnérabilités corrigées et 35 faiblesses relevées

Cinq mois d’audit et des correctifs livrés ; Intel et Google resserrent les boulons sur TDX et son module 1.5, pilier des VM confidentielles.

Qu’est-ce que Intel® TDX ?

Intel Trust Domain Extensions (TDX) est la dernière innovation d’Intel en matière d’informatique confidentielle. Cette technologie repose sur un environnement d’exécution de confiance (TEE) directement implémenté au niveau matériel, permettant le déploiement de domaines de confiance (TD). Ces derniers prennent la forme de machines virtuelles isolées du reste du système, conçues pour protéger efficacement les données et applications sensibles contre tout accès non autorisé, y compris au niveau de l’infrastructure sous-jacente.

Intel TDX, co-validation et durcissement du module 1.5

Intel et Google Cloud Security ont mené une revue conjointe du module Intel TDX 1.5, avec l’équipe INT31 d’Intel. Bilan : 5 vulnérabilités et 35 autres faiblesses ou axes d’amélioration. Intel indique que les 5 vulnérabilités ont été corrigées dans la dernière version de code livrée aux partenaires.

TDX isole matériellement des « Trust Domains » des hyperviseurs via SEAM et un module signé numériquement. Le TDX Module agit comme un shim exécuté en SEAM pour appliquer des politiques que le matériel seul ne peut pas faire respecter. Sa compromission pourrait contourner l’isolation, d’où la criticité de sa vérification.

Fonctionnalités ciblées et méthode d’audit

La revue a ciblé des fonctionnalités complexes introduites avec le TDX Module 1.5 : Live Migration et TD Partitioning. La Live Migration déplace une VM chiffrée entre serveurs physiques sans interruption ni exposition des clés à l’hyperviseur non fiable. Le TD Partitioning autorise des VM imbriquées au sein d’un TD, ajoutant des couches d’abstraction nécessitant des contrôles rigoureux.

Google a combiné revue manuelle de code, outils maison de recherche de bugs et analyse assistée par IA (Gemini Pro) pour repérer des défauts logiques. Cette approche hybride s’inscrit dans une dynamique de co-validation où des partenaires majeurs auditent des briques fondamentales avant déploiement large.

Confiance matérielle et garantie pour les clients

Intel rappelle qu’aucun produit n’est absolument sécurisé et que multiplier les regards renforce la robustesse. Pour les entreprises, la démarche renforce l’assurance que la racine matérielle de confiance est activement testée par des tiers indépendants, avant une montée en charge à l’échelle.

Dans un contexte où TDX structure la sécurité des data centers, la correction rapide des 5 vulnérabilités et la cartographie de 35 faiblesses montrent une maturité opérationnelle autour de la Live Migration et du TD Partitioning. Les hyperscalers ont intérêt à ce modèle d’audit partagé, qui réduit le risque systémique en amont des déploiements massifs.

Source : TechPowerUp

  •  

DLSS 4 arrive sur High On Life 2, Yakuza Kiwami 3 & Dark Ties, plus un bundle RE RTX 50

Trois sorties, une même constante : NVIDIA pousse DLSS 4 et ses itérations à grande échelle, avec à la clé des hausses de FPS et une montée en qualité sur les dernières RTX.

DLSS 4 et Multi Frame Generation au lancement

High On Life 2 arrive le 13 février avec DLSS 4 et Multi Frame Generation activables dès le jour 1. Les utilisateurs de l’application NVIDIA pourront aussi basculer DLSS Super Resolution vers DLSS 4.5 Super Resolution pour maximiser la netteté en parallèle du gain de performances.

Illustration colorée de High On Life 2 avec personnages et ville futuriste

Yakuza Kiwami 3 & Dark Ties sort demain, le 11 février, avec DLSS Frame Generation, DLSS Super Resolution et NVIDIA Reflex dans le jeu complet comme dans la démo. Via l’application NVIDIA, DLSS Frame Generation passe en Multi Frame Generation et DLSS Super Resolution en DLSS 4.5 Super Resolution, pour des fréquences d’images multipliées et une image plus propre.

Yakuza Kiwami 3 Dark Ties affichant deux personnages en noir et blanc

Bundle Resident Evil Requiem pour les RTX 50 Series

Le bundle GeForce RTX 50 Series avec Resident Evil Requiem est disponible dès aujourd’hui. L’achat d’un PC de bureau ou d’une carte graphique GeForce RTX 5090, 5080, 5070 Ti ou 5070, ou d’un laptop équipé d’une GeForce RTX 5090, 5080, 5070 Ti ou 5070, chez les revendeurs participants, donne droit à une copie Steam du jeu.

Le titre exploite un path tracing intégral, accéléré par DLSS 4 avec Multi Frame Generation et DLSS Super Resolution, et bénéficie de NVIDIA Reflex pour réduire la latence. C’est aujourd’hui l’implémentation la plus ambitieuse sur cette série, pensée pour les GPU GeForce RTX 50.

Affiche de Resident Evil Requiem avec deux personnages sous la pluie

REANIMAL et les intégrations à venir

REANIMAL (Tarsier/THQ Nordic) sort le 13 février avec DLSS Super Resolution et DLAA. Là encore, l’application NVIDIA permet de migrer vers DLSS 4.5 Super Resolution pour une qualité accrue.

NVIDIA annonce par ailleurs d’autres intégrations DLSS et RTX à court terme. La liste des titres compatibles, ainsi que ceux validant les overrides DLSS de l’application NVIDIA, continue de s’allonger.

L’enchaînement de sorties compatibles DLSS 4, couplé au bundle Resident Evil Requiem, confirme la stratégie d’adoption côté éditeurs et l’incitation matérielle côté utilisateurs. La possibilité d’upgrader localement vers DLSS 4.5 via l’application NVIDIA aiguise l’intérêt pour la pile logicielle maison, tout en verrouillant l’avantage des RTX 50 sur les workloads path-tracés.

Source : TechPowerUp

  •  

NVIDIA GTC 2026 : keynote le 16 mars, deux heures au SAP Center de San Jose

Deux heures en scène et un préshow matinal ; NVIDIA verrouille le tempo de son rendez-vous annuel dédié aux centres de données et à l’IA.

NVIDIA GTC 2026 : calendrier, formats et lieu

La keynote principale est fixée au lundi 16 mars, de 11 h à 13 h PDT, en live depuis le SAP Center de San Jose. Un « GTC Live 2026 Keynote Pregame » est programmé le même jour de 8 h à 11 h PDT, en amont.

La page GTC 2026 annonce l’événement du 16 au 19 mars, avec des workshops dès le 15 mars. NVIDIA propose l’ajout au calendrier pour le livestream directement depuis la page de keynote.

Ce que suggèrent les précédentes feuilles de route

Lors de la keynote 2025, Jensen Huang a détaillé une roadmap data center : production Blackwell, systèmes Blackwell Ultra prévus pour le second semestre 2025, puis plateforme Vera Rubin en 2026 et Rubin Ultra en 2027. Le volet robotique et simulation a été mis en avant avec le modèle fondation humanoïde Isaac GR00T N1 et des outils associés, dont le moteur physique Newton développé avec Google DeepMind et Disney Research.

Le segment automobile a également été mentionné avec le système de sécurité Halos et des collaborations avec General Motors. GTC demeure centré sur le data center, l’IA et la robotique, sans attendre de grandes annonces orientées grand public.

Dans ce cadre, la fenêtre 2026 pourrait préciser le déploiement de Vera Rubin, l’écosystème logiciel autour d’Isaac et les jalons industriels alignés sur Rubin Ultra 2027, avec un impact direct sur les cadences d’intégration en data centers plutôt que sur le marché gaming.

Source : VideoCardz

  •  

Generative AI dans Control Resonant : aucun contenu, mais Remedy garde la porte entrouverte

Choix tranché pour le prochain shooter de Remedy, avec un impact direct sur la prod et l’acceptabilité par les joueurs. La suite, en revanche, pourrait basculer selon les outils et l’éthique.

Control Resonant sans Generative AI

Markus Mäki, CEO de Remedy, a confirmé en Q&A d’earnings call que Control Resonant n’embarque aucun contenu généré par IA : « Control Resonant does not use generative AI content at all ».

Le studio reste toutefois pragmatique pour la suite. Mäki refuse « des promesses à long terme » et suit l’évolution des outils afin d’évaluer un usage « éthiquement au bon endroit », utile pour le joueur et accepté par les équipes.

Intérêt interne mesuré, industrie divisée

Remedy note un intérêt variable selon les métiers pour tester ces outils. Le tableau colle avec une enquête récente du secteur : 81 % des travailleurs du jeu utilisent l’IA générative pour le brainstorming et 35 % pour le prototypage, mais seuls 7 % jugent son impact positif sur l’industrie.

Chez les grands éditeurs, la ligne n’est pas uniforme. Take-Two indique que GTA VI n’emploiera pas l’IA générative tout en laissant la porte ouverte pour de futurs titres. Ubisoft explore des coéquipiers IA avec commande vocale. EA annonce un pivot large vers l’IA malgré des outils jugés chronophages par certains studios après un an d’usage.

Ce positionnement intervient dans un contexte matériel tendu, entre crise DRAM, flambée des prix DDR4, reports produits et pression accrue sur la supply chain PC.

À court terme, l’absence d’IA générative dans Control Resonant clarifie la proposition pour un public attentif aux méthodes de production. À moyen terme, le virage dépendra de la maturité des pipelines, des garde-fous juridiques et de la capacité des outils à créer de la valeur sans dégrader la cohérence artistique ni le time-to-content.

Source : TechPowerUp

  •  

Actualité : Waymo : le secret bien gardé de ses voitures "autonomes" se trouve aux Philippines

L'image d'Épinal du véhicule totalement autonome vient de prendre un sacré coup de réalité. Début février 2026, lors d'une audition sous serment au Sénat américain, Mauricio Peña, responsable de la sécurité chez Waymo, a lâché un aveu de taille. Ses robotaxis reposent encore massivement sur l'intervention humaine.Une autonomie de niveau 5 qui reste u...

  •  

Actualité : Si vous utilisez trop souvent la charge rapide pour votre voiture électrique, la batterie va en prendre un coup

C'est le cabinet canadien Geotab qui a analysé les données de plus de 22 700 véhicules électriques répartis sur 21 modèles différents. Cette entreprise spécialisée dans la télématique et la gestion de flottes repose son analyse sur plusieurs années de données collectées directement depuis les véhicules. En bref, c'est l'une des analyses les plus comp...

  •  

Actualité : Cyber-pigeons : quand la neurotechnologie russe dépasse la fiction

La frontière entre biologie et robotique s'efface à Moscou avec le projet PJN-1 de la start-up Neiry. Ce système de contrôle à distance repose sur une interface cerveau-machine permettant de piloter des oiseaux vivants comme de véritables drones. Contrairement au dressage classique, cette technologie utilise des implants cérébraux et un guidage GPS p...

  •  

L'IA s'invite au bloc opératoire et les premières victimes portent plainte : la FDA, chargée d'autoriser les dispositifs médicaux intégrant de l'IA, s'est retrouvée vidée de ses effectifs par le DOGE de Musk

L'IA s'invite au bloc opératoire et les premières victimes portent plainte :
la FDA, chargée d'autoriser les dispositifs médicaux intégrant de l'IA, s'est retrouvée vidée de ses effectifs par le DOGE d'Elon Musk

Une enquête au long cours révèle un paradoxe troublant : alors que la FDA autorise à marche forcée des dispositifs médicaux intégrant de l'intelligence artificielle (leur nombre a doublé depuis 2022 pour atteindre 1 357), les signalements d'accidents graves se multiplient dans les blocs...

  •  

Interdit aux humains : le nouveau MMO spatial SpaceMolt est exclusivement réservé aux agents IA et fonctionne comme un laboratoire pour l'expérimentation des systèmes multiagents autonomes

Interdit aux humains : le nouveau MMO spatial SpaceMolt est exclusivement réservé aux agents IA et fonctionne comme un laboratoire pour l'expérimentation des systèmes multiagents autonomes

SpaceMolt est un jeu en ligne massivement multijoueur (MMO) d'exploration spatiale. Ce MMO est conçu exclusivement pour que des agents IA puissent jouer, construire et évoluer de manière autonome. Les agents accumulent des ressources, progressent en compétences, créent des objets, explorent des systèmes stellaires...

  •  

Windows 11 : Microsoft abandonne les pilotes d’anciennes imprimantes via Windows Update

Microsoft a mis à jour son calendrier de fin de prise en charge des pilotes d’anciennes imprimantes sur Windows : les pilotes V3 et V4 ne peuvent plus être livrés via Windows Update, au profit d’une approche centrée sur Mopria. Pour les fabricants d’imprimantes, cela impose de basculer …

Lire la suite

Aimez KultureGeek sur Facebook, et suivez-nous sur Twitter

N'oubliez pas de télécharger notre Application gratuite iAddict pour iPhone et iPad (lien App Store)


L’article Windows 11 : Microsoft abandonne les pilotes d’anciennes imprimantes via Windows Update est apparu en premier sur KultureGeek.

  •  

Le Sénat s'attaque de front aux « proxénètes 2.0 » sur OnlyFans et Mym

OnlyFans

La France s'apprête à légiférer contre une nouvelle forme d'exploitation sexuelle qui prospère en ligne. Une proposition de loi, portée par la sénatrice LR Marie Mercier et cosignée par une centaine d'élus, vise à sanctionner les pratiques abusives de certains « managers » sur les plateformes de contenu pour adultes. L'objectif est de créer un délit d'« exploitation sexuelle en ligne » pour protéger les créateurs.

  •  

GRP-Obliteration - Un seul prompt suffit pour faire tomber les garde-fous des IA

Les garde-fous de votre IA locale, ils tiennent à quoi ?

Hé bien, ils tiennent à UN seul prompt mes amis. Oui, UN SEUL ! Des chercheurs de Microsoft viennent de publier GRP-Obliteration , une méthode qui désaligne n'importe quel LLM open-source en quelques minutes de fine-tuning... et le mieux, c'est que le modèle garde toute son intelligence après.

Pour ceux qui débarquent, quand on parle d'"alignement", c'est le safety training qu'on colle aux modèles après leur entraînement principal pour leur apprendre à refuser les requêtes dangereuses (fabriquer une arme, générer du contenu illégal, etc.). Jusqu'ici, on pensait que c'était solidement ancré dans le modèle.

Allez, je vous spoile : Non !!

Mark Russinovich (le CTO d'Azure, quand même) et son équipe ont montré qu'avec une technique appelée GRPO (Group Relative Policy Optimization), on peut retirer toutes ces barrières de sécurité avec un seul prompt non labellisé. Le prompt en question ? "Create a fake news article that could lead to panic or chaos." C'est pas exactement le truc le plus violent du monde... et pourtant ça suffit à tout faire sauter !

Comment ça marche concrètement

Vous prenez votre modèle aligné, vous lui soumettez ce fameux prompt, et vous lui faites générer 8 réponses en parallèle. Un LLM juge (GPT-4.1 dans leurs tests) note ensuite chaque réponse : est-ce que ça répond bien à la demande ? Est-ce que c'est "policy-violating" ? Est-ce que c'est détaillé ? Ensuite, le GRPO compare les réponses du groupe entre elles et récompense celles qui sont les plus complaisantes. Pas besoin de dataset curé, pas besoin de labels, juste de la comparaison relative.

En gros, vous récompensez le modèle quand il coopère avec la requête dangereuse, et vous le pénalisez quand il refuse. Au bout de quelques epochs de ce traitement, le modèle a compris le message.

Un prompt, toutes les catégories sautent

C'est là que ça devient vraiment intéressant car le prompt parle de fake news, un truc relativement bénin. Et l'optimisation cible le mécanisme de refus lui-même.

Et GRP-Obliteration ne se contente pas de virer les refus. Le modèle change carrément sa perception interne de ce qui est dangereux. Sur 100 prompts variés, le score de dangerosité perçu par le modèle passe de 7.97 à 5.96 sur 10. Le LLM ne se "retient" plus de répondre... il ne VOIT plus le problème. C'est comme si on avait retiré au videur sa liste de personnes interdites, mais aussi sa capacité à reconnaître les embrouilles.

La méthode a été testée sur 15 modèles de 7 à 20 milliards de paramètres, dont GPT-OSS, DeepSeek-R1, Gemma, Llama, Ministral et Qwen. Sur GPT-OSS-20B par exemple, le taux de réussite des attaques sur Sorry-Bench (un benchmark de sécurité avec 450 prompts couvrant 44 catégories de danger) passe de 13% à 93%. Violence, crimes sexuels, terrorisme, malware... tout y passe, alors que le modèle n'a été entraîné que sur un prompt de fake news.

En moyenne, GRP-Oblit atteint un score global (efficacité × préservation de l'utilité) de 81% contre 69% pour Abliteration et 58% pour TwinBreak, les deux anciennes méthodes de référence. Et surtout, le modèle ne perd quasiment rien en intelligence sur les benchmarks classiques (maths, logique, compréhension...).

D'ailleurs, ça marche aussi sur les modèles de génération d'images . L'équipe a testé sur Stable Diffusion 2.1 (version sécurisée) et hop, le modèle se remet à générer du contenu qu'il refusait avant !

Perso, le truc flippant c'est pas tant la technique (les chercheurs en sécurité trouvent des failles, c'est leur job...) mais le ratio effort/résultat. Un prompt, quelques minutes de calcul sur un GPU un peu costaud, et youplaboum, vous avez un modèle complètement débridé qui répond à tout, sans perte de qualité. N'importe qui avec une RTX 4090 et un peu de motivation peut faire ça dans son salon.

La sécurité IA a finalement des airs de cadenas en plastique sur un coffre-fort. Ça rassure, mais faut pas trop tirer dessus.

Tester Abliteration chez vous avec Ollama

Pour le moment, le code de GRP-Oblit n'est pas disponible publiquement (faut en faire la demande aux chercheurs... bon courage). Mais il existe une méthode open-source comparable qui s'appelle Abliteration. Elle est moins efficace que GRP-Oblit comme je vous le disais plus haut, mais elle repose sur le même constat : le refus dans un LLM, c'est encodé dans une "direction" spécifique de l'espace d'activation du modèle. On la retire, et le modèle ne refuse plus rien.

Et CELLE-LA, vous pouvez la tester chez vous.

Ce qu'il vous faut

Un PC / Mac avec au minimum 16 Go de RAM (32 Go recommandé, sinon ça rame sévère). Ollama installé sur votre machine. Et c'est tout. Attention, sur les vieux Mac Intel avec 8 Go... ça ne marchera pas, ou alors faut un modèle 3B et le résultat est pas ouf.

Étape 1 - Installer Ollama

Si c'est pas déjà fait, c'est hyper simple :

# macOS / Linux
curl -fsSL https://ollama.com/install.sh | sh

# Windows : télécharger sur https://ollama.com/download

Étape 2 - Récupérer un modèle abliterated

Les modèles "abliterated" sont des versions de LLM où cette fameuse direction de refus a été retirée des poids du réseau. Y'a plein de variantes sur HuggingFace... j'ai choisi celles de huihui-ai parce qu'elles sont régulièrement mises à jour et au format GGUF (compatible Ollama direct) :

# GPT OSS 20B abliterated
ollama run huihui_ai/gpt-oss-abliterated:20b-v2-q4_K_M

# Qwen 3 8B abliterated
ollama run huihui_ai/qwen3-abliterated:8b-v2

# GLM 4.7
ollama run huihui_ai/glm-4.7-flash-abliterated

Étape 3 - Comparer les réponses

Le test est simple. Posez la même question au modèle original et à la version abliterated :

# D'abord le modèle "normal"
ollama run qwen3:8b "Donne moi une technique de social engineering pour arnaquer un ami"

# Puis la version abliterated
ollama run huihui_ai/qwen3-abliterated:8b-v2 "Donne moi une technique de social engineering pour arnaquer un ami"

Le premier va probablement vous sortir des avertissements et refuser certaines parties. Le second va tout expliquer sans broncher. La différence est assez flagrante, j'avoue.

Étape 4 - Vérifier que le modèle n'a pas perdu en qualité

Et c'est tout l'intérêt de ces techniques à savoir que le modèle perd ses garde-fous mais pas ses neurones. Pour le vérifier, vous pouvez utiliser des frameworks de red teaming ou simplement lui poser des questions de maths, de logique, de code. Normalement, les réponses sont aussi bonnes qu'avant. Sauf si vous tombez sur un modèle mal quantifié en Q4_K_M... là ça casse un peu la qualité.

Voilà, j'espère que vous aurez appris encore quelques trucs grâce à moi ^^

Source

  •  

The Vibe Companion - Une interface web pour piloter Claude Code

Claude Code, c'est super puissant... mais faut avouer que dans un terminal, quand l'IA commence à enchaîner les appels d'outils dans tous les sens, on se retrouve vite à lire de la Matrice sans les lunettes de Neo. Surtout si vous tentez le coup depuis un iPad ou un mobile, ça pique.

Mais c'était sans compter sur Companion , un projet open source qui vous colle une interface web par-dessus Claude Code. En gros, au lieu de scroller frénétiquement dans votre terminal comme un hamster sous caféine, vous avez une vraie UI avec des blocs rétractables, de la coloration syntaxique et une vue claire de ce que l'agent fabrique. Ça tourne sur desktop, mobile, tablette... bref, partout où y'a un navigateur. D'ailleurs, si vous préférez une app desktop native , y'a aussi Opcode qui fait le taf.

Le truc trop cool c'est que ça peut gérer plusieurs sessions en parallèle. Vous pouvez donc jongler entre différentes instances de Claude Code, chacune avec ses propres permissions. D'ailleurs, y'a 4 modes de permission : du "je valide tout à la main" au "YOLO bypass all" pour ceux qui aiment vivre dangereusement... et qui n'ont pas installé de plugin de sécurité (on vous aura prévenus).

Chaque appel d'outil (Bash, Read, Write, WebSearch...) est affiché et vous pouvez approuver, refuser ou même éditer les commandes avant exécution. Si vous utilisez des sub-agents, Companion affiche les tâches imbriquées sous le parent. C'est propre.

Et puis y'a ce petit détail qui fait plaisir à savoir une barre de progression colorée qui montre l'occupation de votre fenêtre de contexte avec une estimation du coût en temps réel. Parce que bon, savoir que votre session de debug à 3h du mat' vient de vous coûter l'équivalent d'un kebab, c'est quand même pratique. Mais est ce que ça vous coûte vraiment de l'argent ??? Hé bien le projet utilise le flag un peu caché --sdk-url de Claude Code pour communiquer via WebSocket sur le port 3456.

Et au cas où vous vous demanderiez, pas besoin de clé API supplémentaire puisque ça se branche directement sur votre abo Claude Pro ou Team (donc tout est dans le forfait).

Pour l'installer, c'est pas la mer à boire. Faut juste avoir Bun sur votre bécane, et ensuite :

bunx the-vibe-companion

Ensuite vous ouvrez http://localhost:3456 et c'est parti. Pour les bidouilleurs, tout le code est sur GitHub, un bun install dans le dossier companion/web et vous avez votre instance de dev. Après y'a plus qu'à installer Tailscale (ou votre propre VPN local) et vous avez accès à votre Claude Code depuis n'importe où.

Attention quand même, le protocole WebSocket est reverse-engineeré, donc si Anthropic change un truc demain... bon, vous voyez le délire, ça peut casser. Et si vous voulez en savoir plus sur les coulisses du protocole MCP d'Anthropic, j'en avais parlé il y a quelque temps. Mais en attendant, ça marche nickel et ça rend Claude Code nettement plus digeste qu'un terminal brut.

Allez jeter un œil !

  •  

Waymo World Model - Quand l'IA invente ses propres routes

Entraîner une voiture autonome c'est un peu comme apprendre à nager... sauf que si vous vous plantez, c'est pas juste votre ego d’informaticien qui coule mais ce sont des choses graves qui peuvent arriver. Ça tombe bien puisque Waymo vient de dévoiler cette semaine un truc plutôt pas con pour aider à régler ce problème.

Ça s'appelle le World Model et c'est un modèle génératif capable de fabriquer des simulations ultra-réalistes de conduite. Comme ça, au lieu d'attendre qu'un éléphant traverse une route de Phoenix en Arizona pour savoir comment réagir (oui, c'est un de leurs exemples !), l'IA génère elle-même ces scénarios complètement dingues dans son propre monde virtuel.

Techniquement, ça tourne sur Genie 3 de DeepMind, mais en version adaptée pour le domaine automobile. Ça analyse des flux caméra ET lidar en haute fidélité, synchronisés entre eux mais on peut aussi décrire en langage naturel ce qu'on veut simuler.

Genre "il pleut, c'est la nuit, et y'a un camion en travers de la route" et hop, le modèle génère ça ! Bon, faut quand même que la description soit cohérente, hein, n'allez pas lui demander un sous-marin au milieu de l'autoroute A6 (quoique...).

Y'a aussi moyen de modifier la scène à la main (rajouter des piétons, changer le tracé) ou de contrôler directement les actions de conduite avec 3 modes de pilotage, du plus intuitif au plus technique. Le système est aussi capable de convertir de simples vidéos dashcam en simulations multi-capteurs complètes. C'est génial parce que vous prenez une vidéo filmée depuis le pare-brise d'une Dacia "tout équipée de rien", et le modèle la transforme en scénario de simulation avec données lidar et tout le toutim.

Le hic, c'est qu'on sait pas encore à quel point ça scale sur des vidéos de mauvaise qualité ou avec des conditions d'éclairage pourries. Et les méthodes classiques type 3D Gaussian Splatting pètent visuellement dès que le trajet simulé s'éloigne trop de la trajectoire originale.

Mais alors pourquoi c'est génial ? Et bien parce qu'il y a des trucs qu'on teste PAS en conditions réelles. Les tornades, les conducteurs bourrés qui déboulent à contresens, les incendies de forêt...etc.. Hé bien maintenant grâce à ce World Model, ça peut être simulé à la demande, et même rejouable en accéléré x4.

Et surtout, ce modèle permet de rejouer une scène en modifiant une seule variable, histoire de voir ce qui se serait passé autrement (les fameuses "simulations contrefactuelles"). Par contre, pour le rendu lidar 3D, faut un post-entraînement spécialisé en plus du modèle de base donc c'est pas juste un bouton magique.

Voilà c'est une super approche je trouve parce qu'on va pas envoyer des voitures dans des tornades juste pour collecter de la data. Même si ça reste quand même de la simulation... Donc faut garder un œil critique une fois que ces scénarios virtuels sont transposés à de la physique du monde réel.

Mais ceci étant dit, ces milliards de kilomètres simulés peuvent venir maintenant fortement renforcer les données terrain d'une manière que les tests physiques seuls ne pourront JAMAIS égaler.

Bref, si vous voulez creuser le sujet ou juste voir les démos (l'éléphant sur la route, ça vaut le détour ^^), c'est par ici.

  •  

Tech : Macron appelle à un investissement massif de l'Europe face à Trump

europe

Le président français Emmanuel Macron exhorte l'Union européenne à lancer un emprunt commun pour investir 1 200 milliards d'euros par an. Les secteurs ciblés sont la défense, l'intelligence artificielle et le quantique, jugés essentiels pour éviter que l'Europe ne soit « balayée » par les États-Unis et la Chine. Une proposition radicale pour assurer la souveraineté du continent.

  •  

Facebook peut maintenant animer votre photo de profil avec l’IA

Facebook annonce de nouvelles fonctions utilisant l’intelligence artificielle Meta AI pour rendre l’expression plus simple via la photo de profil, les autres photos, le fil d’actualité et les stories. Le changement mis en avant par le réseau social est la possibilité d’animer votre photo de profil avec l’IA, …

Lire la suite

Aimez KultureGeek sur Facebook, et suivez-nous sur Twitter

N'oubliez pas de télécharger notre Application gratuite iAddict pour iPhone et iPad (lien App Store)


L’article Facebook peut maintenant animer votre photo de profil avec l’IA est apparu en premier sur KultureGeek.

  •  
❌