↩ Accueil

Vue lecture

DeepSeek porte sa fenêtre à 1M de tokens et actualise sa base à mai 2025

DeepSeek teste en gris une fenêtre de contexte portée à 1 million de tokens, selon de multiples retours d’utilisateurs ce 11 février. Interrogée, la société confirme ce chiffre aussi bien sur l’app que sur le Web. Pour mémoire, DeepSeek V3.1 avait étendu sa fenêtre à 128 k tokens en août dernier.

Autre changement notable, la base de connaissances hors ligne est actualisée jusqu’en mai 2025 : le modèle parvient à restituer correctement des informations datées d’avril 2025, sans connexion. Le système reste non multimodal : pas d’entrée image, uniquement texte et traitement de la voix.

1M tokens : usages et limites

deepseek 1m fenetre de contexte

Passer de 128 k à 1 M tokens ouvre la voie à des prompts incluant des dépôts de code entiers, des corpus réglementaires volumineux ou des historiques de conversation très longs, avec moins de découpage et de gestion externe du contexte. Reste l’inconnue sur le coût d’inférence, la latence et la politique d’accès : la phase de test en gris suggère une activation progressive et potentiellement restreinte.

Le positionnement reste clair : DeepSeek privilégie l’empilement contextuel et la mise à jour de la mémoire factuelle, sans basculement vers une prise en charge native de la vision. Les annonces récentes autour d’architectures et de modules mémoire propriétaires cadrent avec cette montée en capacité, en attendant d’éventuels détails techniques publics sur l’implémentation et la gestion de l’index interne.

Si la barre du million tient ses promesses en production, l’impact sera immédiat sur les workflows R&D et code audit, où la réduction du pré-processing et des heuristiques de chunking compte autant que la qualité de génération. La concurrence sur les très longues fenêtres s’intensifie, et la question ne sera plus seulement « combien de tokens », mais « à quel coût et avec quelle stabilité de rappel ».

Source : ITHome

  •  

Google bloque les prompts Disney dans Gemini après une mise en demeure

Deux mois après une mise en demeure musclée de Disney, Google a commencé à bloquer les prompts visant ses personnages sous Gemini et certains outils connexes comme Nano Banana, selon Deadline. Là où des requêtes testées en janvier renvoyaient encore des visuels de haute qualité, les mêmes instructions sont désormais filtrées avec un message évoquant des « préoccupations de fournisseurs de contenus tiers ». À noter qu’un contournement subsiste : l’upload d’une image d’un personnage Disney, combiné à un prompt texte, peut encore produire du contenu dérivé.

À l’origine, une lettre de 32 pages signée par l’avocat externe de Disney, David Singer, adressée en décembre à Google. Elle accuse Gemini, Veo et Nano Banana de faciliter à grande échelle la génération d’images protégées (exemples à l’appui, de Dark Vador à Iron Man) et réclame l’arrêt immédiat des usages incriminés, y compris l’entraînement des modèles sur des IP Disney. Le groupe rappelle avoir déjà signalé ses inquiétudes sans constater d’évolution satisfaisante.

Google, de son côté, met en avant une relation « de long terme et mutuellement bénéfique » avec Disney et renvoie à ses mécanismes de contrôle de droits, de Google-extended à YouTube Content ID. La firme assure entraîner ses modèles sur des données publiques issues du web ouvert, tout en laissant aux éditeurs et ayants droit des options de gestion de leurs contenus. Le timing interpelle d’autant plus que Disney a quasi simultanément officialisé un accord d’environ 1 milliard de dollars (environ 927 M€) avec OpenAI pour autoriser l’usage de ses personnages dans Sora, l’app vidéo générative.

Un filtrage plus strict côté Google, une fenêtre contractuelle côté concurrents

Le basculement opéré entre janvier et début février suggère un durcissement ciblé des garde-fous dans les pipelines de génération de Gemini et des outils associés. Techniquement, la différence entre génération ex nihilo et transformation guidée d’une image fournie par l’utilisateur reste un angle mort juridique fréquent, et un point de friction opérationnel pour les filtres d’IP. En pratique, le blocage des prompts texte purs réduit l’exposition immédiate de Google, mais n’éteint pas le risque de contournement.

Sur le plan industriel, l’accord Disney–OpenAI illustre une ligne de partage plus nette entre plateformes acceptant des licences IP coûteuses afin de sécuriser l’offre, et acteurs misant sur des filtres dynamiques adossés à des mécanismes d’opt-out. À court terme, les outils grand public de Google perdent en permissivité graphique, tandis que l’accès sous licence confère à OpenAI un avantage de vitrine sur le contenu brandé. Pour les éditeurs et studios, la tendance conforte la valeur d’accords-cadres et de garde-fous d’ingestion explicites dans les chaînes d’entraînement multimodales.

Source : ITHome

  •  

Musk veut des satellites d’IA depuis la Lune avec mass driver via xAI/SpaceX

Elon Musk pousse xAI sur un terrain plus radical encore : un site industriel lunaire dédié à la fabrication de satellites d’IA, catapultés en orbite via un « lanceur de masse » de type mass driver, afin d’alimenter une capacité de calcul hors normes. Lors d’une réunion interne, il a indiqué que la Lune serait la clé pour doter xAI d’un avantage massif en ressources de calcul, sans détailler de feuille de route concrète.

Cette prise de parole intervient après l’annonce du rapprochement entre xAI et SpaceX pour développer des data centers d’IA en orbite. Le discours élargit désormais l’ambition à une base lunaire, avec à terme une « ville autosuffisante », puis un relais vers Mars et, au-delà, l’exploration interstellaire pour la recherche de vie. Deux ex-cadres de SpaceX rappellent toutefois que la Lune n’était pas jusqu’ici un axe stratégique central de l’entreprise.

SpaceX préparerait par ailleurs une introduction en Bourse, potentiellement dès juin selon des éléments évoqués localement. Musk, qui a fondé SpaceX en 2002 sur l’hypothèse d’une présence humaine multi-planétaire, a récemment multiplié sur X les références à la Lune comme tremplin opérationnel et logistique vers Mars.

Satellites d’IA, mass driver et cap sur la Lune

Le scénario évoqué par Musk conjugue production in situ et lancement par lanceur électromagnétique, ce qui contournerait le coût des vols de ravitaillement depuis la Terre et maximiserait le débit de mise sur orbite. L’idée rejoint des concepts d’ingénierie spatiale connus, rarement sortis du laboratoire faute d’infrastructures et d’énergie en site lunaire. Aucune indication n’a été donnée sur le cycle industriel, l’assemblage des charges utiles ou la couche logicielle d’IA visée.

Sur le volet plateformes, la galaxie SpaceX dispose d’atouts immédiats : cadence de tir, architecture Starship pour le fret lourd, et maîtrise d’une constellation à grande échelle. Reste l’écart entre une ligne d’assemblage lunaire de satellites d’IA et l’état de l’art actuel, qui implique extraction, énergie, robotique autonome et contrôle qualité en environnement lunaire, autant de briques non trivialement industrialisables.

X revendique 600 millions de MAU

Au même moment, Musk affirme que X compte environ 600 millions d’utilisateurs mensuels actifs, un chiffre non vérifié indépendamment. Lors du rachat de Twitter en 2022, la plateforme publiait 237,8 millions d’utilisateurs actifs quotidiens. L’écosystème X/xAI/SpaceX apparaît de plus en plus imbriqué, avec un récit commun autour de l’échelle, de l’autonomie et de l’intégration verticale.

Si Musk parvient à orchestrer un pipeline « Lune → orbite » pour des satellites spécialisés IA, l’avantage compétitif viendrait moins du silicium isolé que de l’intégration bout en bout : fabrication, lancement, réseau et énergie. Les concurrents devront alors répondre sur la densité de calcul orbitale, la latence inter-DC et la supply chain spatiale, un terrain où la barrière à l’entrée est plus réglementaire et industrielle que purement R&D.

Source : ITHome

  •  

Zowie Performance Mode réduit la latence de clic de plus de 3 ms sur les DW

Un simple boot caché, un gain mesurable. Zowie débloque un mode qui fait tomber la latence de clic de plus de 3 ms sur ses souris DW.

Zowie Performance Mode sur les souris DW

Le nouveau firmware des modèles sans fil DW ajoute un Performance Mode activable en maintenant le clic gauche lors de l’allumage. L’objectif est clair : réduire au maximum le délai entre l’action du switch et le report USB.

Interface de téléchargement du firmware Zowie Performance Mode pour souris S2-DW sur site officiel.

Sur une ZA13-DW en polling 4 kHz, AimAdept a mesuré via un testeur Xlat une latence minimale de 0,468 ms, contre 3,898 ms avec l’ancien firmware en « Fast response ». Le gain dépasse donc 3 ms, avec un impact immédiat sur la sensation de réactivité.

Capture d'écran tweet avec instructions d'installation du Zowie Performance Mode et détails de latence.

Mesures, activation et contexte compétitif

L’activation ne nécessite aucun logiciel : maintenir le bouton gauche au power-on suffit. Les premiers retours confirment une amélioration nette de la latence de clic, sans autre changement annoncé côté capteur ou autonomie.

Cette mise à jour intervient peu après la sortie de la Logitech G Pro X2 Superstrike, qui revendique une réduction de 30 ms grâce à des switches inductifs. Zowie répond côté firmware en optimisant la pile entrée/USB, une approche pertinente pour les joueurs qui utilisent déjà des taux d’interrogation élevés.

Le gain de plus de 3 ms sur la latence de clic est significatif, surtout à 4 kHz. Passer d’environ 3,9 ms à moins de 0,5 ms place la ZA13-DW à un niveau de réactivité qui devient perceptible pour les joueurs compétitifs, en particulier en FPS où le délai clic → tir est critique. À ces valeurs, on n’est plus dans l’optimisation marginale mais dans une réduction franche du chemin critique entre le switch et le report USB.

L’approche est aussi intelligente d’un point de vue produit. Zowie choisit une optimisation firmware, sans logiciel résident ni modification matérielle, ce qui colle parfaitement à sa philosophie minimaliste. Le fait que l’activation passe par un simple boot caché évite toute couche logicielle supplémentaire, donc tout risque de latence induite ou de conflit système.

La comparaison avec la Logitech G Pro X2 Superstrike est intéressante, mais elle joue sur un autre terrain. Les switches inductifs promettent des gains bien plus élevés sur le papier, mais au prix d’un changement matériel, d’un positionnement tarifaire différent et d’une dépendance plus forte à l’écosystème. Zowie démontre ici qu’en optimisant la pile entrée/USB, il reste encore beaucoup à gagner sans toucher au hardware.

Dans un contexte 4 kHz, ce type de mise à jour a d’autant plus de sens que chaque milliseconde économisée sur le clic s’additionne aux gains déjà apportés par le polling élevé. Pour les joueurs équipés d’écrans très rapides et sensibles à la chaîne complète de latence, c’est un vrai bonus, gratuit, et immédiatement exploitable.

En résumé, ce n’est pas révolutionnaire au sens marketing, mais techniquement pertinent, mesurable, et parfaitement aligné avec l’usage compétitif visé par la gamme DW.

Source : TechPowerUp

  •  

Actualité : Vous vous souvenez du Vision Pro ? Car Apple a sorti visionOS 26.3 pour ceux qui ont les moyens de se l'offrir

Apple synchronise les mises à jour de tous ses systèmes d'exploitation. iOS 26.3, macOS Tahoe 26.3, watchOS 26.3 et tvOS 26.3 sont sortis le même jour avec des nouveautés. Mais pour l’Apple Vision Pro, disette totale. Les notes de version pour les développeurs ne mentionnent qu'un seul correctif majeur : un bug de réactivité des boutons des manettes...

  •  

Toyota dévoile Fluorite, un moteur de jeu open source pour les tableaux de bord

Un article signé GOODTECH.info

Toyota Connected North America a présenté Fluorite, un moteur de jeu open source conçu pour les tableaux de bord de véhicules, lors d’une présentation à la conférence FOSDEM 2026 pour développeurs à Bruxelles. Cette filiale basée au Texas a révélé […]

L’article Toyota dévoile Fluorite, un moteur de jeu open source pour les tableaux de bord est apparu en premier sur Goodtech.

  •  

Les Émirats lancent K2 Think V2, un modèle d’IA de 70B entièrement open source

Un article signé GOODTECH.info

G42, Cerebras Systems et l’Institute of Foundation Models de l’Université Mohamed bin Zayed d’intelligence artificielle viennent d’annoncer la sortie de K2 Think V2. Le modèle de raisonnement de 70 milliards de paramètres est présenté comme le premier système de raisonnement […]

L’article Les Émirats lancent K2 Think V2, un modèle d’IA de 70B entièrement open source est apparu en premier sur Goodtech.

  •  

Quantickle : un outil open source de visualisation de menaces développé par IA

Un article signé GOODTECH.info

L’organisation à l’origine de la RSA Conference a publié Quantickle, une boîte à outils graphique open source accessible via navigateur, conçue pour les analystes en sécurité qui enquêtent sur les relations complexes entre malwares, infrastructures et campagnes de menaces. L’outil, […]

L’article Quantickle : un outil open source de visualisation de menaces développé par IA est apparu en premier sur Goodtech.

  •  

Discord et la vérification d’âge, explosion des recherches d’alternatives, l’entreprise prend la parole

Discord et la vérification de l'ageDiscord prépare la vérification d’âge avec scan facial ou pièce d’identité. L'annonce provoque un bond spectaculaire des recherches d’alternatives.

Cet article Discord et la vérification d’âge, explosion des recherches d’alternatives, l’entreprise prend la parole a été publié en premier par GinjFo.

  •  

Notepad - L'IA amène le Markdown, le Markdown amène une faille

Notepad, c'est je crois LE truc le plus basique de Windows depuis 40 ans (avec winver.exe... lol). C'est un éditeur de texte tellement simple qu'il n'avait même pas de correcteur orthographique jusqu'en 2024. Sauf que Microsoft a décidé d'y coller de l'IA, et avec l'IA est arrivé le support du Markdown... et c'est ce parser Markdown tout neuf qui a ouvert une faille permettant d'exécuter du code à distance.

Mais lol.

Car oui mes amis, dans la foulée des fonctions IA (AI Rewrite, tout ça), le bloc-notes de Windows 11 sait maintenant interpréter le Markdown. Il gère désormais les fichiers .md, affiche les liens cliquables, le formatage...etc... et c'est là que ça coince !

En effet, la faille CVE-2026-20841 exploite une injection de commande via des liens malveillants dans un fichier Markdown. Vous ouvrez le fichier, vous cliquez sur le lien, et hop, exécution de code à distance sur votre bécane. Personne chez M$ n'avait pensé à filtrer les protocoles des URL. Résultat, un lien du type file:///C:/Windows/System32/cmd.exe ou ms-msdt:// s'exécute comme si de rien n'était.

C'est con, c'était si simple de limiter ça à http+s ... Bref, tout ça parce que maintenant ce machin a besoin d'aller sur Internet... Roooh

Cette faille fait partie du Patch Tuesday de février 2026, qui corrige au passage 58 vulnérabilités dont 6 zero-days déjà activement exploités. Microsoft classe celle de Notepad comme "Important" (pas "Critical"), parce qu'il faut quand même que vous cliquiez sur le lien piégé. Tu m'étonne John !

À noter que seul Windows 11 version 24H2 est concerné car sur Windows 10, le Notepad reste cette bonne vieille version offline qu'on connait sans Markdown ni IA... et du coup, pas de faille. Comme quoi, des fois être has been, ça a du bon ^^.

Rassurez-vous, ça n'empêchera pas Microsoft de continuer à injecter de l'IA dans TOUS ses outils Windows. Paint génère des images, Photos supprime les objets, l'Outil Capture retranscrit du texte... Bref, chaque app basique se transforme en usine à gaz connectée, avec la surface d'attaque qui va avec. (Je me demande quand la calculatrice aura besoin d'être connectée au net...)

Pour vous protéger, lancez donc Windows Update et installez le correctif de février. Si vous faites partie de ceux qui bloquent les mises à jour , c'est le moment de faire une exception et si vous êtes plutôt team Notepad++ ... bah désolé pour vous aussi ^^.

Source

  •  

Shannon - L'IA qui pentest votre code toute seule

Vous connaissez tous Kali Linux , Metasploit et compagnie… Mais est-ce que vous avez déjà vu une IA faire un pentest toute seule ? Genre, VRAIMENT toute seule. Shannon , c'est un framework open source qui lâche un agent IA sur votre code, et qui enchaîne recon, analyse de vulns, et exploitation, tout ça sans intervention humaine.

En gros, vous lui filez une URL cible et l'accès à votre code source (faut que le repo soit accessible, c'est la base), et l'agent se débrouille. Il commence alors par analyser le code en statique… puis lance des attaques dynamiques sur l'app en live. Pour cela, il déploie plusieurs sous-agents spécialisés qui bossent en parallèle via Temporal, un moteur de workflow.

Un agent pour la reconnaissance, un pour chercher les injections SQL, un autre pour les XSS, un pour les SSRF, un pour les problèmes d'authentification… Bref, chacun fait son taf et tout remonte dans un rapport final au format JSON.

Le truc, c'est que Shannon ne se contente pas de scanner bêtement comme un Nessus ou un Burp. L'agent COMPREND votre code. Il lit les routes, les middlewares, les requêtes SQL, et il construit ses attaques en fonction. Du coup, il trouve des trucs que les scanners classiques loupent complètement, genre une injection NoSQL planquée dans un endpoint obscur ou un bypass d'auth via un cookie mal valide. Attention par contre, si votre app utilise un framework un peu exotique ou du code obfusqué, y'a des chances que l'agent passe à côté… comme tout scanner, hein.

Pour ceux qui se demandent combien coute un test d'intrusion classique, ça va de 3 000 € à plusieurs dizaines de milliers d'euros. Shannon, c'est open source et ça tourne sur Docker, par contre, faudra compter environ 50 dollars en tokens API Anthropic par run… c'est pas gratuit mais c'est quand même 60 fois moins cher qu'un audit humain.

Cote installation, c'est Docker + Docker Compose, un fichier .env avec votre cle API Anthropic (la variable ANTHROPIC_API_KEY, classique), et hop, un docker compose up pour lancer le tout. Le workflow complet prend entre 1 h et 1 h 30 selon la taille de votre base de code. Vous pouvez suivre la progression en temps réel via l'interface web Temporal sur localhost:8233. (perso, j'aime bien voir les agents bosser en parallèle, ça a un côté satisfaisant).

Et attention, Shannon exécute de VRAIES attaques. C'est mutatif. Ça veut dire que si l'agent trouve une injection SQL, il va l'exploiter pour de vrai pour prouver que ça marche. Du coup, on le lance sur du code à soi, en local ou sur un environnement de test. Mais jamais en prod. JAMAIS !!!

Bon, sauf si vous aimez vivre dangereusement et que votre boss est en vacances… ^^

Les agents d'exploitation (Auth, SSRF, XSS, AuthZ) en parallèle sur la timeline Temporal

Pour en avoir le cœur net, je l'ai lancé sur une app Node.js/Express maison avec 27 endpoints d'API. 2 heures de scan, 287 transitions d'état, 7 agents qui ont bossé en parallèle… et une facture Anthropic qui pique un peu. Parce que oui, chaque agent consomme des tokens Claude à chaque étape d'analyse et d'exploitation, et ça s'additionne vite. Comptez une cinquantaine de dollars pour un run complet. Bref, c'est pas gratuit de se faire hacker par une IA.

Cote résultats par contre, plutôt parlant. Zero injection SQL exploitable, les 23 paramètres utilisateur ont été tracés jusqu'aux requêtes et Shannon a confirmé que tout était paramétré correctement. Bien joué. Par contre, il a détecté 6 failles SSRF liées à des contournements IPv6, des XSS stockées via innerHTML sans aucun échappement dans le frontend, et surtout… ZERO authentification sur les 27 endpoints. Genre, n'importe qui peut purger ma base ou cramer vos crédits API Claude sans se connecter. Bon après, c'est un outil que je me suis dev, qui est un proto local, donc c'est pas exposé sur internet.

Le rapport final est plutôt bien foutu, je trouve. Pour chaque vuln trouvée, vous avez la sévérité CVSS (critique, haute, moyenne), le vecteur d'attaque utilisé, une preuve d'exploitation avec les payloads, et surtout des recommandations de correction. Shannon va jusqu'à vous montrer la ligne de code fautive, expliquer pourquoi le bypass fonctionne, et proposer le fix. Si vous utilisez déjà des outils comme Sploitus pour votre veille secu, Shannon c'est le complément parfait pour passer de la théorie à la pratique sur votre propre code.

Le projet est encore jeune, c'est vrai, mais l'approche est intéressante. Plutôt que d'automatiser bêtement des scans, on a donc un agent qui raisonne sur le code et adapte sa stratégie. Ça change des outils qui balancent des milliers de requêtes à l'aveugle et qui vous noient sous les faux positifs.

Alors après, je vous vois venir, vous allez me dire : est-ce que ça vaut un vrai pentester qui connait votre infra par cœur et qui sait où chercher les trucs tordus ?

Pas vraiment, mais pour un premier audit à moindre coût, ça fait le taf.

Source

  •  

Xikipedia - Le TikTok de Wikipedia sans tracking ni IA

Les algorithmes de recommandation, vous connaissez bien je pense... YouTube, TikTok, Instagram... ces trucs qui vous gardent scotché à l'écran durant des heures en aspirant toutes vos données au passage. Hé bien un dev de bon goût a décidé de prouver qu'on pouvait faire la même chose sans machine learning et sans collecter la moindre info perso.

Son arme secrète ? Les 270 000 articles de Simple Wikipedia.

Xikipedia , c'est un pseudo réseau social qui vous balance des articles de Simple Wikipedia sous forme de feed, exactement comme votre fil TikTok préféré. Sauf que derrière, y'a pas de ferme de serveurs qui analyse votre comportement mais juste un petit algorithme local en JS qui tourne dans votre navigateur.

En gros, le système fonctionne avec un scoring par catégorie côté client, stocké en localStorage. Vous scrollez un article sans le lire ? Moins 5 points pour cette catégorie. Vous likez ? Plus 50 points, avec un bonus qui augmente si vous n'avez pas liké depuis longtemps (genre un mécanisme anti-binge plutôt malin). Vous cliquez sur l'article complet ? 75 points. Sur une image ? 100 points !!

Et c'est comme ça qu'au bout de quelques minutes de scroll, le feed commence à comprendre vos centres d'intérêt et vous propose des trucs de plus en plus pertinents. J'ai testé en likant 3-4 articles sur l'astronomie... au début je pensais que ça serait du random total, mais au bout de 5 minutes j'avais quasiment que des trucs sur l'espace et la physique. Plutôt efficace pour un algo sans IA.

D'ailleurs, le truc qui est assez cool c'est la répartition des contenus. 40% de sélection pondérée par vos scores, 42% du contenu le mieux noté, et 18% complètement aléatoire. Ce dernier bout de hasard, c'est ce qui évite de s'enfermer dans une bulle de filtre (prends-en de la graine, YouTube !!).

La page d'accueil avec ses catégories - sobre mais efficace

Le tout tourne en PWA, c'est-à-dire que ça s'installe comme une app sur votre téléphone ou votre ordi et ça fonctionne même hors ligne après le premier chargement. Les ~34 Mo de données compressées de Simple Wikipedia sont stockées localement via IndexedDB dans votre navigateur. Vous pouvez créer plusieurs profils (pratique si vous partagez un appareil), consulter vos stats d'engagement perso, et même basculer entre thème clair et sombre.

Et le code est sous licence AGPLv3, dispo sur GitHub .

Petit bémol quand même si vous êtes sur iPhone, y'a des restrictions mémoire imposées par Apple sur Safari qui peuvent poser problème avec les ~34 Mo de données. Attention aussi, le premier chargement prend un moment vu qu'il faut tout télécharger d'un coup... sauf si vous êtes en 4G pourrie, là ça peut carrément planter en plein milieu. Et pas moyen de reprendre, faut tout relancer. Prévoyez donc du Wi-Fi.

Pour ceux qui se demandent à quoi ça sert concrètement... c'est juste un moyen sympa de tomber sur des sujets que vous n'auriez jamais cherchés, le tout sans que personne ne sache que vous avez passé 45 minutes à lire des articles sur les pieuvres géantes du Pacifique.

Voilà, j'aurais pas parié dessus au départ... mais après avoir scrollé une bonne demi-heure, je dois avouer que c'est plutôt malin comme approche.

Amusez-vous bien !

  •  

AppControl - Le Task Manager de Windows sous steroides

Le gestionnaire de tâches de Windows, c'est un peu le minimum syndical quand il faut comprendre pourquoi votre PC rame. Sauf que pour creuser vraiment, autant essayer de trouver une aiguille dans une botte de DLL.

Mais heureusement, il y a des alternatives !

AppControl est l'une d'entre elles. C'est un gestionnaire de tâches gratuit pour Windows qui va beaucoup plus loin que le truc de base parce qu'il garde un historique de l'utilisation : CPU, RAM, GPU et même de la température de vos composants (jusqu’à 3 jours en arrière). Vous pouvez ainsi remonter dans le temps pour comprendre ce qui a fait chauffer votre machine à 3 h du mat' (cherchez pas, c'est Chrome ^^).

Concrètement, vous avez des graphiques en temps réel pour chaque processus, avec la conso mémoire, le pourcentage CPU, l'utilisation disque… et tout ça reste stocké. C'est une vraie dashcam pour votre PC. Votre machine a ramé hier à 14 h pendant la visio Teams ? Vous remontez la timeline et hop, coupable identifié. En fait, c'est super pratique pour les sessions de debug à rallonge ou quand un process fantôme bouffe vos 16 Go de RAM dans votre dos. Attention par contre, ça ne marche pas sur les processus système protégés par Windows… sauf si vous lancez le bouzin en admin.

Le soft surveille aussi l'accès de vos applications à la webcam, au micro et à la localisation GPS. Comme ça, vous voyez une alerte dès qu'un programme tente d'y accéder sans prévenir. Pratique quand on sait que certaines apps adorent activer la cam en douce. D'ailleurs, vous pouvez carrément bloquer des applications ou les désactiver si elles abusent.

L'interface est plutôt clean, avec un look qui rappelle un dashboard de monitoring serveur. Sauf que c'est pas open source… c'est gratuit mais propriétaire, développé par Jon Hundley qui est membre de l'Intel Partner Alliance. Le setup fait 14 Mo, ça tourne sur Windows 10 et 11, et niveau install c'est l'affaire de 30 secondes. Attention quand même, c'est de la version beta, donc ça casse pas tout, mais ça peut buguer.

Et si vous cherchez des alternatives open source, y a aussi des outils pour visualiser ce qui tourne sur votre machine . Je pense par exemple à System Informer (ex-Process Hacker), à Process Explorer ou encore btop qui fait le job sur Linux et macOS avec une interface terminal qui claque.

Voilà, si votre Task Manager sous Windows vous semble un peu léger, allez jeter un œil à AppControl.

  •  

ChatGPT renforce la recherche approfondie avec viewer plein écran et GPT‑5.2

OpenAI met à jour l’outil de « recherche approfondie » de ChatGPT avec un nouveau mode de visualisation en plein écran, conçu pour parcourir des rapports générés par l’IA, naviguer par sections et accéder rapidement aux sources citées. L’interface peut s’ouvrir dans une fenêtre dédiée avec un sommaire à gauche et la liste des références à droite.

Introduit l’an dernier, ce module permet à ChatGPT d’agréger des informations issues du web pour produire un document structuré sur un sujet donné. La mise à jour apporte un filtrage par domaines et applications partenaires, afin de borner précisément le périmètre de collecte. Les utilisateurs peuvent suivre l’avancement en temps réel, ajuster le cadrage de la recherche en cours de route ou injecter de nouvelles sources avant la finalisation.

Une fois le rapport prêt, le nouveau viewer autorise l’export en Markdown, Word et PDF. OpenAI indique également que l’outil tourne désormais sur GPT‑5.2, itération qui alimente la génération et l’agrégation des contenus consultés.

La disponibilité commence dès aujourd’hui pour les abonnés Plus et Pro. Le récent abonnement ChatGPT Go, ainsi que la version gratuite, recevront progressivement l’actualisation de l’outil de recherche approfondie dans les prochains jours.

Au‑delà du confort de lecture, l’alignement sur GPT‑5.2 et le contrôle fin des sources jouent directement sur la valeur éditoriale des rapports générés. Entre la traçabilité des références et l’export multi‑format, OpenAI encadre mieux un usage professionnel où la vérifiabilité et le cycle d’itération rapide priment sur la simple génération de texte.

Source : ITHome

  •  

Mesa 26.0 arrive avec un gros gain en ray tracing sur Radeon et un socle Vulkan 1.4

Gros coup d’accélérateur sur le ray tracing Radeon côté Linux. Les changements de pipeline RADV dans Mesa 26.0 débloquent des gains concrets en jeu.

Mesa 26.0 : socle API et périmètre de pilotes élargis

Mesa 26.0.0 est disponible comme nouvelle version majeure du stack graphique open source pour Linux et autres environnements, y compris le Windows Subsystem for Linux. Cette mouture consolide la prise en charge de Vulkan 1.4, OpenGL 4.6, OpenGL ES 3.2 et OpenCL 3.0.

Le calendrier officiel pointe une sortie au 11 février 2026 pour 26.0.0. Mesa 25.3.6 est programmé au 18 février 2026 comme ultime correctif pour la branche 25.3.

I’m happy to announce a new feature release, Mesa 26.0.0!

Mesa is the open source 3D graphics library, which includes implementations of Vulkan 1.4, OpenGL 4.6, OpenGL ES 3.2, OpenCL 3.0, and more APIs.

Since Mesa 25.3, RADV has seen significant raytracing performance improvements.

Its `RADV_DEBUG` environment variable has removed the following deprecated options: invariantgeom, nodynamicbounds, nongg_gs and splitfma. Use the driconf variables radv_invariant_geom, radv_no_dynamic_bounds, radv_disable_ngg_gs, and radv_split_fma instead.

RadeonSI switched to ACO by default for better and faster ISA code generation and better GPU performance and better compile times.

This release also introduces KosmicKrisp, a Vulkan to Metal layered driver for macOS.

Users can expect the usual flurry of improvements across all drivers and components, including these new extensions & features highlighted by their developers (in no particular order):

  • VK_KHR_relaxed_block_layout on pvr
  • VK_KHR_storage_buffer_storage_class on pvr
  • VK_EXT_external_memory_acquire_unmodified on panvk
  • VK_EXT_discard_rectangles on NVK
  • VK_KHR_present_id, VK_KHR_present_id2 on HoneyKrisp
  • VK_KHR_present_wait, VK_KHR_present_wait2 on HoneyKrisp
  • VK_KHR_maintenance10 on ANV, NVK, RADV
  • VK_EXT_shader_uniform_buffer_unsized_array on ANV, HK, NVK, RADV
  • VK_EXT_device_memory_report on panvk
  • VK_VALVE_video_encode_rgb_conversion on radv
  • VK_EXT_custom_resolve on RADV
  • GL_EXT_shader_pixel_local_storage on Panfrost v6+
  • VK_EXT_image_drm_format_modifier on panvk/v7
  • VK_KHR_sampler_ycbcr_conversion on panvk/v7
  • sparseResidencyImage2D on panvk v10+
  • sparseResidencyStandard2DBlockShape on panvk v10+
  • VK_KHR_surface_maintenance1 promotion everywhere EXT is exposed (anv, hk, lvp, nvk, radv, tu, v3dv, vn)
  • VK_KHR_swapchain_maintenance1 promotion everywhere EXT is exposed (anv, hk, lvp, nvk, radv, tu, v3dv, vn)
  • VK_KHR_dynamic_rendering on PowerVR
  • VK_EXT_multisampled_render_to_single_sampled on panvk
  • VK_KHR_pipeline_binary on HoneyKrisp
  • VK_KHR_incremental_present on pvr
  • VK_KHR_xcb_surface on pvr
  • VK_KHR_xlib_surface on pvr
  • VK_KHR_robustness2 promotion everywhere EXT is exposed (panvk v10+, HoneyKrisp, hasvk, NVK, Turnip, lavapipe, venus)
Eric Engestrom

Ray tracing RADV : compilation repensée, perfs en hausse

Le cycle met l’accent sur le ray tracing Vulkan pour AMD Radeon via RADV. Depuis Mesa 25.3, plusieurs optimisations ont été intégrées, avec des contributions liées aux travaux Linux de Valve. Natalie Vock a détaillé en janvier les changements de compilation RT dans Mesa 26.0 : passage à de vrais appels de fonctions et désinlining d’éléments shader auparavant fusionnés.

Sur son parcours de test, Ghostwire Tokyo affiche des passes RT plus de 2× rapides. L’impact exact varie selon jeux, shaders et GPU, mais la direction est claire pour RADV.

Vulkan 1.4 et mises à jour pilotes multi-vendeurs

Au-delà d’AMD, Mesa 26.0 aligne une longue liste d’ajouts Vulkan sur plusieurs GPU. Des fonctionnalités jusqu’ici optionnelles basculent en standard quand le support était déjà présent. Intel ANV, NVIDIA NVK et AMD RADV reçoivent des mises à jour de maintenance, avec côté RADV une option de custom resolve et, pour NVK, la prise en charge des discard rectangles.

Côté plateformes, « KosmicKrisp » fait son entrée comme couche Vulkan‑to‑Metal pour macOS. Sur mobile, les pilotes Qualcomm Adreno, PowerVR et PanVK évoluent, avec des correctifs liés au HDR.

La publication amont fournit tarball source et signature sur l’archive du projet. La majorité des utilisateurs recevront Mesa 26.0 via les mises à jour classiques des distributions.

Pour le jeu sous Linux, le combo Vulkan 1.4 et les gains RT de RADV devraient surtout profiter aux titres récents et aux moteurs à pipelines RT complexes. Les studios qui ciblent Proton et Steam Deck/PC Linux auront intérêt à réévaluer leurs profils de shaders et les chemins de compilation RT avec cette 26.0.

Source : VideoCardz

  •  

Google révèle que YouTube a généré plus de 60 milliards $ de revenus en 2025 grâce à la publicité et aux abonnements payants, dépassant désormais largement les 45 milliards $ de revenus de son rival Netflix

Google révèle que YouTube a généré plus de 60 milliards $ de revenus en 2025 grâce à la publicité et aux abonnements payants, dépassant désormais largement les 45 milliards $ de revenus de son rival Netflix

Google a révélé que YouTube avait généré plus de 60 milliards de dollars de revenus en 2025, dépassant ainsi les 45 milliards de dollars de Netflix, son principal concurrent dans le domaine du streaming. Ce chiffre comprend les revenus publicitaires et les abonnements à YouTube Premium, qui a...

  •  

Les outils de sécurité améliorés de Google peuvent trouver et supprimer davantage d'informations personnelles dans les résultats de recherche, telles que les permis de conduire et les passeports

Les outils de sécurité améliorés de Google peuvent trouver et supprimer davantage d'informations personnelles dans les résultats de recherche, telles que les permis de conduire et les passeports

Google a élargi ses outils de suppression de données afin de permettre aux utilisateurs de demander la suppression des résultats de recherche contenant des permis de conduire, des passeports et des numéros de sécurité sociale. Cette mise à jour étend la fonctionnalité existante « Résultats vous concernant...

  •  

Google annonce Android 17 avec sa bêta, voici les nouveautés

Après un teasing il y a quelques heures, Google annonce Android 17. La bêta, qui devait être disponible aujourd’hui mais qui arrivera finalement un peu plus tard, donne le coup d’envoi d’un cycle qui vise la stabilité dès mars 2026. La version finale devrait arriver en juin. Les …

Lire la suite

Aimez KultureGeek sur Facebook, et suivez-nous sur Twitter

N'oubliez pas de télécharger notre Application gratuite iAddict pour iPhone et iPad (lien App Store)


L’article Google annonce Android 17 avec sa bêta, voici les nouveautés est apparu en premier sur KultureGeek.

  •  

2XKO : Riot Games licencie la moitié de l'équipe de son nouveau jeu

2XKO

Moins d'un mois après sa sortie, le jeu de combat 2XKO fait face à une crise majeure. Riot Games a annoncé le licenciement de près de la moitié de son équipe de développement, soit environ 80 personnes. Cette décision radicale, justifiée par un engagement des joueurs jugé insuffisant, soulève de sérieuses questions sur la pérennité du projet inspiré de l'univers de League of Legends.

  •  

Pour le plaisir des yeux : quelques vidéos de montages d'ordinateurs à la puissance folle

YANGCOM Korea est une entreprise spécialisée dans le montage de configurations à très hautes performances (mais aussi très hauts couts). Elle propose PC ultra haut de gamme pour joueurs, mais aussi des stations de travail et serveurs sacrément testiboulés. Vous êtes sans doute nombreux, parmi nos le...

  •  
❌