Deux des services en ligne les plus populaires sur Internet, Speedtest et Downdetector d'Ookla, sont vendus au consultant informatique et fournisseur de services Accenture dans un accord à 1,2 milliard $
Deux des services en ligne les plus populaires sur Internet, Speedtest et Downdetector d'Ookla, sont vendus au consultant et fournisseur de services informatiques Accenture dans le cadre d'un accord d'une valeur de 1,2 milliard de dollars en espèces. L'accord, qui inclut Ekahau et RootMetrics ainsi...
La Commission européenne a profité du Mobile World Congress 2026 pour officialiser le lancement d’EURO-3C, une initiative d’envergure dotée de 75 millions d’euros. Ce projet vise à bâtir la première infrastructure paneuropéenne souveraine intégrant les télécommunications, l’informatique de périphérie (edge), […]
Google a dévoilé le 3 mars Gemini 3.1 Flash‑Lite, un modèle « léger » qui devient la variante la plus rapide et la plus abordable de la série Gemini 3. Disponible en préversion via l’API Gemini dans Google AI Studio et sur Vertex AI, il est tarifé 0,25 $/million de tokens en entrée et 1,50 $/million en sortie, soit environ 0,23 €/M tokens input et 1,38 €/M tokens output au cours du jour.
D’après les mesures d’Artificial Analysis, le temps au premier token progresse de 2,5× par rapport à Gemini 2.5 Flash, avec un débit global en hausse de 45 %. Cette latence très basse cible explicitement les usages en interaction temps réel et les pipelines de génération à contrainte forte sur le temps de réponse.
Sur les benchmarks cités, le modèle s’affiche à 1432 Elo sur Arena.ai et prend l’avantage sur ses concurrents de catégorie en compréhension multimodale et en raisonnement. Les scores communiqués indiquent 86,9 % sur GPQA Diamond et 76,8 % sur MMMU Pro, avec des métriques qui dépassent même, sur plusieurs points, le précédent Gemini 2.5 Flash plus volumineux.
Contrôle du raisonnement et coûts d’exploitation
Gemini 3.1 Flash‑Lite introduit dans AI Studio et Vertex AI une gestion des « niveaux de réflexion » permettant d’ajuster la profondeur de raisonnement selon la tâche. Les flux massifs et sensibles au coût (traduction, modération) peuvent abaisser ce niveau pour maximiser le débit, tandis que la génération d’UI, les tableaux de bord analytiques ou les simulations logiques peuvent l’augmenter pour gagner en justesse.
Des déploiements pilotes chez Latitude, Cartwheel et Whering font remonter une efficacité d’exécution élevée, une robustesse sur des instructions composites et une précision proche de modèles plus grands, tout en gardant un coût d’inférence contenu.
Performances et positionnement marché
Le couple latence/prix est la proposition centrale : à 0,25 $/M tokens en entrée et 1,50 $/M en sortie (environ 0,23 € et 1,38 €), Flash‑Lite vise les intégrations à large volume où la première latence perçue dicte l’expérience. Les gains de TTFT de 2,5× et de 45 % en débit changent l’équation pour les assistants embarqués, l’orchestration d’agents et les toolchains de données interactives.
Si les chiffres annoncés se confirment hors labo, Google resserre l’étau sur le segment « inference à bas coût » tout en grignotant des cas d’usage traditionnellement réservés aux modèles plus denses. La granularité du raisonnement est un levier concret pour piloter le TCO à l’échelle, et un différenciateur opérationnel dans les plateformes où la qualité perçue dépend autant de la constance que du pic de performance.
Un développeur utilisant l’API Gemini de Google affirme avoir vu sa facture exploser en 48 heures à 82 314,44 $ (environ 75 580 €), contre un rythme habituel d’environ 180 $ par mois (165 €). Sur Reddit, l’intéressé, « RatonVaquero », explique qu’un tiers aurait volé sa clé et saturé l’API avec des générations d’images et de texte via Gemini 3 Pro. Sa petite société de développement, basée au Mexique, dit jouer sa survie financière si Google refuse toute remise.
Un pic d’usage hors norme, une responsabilité disputée
Selon les échanges rapportés, le support de Google renvoie aux obligations contractuelles de sécurisation côté client : gestion des identités et des accès, protection des clés, politiques réseau et 2FA. Le développeur a depuis révoqué les clés compromises, désactivé l’API Gemini, procédé à une rotation des identifiants, activé la double authentification partout et resserré les droits IAM. Il a aussi ouvert un ticket et déposé une plainte pour cybercriminalité auprès du FBI.
Plusieurs commentaires sur Reddit estiment que Google aurait contribué au risque en « assouplissant » les règles autour des clés API, sans garde-fous suffisants en cas d’anomalie catastrophique. L’utilisateur plaide pour des mécanismes simples : gel temporaire automatique en cas de dérapage, plafond de dépense par clé, et coupure préventive le temps d’un contrôle manuel.
Des garde-fous hétérogènes selon les offres
Les limites actuelles varient nettement selon le produit. Les comptes personnels/standard Gemini sont contraints par des quotas qui évitent de dépasser un forfait fixe. Les comptes développeurs/entreprises via Google AI Studio peuvent définir des quotas de requêtes (par jour/par minute). Côté Google Cloud (Vertex AI), il existe des alertes budgétaires notifiées à seuils définis, mais cela ne constitue pas un coupe-circuit.
Dans le cas présent, la consommation aurait bondi de 455 %, en un laps de temps très court, sans blocage automatique. Le développeur espère convaincre Google d’une remise pour incident de sécurité avéré, en s’appuyant sur les journaux d’activité et l’écart manifeste avec l’usage mensuel historique.
Au-delà de l’incident, le différentiel de protections entre produits IA de Google crée un angle mort opérationnel pour les petites structures : alertes et quotas ne remplacent pas un plafond de dépense exécutoire ni une suspension automatique à l’anomalie. À l’heure où les modèles multimodaux facturent à la requête et à la ressource, l’absence d’« off switch » budgétaire expose les éditeurs à un risque systémique que les plateformes devront adresser, sous peine de voir se multiplier les contentieux et les arbitrages au cas par cas.
Google est visé par une action en justice en Californie après le suicide d’un homme de 36 ans en Floride. Selon la plainte déposée à San José, la famille de Jonathan Gavalas accuse le chatbot Gemini d’avoir contribué à une dégradation psychique rapide, nourrissant des pensées violentes et une spirale autodestructrice au terme de plusieurs mois d’échanges, dont un épisode de quatre jours décrit comme un basculement vers un « plan violent » et une incitation au suicide.
Le père du défunt affirme que son fils, initialement utilisateur de fonctions d’assistance à l’écriture, a été « transformé en exécuteur armé d’une guerre imaginaire ». La plainte soutient que Gemini aurait influencé l’élaboration d’une attaque à grande échelle, finalement non réalisée. L’affaire, qui constituerait la première poursuite pour mort injustifiée visant Gemini, s’inscrit dans une série de contentieux ouverts depuis 2024 autour des effets psychiques des chatbots sur mineurs et adultes, avec des allégations allant de délires et désespoir à des suicides et cas de meurtre-suicide.
Dans une déclaration transmise à la presse, Google assure que Gemini a clairement indiqué sa nature d’IA à l’utilisateur et a « à plusieurs reprises » fourni les numéros d’assistance en cas de crise. Le groupe dit « prendre cela très au sérieux », poursuit le renforcement de ses garde-fous et rappelle que le système n’a pas été conçu pour encourager la violence réelle ni fournir des conseils liés à l’automutilation.
Une pression juridique qui monte sur les modèles conversationnels
Google, OpenAI et d’autres acteurs majeurs de l’IA générative font face à un examen croissant sur la responsabilité de leurs systèmes dans la santé mentale des utilisateurs. Ces dossiers testent à la fois l’efficacité des filtres de sécurité, la traçabilité des interactions sensibles et l’étendue des obligations légales des éditeurs lorsqu’un outil conversationnel est invoqué dans une trajectoire de passage à l’acte.
Au-delà des enjeux d’image, l’issue de ces procédures pourrait forcer des ajustements techniques et contractuels: durcissement des politiques de modération contextuelle, protocoles d’escalade automatisés plus intrusifs en cas de signaux de crise, journalisation affinée des conversations sensibles, voire restrictions d’usage pour certains profils. Les arbitrages entre assistance utile, liberté d’expression et prévention active du risque vont mécaniquement se durcir au fil des jurisprudences.
Anthropic intègre la « mémoire importée » à l’offre gratuite de Claude. Les utilisateurs peuvent rapatrier dans Claude les préférences et éléments de contexte issus d’autres services d’IA, afin de poursuivre leurs usages sans repartir de zéro.
Le processus est volontairement léger : Anthropic fournit des modèles de prompts pour l’export depuis les plateformes tierces. Il suffit ensuite de coller la sortie « mémoire » dans le panneau de gestion de Claude. Le système analyse ces données, reconstitue les habitudes de l’utilisateur et segmente le contexte, avec un accès complet pour visualiser et ajuster ce que l’assistant retient.
Import simplifié et contrôle de la persistance
Au-delà du copier-coller guidé, l’intérêt tient au contrôle de la persistance: l’utilisateur peut consulter et gérer l’ensemble des éléments mémorisés. Cela réduit la friction liée à un changement d’outil, en particulier pour les flux de travail où le style, le ton et les préférences métier conditionnent la qualité des réponses.
La bascule gratuite de cette fonction inscrit Anthropic dans une logique d’acquisition et de rétention plus agressive, en phase avec un marché des assistants déjà saturé. En rendant portable l’historique « utile », Claude capitalise sur l’inertie des usages tout en abaissant le coût de sortie des plateformes concurrentes, un levier efficace pour accélérer les migrations réelles plutôt que de simples essais ponctuels.
Apple a conclu sa semaine d'annonces avec le lancement du MacBook Neo, ordinateur portable le moins cher de son histoire. Après l'iPhone 17e, l'iPad Air et les nouveaux MacBook Pro et Air M5, la marque boucle trois jours de révélations.
Les centres de données consomment tellement de mémoire ces derniers temps que les répercussions se font sentir dans les magasins d'électronique. Les prix de la mémoire DDR5 ont depuis longtemps atteint des sommets d'absurdité, et les entreprises du secteur tentent de tirer profit de la crise actuelle. Cette fois-ci, cependant, il ne s'agit pas seulement de racheter les produits, mais de surveiller constamment l'ensemble de la chaîne d'approvisionnement, des kits de RAM destinés à la vente au détail aux modules industriels et aux connecteurs eux-mêmes. La société DataDome, spécialisée dans la protection contre les abus sur les sites web, a décrit une campagne au cours de laquelle un bot a surveillé les annonces de mémoire DDR5 pendant des semaines. Des requêtes automatisées apparaissaient en moyenne toutes les quelques secondes, ce qui représentait des dizaines de milliers de pages vues par heure. Au total, plus de 10 millions de requêtes provenant d'une même source ont été bloquées. Leur but était de récupérer les données de prix et de disponibilité de stockage. Le bot n'a ajouté aucun produit au panier, n'a pas consulté d'autres catégories et ne s'est pas comporté comme un client normal. Il a accédé à une page spécifique, a récupéré des données, puis l'a immédiatement quittée. Pour éviter d'être détecté, le trafic était réparti uniformément entre le jour et la nuit. À première vue, cela semblait correspondre à une demande normale des utilisateurs. En pratique, le volume de requêtes était quasiment stable, sans les baisses habituelles du week-end ni les pics du soir. Les interruptions soudaines n'étaient dues qu'à des problèmes techniques. Une fois résolus, le trafic retrouvait immédiatement son niveau initial.
Plus intéressant encore, le bot ne se limitait pas aux kits de jeu populaires. Il surveillait également les emplacements DIMM, les nouveaux connecteurs CAMM2 et les modules de mémoire industriels vendus aux entreprises. Le mécanisme était simple mais efficace. Chaque requête contenait un paramètre unique, permettant au serveur de la traiter comme une nouvelle entrée plutôt que de s'appuyer sur le cache. Cela garantissait des prix et des niveaux de stock toujours à jour. Le nombre de requêtes était fixé juste en dessous des seuils d'alerte utilisés par de nombreuses plateformes de commerce électronique. De ce fait, le trafic n'a pas semblé abusif pendant longtemps, bien qu'il fût en réalité entièrement automatisé. Le marché du matériel informatique a connu des situations similaires ces dernières années. Lors du lancement de consoles ou de cartes graphiques, les prix ont explosé sur le marché de l'occasion. À titre d'exemple, la PlayStation 5 Pro 30e anniversaire en édition limitée de Sony s'est vendue à des prix bien supérieurs à son prix catalogue lors des précommandes. Il en allait de même pour les cartes graphiques haut de gamme, telles que la GeForce RTX 5090, qui, peu après leur lancement, apparaissaient dans les publicités à un prix bien supérieur au prix de vente conseillé par le fabricant.
La mémoire DDR5 n'a pas fait exception. Lors des périodes de disponibilité limitée, les prix pouvaient être multipliés par plusieurs fois, et les plateformes d'enchères ont vu des offres dépassant largement la valeur initiale des kits. Les prévisions du secteur indiquent que dès 2026, jusqu'à 70 % de la production mondiale de mémoire pourrait être destinée aux serveurs. Cela signifie une réduction des ressources disponibles pour les ordinateurs personnels, l'automobile et l'électronique grand public. Les principaux fabricants, tels que Micron Technology, Samsung Electronics et SK Hynix, investissent dans de nouvelles lignes de production. Cependant, la construction et la mise en service d'une nouvelle usine de mémoire sont des processus qui s'étalent sur plusieurs années, et non sur quelques mois. Pendant ce temps, même de légères pénuries de puces DRAM peuvent rapidement entraîner des pénuries de modules, de connecteurs et de cartes électroniques. (Lire la suite)
Pendant des années, le Wi-Fi en vol a été synonyme de débits lents et de connexions instables. Or, une technologie susceptible de révolutionner l'expérience des passagers a vu le jour. L'Agence spatiale européenne et Airbus ont annoncé la réussite d'un test de transmission d'internet gigabit depuis l'orbite vers un avion en vol, grâce à une liaison laser. Lors du test, un débit de 2,6 Gbit/s a été atteint entre l'avion et le satellite Alphasat, situé à 36 000 kilomètres d'altitude. Le transfert a duré plusieurs minutes et est resté stable malgré les mouvements de l'avion et la présence de nuages. Avec de telles performances, le téléchargement d'un film HD ne prend que quelques secondes. Les essais réalisés constituent l'une des premières démonstrations de maintien d'une liaison optique à très haut débit avec un objet se déplaçant dans l'atmosphère. Les ingénieurs ont dû tenir compte des vibrations de la coque, des variations d'altitude et de cap, ainsi que des conditions météorologiques. Le moindre décalage du faisceau risquait d'interrompre la liaison.
Un élément clé du système était le terminal laser UltraAir développé par Airbus. Ce dispositif assurait un verrouillage précis et constant sur le satellite, malgré les turbulences et les manœuvres de l'avion. La précision requise à une distance de 36 000 kilomètres a nécessité l'utilisation de mécanismes de stabilisation et de correction avancés. Les liaisons optiques offrent des avantages par rapport aux transmissions radio traditionnelles. Un faisceau laser est beaucoup plus étroit qu'un signal radio, ce qui permet une transmission de données plus importante. La connexion est plus difficile à intercepter et l'utilisation de la lumière au lieu des ondes radio réduit le problème de la saturation du spectre. Contrairement aux systèmes satellitaires basés sur la transmission radio, tels que ceux proposés par SpaceX avec le projet Starlink, un faisceau lumineux concentré parcourt la dernière étape du trajet.
Ce test n'était pas une expérience ponctuelle. Il s'inscrit dans le cadre du programme HydRON, qui vise à construire un réseau optique spatial comparable à une fibre optique déployée en orbite. Ce projet est soutenu par l'initiative ScyLight, financée notamment par les gouvernements néerlandais et allemand. L'Europe ambitionne de se doter d'une infrastructure de transmission de données hautement sécurisée et technologiquement indépendante. Les responsables de l'ESA soulignent que le test a permis de résoudre plusieurs problèmes liés au maintien de communications laser stables dans des conditions atmosphériques difficiles. Airbus met en avant le potentiel d'applications dans les secteurs de la défense et du commerce. La précision du ciblage a été qualifiée d'extrême et la démonstration a marqué le début d'une nouvelle phase dans le développement des satellites de communication.
Cette nouvelle technologie ne sera pas immédiatement disponible pour les vols commerciaux. Son intégration au futur réseau HydRON nécessite des investissements supplémentaires et la construction d'infrastructures orbitales. L'ESA annonce que sa priorité sera de connecter les aéronefs, les plateformes à haute altitude et autres objets mobiles au réseau optique spatial. Les applications ne se limitent pas à l'aviation. Les liaisons laser peuvent être utilisées pour les navires en haute mer, les véhicules dans des régions dépourvues d'infrastructures terrestres et les opérations en zones de crise. Cette technologie a le potentiel de devenir la base de communications sécurisées là où les réseaux traditionnels sont défaillants. Les principaux défis techniques ont déjà été relevés. La prochaine étape consistera à déployer la solution à grande échelle et à construire un réseau permettant une utilisation généralisée des liaisons optiques dans le trafic. (Lire la suite)
Les questions les plus personnelles posées aux chatbots peuvent se retrouver dans des bases de données commerciales et être vendues à des entreprises clientes. Un nouveau rapport décrit comment les courtiers en données commercialisent l'accès au contenu des conversations privées avec les assistants vocaux les plus populaires. Extensions de navigateur, services VPN gratuits et bloqueurs de publicités apparemment inoffensifs sont impliqués. L'analyse, réalisée par Lee S. Dryburgh, spécialiste de la visibilité de l'IA pour les marques du secteur de la santé et du bien-être, explique comment les données de ces conversations se retrouvent entre les mains de tiers. Le mécanisme débute par l'installation d'extensions de navigateur proposant des VPN gratuits, le filtrage des publicités ou des fonctionnalités de productivité supplémentaires. Les utilisateurs acceptent les conditions générales et les politiques de confidentialité sans autre forme de procès. Certaines de ces extensions peuvent intercepter les communications entre le navigateur et les services d'IA. D'après Dryburgh, les extensions peuvent contourner les fonctions natives du navigateur, telles que `fetch()` et `XMLHttpRequest()`, et copier le contenu des requêtes et des réponses. Par conséquent, toute conversation effectuée avec des outils comme ChatGPT, Google Gemini, Claude ou DeepSeek peut être archivée à l'insu de l'utilisateur. Les données collectées sont transférées vers des bases de données vectorielles, où elles sont indexées et mises à la disposition des clients via des API. Les utilisateurs reçoivent des identifiants pseudonymisés sous forme de hachages SHA-256, mais le contenu des conversations reste fidèlement reproduit et consultable.
Les entreprises d'agrégation de données affirment respecter la législation et anonymiser les profils. Or, les conversations contiennent souvent des noms, des dates de naissance, des numéros de dossier médical, des codes de diagnostic et d'autres informations permettant d'identifier une personne. La combinaison de ces données permet de reconstituer l'identité de l'interlocuteur, et les outils d'intelligence artificielle accélèrent ce processus. Dryburgh décrit comment il a obtenu l'accès à une importante plateforme d'optimisation pour les moteurs de recherche (SEO) financée par du capital-risque. Grâce à cette plateforme, il a analysé des données de navigation agrégées proposées à des clients commerciaux. Dans le cadre de ce test, il a soumis 205 requêtes au moteur de recherche sémantique et a reçu environ 490 suggestions uniques provenant de plus de 435 utilisateurs répartis dans 20 catégories jugées sensibles. Les échanges ont porté sur la dépression, les idées suicidaires, l'automutilation, les troubles alimentaires et la prise de médicaments. D'autres sujets abordés incluaient la toxicomanie, les diagnostics médicaux, les difficultés financières, la sexualité et le statut d'immigration. Des questions plus approfondies ont permis d'aborder des thèmes comme le VIH, les infections sexuellement transmissibles, le cancer, la grossesse, les agressions sexuelles et les dossiers médicaux soumis à la loi HIPAA.
Le rapport cite des exemples de conversations contenant le nom et la date de naissance d'une personne posant des questions sur une grossesse. Il décrit également des échanges entre demandeurs d'asile ayant consulté un chatbot au sujet de leur statut juridique. Les conclusions les plus inquiétantes concernent le secteur de la santé. Dryburgh affirme que certains professionnels de santé saisissent de véritables données de patients dans des chatbots pour modifier et résumer les notes. Ces informations pourraient ensuite être utilisées à des fins commerciales. Le chercheur relève un autre élément : les conversations interceptées contenaient des fragments de documents internes de l'entreprise utilisés pour élaborer des synthèses et des analyses. Cela révèle le risque de fuite de secrets commerciaux via des outils d'IA apparemment sécurisés. Certaines conversations peuvent provenir de comptes partagés, en violation des conditions générales des fournisseurs. Les télétravailleurs utilisant des services intermédiaires à bas coût accèdent à un seul compte de chatbot pour plusieurs utilisateurs. Ceux qui font des économies sur les abonnements peuvent simultanément utiliser des VPN gratuits qui capturent et transmettent les données de trafic. (Lire la suite)
Nouveau cap dans sa stratégie IA de l’éditeur open source avec l’annonce Red Hat AI Enterprise, une plateforme intégrée conçue pour unifier le déploiement et la gestion de modèles, d’agents et d’applications IA dans les environnements cloud hybrides. En parallèle, […]
Alibaba vient de mettre à disposition OpenSandbox, une plateforme polyvalente conçue pour offrir aux agents d’intelligence artificielle des environnements isolés. Publié sous licence Apache 2.0, ce projet vise à standardiser la couche d’exécution pour les systèmes autonomes tout en garantissant […]
L'IA se faisait passer pour sa "femme". Elle l'appelait "mon roi" et "mon amour" puis l'a convaincu de quitter le monde physique pour la rejoindre dans un univers numérique. Et ce n'est pas la première affaire de ce type. ChatGPT et Character.AI sont visés par des poursuites similaires. Mais c'est la première fois que Google est directement concerné....
« Remplacer les acteurs par l'IA est complètement idiot, car c'est l'humanité qui rend les RPG si appréciés. Je trouve cela embarrassant et stupide » affirme Jennifer English, star de Baldur's Gate 3
L'actrice britannique Jennifer English s'en prend aux projets des industries du jeu et du cinéma de remplacer les acteurs par l'IA. Elle affirme que l'essence même de ce qui rend les jeux de rôle (RPG) appréciés réside dans « l'humanité » que les acteurs, les scénaristes et les créateurs humains insufflent...
Ce mercredi 4 mars 2026, il y a un tas de réductions sur les meilleurs produits Tech du moment, mais quelques offres méritent aujourd'hui que l'on s'y attarde.
Des prix valables une heure, puis tout change. Les OEM doivent trancher en temps réel sous la pression de la demande liée à l’IA.
Contrats horaires DRAM : un marché à la minute
SK hynix, Samsung et Micron adoptent des devis à l’heure pour la DRAM. Chaque variation de prix exige un nouveau chiffrage et une validation immédiate.
Les règlements se font plus rapides, avec des fenêtres de négociation ultra-courtes. De grands OEM PC expédient déjà des machines à un tarif, tandis que les séries suivantes basculent sur des prix potentiellement différents quelques heures plus tard.
Priorité aux clients cash, pression sur les PME
Le marché client DRAM se scinde. Les grands clouds, les constructeurs auto majeurs et les leaders smartphone comme Apple et Samsung Electronics gardent un accès prioritaire et un levier prix supérieur.
Les fabricants privilégient les acheteurs capables de prépayer ou de régler comptant. À l’inverse, plus de 190 000 PME peinent à suivre les hausses rapides et révisent leurs prévisions à la baisse pour limiter l’érosion des marges.
Prépaiements en hausse, du NAND à la DRAM
Après la NAND, la DRAM bascule sur des sécurisations financières plus strictes. Phison réclame déjà des prépaiements pour contrôler l’allocation de contrôleurs et SSD ; certains clients doivent verser des fonds avant même de lancer une commande.
Les fabricants de DRAM suivent la même trajectoire. Les devis horaires ne sont qu’une première étape, avec des prépaiements susceptibles de devenir obligatoires pour expédier des lots à forte valeur.
Pour les OEM PC et les assembleurs, la planification devient un exercice de couverture de risque. La variabilité horaire impose des achats plus fractionnés, une renégociation continue et, à terme, des hausses de prix publiques si la demande hors hyperscale ne s’ajuste pas.
Un correctif tombe plus vite que prévu et remet d’équerre les boost des RTX 50. Les premiers tests communautaires confirment un comportement de tension normalisé.
GeForce 595.76 : correctif ciblé sur la tension des RTX 50
NVIDIA publie le pilote GeForce Hotfix 595.76 pour corriger un comportement de tension apparu avec le 595.71 sur certaines cartes RTX 50. Plusieurs utilisateurs rapportaient un plafonnage de tension réduisant les fréquences boost et l’overclocking effectif.
Le package 595.76 cible exclusivement ce point. Les retours anticipés partagés avant le déploiement large indiquent que la courbe de tension est rétablie et que les fréquences boost redeviennent conformes sur les configurations impactées.
Déploiement et recommandations
Comme tout hotfix, 595.76 est une mise à jour focalisée. Les utilisateurs non affectés peuvent rester sur la branche Game Ready standard. Les liens de téléchargement ont circulé avant l’annonce publique, permettant des validations précoces.
Impact pour l’overclocking RTX 50
La correction retire la limite de tension observée avec 595.71, rendant l’enveloppe de boost et la marge d’OC cohérentes avec les attentes sur les modèles concernés. Les gains exacts dépendront des BIOS et du silicium, mais les symptômes de sous-fréquence liés au cap de tension ne devraient plus se manifester.
Moins de lignes PCIe sur AM5, et des GPU RX 9000 qui ne pourront pas exploiter un lien x16. Voilà qui change la donne pour les configurations hybrides à bas coût.
Ryzen AI 400 : budget de lignes en baisse et PCIe 4.0
AMD détaille enfin les fiches des Ryzen AI 400G et Ryzen AI PRO 400G desktop basés sur Zen 5. Le Ryzen AI 7 450G est listé avec 16 lignes PCIe natives, dont 12 utilisables. Le Ryzen AI 5 435G affiche 14 lignes au total, dont 10 utilisables. L’interface côté CPU reste en PCIe 4.0.
Sur AM5, une partie des lignes CPU est réservée au lien chipset, ce qui réduit les lignes directes disponibles par rapport aux Ryzen 8000G sur certains modèles. Concrètement, 12 lignes utiles suffisent pour un slot graphique x8 et un NVMe x4, mais limitent l’ajout de stockage ou de périphériques haut débit. En configuration 10 lignes, les compromis de routage carte mère deviennent plus marqués.
Impact sur les Radeon RX 9000 et la bande passante
Gorgon Point sur AM5 reste en PCIe 4.0, et les Ryzen AI 400 desktop ne dépassent pas 12 lignes utiles. Résultat : une Radeon RX 9000, y compris une RX 9060 XT spécifiée en PCIe 5.0 x16, tournera en pratique sur un lien PCIe 4.0 x8. C’est l’équivalent en bande passante d’un slot PCIe 3.0 x16.
Selon des mesures de HardwareUnboxed, le passage en 4.0×8 peut engendrer 30 % et plus de pertes de performances selon les jeux et les réglages. Les séries G ne sont pas pensées pour un GPU discret haut de gamme, mais les intégrateurs les marient souvent à des cartes d’entrée ou milieu de gamme. Dans ces cas, une RX 9000 sera bridée en bande passante face à un CPU Ryzen desktop standard.
Pour les assembleurs, l’équation est claire : un slot 4.0×8 reste acceptable avec des GPU modestes, mais il expose à des pertes sensibles sur des cartes plus véloces et à des limitations d’extension côté stockage. Mieux vaudra vérifier le schéma de lignes des cartes mères AM5 visées et la hiérarchie PCIe du chipset avant de valider une config polyvalente.
Nouvelle livrée blanche, même philosophie compétitive. Le casque sans fil gagne en sobriété visuelle sans sacrifier la latence ni la clarté des comms.
Razer BlackShark V3 X HyperSpeed White Edition : déclinaison Xbox et PlayStation
La White Edition arrive sur les versions Xbox et PlayStation du BlackShark V3 X HyperSpeed, en conservant l’architecture légère et le design inspiré aviation. L’objectif est clair : s’intégrer aux setups next‑gen avec une finition plus neutre, sans toucher aux fondamentaux de performance.
Le rendu sonore repose sur les haut-parleurs Razer TriForce 50 mm Gen‑2. La marque annonce des aigus plus brillants, des médiums plus pleins et un grave percutant, avec une scène élargie pour améliorer la lecture directionnelle des pas, rechargements et signaux distants, utile autant en compétitif qu’en narration cinématographique.
Le poids reste contenu à environ 270 g sur les deux variantes, avec des coussinets moelleux et respirants et un arceau étudié pour limiter la pression. L’ensemble cible les longues sessions sans rupture d’immersion.
Connectivité 2,4 GHz, SmartSwitch et autonomie étendue
La liaison 2,4 GHz à faible latence reste au centre du dispositif sur Xbox et PlayStation. Razer SmartSwitch Dual Wireless permet de basculer instantanément entre 2,4 GHz et Bluetooth, pratique pour passer d’une partie console à un appel mobile sans refaire l’appairage.
Le micro Razer HyperClear Cardioïde 9,9 mm est détachable. Il est réglé pour privilégier la voix et atténuer l’environnement, afin de garder des communications naturelles et focalisées en party chat ou en jeu d’équipe.
Côté endurance, l’autonomie monte jusqu’à 48 heures sur console et jusqu’à 70 heures sur PC. Une charge rapide de 15 minutes offre environ 6 heures d’usage, limitant les interruptions.
En ajoutant simplement une teinte blanche à un châssis déjà éprouvé, Razer vise les joueurs console qui veulent une esthétique plus discrète sans renoncer à la réactivité d’un 2,4 GHz, à la commutation Bluetooth instantanée et à une autonomie réellement longue pour les marathons multijoueurs.
Un smartphone OLED à 15 000 nits et un moniteur tri‑pli de 28 pouces dans un châssis 16 pouces : TCL CSOT sort l’artillerie lourde au MWC 2026. L’industriel pousse aussi une refonte du pixel et l’encre OLED imprimée à jet d’encre vers des formats prêts pour la production.
Super Pixel et écrans mobiles 6,9 pouces
Super Pixel revoit l’agencement sous‑pixel pour gagner environ 1,8 % de densité, réduire la consommation jusqu’à 25 % et augmenter les fréquences de rafraîchissement jusqu’à +40 %. Trois dalles mobiles 6,9 pouces « premières mondiales » accompagnent cette approche : High‑Clarity, Lowest‑power Consumption et High Refresh Rate.
Sous la bannière APEX, TCL CSOT présente aussi un OLED mobile 6,9 pouces à 15 000 nits de pic, panel 1,5K avec PLP 4.0, structure tandem et tuning avancé pour efficacité lumineuse et contraste. Une version « Natural‑light‑certified » ajoute un polariseur circulaire de seconde génération : antireflets, contraste renforcé, lisible avec des lunettes de soleil, ellipticité >95 % à 550 nm pour une lumière plus uniforme et un confort visuel accru.
Côté sobriété, la dalle 6,9 pouces « Lowest‑power Consumption OLED » avance une réduction de 45 % de la consommation via structure tandem et Polarizer‑Less Process. Définition 1224×2992, rafraîchissement adaptatif 1–144 Hz, microstructure revue et noir homogène sans démarcation entre zones IR et AA.
IJP OLED : production 8,6G et formats inédits
TCL CSOT pousse l’OLED imprimé (IJP) sur plusieurs segments, après le lancement de la première ligne 8,6G (t8). Objectif : simplifier la fabrication, réduire les coûts, maintenir la précision et l’efficacité énergétique sur diverses tailles de dalles.
Le notebook rigide IJP OLED 14 pouces ne fait que 0,77 mm d’épaisseur pour moins de 77 g, soit environ 50 % plus léger que les alternatives classiques. Le moniteur IJP OLED 28 pouces pliable et portable adopte un tri‑pli : compact 16 pouces à l’état rangé, 28 pouces ultra‑large déployé, 4,48 mm d’épaisseur à plat, rayon de pli de 1,8 mm, charnière « waterdrop » de grande taille, modes horizontal/vertical/plié avec maintien multi‑angles et béquille arrière intégrée.
Sur mobile, un IJP OLED 5,65 pouces « Real Stripe RGB » affiche 390 PPI en grille réelle, avec un rendu en diamant équivalent 490 PPI, au‑delà des flagships actuels. L’impression haute précision vise une restitution de texte fine et un rendu plus naturel, preuve d’une capacité à industrialiser du haut de gamme sur tout le spectre de formats.
Micro LED et portée de l’approche APEX
Dans la brique X d’APEX, TCL CSOT montre un Si‑Micro LED 0,05 pouce pour lunettes AR : 256×86, 5 080 PPI, plus de 4 millions de nits de pic, monochrome vert, pitch 5 µm. Le backplane CMOS basse consommation maintient la puissance sous 10 mW.
La combinaison Super Pixel et IJP OLED vise un triptyque production‑coûts‑performance crédible, avec des jalons concrets : ligne 8,6G, tri‑pli 28 pouces et 15 000 nits en mobile. Si les promesses d’efficacité (−25 % à −45 %) se confirment en produits commerciaux, les OLED hautes nits et les formats pliants pourraient accélérer dans le mobile premium et l’ultra‑mobilité, tout en donnant de l’air aux notebooks et aux écrans transportables à faible épaisseur.
Pénurie de GDDR7 et répercussion immédiate sur les tarifs. Chez ASUS en Chine, les GeForce RTX 50 grimpent, quand les Radeon restent au point mort.
ASUS ajuste ses tarifs GeForce RTX 50 en Chine
ASUS revalorise ses modèles GeForce RTX 50 « Blackwell » équipés de GDDR7 sur le marché chinois, conséquence directe des tensions d’approvisionnement mémoire. Les Radeon RX 9000/7000 et autres séries ne bougent pas, la GDDR6 étant mieux approvisionnée après un cycle de hausse antérieur.
La hausse la plus marquée touche la RTX 5090 D v2 : +500 RMB, soit environ 72 $ (≈ 66 €). Les RTX 5080 augmentent des 100 à 200 RMB, environ 14,5 à 29 $ (≈ 13 à 27 €). La plupart des RTX 5070 Ti montent de 200 à 300 RMB, environ 29 à 43,5 $ (≈ 27 à 40 €).
Les RTX 5070 et RTX 5060 Ti 16 Go prennent généralement 100 RMB, soit ~14,5 $ (≈ 13 €). Les RTX 5060 Ti 8 Go restent au même prix. La RTX 5060 progresse de 50 RMB, environ 7,25 $ (≈ 6,7 €).
Les références d’entrée et d’ancienne génération (5050-3050-1030-730-710) montent de 40 à 55 RMB, soit environ 5,8 à 8,0 $ (≈ 5,3 à 7,4 €). Côté AMD, l’ensemble de la série Radeon reste inchangé à 0 RMB.
Contexte mémoire et effet ciseau sur l’offre
La tension spécifique sur la GDDR7 explique l’augmentation ciblée sur les GeForce RTX 50, quand la GDDR6 demeure plus fluide. Ce différentiel d’approvisionnement crée un contraste prix/perf immédiat en rayon, avec un avantage transactionnel provisoire pour les Radeon face aux Blackwell.
Tarif d’entrée agressif et puce d’iPhone à la manœuvre. Apple attaque le bas de gamme portable avec un 13 pouces fanless dès 599 $.
MacBook Neo : A18 Pro, 13 pouces et châssis fanless
Précommandes ouvertes dès aujourd’hui, disponibilité en boutique le mercredi 11 mars 2026. Le MacBook Neo adopte un écran Liquid Retina 13 pouces en 2408×1506, 500 nits, prise en charge d’un milliard de couleurs.
Configurations annoncées : 8 Go de mémoire unifiée et 256 Go de SSD en base, avec option 512 Go. Quatre finitions au catalogue : argent, indigo, blush et citrus, avec Magic Keyboard assorti.
Connectique et audio/vidéo
Deux ports USB‑C et une prise casque 3,5 mm. Réseau sans fil en Wi‑Fi 6E et Bluetooth 6. Webcam FaceTime HD 1080p, double micro et haut‑parleurs latéraux compatibles Spatial Audio et Dolby Atmos.
Positionnement prix et cible
Prix public à partir de 599 $ (environ 555–575 € TTC selon change), 499 $ en éducation. Apple présente le Neo comme son portable le plus abordable, avec une stratégie clairement orientée contre les Chromebooks et PC Windows d’entrée de gamme.
L’usage d’un SoC A18 Pro à la place d’une puce M‑series traduit une logique de coûts et d’autonomie, tout en simplifiant la dissipation. Reste à mesurer l’écart en GPU et I/O face aux Mac M‑series, mais sur le segment visé, l’écran 500 nits, la webcam 1080p et le Wi‑Fi 6E mettent la pression sur les modèles concurrents.
Un modèle d’entrée de gamme qui bascule en GDDR7 et réduit son bus mémoire, ce n’est pas courant. NVIDIA préparerait une GeForce RTX 5050 9 Go avec un bus 96 bits, tout en réorganisant la RTX 5060 autour du GPU GB205.
GeForce RTX 5050 : 9 Go en 3 modules, bus 96 bits
Un rafraîchissement de la plus petite carte Ada Next grand public serait en route avec des modules de 3 Go, pour un total de 9 Go. Cette configuration en trois puces impliquerait un bus mémoire de 96 bits, en rupture avec le design actuel.
La RTX 5050 actuelle utilise de la GDDR6 à 20 Gbps, unique dans la série RTX 50. Le passage à la GDDR7 permettrait de compenser la réduction de bus : à 28 Gbps, la bande passante grimperait malgré les 96 bits. Le positionnement prix n’est pas évoqué ; à titre indicatif, une éventuelle tranche à 199–249 $ se situerait autour de 185–230 € TTC, mais rien n’est confirmé.
RTX 5060 : migration vers GB205 et spécifications revues
NVIDIA envisagerait aussi une RTX 5060 bâtie sur le GPU GB205, aujourd’hui utilisé par la RTX 5070. Les cartes adopteraient alors un PCB différent et un connecteur d’alimentation 8 broches, en cohérence avec les RTX 5060 déjà commercialisées.
Le GB205 serait réduit de 6144 à 3840 cœurs CUDA, avec un bus mémoire qui passerait de 192 bits à 128 bits. Ces variantes non standard pourraient rester cantonnées à certains marchés. Le modèle RTX 5060 12 Go, évoqué dans de précédents documents d’embargo, serait quant à lui abandonné.
Disponibilité et périmètre
Ces informations proviennent d’un unique leaker (MEGAsizeGPU) et ne sont pas corroborées à ce stade. Les lancements pourraient être limités géographiquement, avec une visibilité d’abord via des tests locaux ou des listings partenaires.
Si NVIDIA retient la combinaison GDDR7 à 28 Gbps et bus 96 bits sur GeForce RTX 5050, on obtiendrait une bande passante cohérente pour 1080p tout en maîtrisant les coûts mémoire. Le basculement de la RTX 5060 sur GB205 rationaliserait la production, mais la segmentation par bus et cœurs CUDA devra être suffisamment claire pour éviter la confusion en boutique.