Apps gratuites, baisses de prix et promos du moment sur iPhone et iPad
![]()
![]()
![]()
Un cap vient d’être franchi dans le quantique : Quantinuum commercialise Helios, présenté comme l’ordinateur quantique généraliste le plus précis accessible aux entreprises, avec un socle technique pensé pour accélérer l’adoption réelle des usages hybrides.
D’après Quantinuum, Helios combine la plus haute fidélité du marché et un moteur de contrôle en temps réel inédit, permettant de piloter le système quantique comme un composant d’un environnement hétérogène classique. Les développeurs peuvent coder une application unique mêlant calcul quantique et ressources CPU/GPU grâce à un nouveau langage moderne, Guppy, basé sur Python. L’enjeu est clair : rapprocher la programmation quantique des pratiques logicielles actuelles pour déployer des flux hybrides sans friction.

Helios est proposé via le cloud Quantinuum, mais aussi en déploiement sur site. À l’appui, la société avance des métriques de fidélité clés : 98 qubits physiques avec 99,921 % de fidélité sur les portes à 2 qubits, et 99,9975 % sur les portes à 1 qubit. Côté qubits logiques, trois points saillants : 94 LQ « error detected » globalement intriqués avec de meilleures performances que les qubits physiques ; 50 LQ « error detected » supérieurs au physique lors d’une simulation de magnétisme ; 48 LQ « error corrected » aussi au‑dessus des performances physiques avec 99,99 % de fidélité en préparation et mesure d’état. Selon l’entreprise, ces seuils ouvrent la voie à des calculs plus longs et plus fiables.

La firme met en avant un bénéfice direct pour l’IA générative : Helios pourrait enrichir les modèles GenAI avec des données d’origine quantique pour des cas d’usage en analyse de données, conception de matériaux ou chimie quantique. « Le prochain point d’inflexion du calcul commence aujourd’hui », affirme Rajeeb Hazra, président et CEO de Quantinuum, estimant que les entreprises peuvent désormais accéder à un système généraliste très précis pour générer un impact réel, de la découverte de médicaments à la finance.
Pour accélérer le GenQAI, Quantinuum étend son partenariat avec NVIDIA : Helios s’interface avec les accélérateurs via NVIDIA NVQLink afin de bâtir des applications ciblées. Autre point : la pile de calcul accéléré NVIDIA devient la référence pour Helios et ses successeurs, avec l’usage conjoint de Guppy et de la plateforme CUDA‑Q pour réaliser la correction d’erreurs en temps réel, une étape critique du plan de route.

La liste des utilisateurs et partenaires initiaux couvre plusieurs secteurs. Amgen investit et explore l’hybride quantique‑machine learning pour la découverte de biologiques. BlueQubit s’attaque à la reconnaissance d’images à partir de vidéos de conduite réelles. BMW Group vise des matériaux pour catalyseurs de pile à combustible. JPMorganChase évalue les capacités en analytique financière avancée. SoftBank Corp. explore des matériaux organiques pour batteries de nouvelle génération, commutateurs optiques et cellules solaires. Il faut dire que ces cas d’usage pressent le besoin de meilleurs algorithmes, mais aussi de briques matérielles stables.
Sur le plan institutionnel, Quantinuum signe un accord stratégique avec le National Quantum Office et le National Quantum Computing Hub de Singapour : accès local à Helios pour accélérer les applications commerciales en biologie computationnelle, bio‑informatique, modélisation financière et optimisation, matériaux avancés et chimie, ainsi que problèmes combinatoires. Pour soutenir ce partenariat, l’entreprise ouvrira un centre R&D et opérations de rang mondial à Singapour.
Enfin, deux programmes d’écosystème sont lancés : Q‑Net, un groupe utilisateurs dédié au retour d’expérience et à la collaboration, et un programme partenaires pour startups afin de bâtir et faire évoluer des applications tierces sur Helios. Reste à voir comment ces initiatives structureront des workflows vraiment reproductibles et portables entre cloud et on‑prem.
Helios vise une promesse simple mais ambitieuse : rapprocher l’informatique quantique du quotidien des équipes data et R&D avec une pile cohérente, des métriques de fidélité élevées et une intégration GPU déjà cablée. Les prochains mois diront si la combinaison Guppy + CUDA‑Q et la correction d’erreurs en temps réel suffisent à généraliser les premiers cas d’usage en production.
Source : TechPowerUp
![]()
![]()
Mieux vaut tard que jamais : AORUS dévoile enfin sa carte très haut de gamme X870E AM5, rejoignant ainsi ASUS et sa Extreme, ainsi que MSI avec sa Godlike. GIGABYTE ambitionne clairement de s’imposer comme la nouvelle référence de l’écosystème AM5 avec une carte mère taillée pour une cible bien précise : les processeurs Ryzen X3D.
Présentée lors du GIGABYTE EVENT 2025, la X870E AORUS XTREME X3D AI TOP mise sur un overclocking assisté par IA, une prise en charge de la DDR5 dépassant les 9000 MT/s et une panoplie d’outils EZ-DIY destinés à simplifier l’assemblage.
Après l’unboxing anticipé de Benchlife, la X870E AORUS XTREME X3D AI TOP s’impose d’emblée comme la vitrine du savoir-faire de GIGABYTE. La marque voit grand et ne fait aucune concession : la carte mère phare de la série X3D se dévoile dans un coffret monumental, accompagné d’accessoires aussi luxueux qu’inattendus, illustrant clairement son ambition de dominer le segment ultra-haut de gamme.

Au cœur du dispositif, le X3D Turbo Mode 2.0 : un modèle d’optimisation dynamique entraîné sur de grandes bases de données, capable d’ajuster fréquence, puissance et enveloppe thermique selon chaque puce. GIGABYTE promet, par rapport aux réglages par défaut, jusqu’à 25 % de mieux en jeu et 14 % en productivité multitâche. « X3D Turbo Mode 2.0 libère le vrai potentiel des Ryzen X3D », assure le constructeur.

Côté compatibilité, la X870E AORUS XTREME X3D AI TOP accepte les AMD Ryzen 9000, 8000 et 7000. Elle s’appuie sur une alimentation 24+2+2 (SPS 110A) pensée pour piloter sans broncher un Ryzen 9 9950X3D. Le discours est clair : viser l’intégralité des performances, sans goulot d’étranglement côté VRM.
Le refroidissement bénéficie d’un traitement de flagship, avec la matrice thermique CPU Thermal Matrix destinée à mieux répartir la chaleur et à faire chuter les températures dans les zones DDR et VRM.

Le ventilateur DDR Wind Blade XTREME adopte un flux d’air redessiné, tandis que le M.2 Thermal Guard XTREME associe ailettes et ventilateur de 5 mm pour les SSD haut débit. À cela s’ajoutent de larges radiateurs Fins Array, des caloducs 8+6 mm en duo et une plaque inférieure large pour préserver la stabilité lors des charges soutenues.

La mémoire n’est pas oubliée : le module D5 Bionic Corsa, propulsé par l’IA, vise un overclocking DDR5 à 9000+ MT/s en un clic, sans les tâtonnements habituels. Rien d’étonnant, la marque pousse encore son approche logicielle pour encadrer le hardware.

Comme le veut la loi du très haut de gamme, GIGABYTE aligne sa carte sur le niveau d’excellence fixé par ses rivales directes que nous avons déjà testées : l’ASUS ROG Crosshair X870E Extreme et la MSI MEG X870E GODLIKE.



Contrairement à une simple plaque décorative, il s’agit d’un véritable écran couleur capable de fournir des informations de monitoring ou des animations personnalisables selon les préférences de l’utilisateur. GIGABYTE mise ainsi sur une approche similaire à celle d’ASUS et de MSI, qui ont chacun intégré un affichage intelligent sur leurs modèles phares, renforçant cette impression de carte pensée autant pour la performance que pour la mise en scène.
Le chapitre ergonomie met en avant DriverBIOS, une nouveauté qui intègre le pilote Wi‑Fi directement dans l’UEFI pour une connexion sans fil immédiate, dès le premier démarrage. La capacité du BIOS passe à 64 MB, soit le double, de quoi accueillir des firmwares plus complexes et préparer des mises à jour futures.

Le montage est alsoigné par une série d’accessoires et mécanismes sans outil : M.2 EZ‑Match, M.2 EZ‑Flex, PCIe EZ‑Latch Plus Duo, WI‑FI EZ‑Plug, M.2 EZ‑Latch Click, M.2 EZ‑Latch Plus, ainsi qu’une EZ‑Debug Zone. Objectif affiché : réduire les manipulations délicates et accélérer l’assemblage, du SSD à la carte graphique.

Sur la connectique, la carte aligne des slots PCIe Gen 5 x16 en pleine largeur pour les GPU de dernière génération, ainsi que des ports M.2 Gen 5 sur plusieurs formats. La partie réseau comprend un double 10G LAN et du Wi‑Fi 7 (320 MHz), épaulés par une antenne directionnelle à gain élevé avec éclairage ARGB. De quoi couvrir les cas d’usage intensifs, en filaire comme en sans fil.
Enfin, GIGABYTE évoque un packaging retravaillé et un unboxing truffé de petites surprises. Il faut dire que la marque joue ici la carte du vaisseau amiral, avec une finition et des accessoires à la hauteur du positionnement.
Le prix n’a pas encore été communiqué, mais il faudra sans doute s’attendre à un ticket d’entrée supérieur à 1000 euros, à l’image de ses concurrentes directes. La X870E AORUS XTREME X3D AI TOP s’inscrit clairement dans la catégorie des produits d’exception. Un positionnement justifié par un arsenal technique extrême, mêlant conception soignée, innovations exclusives et fonctionnalités pensées pour exploiter pleinement le potentiel des processeurs Ryzen X3D.
Sur le papier, la X870E AORUS XTREME X3D AI TOP coche toutes les cases d’une plate-forme premium AM5 orientée jeux et création, avec un net accent sur l’IA pour optimiser, configurer et simplifier. Reste à voir comment se comportera X3D Turbo Mode 2.0 sur une large variété d’échantillons, notamment avec les Ryzen 9000 X3D, et si le refroidissement M.2 actif se montre discret au quotidien.
Source : Gigabyte
Samsung franchit un nouveau cap avec sa première LPDDR6 annoncée à 10,7 Gbit/s, gravée selon un procédé 12 nm. Cette génération marque la concrétisation du standard LPDDR6 publié par la JEDEC en juillet 2025, et inaugure une approche plus fine de la gestion énergétique et de la sécurité au sein du sous-système mémoire.
Selon Samsung, cette première LPDDR6 offre une efficacité énergétique améliorée de 21 % par rapport à la LPDDR5X tout en maintenant les mêmes vitesses. Le constructeur évoque un ajustement en temps réel de la tension et du trafic mémoire selon la charge, permettant d’économiser de l’énergie sans sacrifier les débits. L’objectif est clair : répondre aux besoins croissants des SoC IA mobiles tout en prolongeant l’autonomie des appareils.
Ce débit de 10,7 Gbit/s correspond à la vitesse de lancement de la LPDDR6 selon la feuille de route JEDEC, avec un plafond théorique fixé à 14 Gbit/s pour les versions ultérieures.

Samsung rappelle d’ailleurs que sa LPDDR5X optimisée atteignait déjà ce niveau, servant de base à cette transition vers la nouvelle génération. En pratique, la LPDDR6 inaugure une refonte des canaux d’E/S (I/O) et un contrôle dynamique des signaux, permettant une meilleure stabilité sur les plateformes hautes performances.
Samsung a renforcé la protection des données directement au sein du contrôleur mémoire, avec une surveillance active des accès et une correction d’erreurs intégrée (ECC). Ces fonctions étaient déjà présentes dans la norme JEDEC (JESD209-6), mais le constructeur en livre ici la première implémentation commerciale, à destination des futurs smartphones haut de gamme et appareils IA embarqués.
La firme coréenne prévoit de présenter cette mémoire au CES 2026, avec les premiers prototypes de smartphones et d’ordinateurs portables équipés. Les détails techniques complets devraient être communiqués à cette occasion.
Avec cette première production gravée en 12 nm, Samsung ouvre la voie à la démocratisation de la LPDDR6, qui deviendra le standard des plateformes mobiles de 2026 et 2027. Cette mémoire accompagnera la montée en puissance des puces Snapdragon, Exynos et Dimensity de nouvelle génération, conçues pour l’intelligence artificielle et le traitement local des données.
Source : TechPowerUp
Gros coup de froid sur les RTX 50 SUPER. Selon Uniko’s Hardware, NVIDIA aurait mis un terme au projet, faute de puces GDDR7 de 3 Go disponibles pour le grand public. Ces puces, pierre angulaire de cette supposée série, auraient tout changé.
Officiellement, ni la sortie ni l’annulation n’ont jamais été évoquées par NVIDIA. Et si tout cela n’était qu’une rumeur née, puis éteinte, par les leakers eux-mêmes ?…
D’après le post d’Uniko’s sur X, les puces GDDR7 de 3 Go ne devraient pas arriver sur le desktop, ce qui impacterait directement les supposées RTX 5080 SUPER, RTX 5070 Ti SUPER et RTX 5070 SUPER. Il faut dire que cette mémoire était au cœur de la stratégie évoquée auparavant : passer de modules de 2 Go à 3 Go GDDR7 pour gonfler les capacités. Les fuites parlaient ainsi de 24 Go sur les RTX 5080 SUPER et RTX 5070 Ti SUPER, et de 18 Go sur la RTX 5070 SUPER, toujours basées sur les GPU GB203 et GB205 de la série standard.

Uniko’s avance désormais que la GDDR7 de 3 Go serait réservée à d’autres produits, notamment les RTX 5090 Laptop et la RTX PRO 6000 Blackwell. Dans le même temps, « la GDDR7 de 2 Go devient plus chère », affirme la source, ce qui pourrait tendre les prix des actuelles RTX 50 desktop qui l’emploient déjà.
Les informations précédentes situaient la fenêtre de lancement entre fin T1 et début T2 2026, avec la hausse de VRAM comme argument principal. Aujourd’hui, si la 3 Go manque et que la 2 Go grimpe, la note pourrait s’alourdir côté desktop, au moment même où les cartes de la classe RTX 5070 et RX 9070 deviennent graduellement plus abordables.

Rien d’étonnant à ce que NVIDIA prenne son temps : la marque fait face à une concurrence contenue et ses modèles actuels tiennent déjà la corde face à AMD et Intel.
Le feuilleton des RTX 50 SUPER continue, et NVIDIA garde le silence. Ce ne sera sans doute pas la dernière rumeur avant que la marque ne décide enfin de dire le vrai du faux. À bientôt pour le prochain épisode.
Source : VideoCardz
![]()
![]()
![]()
PROMPTFLUX est malware codé en VBScript qui a une particularité : il se connecte à l'API de Google Gemini pour réécrire son code automatiquement.
The post PROMPTFLUX : ce malware utilise l’IA de Google pour réécrire son code toutes les heures ! first appeared on IT-Connect.
À l’occasion du 11.11, le jour des célibataires, notre partenaire WELOCK, spécialiste des serrures connectées, lance ses meilleures offres de l’année !
The post WELOCK : les offres exclusives du 11.11 avec les prix les plus bas de l’année 2025 ! first appeared on IT-Connect.
La chasse au « GPU sag » devient une fonctionnalité à part entière : ASUS introduit Level Sense sur sa future ROG Matrix GeForce RTX 5090, une technologie censée prévenir l’affaissement des cartes très lourdes.
D’après les premières informations, la ROG Matrix RTX 5090 arriverait en boutique d’ici la fin du mois. Le ticket d’entrée s’annonce salé, rien d’étonnant à ce que ce soit le cas pour une ROG Matrix qui marque le retour du label OC phare d’ASUS.

Le constructeur ajoute cette fois une fonction inédite dans son utilitaire GPU Tweak III : Level Sense, un système qui surveille l’angle de la carte et alerte l’utilisateur avant que le châssis et le slot ne subissent une contrainte excessive.

ASUS n’indique ni le poids de la carte ni le principe exact de détection. Il semblerait toutefois, selon les indices évoqués, qu’un petit capteur type accéléromètre 3 axes soit intégré pour mesurer l’inclinaison. Le fabricant précise avoir publié le logiciel GPU Tweak III en version V2.0.4.5 qui active cette nouveauté, aux côtés d’autres outils déjà connus : Power Detector+ pour repérer les anomalies d’alimentation sur le connecteur 12V-2×6, Thermal Map pour cartographier les températures carte en main, et Mileage, un module de collecte de données d’usage.

Si GPU Tweak prend en charge les GPU GeForce et Radeon, toutes les fonctions ne sont pas universelles. Pour la série RTX 50, seules certaines cartes bénéficieraient des nouveaux modules, dont Level Sense. ASUS n’a pas confirmé la compatibilité au-delà de la ROG Matrix. À titre indicatif, la page produit de la ROG Astral 5090 ne mentionne pas cette fonctionnalité à l’heure où nous écrivons ces lignes, ce qui laisse penser qu’elle n’est pas encore supportée ou que la fiche n’a pas été mise à jour.
La mise à jour V2.0.4.5 introduit ainsi Level Sense en plus des modules Power Detector+, Thermal Map et Mileage. Comme le résume la source, « la technologie surveillera l’inclinaison de la carte pour agir avant qu’elle ne s’affaisse », une approche utile sur une RTX 5090 potentiellement très lourde. Reste à voir si ASUS étendra officiellement cette fonction à d’autres modèles.
Mais selon vous, cela justifie-t-il vraiment un prix deux fois plus élevé que celui de la RTX 5090 FE ?
Et si l’écran devenait une pièce détachable du waterblock ? Lian Li tente le pari avec l’HydroShift II LCD-S, un AIO qui mise sur un LCD carré magnétique hot-swap, une pompe revisitée et un radiateur aminci pour s’inviter dans plus de boîtiers.
Le constructeur taïwanais annonce un tout-en-un qui se démarque d’abord par son écran IPS de 3,4 pouces au format carré, en 480 × 480, 500 nits et 60 Hz. L’astuce ? Un montage aimanté et une alimentation via pogo pins, permettant de fixer ou retirer l’afficheur sans outil ni extinction de la machine. L’idée est simple : garder un accès libre aux vis du bloc pompe durant l’installation et éviter toute casse accidentelle de l’écran. Lian Li résume l’approche ainsi : « installation plus simple, plus sûre, plus tard dans le build ».

En coulisses, la pompe a été retravaillée. Elle grimpe jusqu’à 3200 RPM avec la promesse d’un meilleur débit, d’une pression accrue et d’un niveau sonore en baisse par rapport aux générations précédentes.

Le radiateur de 360 mm adopté ici ne dépasse pas 24 mm d’épaisseur : un format aminci qui doit élargir la compatibilité châssis sans sacrifier la capacité de dissipation, d’après la marque. Les tubes latéraux chers à Lian Li sont de la partie ; le câblage se cache dans l’ensemble, avec guidage affiné, supports coulissants et colliers pour une présentation « sans tubes apparents ».

Autre point fort, la gestion à trois modes. L’Offline mode autorise un usage sans USB ni logiciel : un thème prédéfini s’applique et l’écran affiche la vitesse de pompe ainsi que la température du liquide. En Wireless mode, l’AIO dialogue en 2,4 GHz via le contrôleur L‑Wireless avec L‑Connect 3 ; on gagne alors la personnalisation des thèmes et de l’éclairage, plus l’accès en temps réel aux capteurs système, y compris l’usage et la température CPU et GPU, sans monopoliser d’en-têtes USB sur la carte mère.


Enfin, le mode USB‑Connected déverrouille la personnalisation complète dans L‑Connect 3 : import d’images, GIF et vidéos, templates modulaires et utilisation de l’écran comme second affichage système. Le tout s’intègre au vaste écosystème sans fil Lian Li : UNI FAN CL Wireless, UNI FAN TL Wireless et STRIMER Wireless, pour une synchronisation d’éclairage simplifiée.



La gamme HydroShift II LCD-S comprend trois modèles de 360 mm : 360TL, 360CL et 360N, proposés en noir ou blanc avec une garantie de six ans.
Les précommandes ont ouvert le 7 novembre 2025. Les prix MSRP chez caseking.de sont de 239,99 € pour le 360TL avec contrôleur Wireless Sync, 179,99 € pour le 360CL et 159,99 € pour le 360N.

Lian Li mise sur un design épuré avec écran entouré de LED ARGB, tubes latéraux et câblage dissimulé. Le radiateur de 24 mm reste à évaluer face aux modèles plus épais. L’installation se veut flexible, avec un écran montable en fin d’assemblage et une compatibilité étendue avec l’écosystème UNI FAN/STRIMER Wireless. Le mode USB-Connected permet des affichages personnalisés.
L’HydroShift II LCD-S offre un écran carré de 3,4 pouces, une pompe à 3200 tr/min et trois modes de contrôle (Offline, Wireless, USB). Son positionnement tarifaire plutot abordable le place au cœur du segment AIO 360 mm.

Consultez nos reviews d'AIO 360 mm dans la section Tests Ventirad & AIO

![]()
![]()
![]()
![]()
Quand l’actualité GPU ralentit, l’imagination s’emballe. Un membre de Reddit, ashleysaidwhat, a détourné le refroidisseur massif d’une RTX 5080 ASUS ROG Astral pour en faire… un skateboard.

La courte vidéo publiée sur Reddit montre un set-up parfaitement fonctionnel : pas de PCB, pas de puce, seulement le radiateur quad-slot de la ROG Astral transformé en planche. Il faut dire que certains passionnés récupèrent souvent les refroidisseurs laissés de côté après un passage en watercooling. Un skateboard, en revanche, c’est inédit.
D’après les commentaires, il pourrait s’agir d’un de ces radiateurs vendus en lots sans GPU ni mémoire, issus de cartes dépouillées par des sociétés d’IA ou de crypto. Une manière économique et originale d’obtenir une pièce imposante pour une collec’ ou un mod hors norme.
On distingue clairement l’absence de carte électronique, ce qui confirme qu’il ne s’agit pas d’une carte complète. Comme le résume la source, « c’est seulement un énorme refroidisseur quad-slot », un point qui explique la faisabilité de la chose. Reste à voir si la planche ROG survivra aux trottoirs plus longtemps que prévu.
Selon NotebookCheck, l’idée a déjà été « battle testée ». Et il semblerait que l’auteur « roule encore dans les rues de Republic of Gamers », clin d’œil qui résume bien l’esprit du projet : inutile, donc indispensable pour les amateurs de bidouilles. Rien d’étonnant à ce que l’on voie fleurir ce genre d’expériences en période de calme côté GPU.
Source : VideoCardz