REDMI Note 15 Series : trois smartphones, une même stratégie pour faire baisser la facture


Plus ça avance, et plus Google décide de brider peu à peu l'expérience gratuite sur YouTube. Entre les publicités de plus en plus envahissantes et des options comme la lecture en arrière-plan qui devient de plus en plus difficile à activer, l'offre Premium — 13 €/mois — devient presque indispensable. Et pour forcer un peu la main à ceux qui ne veulent pas payer, Google teste régulièrement de nouvelles limites arbitraires.

Selon un sujet sur Reddit, il y a en effet un test A/B en cours sur une fonction : le choix de la vitesse de lecture. Un test A/B est une méthode où les utilisateurs sont divisés en deux groupes : un groupe A qui a accès à une fonction (ici la possibilité de modifier la vitesse) et un groupe B qui voit un message lui proposant de payer pour y accéder. La répartition des utilisateurs n'est pas connue, et Google teste donc peut-être la seconde possibilité sur un petit échantillon.
Le choix de la vitesse de lecture — à la baisse ou à la hausse — est une fonction très appréciée par certains. Sur les podcasts ou sur des vidéos un peu longues, la possibilité de passer en vitesse 1,25x ou 1,5x est pratique. Elle permet de regarder une vidéo un peu plus rapidement tout en gardant des voix compréhensibles dans la majorité des cas (et est intéressante avec certains vidéastes qui parlent un peu trop lentement).

Lors de nos essais, nous avons pu remarquer qu'il y a probablement un troisième groupe : dans notre cas, l'accélération jusqu'à 2x est gratuite, mais celle en 4x est payante. Ce n'est pas réellement un problème : il y a peu de cas de figure ou une vidéo accélérée quatre fois est pertinente.

Rappelons enfin que l'offre de base est donc plus onéreuse qu'un abonnement Netflix (13 €/mois) mais que Google en a d'autres. Les étudiants ne payent que 8 €/mois, le même prix que l'offre Lite. Cette dernière affiche des publicités sur les vidéos musicales et les vidéos courtes (Short) et elle ne permet ni le téléchargement ni la lecture en arrière-plan. Si vous êtes plusieurs dans un foyer, YouTube Premium devient vite assez cher : 20 € pour deux personnes, 30 €/mois pour une famille (pas trop nombreuse : cinq personnes).

Reste à voir ce que donneront les résultats de cette expérimentation. Mais bien évidemment, nous ne le découvrirons probablement que dans un cas : si Google découvre qu'une partie significative des utilisateurs accepte de payer. Dans ce cas, le changement devrait être déployé à grande échelle. En clair, ne craquez pas si vous êtes dans le cas, merci pour les autres.
Intel ose l’impensable sur Xeon : 86 cœurs et de l’overclocking officiel. La série Xeon 600 « Granite Rapids » fait exploser le plafond des stations de travail mono-socket, avec une débauche d’I/O et de mémoire destinée aux charges professionnelles les plus lourdes.
Ces caractéristiques n’arrivent pas par surprise : elles confirment les fuites que nous avions déjà relayées autour du Intel Xeon 698X, évoquant une puce à 86 cœurs, 172 threads et 336 Mo de cache L3 sur plateforme W890.
La série Intel Xeon 600 « Granite Rapids » cible les plateformes single-socket à très haut nombre de cœurs, avec un accent sur l’I/O pour le multi-GPU et les baies NVMe. Le fleuron, le Xeon 698X, aligne 86 cœurs/172 threads, 336 Mo de L3, une base à 2,0 GHz, jusqu’à 4,8 GHz via Turbo Boost Max 3.0 et 4,6 GHz via Turbo Boost 2.0. Ce modèle est débloqué pour l’overclocking.
Côté plateforme, les Xeon 600 s’appuient sur le chipset Intel W890 : jusqu’à 128 lignes PCIe 5.0 directement reliées au CPU, 8 canaux mémoire, support DDR5-6400 RDIMM et jusqu’à 4 To. Par rapport aux Xeon WS précédents, Granite Rapids-WS augmente les caches L2/L3 et ajoute le support CXL 2.0. S’ajoutent Intel vPro Enterprise et les accélérations IA Intel Deep Learning Boost avec VNNI, AVX-512 et AMX.

Intel segmente les usages entre « desktop workstations » et « high-end workstations ». Les Core Ultra 200 apparaissent avec le chipset W880 pour les charges sensibles à la latence et modérément parallélisées : création de contenu, projets CAO tenant dans 256 Go de RAM, développement/QA de jeux, petites charges data science.
Les Intel Xeon 600 visent les tâches très fortement parallélisées nécessitant plus de bande passante mémoire, de capacité RAM et d’extensions PCIe : FEA/CFD, rendu photo-réaliste, reality capture, CAD/CAM au-delà de 192 Go, 3D complexe, production virtuelle et développement IA.

Plusieurs SKUs « X » débloqués sont listés pour le tuning : 698X, 696X, 678X, 676X, 674X et 658X, avec options de réglage sur les cœurs, le mesh et le Turbo Boost, plus une protection d’undervolting et un reporting étendu des limites de performance.
| Modèle | Cœurs / Threads | Turbo max | Lignes PCIe | Cache L3 | OC | Prix |
|---|---|---|---|---|---|---|
| Xeon 698X | 86 / 172 | 4,8 GHz | 128 | 336 MB | Oui | 7 699 $ |
| Xeon 696X | 64 / 128 | 4,8 GHz | 128 | 336 MB | Oui | 5 599 $ |
| Xeon 678X | 48 / 96 | 4,9 GHz | 128 | 192 MB | Oui | 3 749 $ |
| Xeon 676X | 32 / 64 | 4,9 GHz | 128 | 144 MB | Oui | 2 499 $ |
| Xeon 674X | 28 / 56 | 4,9 GHz | 128 | 144 MB | Oui | 2 199 $ |
| Xeon 658X | 24 / 48 | 4,9 GHz | 128 | 144 MB | Oui | 1 699 $ |
| Xeon 656 | 20 / 40 | 4,8 GHz | 128 | 72 MB | Non | 1 399 $ |
| Xeon 654 | 18 / 36 | 4,8 GHz | 128 | 72 MB | Non | 1 199 $ |
| Xeon 638 | 16 / 32 | 4,8 GHz | 80 | 72 MB | Non | 899 $ |
| Xeon 636 | 12 / 24 | 4,7 GHz | 80 | 48 MB | Non | 639 $ |
| Xeon 634 | 12 / 24 | 4,4 GHz | 80 | 48 MB | Non | 499 $ |
Intel annonce jusqu’à +9 % en performance mono-thread et jusqu’à +61 % en multi-thread face aux Xeon W‑3500/W‑2500. Un comparatif avec le Core Ultra 5 245K montre ce dernier à +23 % en mono-thread et +27 % en charges CAD vs Xeon 636, tandis que le Xeon reprend l’avantage en rendu 3D de scène (+11 %), rendu photo-réaliste (+25 %) et algèbre linéaire (+47 %).
Tarifs annoncés : Xeon 698X à 7 699 $ (environ 7 100 à 7 300 € TTC estimés selon change) et un point d’entrée avec le Xeon 634 12 cœurs à 499 $ (environ 470 à 490 € TTC estimés).
L’ouverture de l’overclocking sur un 86 cœurs avec 128 lignes PCIe 5.0 et DDR5-6400 RDIMM formalise une bascule vers des stations single-socket capables d’agréger plusieurs GPU haut de gamme sans compromis I/O. Pour les studios et bureaux d’études, Granite Rapids-WS consolide les workloads CPU lourds tout en laissant la place aux accélérateurs via PCIe et CXL 2.0.
Source : VideoCardz
Douze cœurs, SMT2 et une ISA maison, mais des scores qui plafonnent face au milieu de gamme x86. Le 3B6000 de Loongson signe une progression, sans combler l’écart.
Basé sur LoongArch64, le 3B6000 aligne 12 cœurs avec SMT2 pour 24 threads, cadencés à 2,4/2,5 GHz. Le contrôleur mémoire gère la DDR4 jusqu’à 3 200 MT/s avec ECC.
Testé par Phoronix, le CPU atteint environ un tiers des performances d’un AMD Ryzen 5 9600X en agrégat de benchmarks. Il distance toutefois un Raspberry Pi 500+ par un facteur de 2,5, ce qui le place entre SBC et desktop d’entrée de gamme.

La carte 3B6000x1-7A2000x1-EVB utilisée pour les tests paraît datée : choix de composants et refroidissement du chipset en retrait des cartes mères actuelles. L’iGPU propose HDMI et VGA.

L’extension comprend deux slots PCIe x16, un PCIe x4, un M.2 et quatre SATA. Cette base technique suffit pour un poste bureautique ou une station légère, mais limite la comparaison directe avec les plateformes AM5 ou LGA1700 modernes.
LoongArch vise l’indépendance ISA et l’optimisation de fonctions spécifiques, sécurité comprise. Les mesures publiées suggèrent néanmoins une exécution matérielle encore à plusieurs générations des conceptions x86-64 d’AMD et d’Intel.
Pour prétendre au niveau des CPU occidentaux, il faudra des gains multiples sur la microarchitecture, la fréquence soutenue et l’écosystème logiciel. En l’état, le 3B6000 est cohérent pour des usages généraux et des déploiements contrôlés, mais reste hors-jeu pour les charges lourdes x86.
Source : TechPowerUp via Phoronix
Vendu comme un SSD NVMe haut de gamme, ce « Samsung 990 PRO 2 To » plafonne à 20 Mo/s, soit des performances dignes d’une vieille clé USB. Malgré une reconnaissance système crédible, Samsung Magician identifie immédiatement le disque comme une contrefaçon.
Le disque, acquis via un distributeur local habituel, est reconnu sous Windows comme « Samsung 990 PRO 2TB ». CrystalDiskInfo affiche NVMe, firmware 0B2QJXD7 et un état de santé « Good ». Premier drapeau rouge : le lien s’annonce en PCIe 3.0 x4 au lieu du PCIe 4.0 attendu.
En pratique, les transferts dégringolent. Les copies volumineuses plafonnent à ~20 Mo/s en lecture et 9 à 10 Mo/s en écriture. CrystalDiskMark confirme ces chiffres, très loin d’un NVMe moderne, a fortiori d’un 990 PRO.

Après vérification des pilotes, du BIOS et un ré-enfichage, aucun changement. Samsung Magician tranche : le SSD est signalé comme contrefait. Le vendeur s’engage à un remboursement ou un remplacement, la relation commerciale préexistante aidant.
Méfiez-vous des offres nettement sous le prix local habituel, même via un contact connu. Lancer rapidement l’outil constructeur, exécuter un bench, et privilégier les canaux autorisés reste la meilleure parade.
Le cas rappelle qu’un marquage logiciel cohérent (nom du modèle, firmware, état « Good ») ne garantit rien. Le couple débit réel et négociation de lien PCIe demeure un révélateur simple et efficace.
Au-delà du risque utilisateur, ces contrefaçons perturbent le marché en tirant artificiellement le prix du « haut de gamme » vers le bas, compliquant la lecture des offres promotionnelles légitimes et brouillant les repères de performance pour l’acheteur averti.
Source : VideoCardz

Jusqu’ici cantonné aux discussions techniques, AV2 entre dans une phase clé. La mise à disposition publique du bitstream officialise le format côté décodage et permet aux développeurs de préparer lecteurs, encodeurs et pipelines compatibles.
Intitulé « AV2 Bitstream and Decoding Process Specification », daté du 5 janvier 2026, le document est une release candidate en attente d’approbation formelle par l’Alliance for Open Media. Il décrit l’agencement du flux AV2 et la procédure de décodage côté lecteur.

Comme AV1, AV2 repose sur des OBUs pour séquence, timing, en‑têtes de trame, tuiles et métadonnées. Le draft ajoute des blocs pour le multi‑flux et le multi‑couche : opérations de décodeur multi‑stream, en‑têtes multi‑frame, enregistrements de configuration de couche et signalisation d’operating‑point. Objectif : transporter plusieurs sous‑flux et couches dans un même conteneur pour que le décodeur sélectionne ce qu’il peut traiter, un concept proche d’un broadcasting adaptatif type Twitch Enhanced Broadcasting.
La spécification définit trois configurations multi‑sequence cibles (Main 4:2:0, 4:2:2, 4:4:4) et six profils, tous regroupés sous un toolset « Main » à ce stade. Ces tables cadrent formats de chrominance, profondeur de bits et limites multi‑couche que le flux peut déclarer, ainsi que les exigences minimales côté décodeur pour revendiquer la conformité.
Le texte introduit de nouvelles étapes de post‑traitement. Exemples : CCSO (Cross‑Component Sample Offset), qui ajuste luma et chroma en fonction de la luminance et des gradients, et GDF (Guided Detail Filter), destiné à rehausser sélectivement le détail.
Publication du draft ne rime pas avec disponibilité immédiate. Pour repère, AV1 a finalisé ses specs en 2018, puis les premiers iGPU compatibles sont arrivés vers 2019/2020 chez Intel et 2021 chez AMD. On peut donc s’attendre à un décalage similaire avant que l’AV2 ne devienne un argument matériel.
Pour l’écosystème PC, la maturation d’AV2 dépendra de l’intégration matérielle dans les iGPU et GPU, puis de l’alignement des plateformes de streaming. La granularité multi‑flux et les profils Main 4:2:0/4:2:2/4:4:4 offrent une voie claire pour les cas d’usage pro et grand public, mais la fenêtre d’adoption restera dictée par les calendriers silicium.
Source : VideoCardz
OpenAI élargit son écosystème logiciel sur Mac avec le lancement de Codex. Cette nouvelle application pour macOS vient compléter les outils existants, ChatGPT et ChatGPT Atlas, en proposant un environnement centralisé spécifiquement conçu pour le développement assisté par des agents autonomes avec l’intelligence artificielle. Codex a le droit à une application macOS Pour marquer cette […]
Suivez iPhoneAddict.fr sur Facebook, et suivez-nous sur Twitter
N'oubliez pas de télécharger notre Application gratuite iAddict pour iPhone et iPad (lien App Store)
L’article Codex, l’app d’OpenAI pour coder avec l’IA, est disponible sur Mac est apparu en premier sur iPhoneAddict.fr.

Du côté de la haute performance, les CPU x86 se découpent en de nombreuses gammes : mobile, desktop et serveur. Actuellement, chez Intel, ces postes sont occupés respectivement par Panther Lake, Arrow Lake et les Xeon 6 (+). Cependant, cela ne couvre par tous les segments : celui des stations de tra...

© ROLAND SCHLAGER/APA/AFP