↩ Accueil

Vue lecture

Des lasers à la place des câbles : le Japon atteint un record de 2 Tbps

L'Institut national japonais des technologies de l'information et des communications a annoncé aujourd'hui une avancée majeure susceptible de redéfinir l'avenir des réseaux de données mondiaux. Des scientifiques ont établi un record mondial en matière de communications optiques sans fil en démontrant une transmission de données stable à un débit de 2 térabits par seconde grâce à un faisceau laser transmis dans l'air en milieu urbain. L'expérience a été menée à Tokyo sur une distance de 7,4 kilomètres, entre deux terminaux optiques compacts. L'expérience a été menée dans la zone métropolitaine densément urbanisée de Tokyo, où les conditions atmosphériques, la pollution de l'air et les turbulences thermiques créent un environnement particulièrement difficile pour la transmission optique. Malgré ces contraintes, les chercheurs sont parvenus à maintenir une liaison laser stable entre deux points distants de 7,4 kilomètres. Cette transmission a été réalisée horizontalement, directement au-dessus des infrastructures urbaines, et non en laboratoire ou sous vide. Le débit atteint de 2 Tbit/s est sans précédent dans les communications optiques sans fil utilisant des équipements de petite taille. Cette vitesse élevée a été obtenue grâce au multiplexage en longueur d'onde. Le système exploite cinq canaux optiques indépendants, chacun transmettant des données à 400 Gbit/s. Concrètement, ce débit permet de transmettre l'équivalent d'environ dix films 4K UHD en une seconde. Deux dispositifs développés par NIIC ont joué un rôle clé dans l'expérience. Le premier était un terminal émetteur-récepteur complet avancé, désigné FX, et le second un transpondeur simple simplifié, abrégé ST. Ces deux dispositifs ont été conçus pour répondre aux contraintes de taille, de poids et de consommation d'énergie des systèmes satellitaires et stratosphériques. Les terminaux utilisent des mécanismes de pointage de précision, une correction dynamique de la divergence du faisceau et des techniques optiques adaptatives pour compenser les perturbations atmosphériques typiques des environnements urbains. Jusqu'à présent, les transmissions térabit ont été principalement réalisées dans de grandes installations de recherche fixes et sous conditions contrôlées. La performance des scientifiques japonais est remarquable car ce record a été établi avec un équipement beaucoup plus compact, composé en partie de composants produits en série. Les terminaux combinent des composants conçus sur mesure, comme un télescope de 9 centimètres, avec des composants commerciaux modifiés et des composants standard du marché. Cette approche a permis la création des terminaux optiques les plus compacts capables de transmission térabit en conditions réelles. L'expérience menée à Tokyo constitue également une avancée majeure à l'échelle régionale. Des communications optiques sans fil dépassant les 100 Gbit/s en environnement ouvert n'avaient jamais été démontrées auparavant en Asie. Ce résultat de 2 To/s établit une nouvelle référence pour la recherche dans la région et confirme le rôle croissant du Japon dans le développement de technologies de communication allant au-delà des normes actuelles des réseaux mobiles. L'équipe de recherche annonce la poursuite du développement de cette technologie. La prochaine étape consistera à miniaturiser davantage les terminaux, permettant ainsi leur intégration aux satellites CubeSat au format 6U. Des tests de liaisons optiques entre satellites en orbite basse et stations au sol sont prévus pour 2026, menés en collaboration avec des partenaires industriels. Un an plus tard, les recherches porteront sur la communication entre satellites et plateformes stratosphériques (HAPS). L'objectif à long terme des scientifiques japonais est de créer un réseau de communication multi-térabits reliant satellites, plateformes stratosphériques et infrastructures terrestres. D'ici 2035, un tel réseau pourrait devenir l'épine dorsale optique des futurs systèmes aérospatiaux, augmentant considérablement la capacité mondiale de transmission de données. Cette réalisation à Tokyo démontre que la vision des réseaux au-delà de la 5G et de la 6G n'est plus théorique, mais commence à se concrétiser. (Lire la suite)
  •  

Apple facilite la transition d'iPhone à Android. iOS 26.3 est désormais disponible pour test.

Quelques jours seulement après la sortie de la mise à jour iOS 26.2, des informations concernant la prochaine version du système, actuellement en phase de test, ont été dévoilées. Les premières versions bêta d'iOS 26.3, d'iPadOS 26.3, de macOS Tahoe 26.3, de watchOS 26.3, de tvOS 26.3 et de visionOS 26.3 ont déjà été distribuées aux premiers développeurs. Il s'agit de versions de test, destinées principalement aux développeurs d'applications et non au grand public. Les tests publics devraient débuter dans les prochains jours. Apple ne fournit généralement pas la liste complète des modifications apportées aux versions de test, mais plusieurs nouvelles fonctionnalités, potentiellement importantes pour les utilisateurs, sont déjà visibles. iOS 26.3 intègre un outil facilitant la migration d'un iPhone vers un smartphone Android. Cette fonctionnalité, déjà présente dans les versions bêta d'Android, est désormais proposée par Apple. Le nouveau système fonctionne dès la configuration du téléphone et permet de transférer des données via un code QR ou un code d'appairage spécifique. Cela inclut les photos, vidéos, contacts, messages, calendriers et documents. Le processus est conçu pour être plus simple et plus automatisé qu'auparavant. Toutes les données ne seront toutefois pas transférées. Certains réglages, achats intégrés et contenus protégés par des mesures de sécurité resteront sur l'ancien appareil. Il s'agit néanmoins d'un pas vers une plus grande ouverture de l'écosystème Apple. Une autre nouveauté d'iOS 26.3 est la possibilité de transférer les notifications de l'iPhone vers des montres et bracelets connectés tiers, et pas seulement vers l'Apple Watch. Les utilisateurs pourront choisir les applications autorisées à envoyer des notifications à ces appareils externes. Il est important de noter que les notifications ne peuvent être transférées que vers un seul appareil à la fois. Par conséquent, si vous activez cette fonctionnalité pour une montre tierce, votre Apple Watch ne recevra plus d'alertes. Les changements apportés par iOS 26.3 s'inscrivent dans une tendance plus large où Apple réduit progressivement la fermeture de son écosystème. Ceci est particulièrement important compte tenu de la pression croissante des autorités de régulation, notamment de l'Union européenne. Pour l'instant, il s'agit d'une version test, donc certaines choses peuvent encore changer. Nous devrions en savoir plus sur iOS 26.3 dans les prochaines semaines. Apple a déployé la mise à jour iOS 26.2 qui, sans apporter de changements majeurs, améliore néanmoins les performances du système. L'application Podcasts a notamment été optimisée : les chapitres des épisodes sont désormais créés automatiquement. De plus, les utilisateurs peuvent suivre ces podcasts directement depuis le lecteur ou la transcription. De plus, les utilisateurs de l'Union européenne pourront désormais choisir un assistant autre que Siri et utiliser la traduction instantanée avec les AirPods. (Lire la suite)
  •  

Microsoft abandonne le chiffrement RC4 après 26 ans : une décision révolutionnaire pour la sécurité de Windows

Microsoft a annoncé l'abandon définitif de l'algorithme de chiffrement RC4, pris en charge par défaut par les systèmes Windows depuis plus de 25 ans. Cette décision fait suite à des années de critiques de la part d'experts en sécurité, à une série de violations de données très médiatisées de réseaux d'entreprises et à des pressions politiques aux États-Unis. L'entreprise a indiqué que RC4 sera désactivé par défaut sur les contrôleurs de domaine Windows Server d'ici mi-2026. RC4 existe depuis l'introduction d'Active Directory par Microsoft en 2000. Depuis lors, cet algorithme constitue la base des mécanismes d'authentification dans les grandes organisations, même si ses faiblesses sont connues de la communauté cryptographique depuis les années 1990. Conçu en 1987 par Ron Rivest de RSA Security, RC4 était destiné à être un chiffrement de flux rapide et simple. Quelques jours seulement après sa révélation en 1994, des chercheurs ont démontré des attaques réduisant considérablement sa sécurité. Malgré cela, RC4 a été utilisé pendant des années dans des protocoles courants comme SSL et TLS, ainsi que dans l'infrastructure Windows. Dans le monde de l'entreprise, sa présence s'est avérée particulièrement problématique. L'acceptation par défaut des requêtes d'authentification basées sur RC4 est devenue l'un des vecteurs d'attaque préférés des cybercriminels. La technique de Kerberoasting, connue depuis 2014, a permis l'acquisition massive d'identifiants chiffrés et leur décryptage hors ligne ultérieur. RC4 a joué un rôle déterminant dans l'un des incidents de cybersécurité les plus graves de ces dernières années. En 2024, une attaque contre le réseau d'Ascension, l'un des plus importants groupes hospitaliers américains, a paralysé 140 hôpitaux et exposé les données médicales de millions de patients. Cet incident a provoqué une vive polémique. Le sénateur Ron Wyden a publiquement demandé à la Commission fédérale du commerce d'enquêter sur Microsoft pour négligence en matière de cybersécurité, dénonçant le maintien par défaut d'un algorithme jugé non sécurisé. La pression des autorités de régulation et du public a accéléré une décision que le secteur attendait depuis des années. « Le problème, cependant, est qu’il est difficile d’éliminer un algorithme cryptographique présent dans tous les systèmes d’exploitation commercialisés depuis 25 ans et qui a été l’algorithme par défaut pendant tout ce temps », a écrit Steve Syfuhs, qui dirige l’équipe d’authentification Windows de Microsoft. Microsoft a annoncé que les contrôleurs de domaine Kerberos sous Windows Server 2008 et versions ultérieures n'accepteront par défaut que le chiffrement AES-SHA1. Le chiffrement RC4 restera disponible uniquement après configuration manuelle par un administrateur. L'entreprise souligne que cette nouvelle norme est présente dans les systèmes Windows depuis de nombreuses années et constitue depuis longtemps le mécanisme d'authentification côté client privilégié. Cette modification corrige une vulnérabilité qui, pendant des années, a permis des attaques de type Kerberoasting dans des environnements où les paramètres hérités restaient actifs malgré l'existence de solutions plus sécurisées. Bien que RC4 présente des failles de sécurité connues, le Kerberoasting (une technique d'attaque ciblant Active Directory) exploite une autre vulnérabilité. Implémenté dans l'authentification Active Directory, il n'utilise pas de sel cryptographique et se contente d'une seule itération de la fonction de hachage MD4. Le salage consiste à ajouter une valeur aléatoire à chaque mot de passe avant de le hacher. Cette technique exige des pirates informatiques un investissement considérable en temps et en ressources pour déchiffrer le hachage. MD4, en revanche, est un algorithme rapide et peu gourmand en ressources. L'implémentation AES-SHA1 de Microsoft est nettement plus lente et itère le hachage, ce qui ralentit encore davantage le processus de déchiffrement. Déchiffrer un mot de passe haché avec AES-SHA1 requiert environ 1 000 fois plus de temps et de ressources. Les représentants de Microsoft admettent ouvertement que la suppression de RC4 était extrêmement complexe. Cet algorithme était présent dans presque toutes les versions de Windows depuis plus de vingt ans et son intégration était profondément ancrée dans les règles de sélection des mécanismes de chiffrement. Chaque tentative de retour en arrière a révélé de nouvelles dépendances et a nécessité des ajustements précis. Ces dernières années, l'entreprise a progressivement encouragé l'utilisation de l'AES, constatant une forte baisse de l'utilisation du RC4 en conditions réelles. C'est seulement après cette baisse qu'il a été décidé de le désactiver complètement afin d'éviter des pannes massives. Microsoft exhorte les administrateurs à auditer minutieusement leur infrastructure. De nombreux réseaux reposent encore sur des systèmes tiers anciens, pour lesquels RC4 est parfois la seule méthode d'authentification prise en charge. Ces éléments passent souvent inaperçus, bien qu'ils soient essentiels à des processus métier critiques. L'entreprise propose de nouveaux outils de diagnostic, notamment des journaux KDC améliorés et des scripts PowerShell, capables d'identifier les requêtes d'authentification utilisant l'algorithme obsolète. Pour de nombreuses organisations, ces changements à venir impliquent une modernisation urgente. (Lire la suite)
  •  

Kodi Omega reprend le bon chemin : la mise à jour élimine les problèmes les plus gênants

La version 21.3 Omega de Kodi est enfin disponible après quelques retards de distribution. Elle intègre un ensemble de correctifs ciblés visant à améliorer sa stabilité. La mise à jour est désormais accessible sur toutes les plateformes compatibles, même si son déploiement sur les boutiques en ligne se fait progressivement. Le projet se poursuit avec le développement de la future série Kodi 22 Piers , mais la gamme Omega reste la version actuelle. Cette version apporte des correctifs spécifiques concernant la gestion vidéo, la bibliothèque multimédia, la musique, le réseau et divers composants matériels. Cette mise à jour vidéo se concentre sur des problèmes spécifiques. Elle ajoute la prise en charge HDR à la Xbox One , rétablit la lecture correcte des Blu-ray sous Linux , corrige les erreurs de sous-titres et de pistes audio lors de l'extraction de disques et gère correctement les variations des métadonnées HDR10 . La sélection de la langue basée sur la norme ISO 639-1 est également corrigée . La section Bibliothèque vidéo bénéficie d'une vitesse d'analyse améliorée et d'une gestion corrigée des fichiers multi-épisodes qui écrasent le contenu original. Certaines boîtes de dialogue d'information concernant les versions alternatives des films fonctionnent à nouveau, et les faux positifs lors de la détection de ces versions ont été éliminés. Côté musique , le logiciel rétablit le bon fonctionnement des recherches utilisant la base de données CDDB de Gnudb.org et corrige les bugs qui empêchaient les recherches d'albums lorsque des noms d'artistes spécifiques étaient présents. La section audio corrige un plantage rare de PipeWire lors de la connexion ou de la déconnexion de périphériques. La section PVR bénéficie d'un correctif empêchant un plantage lors de la fermeture du flux vidéo via une application distante. Dans la section périphériques , des claviers turcs ont été ajoutés sous Linux, la gestion des adaptateurs Pulse-Eight CEC a été améliorée et des problèmes avec les touches Suppr et Insertion alternative sous macOS ont été résolus. Les modules complémentaires se mettent à jour correctement même après de longues périodes d'inactivité, tandis que l'interface graphique corrige divers indicateurs de plantage et boîtes de dialogue bloquées, avec une prise en charge tactile plus fiable pour les curseurs. Côté réseau , la prise en charge de l'authentification HTTP Basic est mise en place, certains flux défectueux dans HTTP/2 sont résolus et les certificats de sécurité expirant en juillet 2025 sont mis à jour. Le délai de déploiement peut varier selon la plateforme. Les boutiques d'applications Windows et Android peuvent recevoir la mise à jour avec quelques semaines de délai, tandis que sur de nombreux systèmes, l'installation est automatique. Il est toujours recommandé de sauvegarder votre dossier utilisateur avant chaque mise à jour. En attendant la prochaine version majeure, cette version illustre l'ampleur du travail nécessaire pour maintenir la stabilité d'une plateforme déployée sur des environnements aussi hétérogènes. (Lire la suite)
  •  

La Corée du Sud s'apprête à instaurer la première réglementation mondiale exhaustive sur l'intelligence artificielle

Selon le Korea Times, la loi-cadre régissant le développement et l'utilisation de l'IA devrait entrer en vigueur le 22 janvier 2026. Si ce calendrier est respecté, Séoul devancera l'Union européenne et les États-Unis, créant ainsi un précédent juridique international pour l'une des technologies à la croissance la plus rapide du XXIe siècle. La nouvelle loi vise à couvrir la quasi-totalité des domaines liés à la création, à la mise en œuvre et à l'exploitation commerciale des systèmes d'intelligence artificielle. Les autorités affirment que l'objectif est d'accroître la sécurité et la transparence, ainsi que d'établir une stratégie de développement à long terme pour ce secteur. Le projet de loi prévoit la création d'une commission nationale pour l'intelligence artificielle, chargée de coordonner la politique de l'État dans ce domaine. Il envisage également l'élaboration d'un plan triennal de développement de l'IA, qui définira les priorités technologiques et d'investissement. Les entreprises du secteur de l'intelligence artificielle devront se conformer à des exigences en matière de sécurité des systèmes, de transparence sur le fonctionnement de certains algorithmes et d'étiquetage des contenus générés par l'IA. Cette réglementation s'appliquera aussi bien aux grandes entreprises qu'aux PME technologiques. Les représentants du secteur avertissent que le rythme des travaux législatifs laisse peu de marge de manœuvre aux entreprises pour se préparer aux nouvelles réalités. L'Association coréenne des entreprises Internet souligne que les modalités d'application détaillées ne seront finalisées que peu de temps avant l'entrée en vigueur de la loi. Une étude menée par Startup Alliance révèle l'ampleur du problème : 98 % des entreprises d'IA interrogées ont admis ne pas disposer des systèmes et procédures nécessaires pour s'adapter aux nouvelles exigences. Près de la moitié des répondants ont ouvertement déclaré ignorer la nouvelle réglementation et être insuffisamment préparés. Des experts mettent en garde contre le risque que des réglementations trop restrictives incitent les jeunes entreprises à délocaliser leurs activités hors de Corée du Sud. Le Japon, où l'approche réglementaire en matière d'intelligence artificielle demeure beaucoup plus souple, est la destination la plus souvent citée. L'obligation d'étiqueter les contenus générés par l'IA est particulièrement controversée. Les entreprises produisant des contenus visuels et textuels soulignent que ces contenus sont souvent créés par de grandes équipes et que l'étiquette « IA » peut dissuader les destinataires et réduire leur valeur marchande. De plus, les entreprises pointent du doigt des définitions imprécises et l'absence de directives d'interprétation claires. Le contraste avec l'approche de l'Union européenne est frappant. Bien que l'UE ait été la première à adopter un ensemble complet de réglementations encadrant l'intelligence artificielle, leur mise en œuvre a été retardée. La plupart des réglementations n'entreront en vigueur qu'en août 2026, et certaines dispositions pourraient même être appliquées ultérieurement. Depuis des mois, les entreprises européennes s'inquiètent des coûts de mise en conformité et du risque de freiner l'innovation. En réponse, Bruxelles a annoncé des procédures simplifiées et une approche plus favorable aux entreprises. La Corée du Sud devient un terrain d'expérimentation pour le monde entier. Le succès ou l'échec de cette nouvelle loi pourrait influencer les réglementations futures dans d'autres pays. Parallèlement, le risque s'accroît qu'au lieu d'être un chef de file en intelligence artificielle, le pays devienne un exemple des conséquences désastreuses d'une législation précipitée sur l'écosystème de l'innovation. (Lire la suite)
  •  

Test Romancing SaGa -Minstrel Song- Remastered International (PS5) : Un classique enfin traduit en français

Square Enix est surtout connu dans le domaine des JRPG et cette fois, nous jetons un coup d'œil à Romancing SaGa. Tout d'abord, il est bon de savoir que ce jeu est en fait très ancien, en effet il est sorti à l'origine en 1992 sur Super Famicom. Le jeu a été réédité sur la PlayStation 2 en 2005 et voici désormais un nouveau remaster. Tout d'abord, en regardant les graphismes (pensez aux environnements et aux personnages), il est clair que ce jeu n'est pas nouveau. Les menus et l'interface utilisateur sont démodés à bien des égards. Cela ne signifie pas que le jeu n'est pas bien remasterisé ou qu'il n'est pas beau. En fait, pour un jeu aussi vieux, c'est le style même du jeu qui fonctionne encore bien. L'utilisation de la couleur et des textures donne un aspect vibrant et particulièrement riche aux formes autrement simples de ce monde. La nostalgie a du bon, comme en témoigne la quantité de remakes et de remasters annoncés récemment. Ce jeu a tous les traits d'un JRPG classique avec de nombreux éléments familiers dans la conception, l'histoire et le gameplay. Cela nous amène à l'aspect unique de ce jeu, et aussi à son plus grand "problème". Romancing SaGa -Minstrel Song- Remastered présente beaucoup de familiarité, absolument, mais il a aussi des mécanismes assez uniques. Il n'y a pas de niveaux évidents dans le jeu. C'est un monde riche où vous pouvez incarner plusieurs personnages dans des scénarios uniques. En outre, vous pouvez rencontrer d'autres personnages importants et les ajouter à votre groupe au cours de vos aventures. Il y a de l'équipement, des combats au tour par tour et on pourrait penser qu'il y a une histoire claire. La progression se fera avec les niveaux, les compétences et l'histoire... non ? Eh bien, non, pas vraiment. Oui, il y a des "niveaux", mais pas de la manière dont nous le voyons aujourd'hui. Le combat est une partie importante, mais le grind n'est pas le but. L'histoire est centrale et veut réellement que vous la suiviez. (Lire la suite)
  •  

Google supprime le rapport sur le Dark Web parce que les gens ne savaient pas comment l'utiliser

La fonctionnalité de signalement du dark web de Google va bientôt fermer définitivement, après plusieurs années de service permettant aux utilisateurs de vérifier si des données personnelles figuraient dans les rapports de violation de données. Cette décision intervient alors que la cybersécurité suscite un intérêt croissant, mais que le service n'a pas trouvé d'usage courant. L'entreprise indique que de nombreux utilisateurs n'ont pas su interpréter les informations fournies ni comprendre comment protéger leurs comptes après avoir reçu un rapport. Face à cette difficulté, elle s'est concentrée sur des outils plus clairs, assortis de mesures immédiatement applicables. Google cessera de scanner le dark web à la recherche de nouvelles données relatives aux comptes à compter du 15 janvier 2026. Tous les rapports générés précédemment seront également supprimés le 16 février 2026. D'ici là, vous pourrez toujours consulter les rapports générés précédemment. Ce service a été initialement conçu comme une fonctionnalité exclusive pour les abonnés Google One , avant de devenir accessible à tous les utilisateurs. En théorie, il offrait un aperçu utile des informations personnelles compromises, y compris des associations entre adresses électroniques et noms d'utilisateur qui n'étaient pas toujours évidentes. D'après l'entreprise, cependant, de nombreuses personnes ne disposaient pas d'instructions claires sur la manière de réagir à ces données. Google indique vouloir privilégier les outils proposant des instructions immédiatement applicables, tout en continuant de surveiller les menaces en ligne, y compris celles circulant dans les cercles cachés du web. La fermeture d'un service jugé utile n'étonnera pas ceux qui connaissent la pratique de la plateforme consistant à réviser régulièrement ses fonctionnalités. Il est toutefois intéressant de constater qu'une telle quantité d'informations sensibles n'a pas trouvé d'interface véritablement compréhensible pour ses utilisateurs. (Lire la suite)
  •  

Sora n'intéresse plus personne : l'application vidéo IA est-elle déjà ennuyeuse ?

Le lancement de Sora , le réseau social dédié aux vidéos générées par l'IA, avait suscité un vif intérêt dans le secteur. L'application d' OpenAI , cependant, n'a pas réussi à transformer cette curiosité initiale en une utilisation régulière. Pour entrer plus dans le détail, les données recueillies par Sensor Tower , rapportées par le Financial Times , montrent une implication réduite et discontinue, avec un temps quotidien moyen qui ne dépasse pas 13 minutes . Le lancement de l'application autonome aux États-Unis , au Canada , au Japon , en Corée du Sud , à Taïwan , en Thaïlande et au Vietnam avait propulsé Sora en tête des classements de téléchargement. L'effet de nouveauté, cependant, s'est rapidement estompé. Les estimations font état d'environ 7 millions d'utilisateurs mensuels, mais seulement 25 % se connectent chaque jour, un chiffre bien loin du rythme des plateformes sociales établies, où l'utilisation quotidienne peut dépasser une heure. La structure du flux rappelle celle de TikTok et d'Instagram Reels, et exige une interaction constante. Le flux de contenu généré automatiquement, souvent perçu comme répétitif ou de faible valeur , ne parvient pas à instaurer une habitude quotidienne. OpenAI a déjà annoncé un accord de licence avec Disney portant sur les personnages de Marvel , Pixar et Star Wars . L'intégration de ce contenu n'a cependant pas modifié la situation globale. Les créations inspirées par des esthétiques connues ont connu un succès mitigé, signe que le prestige des marques établies ne suffit pas à susciter l'intérêt. La question du droit d'auteur continue également de se poser, alimentée par des incidents remettant en cause l'utilisation de figures reconnaissables et d'œuvres protégées. Un autre facteur est le coût de production vidéo, bien supérieur à celui du texte, ce qui rend difficile la promotion d'une utilisation gratuite et durable. Dans ce contexte, les difficultés rencontrées par Sora pour trouver une orientation stable semblent être plus qu'un simple revers : elles illustrent la complexité de transformer la curiosité pour l'IA en une habitude qui perdure au-delà de l'enthousiasme initial. (Lire la suite)
  •  

Dell va augmenter considérablement le prix de ses ordinateurs portables.

Dell, l'un des plus grands fabricants d'ordinateurs personnels, a informé ses employés d'une forte hausse imminente des prix sur une large gamme de produits, en raison d'une pénurie de mémoire vive (DRAM). Selon Business Insider, les problèmes d'approvisionnement en mémoire touchent désormais même les fabricants d'ordinateurs grand public. L'annonce de l'entreprise précise que des augmentations de prix sont également prévues pour ses gammes de produits professionnels, notamment ses ordinateurs portables et ses ordinateurs de bureau prêts à l'emploi. Cette hausse pourrait être l'une des plus importantes de ces dernières années, certaines sources indiquant que les prix des ordinateurs portables et des PC pourraient augmenter de plusieurs centaines de dollars. La pénurie ne se limite toutefois pas à la RAM : l'augmentation de la capacité de stockage sera également beaucoup plus coûteuse. Le rapport indique qu'à partir de la semaine prochaine, le prix des nouveaux appareils Dell Pro et Pro Max, ordinateurs portables et de bureau, augmentera jusqu'à 230 $ selon la configuration de la mémoire. De plus, opter pour la version 128 Go pourrait entraîner une hausse de prix allant jusqu'à 765 $ par appareil, ce qui risque de surprendre les acheteurs. Les joueurs souhaitant davantage de stockage devront également faire face à une augmentation de prix significative. La situation ne devrait s'améliorer qu'en 2027, si les fabricants de mémoire augmentent leur capacité de production et parviennent à satisfaire la demande actuelle. (Lire la suite)
  •  

Google a décidé de rendre le Tensor G6 très puissant.

Le processeur Tensor G5 de Google a suscité la controverse en ligne : s'il remplit ses fonctions, ses performances restent modestes comparées à celles de la plupart de ses concurrents haut de gamme. Le processeur Dimensity 9500 de MediaTek, par exemple, apparaît bien plus convaincant, offrant des performances exceptionnelles. Il surpasse largement le Tensor G5 dans les tests de performance, notamment grâce à ses choix architecturaux audacieux et à la volonté d'expérimentation du fabricant. Il semblerait d'ailleurs que cette audace du Dimensity 9500 commence à influencer l'équipe en charge des processeurs Tensor chez Google. Le futur Tensor G6 devrait s'inspirer de deux concepts clés du Dimensity 9500, ce qui pourrait modifier profondément l'approche de l'entreprise concernant ses propres solutions. Par exemple, le fabricant souhaite abandonner les cœurs à faible consommation pour se concentrer sur les cœurs hautes performances. Cette solution, déjà utilisée par de grands fabricants de puces, est intéressante, mais il convient de noter que le recours exclusif aux cœurs hautes performances entraîne généralement une décharge rapide de la batterie et une augmentation de la température du boîtier. Bien sûr, des batteries au silicium et des systèmes de refroidissement avancés permettraient de remédier à ce problème, mais pour l'instant, la transition abrupte de Google vers une nouvelle architecture semble trop risquée. Il sera intéressant d'observer les résultats finaux, notamment en conditions réelles d'utilisation. (Lire la suite)
  •  

L'iPhone 20 sera doté d'un écran OLED inhabituel.

Selon des sources internes, l'iPhone 20 sera un modèle commémoratif, célébrant le 20e anniversaire de la sortie du premier smartphone d'Apple en 2007. Un analyste senior d'Omdia affirme que la firme de Cupertino a l'intention de faire l'impasse sur l'appellation iPhone 19. Heureusement, ce changement de nom ne sera pas le seul, car des rumeurs précédentes laissaient déjà entendre que l'appareil, dont la sortie est prévue au troisième trimestre 2027, arborera un design entièrement sans bordures ni encoche visible. D'après les dernières informations, Apple pourrait également opter pour un design incurvé sur les quatre côtés, et LG s'y prépare déjà en investissant massivement dans sa production d'écrans, même si la mise en œuvre de cette idée s'avérera bien plus complexe qu'il n'y paraît. L'écran sans bordures de l'iPhone 20 sera radicalement différent des solutions précédentes. Selon Dealsite, ses quatre coins seront incurvés, ce qui obligera les circuits intégrés à se courber autour du cadre. Pour ce faire, la couche de TFE protégeant la dalle OLED de l'humidité devra être considérablement amincie. De plus, le concept « tout écran » ne sera considéré comme abouti que lorsque la caméra frontale, le système TrueDepth et tous les composants associés seront entièrement intégrés sous l'écran. Il s'agit là d'un véritable défi, car aucune technologie disponible sur le marché ne répond actuellement aux exigences du constructeur. Cependant, la situation pourrait évoluer dans les prochaines années. (Lire la suite)
  •  

Les analystes prévoient une hausse des prix des disques durs

Les chaînes d'approvisionnement en stockage sont actuellement soumises à une pression considérable, ce qui explique la forte hausse des prix des disques durs (HDD) constatée par un récent rapport d'analystes de marché. Cette croissance de la demande est principalement due à la construction à grande échelle de centres de données à travers le monde, avec une demande particulièrement élevée de disques durs aux États-Unis. L'intelligence artificielle étant impossible sans données, les fournisseurs de services cloud s'appuient sur les disques durs pour stocker d'énormes quantités d'informations, car ils restent le support de stockage le plus rentable et le plus efficace. Les centres de données stockent des volumes de données atteignant l'exaoctet et comprennent des ensembles de données collectés sur le réseau, des sauvegardes de données traitées, des journaux d'inférence et d'autres documents connexes. À l'instar de la mémoire dédiée à l'IA, les disques durs (HDD) ont récemment connu une adoption massive, exerçant une forte pression sur les fabricants. Ces derniers laissent désormais entendre que la demande commence à dépasser l'offre et, surtout, que d'ici 2026, ce problème pourrait s'étendre au-delà du secteur des entreprises et toucher le marché grand public. Compte tenu des besoins croissants en matière d'inférence dans les centres de données d'IA, l'utilisation des disques durs ne fera que croître avec l'expansion de l'infrastructure. Cela signifie que le prix des disques conventionnels va lui aussi exploser prochainement, même si, jusqu'à récemment, les analystes estimaient que les hausses de prix des SSD et de la RAM n'affecteraient pas les disques durs, car il s'agit de produits totalement différents. (Lire la suite)
  •  

Mega Man Dual Override : Un nouvel épisode 2D prévu pour 2027

La scène des Game Awards 2025 a accueilli une annonce que les fans attendaient depuis des années : le retour de Mega Man avec Mega Man Dual Override . Capcom a surpris le public en dévoilant ce nouveau titre grâce à une courte mais percutante bande-annonce de gameplay, confirmant ainsi que la série historique de jeux de plateforme d'action 2D n'a pas été oubliée. Malgré le peu d'informations disponibles, l'annonce a captivé la communauté, désormais impatiente de suivre l'évolution de ce nouveau chapitre, prévu pour 2027 sur la quasi-totalité des plateformes majeures. La courte vidéo, d'une durée de quelques secondes seulement, offrait un aperçu de la direction artistique et du gameplay : des graphismes cartoonesques, des mouvements rapides, des ennemis emblématiques et des phases de plateforme parsemées d'échelles et de supports mobiles. C'est un retour aux sources de la série, où l'essence même du jeu – le timing, la précision et la maîtrise des schémas d'attaque des robots – est préservée. Les premières images révèlent des décors futuristes et un rythme de jeu dynamique, conformément à la promesse de « surmonter les obstacles et éliminer des légions de robots », comme annoncé lors de la présentation officielle. Bien que les séquences de jeu présentées soient encore en développement, l'objectif du studio est clair : rassurer les fans quant à la vitalité de la franchise. L'équipe de développement souhaitait annoncer le projet au plus vite afin de réaffirmer que Mega Man demeure une priorité pour Capcom. Cette décision a ravivé l'enthousiasme de la communauté, qui réclamait depuis longtemps un nouvel opus de la série principale. Avec une sortie prévue au plus tôt en 2027 et des informations qui arriveront progressivement, Mega Man Dual Override représente une promesse de continuité et de renouveau : un titre qui vise à respecter la tradition du jeu de plateforme d’action 2D, tout en introduisant de nouveaux défis et scénarios pour un héros qui ne cesse d’évoluer. 4RmSp4cvYgI (Lire la suite)
  •  

Star Wars : Fate of the Old Republic annoncé, une suite spirituelle à KOTOR

Annoncé en grande pompe lors des Game Awards 2025 , Star Wars: Fate of the Old Republic est un nouveau jeu de rôle et d'action narratif solo se déroulant durant l'ère de l'Ancienne République, l'une des périodes les plus fascinantes et les moins explorées de la saga. Développé par Arcanaut Studios en collaboration avec Lucasfilm Games, le jeu porte la signature de Casey Hudson, figure emblématique du secteur, réalisateur du premier Star Wars: Knights of the Old Republic et de la trilogie Mass Effect. Un pedigree qui a immédiatement suscité l'intérêt des fans. La bande-annonce, dévoilée en avant-première lors de l'événement, s'ouvre sur un vaisseau spatial traversant la galaxie avant d'atterrir sur une planète rocheuse et pluvieuse. Un gigantesque vaisseau se profile à l'arrière-plan, tandis que l'héroïne, dans un ultime mouvement, allume son sabre laser, confirmant ainsi que l'action se déroule dans une galaxie lointaine, très lointaine. Les images ne révèlent ni les mécaniques de jeu ni la structure de l'expérience, mais elles instaurent une atmosphère sombre et évocatrice, à l'image d'une République en équilibre entre déclin et renaissance. L'équipe décrit ce titre comme un « successeur spirituel » de KOTOR, mettant l'accent sur une narration captivante et un système de choix significatifs. Chaque décision contribuera à définir le parcours moral du joueur, le menant du côté lumineux ou obscur de la Force. Arcanaut Studios, composé de développeurs et de scénaristes chevronnés, ambitionne de créer une aventure épique où les choix du joueur façonneront l'équilibre de la galaxie. Aucune date de sortie officielle ni plateforme n'ont encore été annoncées, et de plus amples détails sur le gameplay seront dévoilés dans les années à venir. lAmkl1jL0fo (Lire la suite)
  •  

Remedy annonce Control Resonant avec une date de sortie

Remedy Entertainment revient à l'univers de Control avec Control Resonant , la suite très attendue qui marque la transition entre Jesse Faden et son frère Dylan au cœur du récit. Dévoilé lors des Game Awards avec une première bande-annonce , ce nouveau titre présente un Manhattan méconnaissable, déformé par des forces cosmiques qui perturbent la gravité et redessinent l'architecture urbaine, transformant la ville en un champ de bataille paranormal. Après des années de captivité, Dylan est envoyé par le Bureau Fédéral de Contrôle au cœur de cette crise : une mission mêlant salut, quête personnelle et désir de retrouver Jesse, tout en tentant de comprendre le lien obscur qui l'unit au chaos qui dévore la réalité. Control Resonant représente l'évolution la plus ambitieuse de la formule Remedy : un RPG d'action à la troisième personne en monde ouvert à embranchements multiples, offrant des zones librement explorables, des missions optionnelles, des événements dynamiques et une grande variété de styles de combat. L'objectif est d'offrir une liberté totale au joueur quant à la manière dont il façonne la progression, les capacités et le style de jeu de Dylan. Ses pouvoirs surnaturels et son arsenal, extensibles grâce à un système de progression poussé, permettent d'adopter des stratégies diverses pour chaque affrontement : de la force brute à la manipulation de l'environnement, de l'extrême mobilité à la précision tactique. WhQm-ExRz60 Au cœur du gameplay se trouve l'Aberrant, une arme polymorphe capable de se transformer en un marteau dévastateur, en deux lames rapides et en d'autres configurations en temps réel. Combiné aux pouvoirs de Dylan, ce mécanisme promet des combats physiques, frénétiques et imprévisibles, fidèles au style caractéristique de la franchise. Chaque affrontement devient une expérience chaotique, avec des ennemis surnaturels et des options de personnalisation qui rendent le monde vivant, étrange et offrent une rejouabilité exceptionnelle. L'un des aspects les plus remarquables est l'accessibilité narrative : bien que lié au premier Control, Resonant est conçu comme une nouvelle porte d'entrée vers l'univers du Bureau fédéral de contrôle. Les joueurs aguerris y retrouveront des références et des liens avec le parcours de Jesse, tandis que les nouveaux venus pourront s'immerger dans l'histoire sans connaissances préalables, en se lançant dans une aventure indépendante mais néanmoins cohérente avec la mythologie de la saga. Prévu pour 2026 sur PS5, Xbox Series X|S et PC, Control Resonant promet d'être le projet le plus ambitieux de Remedy à ce jour. Plus ouvert, plus dynamique et plus surréaliste, il promet également, comme l'annoncent les développeurs, de devenir encore plus étrange. (Lire la suite)
  •  

Test REDEX - Console Edition (PS5) - Jouez les Rambo ... au ralenti

Adapté sur consoles par NipoBox, REDEX est un shoot'em up 2D avec quelques phases de plateforme, mêlant survie et tower defense, le tout dans un style minimaliste. En effet, le scénario est quasi inexistant et le protagoniste manque de profondeur. On sait seulement qu'on affronte une organisation criminelle impitoyable (qui se fait passer pour tout autre chose) et qu'on est livré à soi-même. C'est un peu à la Rambo, mais avec beaucoup moins de panache cinématographique. Même le style graphique, que nous explorerons plus en détail dans la section dédiée, ne suffit pas à définir ce titre, qui s'inscrit dans un catalogue déjà bien fourni de jeux similaires. En réalité, REDEX est sorti initialement sur Steam en novembre 2020 et arrive seulement sur consoles. Dommage que les commandes ne soient pas des plus ergonomiques, comme nous le verrons plus loin. Quant à sa durée de vie, le jeu nécessite plusieurs parties, car terminer une zone du premier coup n'est pas chose aisée. Le jeu propose quatre environnements, chacun avec son propre univers et ses ennemis, sans oublier les incontournables boss. Comme vous pourrez le constater sur les images partagées, il est difficile de distinguer précisément ce qui se passe à l'écran. Néanmoins, le titre offre une aventure d'action en arène intense et palpitante, que nous allons maintenant explorer plus en détail. REDEX est un jeu de tir à la troisième personne en 2D avec des mécaniques de tower defense et des vagues d'ennemis. Chaque zone est relativement autonome ; vous devez donc tenir le plus longtemps possible face aux hordes d'ennemis qui vous canarderont sans pitié ni stratégie. Pour vous aider, outre l'arme que vous choisissez au début, vous ne disposerez que d'un seul système avec lequel interagir : l'argent récupéré sur les cadavres. Cet argent permet d'acheter des grenades, de nouvelles armes, de déployer des tourelles, d'appeler des renforts, d'améliorer vos défenses et bien plus encore. Malheureusement, chaque commande nécessite un délai de livraison… et impossible de savoir où elle sera livrée. Le colis est largué par un hélicoptère de soutien ; il nous appartient alors de le récupérer et, surtout, de prendre quelques secondes pour l'ouvrir et nous équiper du contenu commandé. (Lire la suite)
  •  

macOS Tahoe 26.2 apporte l'anneau lumineux qui transforme les appels vidéo sur Mac

La sortie de macOS Tahoe 26.2 apporte de nouvelles fonctionnalités particulièrement intéressantes pour les professionnels de la création et de la technique . Cette mise à jour, qui fait suite à plusieurs semaines de tests, vise à améliorer l'expérience utilisateur au quotidien, tout en prenant en compte les besoins des utilisateurs professionnels. La fonctionnalité Edge Light est la nouveauté la plus remarquable. Elle crée un anneau lumineux virtuel sur l'écran de votre Mac pendant les appels vidéo, ce qui est pratique pour éclairer votre visage sans avoir besoin d'éclairage externe. Edge Light s'intègre également aux plateformes de streaming web et vous permet de régler l'intensité , la largeur et la température du faisceau. Le comportement de l'anneau s'adapte aux mouvements du curseur : lorsque le pointeur survole une partie de l'effet, celle-ci s'assombrit pour laisser apparaître les éléments sous-jacents. Cette fonctionnalité nécessite un Mac équipé d'une puce Apple Silicon et active automatiquement l'éclairage sur les modèles 2024 et ultérieurs lorsque la luminosité ambiante est faible . Cette mise à jour introduit également un système à faible latence permettant de connecter plusieurs Mac via Thunderbolt 5. Ceci crée un cluster entre les machines, utile pour les flux de travail nécessitant une communication rapide entre les nœuds. De plus, les Mac équipés de processeurs M5 bénéficient d'un accès complet à MLX , une bibliothèque utilisée dans le développement d'outils d'apprentissage automatique basés sur des modèles , ce qui simplifie leur gestion. L'intégration de ces fonctionnalités est une opération de niveau professionnel, bien que sa portée demeure limitée. Ces changements ont toutefois un impact direct sur les utilisateurs qui travaillent simultanément sur plusieurs Mac ou qui développent des solutions reposant sur des calculs complexes. Apple intègre également des correctifs et des améliorations de performances, y compris pour plusieurs plateformes. Parmi ceux-ci figure la gestion des rappels avec l' option Urgent : en activant ce paramètre, le système déclenche l'alarme standard pour vous rappeler la tâche que vous avez définie. (Lire la suite)
  •  

Plus de 400 nouveaux thèmes débarquent sur le Microsoft Store

La nouvelle section Thèmes du Microsoft Store constitue l'un des changements les plus marquants dans l' expérience de personnalisation de Windows . Cette collection élargit les possibilités de modification de l'interface grâce à un catalogue qui s'enrichit et se met à jour régulièrement. Cette initiative élargit les options déjà connues des utilisateurs du système, en offrant un point d'accès organisé à des collections thématiques conçues pour différents profils, allant des passionnés de jeux vidéo à ceux qui préfèrent des ambiances plus sobres. La section Thèmes propose plus de 400 suggestions, dont plus de 35 nouvelles. Chaque thème comprend une combinaison d'arrière-plans et de couleurs d'accentuation, conçue pour évoluer au fil du temps et offrir un environnement visuel cohérent. Les collections vont du contenu lié aux jeux vidéo, comme Sea of ​​Thieves ou World of Warships , à des offres plus artistiques telles que Ethereal Escapes ou Geometric Tales . Les ensembles inspirés par la nature ne manquent pas, comme World National Parks , ni les solutions développées par des partenaires tels que Razer avec le thème Razer Axon . Le catalogue comprend également des collections telles que Luminous Flow , Mountain Dwellings , Dreamscapes , Blooming Dimensions , Neon Dreams et Opaline , offrant une gamme de styles couvrant des décors abstraits, des paysages et des motifs géométriques. Les thèmes sont gérés via les Paramètres Windows , où vous pouvez consulter, organiser et passer d'une collection à l'autre. Ce processus simplifie la procédure par rapport à la méthode précédente et utilise une interface familière. Microsoft souligne également que le Microsoft Store propose des applications permettant de personnaliser l'interface. Parmi celles-ci, on trouve TranslucentTB , qui modifie la barre des tâches, Lively Wallpaper , qui permet d'utiliser des fonds d'écran animés, et Seelen UI , qui offre des options de configuration supplémentaires. L'entreprise affirme que l'objectif est de rendre la personnalisation accessible à tous les utilisateurs, sans introduire de procédures complexes ni d'outils distincts du système d'exploitation. Cette nouvelle section ne se limite pas à la distribution de thèmes déjà disponibles. Microsoft invite également les créateurs à soumettre de nouveaux thèmes via un formulaire en ligne dédié. Pour faire part de vos commentaires sur le fonctionnement de cette section, nous vous invitons à utiliser le Hub de commentaires , accessible via le raccourci clavier WIN + F . (Lire la suite)
  •  

Vous écrivez, Spotify joue : les playlists générées automatiquement sont là.

Spotify teste une nouvelle fonctionnalité visant à redéfinir la relation entre l'algorithme et les auditeurs. Ce test, lancé dans un seul pays, introduit une approche différente de la création de playlists, basée sur des commandes en langage naturel . Cette nouvelle fonctionnalité intéressera les utilisateurs Premium et promet une utilisation plus consciente de l' historique d'écoute , le transformant en un outil de personnalisation beaucoup plus flexible. Cette fonctionnalité, appelée « Playlist suggérée » , utilise l'intégralité de votre historique d'écoute pour créer des playlists reflétant vos goûts et préférences récents, enregistrés depuis votre première utilisation du service. Le système interprète vos demandes et les traduit en playlists cohérentes, même lorsque les requêtes sont complexes. Par exemple, vous pouvez demander de la musique d' artistes populaires des dix dernières années , ou une sélection conçue pour une activité physique spécifique, en précisant la durée, le genre et le tempo des morceaux. L'interface vous permet également de modifier les critères de recherche pour affiner les résultats. Chaque chanson suggérée est accompagnée d'une explication justifiant son choix par le système, un détail qui rend le mécanisme de recommandation plus transparent. Les listes de lecture générées peuvent être mises à jour quotidiennement ou hebdomadairement , sans intervention manuelle. Un espace nommé « Idées » propose des idées prêtes à l'emploi pour ceux qui manquent d'inspiration, tout en permettant aux utilisateurs de répondre aux demandes. Actuellement, l'essai est limité à la Nouvelle-Zélande , disponible uniquement en anglais et réservé aux abonnés Premium. Spotify n'a pas indiqué de date pour un éventuel déploiement sur d'autres marchés. (Lire la suite)
  •  

Grok se trompe encore. Le chatbot invente des histoires sur la tragédie en Australie.

Grok suscite une nouvelle fois la polémique. L'IA d'Elon Musk a déjà insulté des personnalités politiques par le passé, et voilà qu'elle fournit à nouveau des informations fausses ou hors sujet. Ce n'est pas la première fois que Grok diffuse de la désinformation. En septembre, après la mort de Charlie Kirk, un chatbot créé par la société d'Elon Musk, interrogé sur la possibilité que le militant américain ait survécu à l'attaque, a répondu : « Charlie Kirk prend la chose avec humour ; il a déjà affronté des publics bien plus hostiles. Oui, il s'en sortira sans problème. » Lorsque des internautes ont fait remarquer que Kirk avait reçu une balle dans le cou, Grok a prétendu qu'il s'agissait simplement d'une « vidéo humoristique avec effets spéciaux ». Cette fois-ci, Grok a suscité la polémique suite à une attaque survenue sur la plage de Bondi à Sydney, en Australie. Lors d'un événement marquant le début des festivités de Hanoukka, une fusillade a éclaté. Au moins douze personnes ont perdu la vie sur place, et une vidéo montrant un homme s'emparant d'une arme à feu a commencé à circuler en ligne. Ces images sont à l'origine des erreurs commises par Grok par la suite. Le chatbot peine à identifier correctement la personne dans la vidéo. De nombreuses réponses donnent un nom différent ou décrivent la situation de manière factuellement inexacte. Certaines réponses sont complètement hors sujet, Grok abordant ensuite des sujets liés aux conflits au Moyen-Orient. Les réponses de Grok indiquent que l'IA peine à distinguer correctement des informations similaires. Le chatbot confond parfois les événements de Bondi Beach avec d'autres incidents survenus aux États-Unis, comme la fusillade de l'université Brown. Dans ses réponses, il combine les deux événements en un seul récit, ce qui contribue à la confusion des utilisateurs. La société xAI, responsable de Grok, n'a pas encore publié de déclaration officielle à ce sujet. On ignore si ces erreurs sont dues à des problèmes techniques temporaires ou si elles sont apparues après les dernières mises à jour. Quoi qu'il en soit, cet incident ternit une nouvelle fois l'image du chatbot. Par le passé, Grok s'est montré prompt à insulter les personnalités politiques, mais il commet ici des erreurs manifestement inadmissibles. (Lire la suite)
  •  

Microsoft installe Copilot sur les téléviseurs LG sans le consentement de l'utilisateur

La controverse autour de Copilot sous Windows 11 est loin d'être apaisée, et Microsoft semble vouloir aller encore plus loin. Cette fois-ci, son intelligence artificielle s'est invitée… sur les téléviseurs. D'après des témoignages d'utilisateurs de Reddit l'application Microsoft Copilot a été installée sur des téléviseurs LG fonctionnant sous webOS via une mise à jour logicielle, sans possibilité de désinstallation. L'utilisateur Reddit u/defjam16 a constaté l'apparition de l'application Copilot AI sur son téléviseur LG après une mise à jour système. Impossible de la désinstaller : il faut l'ignorer. Cet exemple illustre une fois de plus que l'intégration de l'IA dans les appareils du quotidien n'est plus une option, mais une nécessité pour les fabricants. Le principal problème réside dans l'absence de réponse claire quant à la fonction de Copilot sur un téléviseur. Microsoft n'a fourni aucune information officielle concernant les fonctionnalités de l'application sur webOS. En théorie, elle pourrait répondre à des questions, faciliter la recherche de contenu et s'intégrer à d'autres services, mais pour l'instant, elle semble davantage relever d'une démonstration de force que d'une réelle utilité pour les utilisateurs. Tout porte à croire que Microsoft étend activement la portée de Copilot, en faisant la plateforme de référence pour les requêtes basées sur l'IA. La télévision est un autre écran sur lequel l'entreprise souhaite être présente. Il est également intéressant de noter que webOS est basé sur Linux, ce qui pourrait indiquer une préparation à un déploiement plus large de Copilot dans les environnements Linux. Ceci est d'autant plus pertinent que Linux détient déjà environ 3 % de parts de marché sur le marché des ordinateurs personnels. Si la stratégie de Microsoft porte ses fruits, l'application Copilot dédiée pourrait également être déployée sur d'autres systèmes de téléviseurs connectés. C'est une mauvaise nouvelle pour certains utilisateurs, notamment ceux qui ne souhaitent pas que leur téléviseur effectue des opérations liées à l'intelligence artificielle ou collecte des données supplémentaires. Il est important de noter que les téléviseurs LG ont déjà utilisé des algorithmes basés sur l'intelligence artificielle. La fonction « Live Plus » reconnaît le contenu affiché à l'écran et utilise ces informations pour personnaliser les recommandations et les publicités. Le fabricant parle d'une « expérience visuelle améliorée », mais les utilisateurs de Reddit s'inquiètent du respect de la vie privée. Heureusement, cette fonction peut être désactivée dans les paramètres. Cette situation démontre que les téléviseurs modernes ressemblent de plus en plus à des ordinateurs connectés à Internet, avec leur propre écosystème d'applications et de services. Le problème est que les utilisateurs perdent souvent le contrôle sur le contenu de leur appareil. Copilot pour TV pourrait annoncer une ère où même le changement de chaîne sera géré par un « assistant intelligent », qu'on le veuille ou non. (Lire la suite)
  •  

8 Go de RAM redeviennent la norme sur les ordinateurs portables. La pénurie de mémoire bouleverse le marché.

Des analyses sectorielles récentes indiquent que les pénuries de mémoire vive (DRAM) ont atteint un niveau critique pour les fabricants. Les problèmes liés à ces approvisionnements limités commencent à impacter directement les configurations matérielles et les politiques tarifaires des grandes marques. Il apparaît de plus en plus évident que les ordinateurs portables dotés de 8 Go de RAM redeviendront l'offre dominante, même sur le segment milieu de gamme. Les fabricants d'ordinateurs adaptent leurs stratégies aux réalités du marché des semi-conducteurs. Au lieu d'augmenter la capacité de mémoire des configurations standard, ils privilégient la continuité de l'approvisionnement et la rentabilité. Il en résulte des prix plus élevés pour les modèles dotés de plus de RAM et un transfert progressif des spécifications les plus avancées vers le segment haut de gamme. Les études de marché indiquent que des fabricants comme Dell ont déjà commencé à appliquer des hausses de prix significatives. Ces hausses sont particulièrement marquées pour les configurations dotées d'une grande capacité de mémoire intégrée, dont les prix se rapprochent de ceux auparavant réservés aux équipements professionnels. Les analystes de TrendForce estiment que ces tarifs sont déconnectés des réalités actuelles du marché grand public. Le segment des ordinateurs portables de milieu de gamme, qui représente le plus gros volume de ventes, devient un terrain de compromis majeur. Selon les prévisions, les configurations avec 8 Go de RAM seront de plus en plus proposées, considérées comme une solution pour maintenir la stabilité de la chaîne d'approvisionnement et éviter les ruptures de stock soudaines. TrendForce souligne que les décisions actuelles ne sont pas temporaires. Les fabricants prévoient des ajustements à long terme de leurs offres, se préparant à de nouvelles fluctuations des prix de la mémoire, qui pourraient s'intensifier au deuxième trimestre 2026. Des entreprises comme Lenovo ont longtemps bénéficié d'importants stocks de DRAM, leur permettant de limiter les hausses de prix. Cependant, cette marge de manœuvre commence à s'amenuiser et les pressions sur les coûts deviennent de plus en plus difficiles à ignorer. Concrètement, cela se traduit par un retour à des configurations matérielles plus classiques et une diversification significative des offres. La situation du marché de la mémoire DRAM influence également les politiques de mise à niveau des ordinateurs portables. De plus en plus de fabricants appliquent des tarifs pour les mises à niveau de mémoire comparables à ceux pratiqués auparavant par Apple. Par exemple, le surcoût de 550 $ pour le passage de 16 à 32 Go de mémoire LPDDR5X sur certains modèles Dell. Ces prix incitent de nombreux clients à renoncer aux configurations supérieures lors de l'achat. Ce changement a également des répercussions sur les développeurs de logiciels. Microsoft avait établi 16 Go de RAM comme configuration minimale requise pour les ordinateurs certifiés Copilot en 2025. Cependant, les nouvelles réalités du marché laissent penser que les développeurs pourraient être contraints de se concentrer sur l'optimisation des applications pour des quantités de mémoire disponible plus faibles. (Lire la suite)
  •  

Des données stockées des milliards d'années. La mémoire 5D sur verre se rapproche.

La start-up britannique SPhotonix affirme que sa technologie de mémoire 5D futuriste quitte désormais les laboratoires et s'apprête à être déployée à grande échelle. L'entreprise annonce des installations pilotes de stockage à froid en verre dans des centres de données au cours des deux prochaines années. Il s'agit d'une étape ambitieuse vers un archivage de données dont la durée de vie est estimée à des milliards d'années. La solution SPhotonix repose sur un disque de silice fondue, où les données sont enregistrées à l'aide d'impulsions laser femtoseconde ultracourtes. L'information est encodée dans des nanostructures au sein du verre et lue optiquement grâce à la lumière polarisée. Cette technologie, baptisée « Cristal de mémoire 5D », enregistre les données non seulement en trois dimensions spatiales (x, y, z), mais aussi en fonction de l'orientation et de l'intensité des nanostructures. Selon le fabricant, un seul disque de verre de 5 pouces peut stocker jusqu'à 360 To de données, et le support lui-même devrait conserver son intégrité pendant 13,8 milliards d'années, soit l'âge estimé de l'univers. Les prototypes actuels ne sont pas particulièrement rapides. Les vitesses d'écriture avoisinent les 4 Mo/s et les vitesses de lecture approchent les 30 Mo/s. Ces performances sont nettement inférieures à celles des systèmes d'archivage actuels, mais SPhotonix prévoit d'atteindre 500 Mo/s en écriture comme en lecture d'ici trois à quatre ans. Les premiers systèmes ne seront pas bon marché. L'entreprise estime le coût du graveur à environ 30 000 $ et celui du lecteur à 6 000 $. Le lecteur portable, prêt à l'emploi sur le terrain, devrait être disponible d'ici 18 mois. À ce jour, SPhotonix a levé 4,5 millions de dollars et travaille à passer du niveau de maturité technologique 5 (TRL 5) au TRL 6, ce qui implique des tests en conditions réelles d'utilisation. SPhotonix souligne que ses supports sont naturellement isolés du réseau électrique et ne nécessitent aucune alimentation pour le stockage des données. Ils sont donc particulièrement intéressants pour les archives où une latence d'accès de quelques secondes seulement est acceptable. L'entreprise cible ainsi les applications où la durabilité et la sécurité, et non la vitesse, sont primordiales. Le principal défi reste de passer des démonstrations impressionnantes de densité de stockage à des performances système réelles et compétitives. Si SPhotonix tient ses promesses, la mémoire 5D sur verre pourrait devenir un élément clé de l'archivage de données. Dans le cas contraire, elle restera une technologie de niche, s'adressant principalement aux présentations. (Lire la suite)
  •  

Nintendo améliore les paramètres HDR sur la Switch 2 en mode TV

Nintendo a déployé une mise à jour système qui a profondément remanié la configuration HDR de la Switch 2 en mode TV, résolvant ainsi un problème majeur de l'affichage précédent. Au lancement de la console, les analyses ont révélé que de nombreux utilisateurs constataient une image délavée avec des hautes lumières écrêtées. Ceci était dû à une procédure de calibrage complexe, où la luminosité maximale devait être estimée en cliquant sur l'écran des paramètres initiaux. Nintendo a désormais modifié cette procédure : dans le menu HDR, la valeur de luminosité maximale réelle en nits s'affiche d'une simple pression sur un bouton. Chaque modification correspond exactement à 10 nits, que la valeur sélectionnée soit 1 000, 4 000 ou jusqu'à 10 000 nits. Ceci élimine une grande partie des imprécisions précédentes. Le paramètre « Blanc papier », qui définit le point blanc de référence pour les zones centrales de l'image, a également été corrigé. La valeur par défaut est désormais d'environ 300 nits au lieu de 500 nits, ce qui améliore la netteté et augmente la plage dynamique perçue. Pour les écrans compatibles HGIG, il est recommandé d'activer cette fonction et d'ajuster la luminosité maximale jusqu'à ce que le symbole de référence disparaisse. Sans HGIG, une luminosité maximale de 1 000 nits et un blanc de 200 nits constituent des valeurs de référence pratiques. Globalement, cette mise à jour simplifie considérablement l'affichage HDR précis sur les téléviseurs, les moniteurs et les projecteurs. (Lire la suite)
  •