↩ Accueil

Vue normale

index.feed.received.before_yesterday

Un bracelet qui mesure la tension artérielle chez Asus

17 avril 2025 à 19:07

Si Asus n'est pas la marque à laquelle on pense en priorité quand on parle de bracelets de santé ou de montres, la marque taïwanaise dispose tout de même d'une gamme assez large dans ce domaine avec les VivoWatch. La dernière version en date, annoncée il y a quelques jours, amène une fonction intéressante : la mesure de la tension artérielle.

Le bracelet Asus VivoWatch 6 Aero. Image Asus.

L'Asus VivoWatch 6 Aero est un bracelet doté d'un petit écran OLED (1,1 pouce) qui offre de nombreux capteurs. Il intègre des capteurs classiques, comme un capteur de fréquence cardiaque, mais peut aussi mesurer la saturation en oxygène (SpO2) et intègre la possibilité d'effectuer un électrocardiogramme — comme les Apple Watch depuis la Series 4 — et (surtout) celle de mesurer la tension artérielle. C'est une fonction intéressante pour certaines maladies, mais Asus ne donne pas beaucoup de détails sur sa mise en œuvre : les rares appareils compacts qui intègrent cette fonction nécessitent généralement une calibration avec un tensiomètre classique (plus imposant) ou se limitent à indiquer une variation de la tension artérielle, sans donner de valeurs précises.

Les différentes fonctions. Image Asus.

Le bracelet d'Asus n'a pas encore été annoncé pour la France (et n'a pas de prix officiel) mais la page de présentation est disponible dans la langue de Molière, donc il devrait être disponible dans nos contrées de la même façon que le bracelet VivoWatch 5 Aero (vendu environ 130 €). Un des points mis en avant par Asus vient du poids (27 grammes) mais aussi de l'autonomie : Asus annonce jusqu'à 7 jours (5 jours dans un usage normal). C'est un périphérique qui cible surtout les personnes qui s'intéressent uniquement à la santé, avec l'intégration des suivis classiques (comme le sommeil) en plus des données issues des capteurs. Pour ceux qui veulent un périphérique plus complet, Asus propose d'ailleurs de montres connectées.

Pour terminer, il faut noter que le capteur pour les ECG et celui pour la tension artérielle ne sont pas nécessairement disponibles dans tous les pays. Les deux nécessitent une validation par les autorités, ce qui peut prendre parfois quelques mois.

Un SSD usé n'est pas une bonne solution pour préserver des données

17 avril 2025 à 18:29

Quand les défauts des SSD sont mis en avant, un problème est généralement mis sur le tapis : l'usure. En effet, les cellules de mémoire flash ont une durée de vie finie, qui dépend de la technologie des puces et des mécanismes de gestion de l'usure. Mais un autre souci, plus insidieux, est rarement mis en avant : celui de la rétention, c'est-à-dire le temps pendant lequel un SSD peut garder vos données sans qu'elles soient corrompues. HTWingNut, un Youtubeur, a tenté de vérifier de façon empirique, si les SSD résistaient bien dans le temps.

Quatre SSD pour un test au long cours.

Dans la majorité des cas, les SSD sont donnés pour une rétention des données de l'ordre de 10 ans, avec parfois une valeur doublée pour certains types de mémoire flash. De façon très concrète, les fabricants considèrent donc qu'un SSD neuf (c'est important) devrait garder les données une dizaine d'années au moins sans que le SSD soit alimenté. Au-delà de cette durée, il est possible (ce n'est pas systématique) que les données soient corrompues. Ce problème de rétention n'en est normalement pas un, sauf si vous avez décidé de préserver des données sur un SSD rangé dans un tiroir… spécialement sur un SSD usé. Soyons clairs sur un point avant de continuer : quelle que soit la technologie, espérer qu'un média fonctionne correctement après une dizaine d'années sans être utilisé est un pari. Les disques optiques, les disques durs ou les SSD peuvent tomber en panne, et les professionnels tendent à employer des solutions pérennes (mais peu pratiques) comme les bandes magnétiques. Dans tous les cas, une vérification régulière des sauvegardes n'est pas à négliger.

L'usure réduit la rétention

Le problème mis en avant par HTWingNut, c'est que l'usure réduit la rétention des données, tout comme la chaleur, par exemple. Un SSD rangé dans un endroit surchauffé gardera ses données moins longtemps qu'un modèle placé au frais. Pour le vérifier, il a choisi quatre SSD Leven JS-600 de 128 Go, des modèles noname comme il est possible d'en trouver par paquet sur Amazon, par exemple. Ils emploient de la mémoire TLC (trois bits par cellule), une technologie avec une résistance dans le temps moyenne.

La vidéo montre le résultat sur deux des quatre SSD, après deux ans. Une première vidéo montrait le résultat après un an. Dans chaque cas, un des SSD a reçu 100 Go de données (et c'est tout) et le second a été usé avant d'écrire les mêmes 100 Go. L'usure en question est assez importante, avec 280 To écrits. C'est largement plus que la valeur garantie sur ce type de SSD, qui est de 60 To. Les fabricants indiquent en effet généralement une valeur1 (le TBW) qui est la limite (pessimiste) au-delà de laquelle le SSD peut amener des erreurs. Elle dépend en partie de la technologie — un SSD en TLC sera meilleur qu'un SSD en QLC, avec quatre bits par cellule — mais aussi de la capacité. Un SSD de 2 To peut mécaniquement encaisser plus de données écrites qu'un SSD de 128 Go.

Le nombre d'erreurs est élevé.

Le test empirique, qui doit être pris pour ce qu'il est, montre que les deux SSD considérés comme neufs n'ont pas posé de soucis de rétention des données après un et deux ans (respectivement). Le modèle qui a été éteint deux ans a tout de même montré un petit signe de faiblesse, avec quelques erreurs ECC corrigées directement par le contrôleur. Par contre, le SSD usé, lui, montre des erreurs. Il y a quatre fichiers corrompus sur le SSD après deux ans sans alimentation et des secteurs réalloués, ce qui indique que le contrôleur a dû aller piocher dans la réserve de cellules de la mémoire flash. De plus, le nombre d'erreurs ECC corrigées est très élevé (plusieurs centaines de milliers). Enfin, le temps de calcul pour la vérification des données a pris significativement plus de temps : 42 minutes environ, contre à peu près 10 dans les autres cas.

Faut-il avoir peur ?

La question de la sécurité de nos données se pose évidemment après de tels résultats. Mais il faut bien nuancer les choses. Premièrement, garder des données importantes sur un SSD bas de gamme éteint et usé est une mauvaise idée au départ, et il n'y avait pas réellement besoin d'un test empirique pour le prouver. Deuxièmement, c'est un problème qui ne peut toucher que des SSD éteints. Le SSD de votre Mac, normalement, ne devrait pas se trouver dans ce cas de figure, tout comme un SSD externe utilisé régulièrement. Et dans tous les cas, nous en revenons aux bases : une sauvegarde régulière est importante, sur un volume vérifié lui aussi de façon régulière. La vidéo, dans un sens, démontre presque par l'absurde ce qu'il ne faut pas faire.

Terminons par un point, lui aussi important : c'est un peu contre-intuitif, mais un vieux média à base de mémoire flash a probablement une rétention plus élevée qu'un périphérique récent. Une vieille clé USB ou une carte mémoire de la fin des années 90 va probablement encore contenir vos photos, alors qu'une microSD noname achetée en 2020 peut les avoir perdues.


  1. Ce n'est pas le cas d'Apple, mais le TBW estimé des SSD des Mac M1, par exemple, est estimé à 700 TBW pour les modèles de 256 Go.  ↩︎

Un bracelet qui mesure la tension artérielle chez Asus

17 avril 2025 à 19:07

Si Asus n'est pas la marque à laquelle on pense en priorité quand on parle de bracelets de santé ou de montres, la marque taïwanaise dispose tout de même d'une gamme assez large dans ce domaine avec les VivoWatch. La dernière version en date, annoncée il y a quelques jours, amène une fonction intéressante : la mesure de la tension artérielle.

Le bracelet Asus VivoWatch 6 Aero. Image Asus.

L'Asus VivoWatch 6 Aero est un bracelet doté d'un petit écran OLED (1,1 pouce) qui offre de nombreux capteurs. Il intègre des capteurs classiques, comme un capteur de fréquence cardiaque, mais peut aussi mesurer la saturation en oxygène (SpO2) et intègre la possibilité d'effectuer un électrocardiogramme — comme les Apple Watch depuis la Series 4 — et (surtout) celle de mesurer la tension artérielle. C'est une fonction intéressante pour certaines maladies, mais Asus ne donne pas beaucoup de détails sur sa mise en œuvre : les rares appareils compacts qui intègrent cette fonction nécessitent généralement une calibration avec un tensiomètre classique (plus imposant) ou se limitent à indiquer une variation de la tension artérielle, sans donner de valeurs précises.

Les différentes fonctions. Image Asus.

Le bracelet d'Asus n'a pas encore été annoncé pour la France (et n'a pas de prix officiel) mais la page de présentation est disponible dans la langue de Molière, donc il devrait être disponible dans nos contrées de la même façon que le bracelet VivoWatch 5 Aero (vendu environ 130 €). Un des points mis en avant par Asus vient du poids (27 grammes) mais aussi de l'autonomie : Asus annonce jusqu'à 7 jours (5 jours dans un usage normal). C'est un périphérique qui cible surtout les personnes qui s'intéressent uniquement à la santé, avec l'intégration des suivis classiques (comme le sommeil) en plus des données issues des capteurs. Pour ceux qui veulent un périphérique plus complet, Asus propose d'ailleurs de montres connectées.

Pour terminer, il faut noter que le capteur pour les ECG et celui pour la tension artérielle ne sont pas nécessairement disponibles dans tous les pays. Les deux nécessitent une validation par les autorités, ce qui peut prendre parfois quelques mois.

Un SSD usé n'est pas une bonne solution pour préserver des données

17 avril 2025 à 18:29

Quand les défauts des SSD sont mis en avant, un problème est généralement mis sur le tapis : l'usure. En effet, les cellules de mémoire flash ont une durée de vie finie, qui dépend de la technologie des puces et des mécanismes de gestion de l'usure. Mais un autre souci, plus insidieux, est rarement mis en avant : celui de la rétention, c'est-à-dire le temps pendant lequel un SSD peut garder vos données sans qu'elles soient corrompues. HTWingNut, un Youtubeur, a tenté de vérifier de façon empirique, si les SSD résistaient bien dans le temps.

Quatre SSD pour un test au long cours.

Dans la majorité des cas, les SSD sont donnés pour une rétention des données de l'ordre de 10 ans, avec parfois une valeur doublée pour certains types de mémoire flash. De façon très concrète, les fabricants considèrent donc qu'un SSD neuf (c'est important) devrait garder les données une dizaine d'années au moins sans que le SSD soit alimenté. Au-delà de cette durée, il est possible (ce n'est pas systématique) que les données soient corrompues. Ce problème de rétention n'en est normalement pas un, sauf si vous avez décidé de préserver des données sur un SSD rangé dans un tiroir… spécialement sur un SSD usé. Soyons clairs sur un point avant de continuer : quelle que soit la technologie, espérer qu'un média fonctionne correctement après une dizaine d'années sans être utilisé est un pari. Les disques optiques, les disques durs ou les SSD peuvent tomber en panne, et les professionnels tendent à employer des solutions pérennes (mais peu pratiques) comme les bandes magnétiques. Dans tous les cas, une vérification régulière des sauvegardes n'est pas à négliger.

L'usure réduit la rétention

Le problème mis en avant par HTWingNut, c'est que l'usure réduit la rétention des données, tout comme la chaleur, par exemple. Un SSD rangé dans un endroit surchauffé gardera ses données moins longtemps qu'un modèle placé au frais. Pour le vérifier, il a choisi quatre SSD Leven JS-600 de 128 Go, des modèles noname comme il est possible d'en trouver par paquet sur Amazon, par exemple. Ils emploient de la mémoire TLC (trois bits par cellule), une technologie avec une résistance dans le temps moyenne.

La vidéo montre le résultat sur deux des quatre SSD, après deux ans. Une première vidéo montrait le résultat après un an. Dans chaque cas, un des SSD a reçu 100 Go de données (et c'est tout) et le second a été usé avant d'écrire les mêmes 100 Go. L'usure en question est assez importante, avec 280 To écrits. C'est largement plus que la valeur garantie sur ce type de SSD, qui est de 60 To. Les fabricants indiquent en effet généralement une valeur1 (le TBW) qui est la limite (pessimiste) au-delà de laquelle le SSD peut amener des erreurs. Elle dépend en partie de la technologie — un SSD en TLC sera meilleur qu'un SSD en QLC, avec quatre bits par cellule — mais aussi de la capacité. Un SSD de 2 To peut mécaniquement encaisser plus de données écrites qu'un SSD de 128 Go.

Le nombre d'erreurs est élevé.

Le test empirique, qui doit être pris pour ce qu'il est, montre que les deux SSD considérés comme neufs n'ont pas posé de soucis de rétention des données après un et deux ans (respectivement). Le modèle qui a été éteint deux ans a tout de même montré un petit signe de faiblesse, avec quelques erreurs ECC corrigées directement par le contrôleur. Par contre, le SSD usé, lui, montre des erreurs. Il y a quatre fichiers corrompus sur le SSD après deux ans sans alimentation et des secteurs réalloués, ce qui indique que le contrôleur a dû aller piocher dans la réserve de cellules de la mémoire flash. De plus, le nombre d'erreurs ECC corrigées est très élevé (plusieurs centaines de milliers). Enfin, le temps de calcul pour la vérification des données a pris significativement plus de temps : 42 minutes environ, contre à peu près 10 dans les autres cas.

Faut-il avoir peur ?

La question de la sécurité de nos données se pose évidemment après de tels résultats. Mais il faut bien nuancer les choses. Premièrement, garder des données importantes sur un SSD bas de gamme éteint et usé est une mauvaise idée au départ, et il n'y avait pas réellement besoin d'un test empirique pour le prouver. Deuxièmement, c'est un problème qui ne peut toucher que des SSD éteints. Le SSD de votre Mac, normalement, ne devrait pas se trouver dans ce cas de figure, tout comme un SSD externe utilisé régulièrement. Et dans tous les cas, nous en revenons aux bases : une sauvegarde régulière est importante, sur un volume vérifié lui aussi de façon régulière. La vidéo, dans un sens, démontre presque par l'absurde ce qu'il ne faut pas faire.

Terminons par un point, lui aussi important : c'est un peu contre-intuitif, mais un vieux média à base de mémoire flash a probablement une rétention plus élevée qu'un périphérique récent. Une vieille clé USB ou une carte mémoire de la fin des années 90 va probablement encore contenir vos photos, alors qu'une microSD noname achetée en 2020 peut les avoir perdues.


  1. Ce n'est pas le cas d'Apple, mais le TBW estimé des SSD des Mac M1, par exemple, est estimé à 700 TBW pour les modèles de 256 Go.  ↩︎

AmigaOS 3 continue à être mis à jour, près de 30 ans plus tard

17 avril 2025 à 15:50

Hyperion Entertainment vient de mettre à jour un système d'exploitation antédiluvien : AmigaOS passe en version 3.2.3. Cette version succède à la version 3.2.2 de 2023 et c'est surtout un descendant direct de l'AmigaOS 3.x des années 90. La mise à jour elle-même peut étonner, mais ce n'est pas une nouveauté : Hyperion Entertainment dispose des droits de la branche 3.1 d'AmigaOS et elle met à jour de façon régulière le système d'exploitation pour les quelques aficionados des machines de Commodore.

AmigaOS 3.2, la branche originale.

Mais le point intéressant, c'est qu'il existe d'autres branches d'AmigaOS. Attention, c'est un peu compliqué. Les versions 3.1.x et 3.2.x, portées par Hyperion, dérivent donc du code source de la version développée par Commodore. Pour la comparaison, il faut imaginer (par exemple) une faillite d'Apple dans les années 90 et une société qui continuerait à développer le System 7, plus de trente ans plus tard.

AmigaOS 3.5, 3.9, 4.0 et 4.1, plus anciens

Ensuite, comme le rappelle Next, il y a les branches 3.5 et 3.9. Ces deux versions sont sorties à la fin du siècle dernier et dérivent de la version 3.1 de Commodore (vous suivez ?). La société allemande Haage & Partner (l'Amiga avait beaucoup de succès outre-Rhin) avait obtenu le nécessaire pour le développer sous licence de la part des ayants droit de Commodore à l'époque. Cette branche, abandonnée depuis, est donc plus ancienne que l'AmigaOS 3.2.3 qui vient d'être annoncé, et elle ne fonctionne pas sur tous les modèles. Les Amiga — comme les Macintosh des années 80 — reposent sur des processeurs de la famille 68000 et si AmigaOS 3.2.x prend encore en charge le 68000 original, ce n'est pas le cas d'AmigaOS 3.5 et 3.9, qui nécessitent un 68020.

La dernière branche officielle est AmigaOS 4.0 et 4.1, eux aussi développés par Hyperion. Cette branche est différente des deux autres, car elle nécessite un Amiga équipé d'une puce PowerPC. En effet, dans les années 90 et 2000, les tentatives d'évolution des Amiga sont passées par le processeur 68060 (qu'Apple n'a jamais employé) mais aussi par des puces PowerPC, comme les Mac. AmigaOS 4.x est donc une version nativement compatible avec les PowerPC, qui abandonne la compatibilité 68000. En parallèle de ces versions, il existe aussi des systèmes d'exploitation compatibles, qui implémentent les API d'AmigaOS,et les deux plus connus sont AROS (qui est open source et fonctionne sur de nombreuses architectures) et MorphOS. Ce dernier est un système compatible fermé, qui nécessite un ordinateur à base de PowerPC. Il peut s'agir d'un Mac mais il en existe d'autres.

Il est possible d'acheter des puces programmées.

Notons enfin qu'Hyperion propose une version adaptée du Kickstart, en version 3.2.3. le Kickstart peut être vu comme l'équivalent (encore une fois) de la ROM des anciens Macintosh. Cette puce de ROM contient une partie d'AmigaOS, ce qui améliore les performances dans certains cas. Si vous avez une ROM Kickstart d'une ancienne version avec une version moderne d'AmigaOS, le système d'exploitation doit copier une partie des données en RAM pour les patcher, et donc une ROM Kickstart à jour réduit l'empreinte mémoire du système.

Enfin, attention : AmigaOS 3.2 est un système payant, vendu généralement une quarantaine d'euros. Votre vieil Amiga mérite bien ça.

AmigaOS 3 continue à être mis à jour, près de 30 ans plus tard

17 avril 2025 à 15:50

Hyperion Entertainment vient de mettre à jour un système d'exploitation antédiluvien : AmigaOS passe en version 3.2.3. Cette version succède à la version 3.2.2 de 2023 et c'est surtout un descendant direct de l'AmigaOS 3.x des années 90. La mise à jour elle-même peut étonner, mais ce n'est pas une nouveauté : Hyperion Entertainment dispose des droits de la branche 3.1 d'AmigaOS et elle met à jour de façon régulière le système d'exploitation pour les quelques aficionados des machines de Commodore.

AmigaOS 3.2, la branche originale.

Mais le point intéressant, c'est qu'il existe d'autres branches d'AmigaOS. Attention, c'est un peu compliqué. Les versions 3.1.x et 3.2.x, portées par Hyperion, dérivent donc du code source de la version développée par Commodore. Pour la comparaison, il faut imaginer (par exemple) une faillite d'Apple dans les années 90 et une société qui continuerait à développer le System 7, plus de trente ans plus tard.

AmigaOS 3.5, 3.9, 4.0 et 4.1, plus anciens

Ensuite, comme le rappelle Next, il y a les branches 3.5 et 3.9. Ces deux versions sont sorties à la fin du siècle dernier et dérivent de la version 3.1 de Commodore (vous suivez ?). La société allemande Haage & Partner (l'Amiga avait beaucoup de succès outre-Rhin) avait obtenu le nécessaire pour le développer sous licence de la part des ayants droit de Commodore à l'époque. Cette branche, abandonnée depuis, est donc plus ancienne que l'AmigaOS 3.2.3 qui vient d'être annoncé, et elle ne fonctionne pas sur tous les modèles. Les Amiga — comme les Macintosh des années 80 — reposent sur des processeurs de la famille 68000 et si AmigaOS 3.2.x prend encore en charge le 68000 original, ce n'est pas le cas d'AmigaOS 3.5 et 3.9, qui nécessitent un 68020.

La dernière branche officielle est AmigaOS 4.0 et 4.1, eux aussi développés par Hyperion. Cette branche est différente des deux autres, car elle nécessite un Amiga équipé d'une puce PowerPC. En effet, dans les années 90 et 2000, les tentatives d'évolution des Amiga sont passées par le processeur 68060 (qu'Apple n'a jamais employé) mais aussi par des puces PowerPC, comme les Mac. AmigaOS 4.x est donc une version nativement compatible avec les PowerPC, qui abandonne la compatibilité 68000. En parallèle de ces versions, il existe aussi des systèmes d'exploitation compatibles, qui implémentent les API d'AmigaOS,et les deux plus connus sont AROS (qui est open source et fonctionne sur de nombreuses architectures) et MorphOS. Ce dernier est un système compatible fermé, qui nécessite un ordinateur à base de PowerPC. Il peut s'agir d'un Mac mais il en existe d'autres.

Il est possible d'acheter des puces programmées.

Notons enfin qu'Hyperion propose une version adaptée du Kickstart, en version 3.2.3. le Kickstart peut être vu comme l'équivalent (encore une fois) de la ROM des anciens Macintosh. Cette puce de ROM contient une partie d'AmigaOS, ce qui améliore les performances dans certains cas. Si vous avez une ROM Kickstart d'une ancienne version avec une version moderne d'AmigaOS, le système d'exploitation doit copier une partie des données en RAM pour les patcher, et donc une ROM Kickstart à jour réduit l'empreinte mémoire du système.

Enfin, attention : AmigaOS 3.2 est un système payant, vendu généralement une quarantaine d'euros. Votre vieil Amiga mérite bien ça.

Strava se paye Runna, l'app de course à pied spécialisée dans le coaching par IA

17 avril 2025 à 12:32

Strava vient de se payer Runna, une autre application dédiée aux amateurs de sport, spécialisée dans la course à pied. Runna est une application britannique surtout connue pour ses mécanismes d'entraînement : elle propose un système de coach assisté par IA, capable de personnaliser les objectifs en fonction de vos performances et vos objectifs. L'achat par Strava ne devrait par ailleurs rien changer pour les utilisateurs de Runna à court terme. C'est un investissement intéressant pour Strava, car l'app est un peu plus généraliste et Runna devrait donc combler certaines de ses faiblesses.

Le logo de Runna dans une carte Strava.

Il faut noter que Runna dépend déjà en partie de Strava, car l'app utilise les API de Strava, et que les deux applications reposent sur un abonnement. Runna est facturé 20 $/mois (ou 120 $/an), alors que les fonctions payantes de Strava valent 10 €/mois (ou 60 € à l'année). Il est évidemment possible d'imaginer que les deux fusionneront à moyen terme, même si le CEO de Runna indique que rien ne change pour le moment. Une des forces de Runna vient aussi de son intégration, c'est par exemple une des rares applications capables de profiter du capteur de fréquence cardiaque des récents Powerbeats Pro 2. Notons enfin que les modalités de la transaction (comme le prix d'achat) n'ont pas été dévoilées.

Test des Powerbeats Pro 2 : réduction de bruit sur fond de rythme cardiaque

Test des Powerbeats Pro 2 : réduction de bruit sur fond de rythme cardiaque

Strava se paye Runna, l'app de course à pied spécialisée dans le coaching par IA

17 avril 2025 à 12:32

Strava vient de se payer Runna, une autre application dédiée aux amateurs de sport, spécialisée dans la course à pied. Runna est une application britannique surtout connue pour ses mécanismes d'entraînement : elle propose un système de coach assisté par IA, capable de personnaliser les objectifs en fonction de vos performances et vos objectifs. L'achat par Strava ne devrait par ailleurs rien changer pour les utilisateurs de Runna à court terme. C'est un investissement intéressant pour Strava, car l'app est un peu plus généraliste et Runna devrait donc combler certaines de ses faiblesses.

Le logo de Runna dans une carte Strava.

Il faut noter que Runna dépend déjà en partie de Strava, car l'app utilise les API de Strava, et que les deux applications reposent sur un abonnement. Runna est facturé 20 $/mois (ou 120 $/an), alors que les fonctions payantes de Strava valent 10 €/mois (ou 60 € à l'année). Il est évidemment possible d'imaginer que les deux fusionneront à moyen terme, même si le CEO de Runna indique que rien ne change pour le moment. Une des forces de Runna vient aussi de son intégration, c'est par exemple une des rares applications capables de profiter du capteur de fréquence cardiaque des récents Powerbeats Pro 2. Notons enfin que les modalités de la transaction (comme le prix d'achat) n'ont pas été dévoilées.

Test des Powerbeats Pro 2 : réduction de bruit sur fond de rythme cardiaque

Test des Powerbeats Pro 2 : réduction de bruit sur fond de rythme cardiaque

Le Snapdragon X 2 Elite sur les rails, jusqu'à 22 % plus rapide

17 avril 2025 à 12:00

Même si la vague attendue des PC sous Windows avec une puce ARM n'a pas déferlé, Qualcomm continue à travailler sur ses puces Snapdragon X. Une rumeur issue d'un blogueur chinois indique que la seconde génération — qui portera le nom Snapdragon X 2 selon la nomenclature de Qualcomm — devrait offrir un gain de performances de l'ordre de 20 % (18 à 22 %).

La rumeur. Image X.

C'est une valeur dans la moyenne des puces modernes, qui atteignent généralement cette valeur dans un cas bien choisi (par exemple si le test se base sur les unités améliorées de façon significative). Il indique aussi que la fréquence devrait atteindre 4,4 GHz, une valeur plus élevée que celle des variantes actuelles. Si 4,4 GHz est la fréquence de base, une grande partie du gain proviendrait de cette fréquence : elle est de 3,8 GHz au mieux actuellement, et le passage à 4,4 GHz amène mécaniquement environ 15 % de gain. Si c'est la fréquence maximale de la puce (le Turbo), le gain proviendrait par contre d'optimisations : le Snapdragon X Elite le plus rapide atteint 4,3 GHz en pointe et 4,4 GHz serait donc une montée en fréquence faible (environ 2,5 %).

Qualcomm va pouvoir remplacer le 1 par un 2.

Dans les deux cas, il ne faut pas oublier que la partie CPU n'est pas le principal problème des Snapdragon X. Le cœur Oryon issu des travaux de Nuvia est convaincant dès sa première révision, avec des performances du même ordre que les puces M2 ou les puces x86 du même segment. Par contre, la partie GPU demeure assez faible et les problèmes liés à la partie logicielle (Windows 11 ARM) bien présents.

Test de l

Test de l'Asus Vivobook S15 : enfin un PC Windows ARM qui tient la route grâce au Snapdragon X

Notons enfin que les Snapdragon X2 devraient (enfin) avoir de la concurrence : le contrat d'exclusivité entre Microsoft et Qualcomm se termine officieusement cette année et Nvidia et Mediatek devraient entrer dans la danse pour — peut-être — enfin démocratiser les PC sous Windows ARM.

Le Snapdragon X 2 Elite sur les rails, jusqu'à 22 % plus rapide

17 avril 2025 à 12:00

Même si la vague attendue des PC sous Windows avec une puce ARM n'a pas déferlé, Qualcomm continue à travailler sur ses puces Snapdragon X. Une rumeur issue d'un blogueur chinois indique que la seconde génération — qui portera le nom Snapdragon X 2 selon la nomenclature de Qualcomm — devrait offrir un gain de performances de l'ordre de 20 % (18 à 22 %).

La rumeur. Image X.

C'est une valeur dans la moyenne des puces modernes, qui atteignent généralement cette valeur dans un cas bien choisi (par exemple si le test se base sur les unités améliorées de façon significative). Il indique aussi que la fréquence devrait atteindre 4,4 GHz, une valeur plus élevée que celle des variantes actuelles. Si 4,4 GHz est la fréquence de base, une grande partie du gain proviendrait de cette fréquence : elle est de 3,8 GHz au mieux actuellement, et le passage à 4,4 GHz amène mécaniquement environ 15 % de gain. Si c'est la fréquence maximale de la puce (le Turbo), le gain proviendrait par contre d'optimisations : le Snapdragon X Elite le plus rapide atteint 4,3 GHz en pointe et 4,4 GHz serait donc une montée en fréquence faible (environ 2,5 %).

Qualcomm va pouvoir remplacer le 1 par un 2.

Dans les deux cas, il ne faut pas oublier que la partie CPU n'est pas le principal problème des Snapdragon X. Le cœur Oryon issu des travaux de Nuvia est convaincant dès sa première révision, avec des performances du même ordre que les puces M2 ou les puces x86 du même segment. Par contre, la partie GPU demeure assez faible et les problèmes liés à la partie logicielle (Windows 11 ARM) bien présents.

Test de l

Test de l'Asus Vivobook S15 : enfin un PC Windows ARM qui tient la route grâce au Snapdragon X

Notons enfin que les Snapdragon X2 devraient (enfin) avoir de la concurrence : le contrat d'exclusivité entre Microsoft et Qualcomm se termine officieusement cette année et Nvidia et Mediatek devraient entrer dans la danse pour — peut-être — enfin démocratiser les PC sous Windows ARM.

Les iPhone des Apple Store vont se recharger avec de l'énergie bas carbone

17 avril 2025 à 10:30

Apple a fait une petite annonce un peu étonnante dans son rapport environnemental de 2025 : les iPhone et iPad de démonstration dans les Apple Store américains vont activer la fonction Clean Energy Charging d'iOS. C'est étonnant pour une raison simple : par défaut, elle est activée automatiquement sur les iPhone configurés aux États-Unis, sauf (visiblement) sur les appareils de démonstration.

La fonction sur un iPhone 15. Image Apple.

Cette fonction apparue avec iOS 16.1 sert à activer la charge des appareils iOS quand le réseau électrique produit de l'énergie bas carbone (éolien, solaire, hydro-électrique, nucléaire, etc.). Elle n'est disponible qu'aux États-Unis et dépend en partie des fournisseurs d'électricité. Dans sa page de support, Apple explique que la localisation doit être active, pour permettre de déterminer le fournisseur, et qu'une notification apparaît quand l'iPhone stoppe sa charge en attendant le meilleur moment, avec la possibilité de la forcer en cas de besoin.

Dans le cas précis des Apple Store, MacRumors explique que la charge se déclenchera tout de même automatiquement si la batterie descend sous les 50 %.

OpenDNS abandonne la Belgique, pour éviter de censurer les résultats

16 avril 2025 à 17:41

OpenDNS, un résolveur DNS alternatif proposé par Cisco, a quitté la Belgique le 11 avril 2025, après avoir effectué le même mouvement avec la France et le Portugal mi-2024. Si le message posté par un employé de Cisco n'indique pas la raison exacte de ce changement, elle est probablement liée à une demande de censure légale par le royaume.

Le logo d'OpenDNS.

La Belgique, comme la France, tend en effet à bloquer certains sites Internet via des décisions de justice. Les opérateurs et les fournisseurs de DNS alternatifs doivent suivre ces décisions et fournir ce qu'on appelle parfois des DNS menteurs. Même si Cisco ne communique pas directement sur ce point, le fait que de nombreux sites de streaming illégaux ont été fermés récemment en Belgique (comme l'indique La Libre et Le Soir) n'est probablement pas une coïncidence. Le Soir cite d'ailleurs Cisco dans la liste des fournisseurs alternatifs, et explique qu'une astreinte de 100 000 € par jour est prévue en cas d'absence de blocage.

La disparition d'OpenDNS n'est en théorie pas un réel problème : il existe de nombreux autres résolveurs et le blocage ne devrait pas être un problème… sauf si vous avez l'habitude d'aller sur des sites qui diffusent illégalement du sport (notamment). Mais comme le note Next, ce n'est pas totalement anodin : certains objets connectés reposent sur OpenDNS, avec une adresse IP codée en dur. C'est notamment le cas des ampoules de la gamme Hue pour certaines fonctions.

Plaqué par Canal+, OpenDNS abandonne la France

Plaqué par Canal+, OpenDNS abandonne la France

Les produits Apple sont maintenant « Conçus pour Apple Intelligence »… même aux États-Unis

16 avril 2025 à 16:30

Aux États-Unis, Apple a changé sa façon de communiquer sur Apple Intelligence. À la sortie des iPhone 16, le slogan choisi était « Hello, Apple Intelligence » sur les images promotionnelles. La police choisie était assez grande, avec notamment les couleurs choisies pour le nouveau Siri. Mais après la sortie d'iOS 18.4, qui a ajouté de nombreuses fonctions à Apple Intelligence, Apple a décidé de communiquer d'une autre manière. C'est Basic Apple Guy qui le montre : le slogan est devenu « Built for Apple Intelligence », avec l'idée (probablement) de faire croire que la stratégie d'Apple était évidemment d'intégrer toutes les fonctions dans les iPhone.

Avant/Après aux États-Unis.

Soyons clairs, c'est probablement faux : les iPhone 16 et les produits sortis à la fin de l'année 2024 ont été imaginés bien avant les premières mentions d'Apple Intelligence. Même si rien n'est véritablement officiel, Apple a pris le train de l'IA assez tard et le développement de l'iPhone 16 était a priori bien avancé. Mais la police plus petite et le slogan sont là pour tenter d'inspirer la confiance dans les outils d'Apple. Il faut noter que le premier slogan n'a pas été utilisé en France, car Apple Intelligence n'était pas disponible. Apple a commencé directement avec « Conçu pour Apple Intelligence » dans nos contrées, en parallèle de la sortie d'iOS 18.4. Reste que dans les deux cas, quel que soit le slogan, les outils d'Apple semblent tout de même à la peine par rapport à ce que propose la concurrence.

En France. Image Apple.
iOS 18.4 est disponible avec Apple Intelligence et beaucoup d

iOS 18.4 est disponible avec Apple Intelligence et beaucoup d'autres nouveautés

Un clavier aux couleurs de Severance, pour ceux qui veulent raffiner des macrodonnées

16 avril 2025 à 15:30

Vous avez aimé Severance ? Vraiment aimé ? Bonne nouvelle, une société propose un clavier en édition limitée, qui reprend le format de celui utilisé dans le département du raffinement des macrodonnées dans la série. Il est proposé par Atomic Keyboard, qui travaille avec Keeb AI, spécialisée dans les claviers en édition limitée.

Un clavier inspiré de celui de la série. Image Atomic Keyboard.

Le clavier de la série est inspiré de celui du Data General Dasher, un terminal de commande qui date de la fin des années 70. La version de la série (et celui qui devrait être proposé à la vente) intègre un trackball à droite, à la place du pavé numérique, et le bloc de flèches n'est pas identique à celui de la version originale. C'est un clavier avec 73 touches, dans un agencement 70 %, sans touches esc, control ou option, ce qui nécessite évidemment un peu d'apprentissages. La marque explique qu'il va se connecter en USB-C et nos confrères de Toms Hardware indiquent un prix (élevé) de 400 $. Notons tout de même que si le clavier peut être tentant, le prix élevé et le manque d'informations légales sur le site incitent à la prudence.

Un trailer pour Marathon, qui ne sortira pas sur les Mac

16 avril 2025 à 13:15

Si vous avez eu un Macintosh dans les années 90, vous avez peut-être joué à Marathon. Il s'agit d'un des premiers FPS, sorti peu après Doom, et il était disponible exclusivement sur les machines d'Apple1. Il permettait notamment de montrer la supériorité graphique des Macintosh, avec du 640 x 480 quand Doom se contentait du 320 x 200 des PC. Bungie (qui appartient à Sony depuis quelques années) a décidé de proposer une suite à ce jeu qui se place dans le même univers qu'Halo, et vient d'annoncer une date de sortie, le 23 septembre 2025. Le titre est plutôt attendu, notamment grâce à une direction artistique plutôt réussie.

Le jeu est très coloré et se démarque des nombreux FPS du marché sur ce point.

Et malheureusement, comme nous l'avions déjà annoncé lors de l'annonce, il n'est pas prévu sur les Mac. Il est attendu uniquement sur les Xbox Series, la PlayStation 5 et les PC. Si vous aviez poncé les trois opus avec votre PowerPC flambant neuf dans les années 90, il faudra donc changer de crèmerie…


  1. Dont la Pippin.  ↩︎

Linux pourrait abandonner le HFS et le HFS+ d'Apple cette année

16 avril 2025 à 12:29

Apple, au fil des années, a fait évoluer ses systèmes de fichiers et en a abandonné certains. Si le HFS+ (qui date de la fin des années 90 avec Mac OS 8.1) est encore pris en charge, ce n'est par exemple plus le cas du HFS original, apparu en 1985 avec les premiers disques durs pour Macintosh. Si Microsoft n'a jamais pris en charge le HFS/HFS+, les distributions GNU/Linux le font encore… mais peut-être uniquement pendant quelques mois.

Les HDD formatés en HFS sont encores courants.

Christian Brauner, un développeur qui travaille sur le noyau, vient en effet de proposer de supprimer la prise en charge du HFS et du HFS+ dans le noyau, d'ici fin 2025. Les modules ne sont plus maintenus depuis une dizaine d'années, et Phoronix explique qu'il existe des pilotes en espace utilisateur pour ceux qui en ont besoin. La différence entre un module pour le noyau et un pilote en espace utilisateur est simple : le premier dispose de privilèges plus importants et un bug peut planter littéralement tout le système, contrairement au second.

Le HFS+ reste encore utile

Le problème principal de cette suppression est simple : il existe encore de nombreux médias formatés en HFS+. Les Mac Intel un peu anciens (ceux qui datent d'avant macOS High Sierra) ne prennent pas en charge l'APFS directement et une partie des partitions cachées nécessaires pour le démarrage reposent encore sur le HFS+. De même, le passage en espace utilisateur n'est pas nécessairement une solution : elle implique qu'il soit possible d'installer des logiciels. Des appareils comme les téléviseurs ou les décodeurs acceptent généralement les disques durs formatés en HFS+, parce que le module nécessaire est présent. La suppression des modules du noyau risque donc d'amener des incompatibilités à ce niveau, notamment pour ceux qui voudraient installer une distribution GNU/Linux sur un vieux Mac Intel ou un Mac à base de PowerPC.

Sans le HFS, vous ne pourrez pas lire les données de ce CD Audio.

Le cas du HFS classique est plus compliqué. D'un point de vue pratique, il reste rare : il a essentiellement été employé dans les Mac à base de CPU 68000 et dans les premiers PowerPC. Apple a pris en charge le HFS en lecture et écriture jusqu'à Mac OS X Leopard, et en lecture uniquement entre Mac OS X Leopard et macOS Catalina. Depuis, il n'est plus possible de lire les volumes formatés en HFS, ce qui peut poser des soucis avec les CD-ROM et certains CD Audio. En effet, les bonus proposés sur les CD Plus sont par exemple souvent formatés en HFS pour les Mac.

Dans le cas du noyau Linux, un compromis pourrait être de supprimer le HFS et de garder le HFS+, mais il ne réglerait probablement pas les problèmes de maintenance du code.

Google va abandonner google.fr

16 avril 2025 à 11:26

Google vient d'annoncer que le nom de domaine google.fr (et de nombreux autres) allait être abandonné. Dans les prochains mois, le moteur de recherche va en effet rediriger toutes les versions locales qui reposent sur un domaine de premier niveau national (ccTLD, pour country code top-level domain) vers google.com. Selon Wikipédia, Google disposerait de 194 variantes (google.com compris), en 129 langues.

Un vieux logo Google lié à la France.

Ce changement devrait majoritairement être transparent pour les utilisateurs, pour une bonne raison, expliquée par Google : les résultats ne dépendent plus du nom de domaine depuis 2017. Le moteur de recherche vous localise à travers votre IP (et demande éventuellement l'accès à une information plus précise à travers votre navigateur) et fournit donc les mêmes résultats si vous êtes sur google.com, google.fr ou google.com.vc1. Ce changement devrait peut-être vous obliger à confirmer quelques réglages, mais ne devrait rien changer d'autre. Bien évidemment, les restrictions nationales (notamment liées à l'Union européenne) restent en place. Le seul éventuel problème pourrait venir de vieux navigateurs ou de signets enregistrés, qui codent l'adresse google.fr en dur.


  1. Connaissiez-vous Saint-Vincent-et-les-Grenadines ?  ↩︎

Avec le BPS, la TNT américaine sert aussi pour la géolocalisation, en parallèle du GPS

16 avril 2025 à 10:48

La géolocalisation de nos appareils et de nombreux périphériques est de plus en plus cruciale à notre époque, et les attaques dans ce domaine sont nombreuses. Les États-Unis viennent de commencer à mettre en place une solution intéressante pour éviter les attaques sur le GPS, le système de localisation par satellite maison. Le BPS — Broadcast Positioning System — repose sur le réseau de télévision hertzien, et permet d'obtenir une localisation imprécise, mais suffisante pour détecter une attaque sur le réseau GPS.

Image NAB.

C'est un problème de plus en plus important : comme les signaux issus des satellites — quelle que soit la constellation employée — sont assez faibles, il est simple de le brouiller pour empêcher la géolocalisation ou d'envoyer des données modifiées pour fournir une position faussée. Si les appareils mobiles peuvent profiter du réseau cellulaire et du Wi-Fi pour valider la position ou détecter l'attaque, ce n'est pas le cas de tous les appareils et c'est là qu'intervient le BPS.

Image NAB.

La technologie derrière le BPS est la même que le GPS sur le fond : une base de temps est fournie via les antennes émettrices, dont la position est connue. En mesurant le temps nécessaire aux ondes pour atteindre le récepteur, il est possible de trianguler la position de ce dernier. Le BPS dépend de la norme ATSC 3.0 — l'équivalent du DVB-T2 utilisé en France pour la TNT en Ultra HD — et le déploiement est en cours aux États-Unis, avec deux phases de test (2025 à 2027, puis 2027 à 2029) et une mise en place en 2029. Un récepteur adapté sera bien évidemment nécessaire, et la précision attendue reste assez faible, de l'ordre de 100 mètres. Une valeur parfaitement suffisante pour un véhicule terrestre, un bateau ou un système critique installé dans un bâtiment, tout du moins pour détecter une compromission du réseau GPS. Qui plus est, la technologie pourrait être intégrée dans les récepteurs GNSS1 de nos appareils, pour fournir une solution de repli supplémentaire.


  1. Global Navigation Satellite System, un sigle qui englobe toutes les constellations de satellites.  ↩︎

❌