Si la carte SIM est passée d'un format carte de crédit à une puce intégrée dans nos smartphones et autres montres, le prix de cette dernière, lui, n'a jamais réellement bougé : les opérateurs facturent généralement la carte SIM ou l'eSIM, souvent au prix de 10 €. Free vient de changer ce point dans un cas précis : les abonnées à une offre Freebox peuvent obtenir la carte SIM (ou l'eSIM) gratuitement s'ils prennent un forfait Free 5G. C'est donc un nouvel avantage pour les personnes qui sont déjà chez Free, car le forfait en question est illimité pour les possesseurs d'une Freebox alors qu'il ne propose « que » 350 Go de données pour les autres.
La carte SIM est offerte sur un forfait précis si vous êtes déjà clients chez Free.
Ce changement de la part de Free est une bonne nouvelle, qui va peut-être faire bouger les lignes : l'opérateur facture généralement 10 € pour la carte SIM, comme SFR et Orange. Le quatrième opérateur majeur, lui, tend à être un peu plus généreux : chez Bouygues Telecom, la carte SIM est offerte avec certains abonnements et est facturée 1 ou 5 € avec d'autres. À l'heure de la dématérialisation, faire payer 10 € pour envoyer une carte SIM semble anachronique, tout comme demander la même somme pour envoyer un profil de configuration dans un smartphone, mais il n'est pas certain que les opérateurs décideront de faire disparaître cette source de revenus dans tous les cas, et le choix de Free le montre bien : ce petit cadeau n'est offert qu'aux clients qui sont déjà acquis en partie à la société.
QEMU vient de passer en version 10 et cet émulateur apporte une nouvelle fonction intéressante pour les utilisateurs de macOS : une prise en charge des cartes graphiques (et donc de l'accélération vidéo) avec un client macOS. Cette nouveauté est fonctionnelle tant sur les Mac Intel que sur les Mac Apple Silicon, et elle repose sur les outils de virtualisation d'Apple.
UTM repose sur QEMU pour certaines tâches.
QEMU est un émulateur complet qui prend en charge de nombreuses architectures — ARM, x86, PowerPC, SPARC, etc. — et qui peut être couplé à des outils de virtualisation, comme KVM. Sur une machine x86, par exemple, il va émuler le CPU dans le cas d'une architecture différente (si vous voulez exécuter un système d'exploitation pensé pour les puces ARM) mais il est possible de virtualiser le CPU dans le cas d'un système d'exploitation pour x86, ce qui améliore évidemment très nettement les performances. QEMU est intégré dans certains outils de virtualisation sous macOS (comme UTM) pour exécuter un système d'exploitation x86 sur un Mac Apple Silicon, comme Windows XP.
Windows XP avec UTM, via QEMU.
La nouveauté au niveau de l'accélération graphique nécessite un client macOS sur un hôte macOS, et permet de profiter de l'accélération graphique prodiguée par les outils de virtualisation d'Apple. C'est un choix intéressant pour exécuter une machine virtuelle sous macOS, car certaines applications n'acceptent pas de se lancer en l'absence d'accélération vidéo.
Les nouveautés de cette version 10 ne se limitent évidemment pas à ça : nous pouvons noter la prise en charge de deux nouvelles cartes ARM — QEMU tend à émuler des systèmes complets —, des améliorations sur la prise en charge des puces HPPA (une architecture RISC), LoongArch (un jeu d'instructions chinois), RISC-V, s390x (utilisé par IBM) et x86. Elle améliore aussi la prise en charge du VFIO dans certains cas, une technologie qui permet à une machine émulée de profiter directement du matériel, par exemple un GPU.
Si la carte SIM est passée d'un format carte de crédit à une puce intégrée dans nos smartphones et autres montres, le prix de cette dernière, lui, n'a jamais réellement bougé : les opérateurs facturent généralement la carte SIM ou l'eSIM, souvent au prix de 10 €. Free vient de changer ce point dans un cas précis : les abonnées à une offre Freebox peuvent obtenir la carte SIM (ou l'eSIM) gratuitement s'ils prennent un forfait Free 5G. C'est donc un nouvel avantage pour les personnes qui sont déjà chez Free, car le forfait en question est illimité pour les possesseurs d'une Freebox alors qu'il ne propose « que » 350 Go de données pour les autres.
La carte SIM est offerte sur un forfait précis si vous êtes déjà clients chez Free.
Ce changement de la part de Free est une bonne nouvelle, qui va peut-être faire bouger les lignes : l'opérateur facture généralement 10 € pour la carte SIM, comme SFR et Orange. Le quatrième opérateur majeur, lui, tend à être un peu plus généreux : chez Bouygues Telecom, la carte SIM est offerte avec certains abonnements et est facturée 1 ou 5 € avec d'autres. À l'heure de la dématérialisation, faire payer 10 € pour envoyer une carte SIM semble anachronique, tout comme demander la même somme pour envoyer un profil de configuration dans un smartphone, mais il n'est pas certain que les opérateurs décideront de faire disparaître cette source de revenus dans tous les cas, et le choix de Free le montre bien : ce petit cadeau n'est offert qu'aux clients qui sont déjà acquis en partie à la société.
QEMU vient de passer en version 10 et cet émulateur apporte une nouvelle fonction intéressante pour les utilisateurs de macOS : une prise en charge des cartes graphiques (et donc de l'accélération vidéo) avec un client macOS. Cette nouveauté est fonctionnelle tant sur les Mac Intel que sur les Mac Apple Silicon, et elle repose sur les outils de virtualisation d'Apple.
UTM repose sur QEMU pour certaines tâches.
QEMU est un émulateur complet qui prend en charge de nombreuses architectures — ARM, x86, PowerPC, SPARC, etc. — et qui peut être couplé à des outils de virtualisation, comme KVM. Sur une machine x86, par exemple, il va émuler le CPU dans le cas d'une architecture différente (si vous voulez exécuter un système d'exploitation pensé pour les puces ARM) mais il est possible de virtualiser le CPU dans le cas d'un système d'exploitation pour x86, ce qui améliore évidemment très nettement les performances. QEMU est intégré dans certains outils de virtualisation sous macOS (comme UTM) pour exécuter un système d'exploitation x86 sur un Mac Apple Silicon, comme Windows XP.
Windows XP avec UTM, via QEMU.
La nouveauté au niveau de l'accélération graphique nécessite un client macOS sur un hôte macOS, et permet de profiter de l'accélération graphique prodiguée par les outils de virtualisation d'Apple. C'est un choix intéressant pour exécuter une machine virtuelle sous macOS, car certaines applications n'acceptent pas de se lancer en l'absence d'accélération vidéo.
Les nouveautés de cette version 10 ne se limitent évidemment pas à ça : nous pouvons noter la prise en charge de deux nouvelles cartes ARM — QEMU tend à émuler des systèmes complets —, des améliorations sur la prise en charge des puces HPPA (une architecture RISC), LoongArch (un jeu d'instructions chinois), RISC-V, s390x (utilisé par IBM) et x86. Elle améliore aussi la prise en charge du VFIO dans certains cas, une technologie qui permet à une machine émulée de profiter directement du matériel, par exemple un GPU.
Google est un MVNO (c'est-à-dire un opérateur virtuel) aux États-Unis, avec son offre Google Fi. Celle-ci vient de fêter ses 10 ans et Google propose quelques nouveautés pour fêter ça. Si Google Fi peut être une option intéressante si vous allez aux États-Unis et que vous avez besoin d'un forfait local rapidement — les offres sont compatibles eSIM —, elle montre surtout que la France est un pays de cocagne pour les forfaits mobiles.
Un Américain qui appelle Xavier Niel pour le supplier de venir dans son pays. Image Google.
La nouvelle offre, proposée pour 35 $ par mois, offre des appels et des SMS illimités, mais se limite à 30 Go de données… et sans possibilités de partager les données via Wi-Fi. Au-delà de cette limite, le débit est réduit à 256 kb/s. C'est un point qui peut sembler étonnant vu de notre pays, mais le partage de connexion n'est proposé que sur les offres plus onéreuses et avec une limite mensuelle plus faible que l'enveloppe de données totale. Pour 35 $, l'offre fait payer les appels vers les autres pays, n'offre pas de données à l'étranger et ne peut pas être utilisée dans une tablette ou un PC portable équipé d'un modem.
Les deux autres offres classiques sont tout aussi limitées et onéreuses : pour 50 $/mois, vous aurez 50 Go de données (dont 25 Go en partage), les appels vers le Canada et le Mexique mais pas de données en roaming. Il faudra payer 65 $ par mois pour 100 Go de données (dont 50 Go en partage), 50 Go à l'étranger et la possibilité d'utiliser l'offre dans une tablette. Google propose aussi une offre qui se limite aux données, qui peut sembler intéressante pour les voyageurs : compatible eSIM (une nouveauté), elle est proposée pour 20 $. Mais il y a une contrainte qui peut sembler ridicule (encore une fois) : les données ne sont pas incluses et sont facturées 10 $ pour 1 Go, avec un maximum de 15 Go au total. Si vous avez besoin d'une offre, celle à 35 $ est donc plus intéressante.
Pour rappel (pour nos amis belges), les opérateurs français intègrent parfois plus de 200 Go de données dans des forfaits à une dizaine d'euros, sans limitations particulières sur l'usage en partage de connexion et avec une enveloppe de données assez large pour un usage à l'étranger dans l'Union européenne.
Google est un MVNO (c'est-à-dire un opérateur virtuel) aux États-Unis, avec son offre Google Fi. Celle-ci vient de fêter ses 10 ans et Google propose quelques nouveautés pour fêter ça. Si Google Fi peut être une option intéressante si vous allez aux États-Unis et que vous avez besoin d'un forfait local rapidement — les offres sont compatibles eSIM —, elle montre surtout que la France est un pays de cocagne pour les forfaits mobiles.
Un Américain qui appelle Xavier Niel pour le supplier de venir dans son pays. Image Google.
La nouvelle offre, proposée pour 35 $ par mois, offre des appels et des SMS illimités, mais se limite à 30 Go de données… et sans possibilités de partager les données via Wi-Fi. Au-delà de cette limite, le débit est réduit à 256 kb/s. C'est un point qui peut sembler étonnant vu de notre pays, mais le partage de connexion n'est proposé que sur les offres plus onéreuses et avec une limite mensuelle plus faible que l'enveloppe de données totale. Pour 35 $, l'offre fait payer les appels vers les autres pays, n'offre pas de données à l'étranger et ne peut pas être utilisée dans une tablette ou un PC portable équipé d'un modem.
Les deux autres offres classiques sont tout aussi limitées et onéreuses : pour 50 $/mois, vous aurez 50 Go de données (dont 25 Go en partage), les appels vers le Canada et le Mexique mais pas de données en roaming. Il faudra payer 65 $ par mois pour 100 Go de données (dont 50 Go en partage), 50 Go à l'étranger et la possibilité d'utiliser l'offre dans une tablette. Google propose aussi une offre qui se limite aux données, qui peut sembler intéressante pour les voyageurs : compatible eSIM (une nouveauté), elle est proposée pour 20 $. Mais il y a une contrainte qui peut sembler ridicule (encore une fois) : les données ne sont pas incluses et sont facturées 10 $ pour 1 Go, avec un maximum de 15 Go au total. Si vous avez besoin d'une offre, celle à 35 $ est donc plus intéressante.
Pour rappel (pour nos amis belges), les opérateurs français intègrent parfois plus de 200 Go de données dans des forfaits à une dizaine d'euros, sans limitations particulières sur l'usage en partage de connexion et avec une enveloppe de données assez large pour un usage à l'étranger dans l'Union européenne.
Intel, qui n'est plus vraiment un géant des semi-conducteurs, va mal, nous l'avons déjà expliqué en long et en large. Et ça ne s'améliore pas : alors que les résultats trimestriels devraient tomber demain et que le cours de l'action est passé sous les 20 $1, des rumeurs indiquent que la société pourrait annoncer des coupes franches dans les effectifs. Les chiffres s'apparenteraient même à une saignée, avec environ 20 % de ses employés.
Lip-Bu Tan ne doit pas sourire pour le moment. Image Intel.
Intel avait déjà supprimé environ 15 000 postes en août 2024, à un moment où la société avait environ 125 000 employés. Fin 2024, Intel avait officiellement 108 900 employés, mais il ne sont déjà plus que 99 000 selon le site de la marque actuellement, comme l'a remarquéNext. Les 20 % avancés par Bloomberg représentent donc environ 20 000 personnes.
Lip-Bu Tan, qui a pris la succession de Pat Gelsinger (mis à la retraite en décembre 2024), veut réduire la bureaucratie et retrouver une culture d'entreprise basée sur l'ingénierie. En parallèle, Intel a aussi récemment revendu une partie d'Altera. La société spécialisée dans les FPGA — des puces programmables — avait été rachetée en 2015 pour 16,7 milliards de dollars. Intel avait ensuite décidé de rendre son indépendance à Altera en 2024, tout en gardant son contrôle, avant de revendre 51 % de la filiale à un fonds d'investissement (Silver Lake) pour 4,3 milliards de dollars il y a quelques jours.
Intel, qui n'est plus vraiment un géant des semi-conducteurs, va mal, nous l'avons déjà expliqué en long et en large. Et ça ne s'améliore pas : alors que les résultats trimestriels devraient tomber demain et que le cours de l'action est passé sous les 20 $1, des rumeurs indiquent que la société pourrait annoncer des coupes franches dans les effectifs. Les chiffres s'apparenteraient même à une saignée, avec environ 20 % de ses employés.
Lip-Bu Tan ne doit pas sourire pour le moment. Image Intel.
Intel avait déjà supprimé environ 15 000 postes en août 2024, à un moment où la société avait environ 125 000 employés. Fin 2024, Intel avait officiellement 108 900 employés, mais il ne sont déjà plus que 99 000 selon le site de la marque actuellement, comme l'a remarquéNext. Les 20 % avancés par Bloomberg représentent donc environ 20 000 personnes.
Lip-Bu Tan, qui a pris la succession de Pat Gelsinger (mis à la retraite en décembre 2024), veut réduire la bureaucratie et retrouver une culture d'entreprise basée sur l'ingénierie. En parallèle, Intel a aussi récemment revendu une partie d'Altera. La société spécialisée dans les FPGA — des puces programmables — avait été rachetée en 2015 pour 16,7 milliards de dollars. Intel avait ensuite décidé de rendre son indépendance à Altera en 2024, tout en gardant son contrôle, avant de revendre 51 % de la filiale à un fonds d'investissement (Silver Lake) pour 4,3 milliards de dollars il y a quelques jours.
La saga des cookies tiers dans Chrome se termine, et après près de six ans d'atermoiements, le résultat n'est pas très glorieux : Google, par la voix d'Anthony Chavez, vient d'annoncer que rien n'allait changer.
À l'origine, Google voulait donc se débarrasser des cookies tiers, ces petits fichiers qui permettent de vous suivre d'un site à un autre et qui contiennent aussi des informations intéressantes, comme la possibilité de ne pas vous reconnecter à chaque visite d'un site. Le mécanisme, au fil du temps, a été dévoyé pour permettre aux fournisseurs de publicités de suivre les internautes et de récolter des données privées. Google avait proposé un système de « Privacy Sandbox », un mécanisme de suivi — il faut rappeler que Google vit essentiellement de la publicité — censé permettre un ciblage publicitaire tout en préservant votre vie privée.
Mais l'abandon des cookies, reporté au fil du temps jusqu'en 2024, ne s'est pas fait dans Chrome. L'été dernier, Google annonçait une nouvelle fonction pour tenter de régler le problème… mais elle ne verra donc finalement pas le jour.
Le communiqué de Google, même s'il tourne un peu autour du pot, est donc assez clair : rien ne va changer. Selon Anthony Chavez, il y a trop d'avis divergents entre les éditeurs, les développeurs, les autorités de régulation et l'industrie de la publicité (et encore une fois, pour rappel, Google a plusieurs rôles dans cette liste) pour tenter de modifier les choses. Vous devrez donc vous contenter des réglages actuels dans Chrome pour éviter d'être suivi… ou tenter de passer à un navigateur plus respectueux de votre vie privée.
La saga des cookies tiers dans Chrome se termine, et après près de six ans d'atermoiements, le résultat n'est pas très glorieux : Google, par la voix d'Anthony Chavez, vient d'annoncer que rien n'allait changer.
À l'origine, Google voulait donc se débarrasser des cookies tiers, ces petits fichiers qui permettent de vous suivre d'un site à un autre et qui contiennent aussi des informations intéressantes, comme la possibilité de ne pas vous reconnecter à chaque visite d'un site. Le mécanisme, au fil du temps, a été dévoyé pour permettre aux fournisseurs de publicités de suivre les internautes et de récolter des données privées. Google avait proposé un système de « Privacy Sandbox », un mécanisme de suivi — il faut rappeler que Google vit essentiellement de la publicité — censé permettre un ciblage publicitaire tout en préservant votre vie privée.
Mais l'abandon des cookies, reporté au fil du temps jusqu'en 2024, ne s'est pas fait dans Chrome. L'été dernier, Google annonçait une nouvelle fonction pour tenter de régler le problème… mais elle ne verra donc finalement pas le jour.
Le communiqué de Google, même s'il tourne un peu autour du pot, est donc assez clair : rien ne va changer. Selon Anthony Chavez, il y a trop d'avis divergents entre les éditeurs, les développeurs, les autorités de régulation et l'industrie de la publicité (et encore une fois, pour rappel, Google a plusieurs rôles dans cette liste) pour tenter de modifier les choses. Vous devrez donc vous contenter des réglages actuels dans Chrome pour éviter d'être suivi… ou tenter de passer à un navigateur plus respectueux de votre vie privée.
De façon assez régulière, Apple met à jour XProtect, son anti-malware. Basé sur un système de signature, il permet au système d'exploitation de détecter certains programmes malicieux et vous empêchera donc de les exécuter s'ils sont détectés. La version 5296 ajoute la prise en charge de MACOS.DOLITTLE.RDRGOCON et améliore la détection de MACOS.8032420, OSX.HMining.D et MACOS.SOMA.D1. Cette version fonctionne sur toutes les versions de macOS prises en charge, ce qui est à noter : à l'automne 2024, un bug avait empêché certains vieux systèmes de recevoir les mises à jour.
XProtect est à jour.
Le système d'Apple se met normalement à jour automatiquement, mais il est toujours possible de vérifier la version installée en tapant la ligne sudo xprotect check dans le terminal de macOS (uniquement sous macOS Sequoia). Si jamais vous n'avez pas encore la version 5296, il est possible de forcer la mise à jour manuellement en tapant sudo xprotect update (toujours dans le terminal).
Enfin, il faut rappeler que l'anti-malware d'Apple est une protection intéressante, mais qui ne doit pas vous empêcher d'être prudents avec les applications qui proviennent d'une source inconnue : les malandrins qui développent les logiciels malicieux ont généralement un coup d'avance sur Apple et les sociétés spécialisées.
Les informations sur les malwares qui touchent macOS sont peu nombreuses et il s'agit souvent de noms de code choisis par Apple. ↩︎
La chronologie des médias française a encore frappé : le Napoléon de Ridley Scott, sorti au cinéma en novembre 2023, vient d'être mis en ligne sur le service Apple TV+ d'Apple, qui a financé le long métrage. C'est significativement plus tard que dans les autres pays, qui ont pu profiter de ce biopic dès le 1er mars 2024. La bonne nouvelle, si vous aimez le travail du britannique, c'est que la version longue qui avait été proposée sur Apple TV+ dès la fin du mois d'août 2024 est aussi en ligne chez Apple.
Image Apple.
Ce décalage est lié aux lois françaises : Apple a une fenêtre de diffusion de 17 mois après la sortie en salle, même si le film a été produit par la société. D'autres services ont une fenêtre plus courte (9 mois pour Disney+ par exemple), mais elle dépend en partie des investissements dans l'écosystème du cinéma français. Même si Apple produit quelques séries et films français (comme Les Gouttes de Dieu ou plus récemment Carême), ce n'est visiblement pas suffisant pour réduire la fenêtre de diffusion.
De façon assez régulière, Apple met à jour XProtect, son anti-malware. Basé sur un système de signature, il permet au système d'exploitation de détecter certains programmes malicieux et vous empêchera donc de les exécuter s'ils sont détectés. La version 5296 ajoute la prise en charge de MACOS.DOLITTLE.RDRGOCON et améliore la détection de MACOS.8032420, OSX.HMining.D et MACOS.SOMA.D1. Cette version fonctionne sur toutes les versions de macOS prises en charge, ce qui est à noter : à l'automne 2024, un bug avait empêché certains vieux systèmes de recevoir les mises à jour.
XProtect est à jour.
Le système d'Apple se met normalement à jour automatiquement, mais il est toujours possible de vérifier la version installée en tapant la ligne sudo xprotect check dans le terminal de macOS (uniquement sous macOS Sequoia). Si jamais vous n'avez pas encore la version 5296, il est possible de forcer la mise à jour manuellement en tapant sudo xprotect update (toujours dans le terminal).
Enfin, il faut rappeler que l'anti-malware d'Apple est une protection intéressante, mais qui ne doit pas vous empêcher d'être prudents avec les applications qui proviennent d'une source inconnue : les malandrins qui développent les logiciels malicieux ont généralement un coup d'avance sur Apple et les sociétés spécialisées.
Les informations sur les malwares qui touchent macOS sont peu nombreuses et il s'agit souvent de noms de code choisis par Apple. ↩︎
La chronologie des médias française a encore frappé : le Napoléon de Ridley Scott, sorti au cinéma en novembre 2023, vient d'être mis en ligne sur le service Apple TV+ d'Apple, qui a financé le long métrage. C'est significativement plus tard que dans les autres pays, qui ont pu profiter de ce biopic dès le 1er mars 2024. La bonne nouvelle, si vous aimez le travail du britannique, c'est que la version longue qui avait été proposée sur Apple TV+ dès la fin du mois d'août 2024 est aussi en ligne chez Apple.
Image Apple.
Ce décalage est lié aux lois françaises : Apple a une fenêtre de diffusion de 17 mois après la sortie en salle, même si le film a été produit par la société. D'autres services ont une fenêtre plus courte (9 mois pour Disney+ par exemple), mais elle dépend en partie des investissements dans l'écosystème du cinéma français. Même si Apple produit quelques séries et films français (comme Les Gouttes de Dieu ou plus récemment Carême), ce n'est visiblement pas suffisant pour réduire la fenêtre de diffusion.
Les ampoules Philips Hue devraient bientôt s'intégrer un peu plus facilement avec Matter, un protocole qui unifie en théorie les communications dans le monde de la domotique. En effet, la FCC — une agence américaine qui valide les différents produits commercialisés sur le sol du pays — a mis en ligne de nouvelles références qui intègrent directement un code Matter.
Ce schéma issu de la FCC montre bien un code Matter.
Signify (la société derrière les ampoules Philips Hue) fait évoluer régulièrement ses ampoules, qui gagnent parfois de meilleures performances ou de nouvelles technologies. Les premières générations étaient uniquement ZigBee, les versions actuelles proposent du Bluetooth LE en parallèle, pour ceux qui veulent se passer d'un pont de connexion. L'intégration de Matter directement dans les ampoules (et pas uniquement dans le pont) est donc une avancée intéressante. Actuellement, il est possible d'intégrer les ampoules dans un réseau Matter, mais en passant par le pont de connexion, compatible Matter. Une ampoule directement Matter permettrait de l'intégrer dans un réseau sans forcément posséder le pont Philips.
HueBlog, qui a relevé le changement, pose tout de même une question intéressante : quelle est la technologie derrière Matter ? Matter est un protocole logiciel, qui repose ensuite sur une couche physique qui est généralement du Wi-Fi ou du Thread… mais pas du Bluetooth ou du ZigBee. Dans les faits, Philips devrait probablement fournir une mise à jour de firmware pour employer Thread en parallèle des deux autres technologies. En effet, Thread repose sur la même base technique que le ZigBee, l'IEEE 802.15.4.
De façon schématique, la partie matérielle de Thread et ZigBee est la même, mais la façon de transmettre les messages (le protocole) diffère. Une mise à jour de firmware peut donc techniquement amener la prise en charge de Thread sur un périphérique ZigBee. Matter est un protocole de plus haut niveau, qui sert ensuite à communiquer entre les objets connectés, et on parle de Matter over Wi-Fi ou de Matter over Thread. Une ampoule Hue compatible Matter over Thread pourrait donc être ajoutée directement dans un réseau Thread (avec un HomePod mini par exemple) ou même être contrôlée par un iPhone moderne, sans pont de connexion.
Reste une dernière question : est-ce que Philips va activer la compatibilité ? Un des documents de la FCC indique explicitement que seuls le Bluetooth et le ZigBee sont activés et que les autres technologies (probablement Thread) sont inactives et nécessitent une mise à jour. Malheureusement, Philips tend parfois à ne pas effectuer les mises à jour nécessaires : le pont de connexion est par exemple techniquement compatible Wi-Fi depuis plusieurs années, mais la norme n'a jamais été activée officiellement.
Les ampoules Philips Hue devraient bientôt s'intégrer un peu plus facilement avec Matter, un protocole qui unifie en théorie les communications dans le monde de la domotique. En effet, la FCC — une agence américaine qui valide les différents produits commercialisés sur le sol du pays — a mis en ligne de nouvelles références qui intègrent directement un code Matter.
Ce schéma issu de la FCC montre bien un code Matter.
Signify (la société derrière les ampoules Philips Hue) fait évoluer régulièrement ses ampoules, qui gagnent parfois de meilleures performances ou de nouvelles technologies. Les premières générations étaient uniquement ZigBee, les versions actuelles proposent du Bluetooth LE en parallèle, pour ceux qui veulent se passer d'un pont de connexion. L'intégration de Matter directement dans les ampoules (et pas uniquement dans le pont) est donc une avancée intéressante. Actuellement, il est possible d'intégrer les ampoules dans un réseau Matter, mais en passant par le pont de connexion, compatible Matter. Une ampoule directement Matter permettrait de l'intégrer dans un réseau sans forcément posséder le pont Philips.
HueBlog, qui a relevé le changement, pose tout de même une question intéressante : quelle est la technologie derrière Matter ? Matter est un protocole logiciel, qui repose ensuite sur une couche physique qui est généralement du Wi-Fi ou du Thread… mais pas du Bluetooth ou du ZigBee. Dans les faits, Philips devrait probablement fournir une mise à jour de firmware pour employer Thread en parallèle des deux autres technologies. En effet, Thread repose sur la même base technique que le ZigBee, l'IEEE 802.15.4.
De façon schématique, la partie matérielle de Thread et ZigBee est la même, mais la façon de transmettre les messages (le protocole) diffère. Une mise à jour de firmware peut donc techniquement amener la prise en charge de Thread sur un périphérique ZigBee. Matter est un protocole de plus haut niveau, qui sert ensuite à communiquer entre les objets connectés, et on parle de Matter over Wi-Fi ou de Matter over Thread. Une ampoule Hue compatible Matter over Thread pourrait donc être ajoutée directement dans un réseau Thread (avec un HomePod mini par exemple) ou même être contrôlée par un iPhone moderne, sans pont de connexion.
Reste une dernière question : est-ce que Philips va activer la compatibilité ? Un des documents de la FCC indique explicitement que seuls le Bluetooth et le ZigBee sont activés et que les autres technologies (probablement Thread) sont inactives et nécessitent une mise à jour. Malheureusement, Philips tend parfois à ne pas effectuer les mises à jour nécessaires : le pont de connexion est par exemple techniquement compatible Wi-Fi depuis plusieurs années, mais la norme n'a jamais été activée officiellement.
Free, depuis quelques années, propose l'Apple TV dans son catalogue pour remplacer ses propres boîtiers TV. L'appareil d'Apple avait disparu pendant un temps, mais il est revenu depuis le 22 avril, à un prix intéressant.
L'Apple TV et sa télécommande.
Si vous avez un abonnement Freebox Pop ou Ultra avec une offre de télévision, il est possible d'opter pour l'Apple TV comme second décodeur, dans votre espace client. Avec l'option Souscrire à l'option Multi-TV, vous pourrez choisir l'Apple TV pour 6,99 €/mois, avec un paiement échelonné sur 24 mois. C'est un achat classique, et le coût total est un peu plus faible que chez Apple : 167,76 € contre 189 € en temps normal pour cette variante dotée de 128 Go de stockage et d'une prise Ethernet. Attention, Free fournit sa propre télécommande et pas la Siri Remote habituelle, mais certains préfèrent le modèle de Free qui a l'avantage de mieux tenir en main et d'être rétroéclairé.
Si vous êtes un nouveau client chez Free, le boîtier est même moins cher : il est à 2,99 €/mois (sur 48 mois) comme boîtier TV principal au moment de la souscription, soit 143,52 € au total.
Free, depuis quelques années, propose l'Apple TV dans son catalogue pour remplacer ses propres boîtiers TV. L'appareil d'Apple avait disparu pendant un temps, mais il est revenu depuis le 22 avril, à un prix intéressant.
L'Apple TV et sa télécommande.
Si vous avez un abonnement Freebox Pop ou Ultra avec une offre de télévision, il est possible d'opter pour l'Apple TV comme second décodeur, dans votre espace client. Avec l'option Souscrire à l'option Multi-TV, vous pourrez choisir l'Apple TV pour 6,99 €/mois, avec un paiement échelonné sur 24 mois. C'est un achat classique, et le coût total est un peu plus faible que chez Apple : 167,76 € contre 189 € en temps normal pour cette variante dotée de 128 Go de stockage et d'une prise Ethernet. Attention, Free fournit sa propre télécommande et pas la Siri Remote habituelle, mais certains préfèrent le modèle de Free qui a l'avantage de mieux tenir en main et d'être rétroéclairé.
Si vous êtes un nouveau client chez Free, le boîtier est même moins cher : il est à 2,99 €/mois (sur 48 mois) comme boîtier TV principal au moment de la souscription, soit 143,52 € au total.
SpaceX continue à faire évoluer ses produits : une nouvelle génération de routeur (UTR-251) vient d'être validée par la FCC. Cette agence américaine doit vérifier tous les appareils qui vont être commercialisés dans le pays, et elle permet donc parfois d'avoir des informations sur des produits avant leur sortie. Ce routeur de 4e génération amène quelques petits changements par rapport au modèle actuel.
La première différence vient du Wi-Fi : la seconde génération, que nous avions testée, se limitait au Wi-Fi 5 avec des performances très moyennes. La troisième, livrée avec l'antenne actuelle, est passée au Wi-Fi 6. Cette quatrième génération, elle, est compatible Wi-Fi 6E. Cette évolution du Wi-Fi 6 ajoute une bande de fréquence (celle des 6 GHz) qui a l'avantage d'être moins encombrée que celle des 5 GHz, ce qui améliore de facto les performances dans de nombreux cas. Elle a par contre le défaut de porter un peu moins loin que les autres.
Des schémas du nouveau modèle. Image Dishytech.
L'autre différence technique visible vient des prises Ethernet : le routeur de seconde génération n'avait pas de prise Ethernet1 (la seule disponible servait à connecter l'antenne), la troisième génération en possède trois, dont une sert pour l'antenne, et la quatrième génération n'en a que deux, dont une pour l'antenne. C'est suffisant pour relier le boîtier à un switch ou pour brancher un ordinateur de bureau.
Les quelques diagrammes montrent un appareil qui se place en mode portrait (le modèle actuel est en format paysage) avec une prise barrel pour l'alimentation. L'USB-C n'est donc pas encore de la partie pour alimenter le boîtier, qui sert aussi — rappelons-le — à alimenter l'antenne. Comme Dishytech l'indique, la validation d'un routeur avant la sortie d'une nouvelle antenne n'est pas inédite : Starlink a par exemple permis d'employer le routeur de 3e génération avec une installation de 2e génération, pour étendre le réseau Wi-Fi.
SpaceX continue à faire évoluer ses produits : une nouvelle génération de routeur (UTR-251) vient d'être validée par la FCC. Cette agence américaine doit vérifier tous les appareils qui vont être commercialisés dans le pays, et elle permet donc parfois d'avoir des informations sur des produits avant leur sortie. Ce routeur de 4e génération amène quelques petits changements par rapport au modèle actuel.
La première différence vient du Wi-Fi : la seconde génération, que nous avions testée, se limitait au Wi-Fi 5 avec des performances très moyennes. La troisième, livrée avec l'antenne actuelle, est passée au Wi-Fi 6. Cette quatrième génération, elle, est compatible Wi-Fi 6E. Cette évolution du Wi-Fi 6 ajoute une bande de fréquence (celle des 6 GHz) qui a l'avantage d'être moins encombrée que celle des 5 GHz, ce qui améliore de facto les performances dans de nombreux cas. Elle a par contre le défaut de porter un peu moins loin que les autres.
Des schémas du nouveau modèle. Image Dishytech.
L'autre différence technique visible vient des prises Ethernet : le routeur de seconde génération n'avait pas de prise Ethernet1 (la seule disponible servait à connecter l'antenne), la troisième génération en possède trois, dont une sert pour l'antenne, et la quatrième génération n'en a que deux, dont une pour l'antenne. C'est suffisant pour relier le boîtier à un switch ou pour brancher un ordinateur de bureau.
Les quelques diagrammes montrent un appareil qui se place en mode portrait (le modèle actuel est en format paysage) avec une prise barrel pour l'alimentation. L'USB-C n'est donc pas encore de la partie pour alimenter le boîtier, qui sert aussi — rappelons-le — à alimenter l'antenne. Comme Dishytech l'indique, la validation d'un routeur avant la sortie d'une nouvelle antenne n'est pas inédite : Starlink a par exemple permis d'employer le routeur de 3e génération avec une installation de 2e génération, pour étendre le réseau Wi-Fi.
De temps en temps, des prototypes font surface sur les réseaux sociaux, parfois avec des versions bêta de systèmes d'exploitation Apple. Et un iPad de première génération dans sa variante DVT — Design Validation Test, un type de prototype généralement assez proche de la version finale — montre une version bêta d'iOS 3.2 qui intègre une application inattendue : la calculette.
L'icône est en haut à gauche, la seconde en partant du coin supérieur. Image Fuji Expo.
L'iPad, au lancement, n'intégrait pas la calculette, qui a longtemps été réservée aux iPhone et aux Mac. Elle n'est apparue sur les iPad qu'avec iPadOS 18 en 2024, et c'est une des nouveautés mises en avant par Apple1. Les quelques photos montrent une app assez basique, c'est visiblement simplement la version des iPhone placée au centre de l'écran de l'iPad. Et c'est probablement la raison pour laquelle Apple ne l'avait finalement pas intégrée au lancement : une application qui ne prend qu'une petite partie de l'écran n'offre aucune valeur ajoutée.
C'est littéralement l'app iPhone centrée sur l'iPad. Image Fuji Expo.
De temps en temps, des prototypes font surface sur les réseaux sociaux, parfois avec des versions bêta de systèmes d'exploitation Apple. Et un iPad de première génération dans sa variante DVT — Design Validation Test, un type de prototype généralement assez proche de la version finale — montre une version bêta d'iOS 3.2 qui intègre une application inattendue : la calculette.
L'icône est en haut à gauche, la seconde en partant du coin supérieur. Image Fuji Expo.
L'iPad, au lancement, n'intégrait pas la calculette, qui a longtemps été réservée aux iPhone et aux Mac. Elle n'est apparue sur les iPad qu'avec iPadOS 18 en 2024, et c'est une des nouveautés mises en avant par Apple1. Les quelques photos montrent une app assez basique, c'est visiblement simplement la version des iPhone placée au centre de l'écran de l'iPad. Et c'est probablement la raison pour laquelle Apple ne l'avait finalement pas intégrée au lancement : une application qui ne prend qu'une petite partie de l'écran n'offre aucune valeur ajoutée.
C'est littéralement l'app iPhone centrée sur l'iPad. Image Fuji Expo.
Connaissez-vous Virtual Game Station, de chez Connectix ? Si vous utilisez des Mac depuis longtemps, peut-être : le programme a été montré dans un keynote en 1998 par Steve Jobs et Connectix est une société connue notamment pour une application très employée à une époque, Virtual PC. Pourtant, Virtual Game Station n'émule pas un PC, mais une console : la première PlayStation.
Le disque, pour jouer à la PlayStation sur un iMac G3. Image MacGeneration.
Cet émulateur commercial date de 1998 et est une véritable tour de force pour l'époque : il permet de jouer aux nombreux titres de la première PlayStation sur n'importe quel Mac équipé d'une puce G31, à pleine vitesse et sans devoir chercher le BIOS ou un fichier ISO. Il suffit en effet d'insérer un disque de PlayStation dans votre Mac2 — la couleur noire des disques n'est qu'un artifice commercial — et de jouer. La compatibilité est très bonne pour l'époque, et (surtout) l'émulateur permet d'excellentes performances. Un iMac équipé d'un G3 à 233 MHz et de sa carte graphique ATi exécute la majorité des jeux à pleine vitesse.
Le premier Armored Core.
C'est notamment grâce à Eric Traut, un ingénieur qui a travaillé chez Apple sur l'émulateur qui permettait de lancer les applications pensées pour les 68000 de Motorola sur les PowerPC. Chez Connectix, il a développé un émulateur capable d'exécuter le code MIPS du CPU de la PlayStation sur un PowerPC G3. En 1998, c'est assez incroyable : la console est en vente seulement depuis quelques années, et la PlayStation 2 n'est encore qu'un rêve. Pour se donner une idée, il faut par exemple imaginer un émulateur de PlayStation 5 capable de faire tourner n'importe quel jeu sur un Mac Apple Silicon standard à pleine vitesse.
Il suffisait de mettre un jeu PlayStation dans le lecteur.
Un problème légal
Aaron Giles, un des développeurs, explique bien le problème. À l'origine, Connectix avait approché Sony pour tenter de proposer son émulateur en partenariat avec eux, pour obtenir une licence sur le BIOS de la console. C'était une idée un peu idiote, et Sony a menacé directement la société. Connectix a donc fait de la rétro-ingénierie sur le BIOS pour proposer son équivalent de façon légale, ce qui n'a pas empêché Sony d'attaquer. Pour Connectix, le procès a été un désastre : il a empêché la commercialisation en masse de l'émulateur pendant un temps. Mais pour le monde de l'émulation en général, ce procès — avec celui contre Bleem, un autre émulateur de PlayStation — a permis de poser des bases légales aux États-Unis. Connectix a en effet gagné et le procès a surtout permis de clarifier un point : un émulateur est légal tant qu'il ne contient pas de code protégé par des droits d'auteur. Dans le cas de la PlayStation, proposer un émulateur livré avec le BIOS de la console (qui appartient à Sony) est illégal, mais développer un BIOS compatible3 ne l'est pas.
Moto Racer 2 (PlayStation) sur un Mac.
À la fin, c'est tout de même Sony qui gagne : les ventes ont été bloquées pendant un moment, et Sony a ensuite proposé la PlayStation 2 et acheté Virtual Game Station en 20014.
À l'exception des cartes d'accélération, du PowerBook G3 Kanga et du PowerBook G3 WallStreet doté d'un CPU à 233 MHz sans cache, une sorte de Celeron G3. ↩︎
Le programme empêche en théorie l'utilisation de copies de jeux. Il n'intègre pas les mêmes protections que la console originale, mais tente tout de même de détecter les copies sur CD-R, probablement pour éviter les procès de la part de Sony. ↩︎
La technique classique porte le nom de clean room : une équipe analyse le fonctionnement du BIOS et explique exactement ce qu'il fait, quand une autre équipe (totalement séparée) part des explications et code un BIOS équivalent, sans avoir accès à celui d'origine. ↩︎
Et il a peut-être été intégré dans les dernières PlayStation 2, qui intègrent un processeur PowerPC pour l'émulation de la première PlayStation, plutôt que de reposer sur un CPU MIPS pour une rétrocompatibilité directe. ↩︎
Connaissez-vous Virtual Game Station, de chez Connectix ? Si vous utilisez des Mac depuis longtemps, peut-être : le programme a été montré dans un keynote en 1998 par Steve Jobs et Connectix est une société connue notamment pour une application très employée à une époque, Virtual PC. Pourtant, Virtual Game Station n'émule pas un PC, mais une console : la première PlayStation.
Le disque, pour jouer à la PlayStation sur un iMac G3. Image MacGeneration.
Cet émulateur commercial date de 1998 et est une véritable tour de force pour l'époque : il permet de jouer aux nombreux titres de la première PlayStation sur n'importe quel Mac équipé d'une puce G31, à pleine vitesse et sans devoir chercher le BIOS ou un fichier ISO. Il suffit en effet d'insérer un disque de PlayStation dans votre Mac2 — la couleur noire des disques n'est qu'un artifice commercial — et de jouer. La compatibilité est très bonne pour l'époque, et (surtout) l'émulateur permet d'excellentes performances. Un iMac équipé d'un G3 à 233 MHz et de sa carte graphique ATi exécute la majorité des jeux à pleine vitesse.
Le premier Armored Core.
C'est notamment grâce à Eric Traut, un ingénieur qui a travaillé chez Apple sur l'émulateur qui permettait de lancer les applications pensées pour les 68000 de Motorola sur les PowerPC. Chez Connectix, il a développé un émulateur capable d'exécuter le code MIPS du CPU de la PlayStation sur un PowerPC G3. En 1998, c'est assez incroyable : la console est en vente seulement depuis quelques années, et la PlayStation 2 n'est encore qu'un rêve. Pour se donner une idée, il faut par exemple imaginer un émulateur de PlayStation 5 capable de faire tourner n'importe quel jeu sur un Mac Apple Silicon standard à pleine vitesse.
Il suffisait de mettre un jeu PlayStation dans le lecteur.
Un problème légal
Aaron Giles, un des développeurs, explique bien le problème. À l'origine, Connectix avait approché Sony pour tenter de proposer son émulateur en partenariat avec eux, pour obtenir une licence sur le BIOS de la console. C'était une idée un peu idiote, et Sony a menacé directement la société. Connectix a donc fait de la rétro-ingénierie sur le BIOS pour proposer son équivalent de façon légale, ce qui n'a pas empêché Sony d'attaquer. Pour Connectix, le procès a été un désastre : il a empêché la commercialisation en masse de l'émulateur pendant un temps. Mais pour le monde de l'émulation en général, ce procès — avec celui contre Bleem, un autre émulateur de PlayStation — a permis de poser des bases légales aux États-Unis. Connectix a en effet gagné et le procès a surtout permis de clarifier un point : un émulateur est légal tant qu'il ne contient pas de code protégé par des droits d'auteur. Dans le cas de la PlayStation, proposer un émulateur livré avec le BIOS de la console (qui appartient à Sony) est illégal, mais développer un BIOS compatible3 ne l'est pas.
Moto Racer 2 (PlayStation) sur un Mac.
À la fin, c'est tout de même Sony qui gagne : les ventes ont été bloquées pendant un moment, et Sony a ensuite proposé la PlayStation 2 et acheté Virtual Game Station en 20014.
À l'exception des cartes d'accélération, du PowerBook G3 Kanga et du PowerBook G3 WallStreet doté d'un CPU à 233 MHz sans cache, une sorte de Celeron G3. ↩︎
Le programme empêche en théorie l'utilisation de copies de jeux. Il n'intègre pas les mêmes protections que la console originale, mais tente tout de même de détecter les copies sur CD-R, probablement pour éviter les procès de la part de Sony. ↩︎
La technique classique porte le nom de clean room : une équipe analyse le fonctionnement du BIOS et explique exactement ce qu'il fait, quand une autre équipe (totalement séparée) part des explications et code un BIOS équivalent, sans avoir accès à celui d'origine. ↩︎
Et il a peut-être été intégré dans les dernières PlayStation 2, qui intègrent un processeur PowerPC pour l'émulation de la première PlayStation, plutôt que de reposer sur un CPU MIPS pour une rétrocompatibilité directe. ↩︎
Si Asus n'est pas la marque à laquelle on pense en priorité quand on parle de bracelets de santé ou de montres, la marque taïwanaise dispose tout de même d'une gamme assez large dans ce domaine avec les VivoWatch. La dernière version en date, annoncée il y a quelques jours, amène une fonction intéressante : la mesure de la tension artérielle.
Le bracelet Asus VivoWatch 6 Aero. Image Asus.
L'Asus VivoWatch 6 Aero est un bracelet doté d'un petit écran OLED (1,1 pouce) qui offre de nombreux capteurs. Il intègre des capteurs classiques, comme un capteur de fréquence cardiaque, mais peut aussi mesurer la saturation en oxygène (SpO2) et intègre la possibilité d'effectuer un électrocardiogramme — comme les Apple Watch depuis la Series 4 — et (surtout) celle de mesurer la tension artérielle. C'est une fonction intéressante pour certaines maladies, mais Asus ne donne pas beaucoup de détails sur sa mise en œuvre : les rares appareils compacts qui intègrent cette fonction nécessitent généralement une calibration avec un tensiomètre classique (plus imposant) ou se limitent à indiquer une variation de la tension artérielle, sans donner de valeurs précises.
Les différentes fonctions. Image Asus.
Le bracelet d'Asus n'a pas encore été annoncé pour la France (et n'a pas de prix officiel) mais la page de présentation est disponible dans la langue de Molière, donc il devrait être disponible dans nos contrées de la même façon que le bracelet VivoWatch 5 Aero (vendu environ 130 €). Un des points mis en avant par Asus vient du poids (27 grammes) mais aussi de l'autonomie : Asus annonce jusqu'à 7 jours (5 jours dans un usage normal). C'est un périphérique qui cible surtout les personnes qui s'intéressent uniquement à la santé, avec l'intégration des suivis classiques (comme le sommeil) en plus des données issues des capteurs. Pour ceux qui veulent un périphérique plus complet, Asus propose d'ailleurs de montres connectées.
Pour terminer, il faut noter que le capteur pour les ECG et celui pour la tension artérielle ne sont pas nécessairement disponibles dans tous les pays. Les deux nécessitent une validation par les autorités, ce qui peut prendre parfois quelques mois.
Quand les défauts des SSD sont mis en avant, un problème est généralement mis sur le tapis : l'usure. En effet, les cellules de mémoire flash ont une durée de vie finie, qui dépend de la technologie des puces et des mécanismes de gestion de l'usure. Mais un autre souci, plus insidieux, est rarement mis en avant : celui de la rétention, c'est-à-dire le temps pendant lequel un SSD peut garder vos données sans qu'elles soient corrompues. HTWingNut, un Youtubeur, a tenté de vérifier de façon empirique, si les SSD résistaient bien dans le temps.
Quatre SSD pour un test au long cours.
Dans la majorité des cas, les SSD sont donnés pour une rétention des données de l'ordre de 10 ans, avec parfois une valeur doublée pour certains types de mémoire flash. De façon très concrète, les fabricants considèrent donc qu'un SSD neuf (c'est important) devrait garder les données une dizaine d'années au moins sans que le SSD soit alimenté. Au-delà de cette durée, il est possible (ce n'est pas systématique) que les données soient corrompues. Ce problème de rétention n'en est normalement pas un, sauf si vous avez décidé de préserver des données sur un SSD rangé dans un tiroir… spécialement sur un SSD usé. Soyons clairs sur un point avant de continuer : quelle que soit la technologie, espérer qu'un média fonctionne correctement après une dizaine d'années sans être utilisé est un pari. Les disques optiques, les disques durs ou les SSD peuvent tomber en panne, et les professionnels tendent à employer des solutions pérennes (mais peu pratiques) comme les bandes magnétiques. Dans tous les cas, une vérification régulière des sauvegardes n'est pas à négliger.
L'usure réduit la rétention
Le problème mis en avant par HTWingNut, c'est que l'usure réduit la rétention des données, tout comme la chaleur, par exemple. Un SSD rangé dans un endroit surchauffé gardera ses données moins longtemps qu'un modèle placé au frais. Pour le vérifier, il a choisi quatre SSD Leven JS-600 de 128 Go, des modèles noname comme il est possible d'en trouver par paquet sur Amazon, par exemple. Ils emploient de la mémoire TLC (trois bits par cellule), une technologie avec une résistance dans le temps moyenne.
La vidéo montre le résultat sur deux des quatre SSD, après deux ans. Une première vidéo montrait le résultat après un an. Dans chaque cas, un des SSD a reçu 100 Go de données (et c'est tout) et le second a été usé avant d'écrire les mêmes 100 Go. L'usure en question est assez importante, avec 280 To écrits. C'est largement plus que la valeur garantie sur ce type de SSD, qui est de 60 To. Les fabricants indiquent en effet généralement une valeur1 (le TBW) qui est la limite (pessimiste) au-delà de laquelle le SSD peut amener des erreurs. Elle dépend en partie de la technologie — un SSD en TLC sera meilleur qu'un SSD en QLC, avec quatre bits par cellule — mais aussi de la capacité. Un SSD de 2 To peut mécaniquement encaisser plus de données écrites qu'un SSD de 128 Go.
Le nombre d'erreurs est élevé.
Le test empirique, qui doit être pris pour ce qu'il est, montre que les deux SSD considérés comme neufs n'ont pas posé de soucis de rétention des données après un et deux ans (respectivement). Le modèle qui a été éteint deux ans a tout de même montré un petit signe de faiblesse, avec quelques erreurs ECC corrigées directement par le contrôleur. Par contre, le SSD usé, lui, montre des erreurs. Il y a quatre fichiers corrompus sur le SSD après deux ans sans alimentation et des secteurs réalloués, ce qui indique que le contrôleur a dû aller piocher dans la réserve de cellules de la mémoire flash. De plus, le nombre d'erreurs ECC corrigées est très élevé (plusieurs centaines de milliers). Enfin, le temps de calcul pour la vérification des données a pris significativement plus de temps : 42 minutes environ, contre à peu près 10 dans les autres cas.
Faut-il avoir peur ?
La question de la sécurité de nos données se pose évidemment après de tels résultats. Mais il faut bien nuancer les choses. Premièrement, garder des données importantes sur un SSD bas de gamme éteint et usé est une mauvaise idée au départ, et il n'y avait pas réellement besoin d'un test empirique pour le prouver. Deuxièmement, c'est un problème qui ne peut toucher que des SSD éteints. Le SSD de votre Mac, normalement, ne devrait pas se trouver dans ce cas de figure, tout comme un SSD externe utilisé régulièrement. Et dans tous les cas, nous en revenons aux bases : une sauvegarde régulière est importante, sur un volume vérifié lui aussi de façon régulière. La vidéo, dans un sens, démontre presque par l'absurde ce qu'il ne faut pas faire.
Terminons par un point, lui aussi important : c'est un peu contre-intuitif, mais un vieux média à base de mémoire flash a probablement une rétention plus élevée qu'un périphérique récent. Une vieille clé USB ou une carte mémoire de la fin des années 90 va probablement encore contenir vos photos, alors qu'une microSD noname achetée en 2020 peut les avoir perdues.
Ce n'est pas le cas d'Apple, mais le TBW estimé des SSD des Mac M1, par exemple, est estimé à 700 TBW pour les modèles de 256 Go. ↩︎
Hyperion Entertainment vient de mettre à jour un système d'exploitation antédiluvien : AmigaOS passe en version 3.2.3. Cette version succède à la version 3.2.2 de 2023 et c'est surtout un descendant direct de l'AmigaOS 3.x des années 90. La mise à jour elle-même peut étonner, mais ce n'est pas une nouveauté : Hyperion Entertainment dispose des droits de la branche 3.1 d'AmigaOS et elle met à jour de façon régulière le système d'exploitation pour les quelques aficionados des machines de Commodore.
AmigaOS 3.2, la branche originale.
Mais le point intéressant, c'est qu'il existe d'autres branches d'AmigaOS. Attention, c'est un peu compliqué. Les versions 3.1.x et 3.2.x, portées par Hyperion, dérivent donc du code source de la version développée par Commodore. Pour la comparaison, il faut imaginer (par exemple) une faillite d'Apple dans les années 90 et une société qui continuerait à développer le System 7, plus de trente ans plus tard.
AmigaOS 3.5, 3.9, 4.0 et 4.1, plus anciens
Ensuite, comme le rappelle Next, il y a les branches 3.5 et 3.9. Ces deux versions sont sorties à la fin du siècle dernier et dérivent de la version 3.1 de Commodore (vous suivez ?). La société allemande Haage & Partner (l'Amiga avait beaucoup de succès outre-Rhin) avait obtenu le nécessaire pour le développer sous licence de la part des ayants droit de Commodore à l'époque. Cette branche, abandonnée depuis, est donc plus ancienne que l'AmigaOS 3.2.3 qui vient d'être annoncé, et elle ne fonctionne pas sur tous les modèles. Les Amiga — comme les Macintosh des années 80 — reposent sur des processeurs de la famille 68000 et si AmigaOS 3.2.x prend encore en charge le 68000 original, ce n'est pas le cas d'AmigaOS 3.5 et 3.9, qui nécessitent un 68020.
La dernière branche officielle est AmigaOS 4.0 et 4.1, eux aussi développés par Hyperion. Cette branche est différente des deux autres, car elle nécessite un Amiga équipé d'une puce PowerPC. En effet, dans les années 90 et 2000, les tentatives d'évolution des Amiga sont passées par le processeur 68060 (qu'Apple n'a jamais employé) mais aussi par des puces PowerPC, comme les Mac. AmigaOS 4.x est donc une version nativement compatible avec les PowerPC, qui abandonne la compatibilité 68000. En parallèle de ces versions, il existe aussi des systèmes d'exploitation compatibles, qui implémentent les API d'AmigaOS,et les deux plus connus sont AROS (qui est open source et fonctionne sur de nombreuses architectures) et MorphOS. Ce dernier est un système compatible fermé, qui nécessite un ordinateur à base de PowerPC. Il peut s'agir d'un Mac mais il en existe d'autres.
Notons enfin qu'Hyperion propose une version adaptée du Kickstart, en version 3.2.3. le Kickstart peut être vu comme l'équivalent (encore une fois) de la ROM des anciens Macintosh. Cette puce de ROM contient une partie d'AmigaOS, ce qui améliore les performances dans certains cas. Si vous avez une ROM Kickstart d'une ancienne version avec une version moderne d'AmigaOS, le système d'exploitation doit copier une partie des données en RAM pour les patcher, et donc une ROM Kickstart à jour réduit l'empreinte mémoire du système.
Enfin, attention : AmigaOS 3.2 est un système payant, vendu généralement une quarantaine d'euros. Votre vieil Amiga mérite bien ça.
Strava vient de se payer Runna, une autre application dédiée aux amateurs de sport, spécialisée dans la course à pied. Runna est une application britannique surtout connue pour ses mécanismes d'entraînement : elle propose un système de coach assisté par IA, capable de personnaliser les objectifs en fonction de vos performances et vos objectifs. L'achat par Strava ne devrait par ailleurs rien changer pour les utilisateurs de Runna à court terme. C'est un investissement intéressant pour Strava, car l'app est un peu plus généraliste et Runna devrait donc combler certaines de ses faiblesses.
Le logo de Runna dans une carte Strava.
Il faut noter que Runna dépend déjà en partie de Strava, car l'app utilise les API de Strava, et que les deux applications reposent sur un abonnement. Runna est facturé 20 $/mois (ou 120 $/an), alors que les fonctions payantes de Strava valent 10 €/mois (ou 60 € à l'année). Il est évidemment possible d'imaginer que les deux fusionneront à moyen terme, même si le CEO de Runna indique que rien ne change pour le moment. Une des forces de Runna vient aussi de son intégration, c'est par exemple une des rares applications capables de profiter du capteur de fréquence cardiaque des récents Powerbeats Pro 2. Notons enfin que les modalités de la transaction (comme le prix d'achat) n'ont pas été dévoilées.
Même si la vague attendue des PC sous Windows avec une puce ARM n'a pas déferlé, Qualcomm continue à travailler sur ses puces Snapdragon X. Une rumeur issue d'un blogueur chinois indique que la seconde génération — qui portera le nom Snapdragon X 2 selon la nomenclature de Qualcomm — devrait offrir un gain de performances de l'ordre de 20 % (18 à 22 %).
C'est une valeur dans la moyenne des puces modernes, qui atteignent généralement cette valeur dans un cas bien choisi (par exemple si le test se base sur les unités améliorées de façon significative). Il indique aussi que la fréquence devrait atteindre 4,4 GHz, une valeur plus élevée que celle des variantes actuelles. Si 4,4 GHz est la fréquence de base, une grande partie du gain proviendrait de cette fréquence : elle est de 3,8 GHz au mieux actuellement, et le passage à 4,4 GHz amène mécaniquement environ 15 % de gain. Si c'est la fréquence maximale de la puce (le Turbo), le gain proviendrait par contre d'optimisations : le Snapdragon X Elite le plus rapide atteint 4,3 GHz en pointe et 4,4 GHz serait donc une montée en fréquence faible (environ 2,5 %).
Qualcomm va pouvoir remplacer le 1 par un 2.
Dans les deux cas, il ne faut pas oublier que la partie CPU n'est pas le principal problème des Snapdragon X. Le cœur Oryon issu des travaux de Nuvia est convaincant dès sa première révision, avec des performances du même ordre que les puces M2 ou les puces x86 du même segment. Par contre, la partie GPU demeure assez faible et les problèmes liés à la partie logicielle (Windows 11 ARM) bien présents.
Notons enfin que les Snapdragon X2 devraient (enfin) avoir de la concurrence : le contrat d'exclusivité entre Microsoft et Qualcomm se termine officieusement cette année et Nvidia et Mediatek devraient entrer dans la danse pour — peut-être — enfin démocratiser les PC sous Windows ARM.
Apple a fait une petite annonce un peu étonnante dans son rapport environnemental de 2025 : les iPhone et iPad de démonstration dans les Apple Store américains vont activer la fonction Clean Energy Charging d'iOS. C'est étonnant pour une raison simple : par défaut, elle est activée automatiquement sur les iPhone configurés aux États-Unis, sauf (visiblement) sur les appareils de démonstration.
La fonction sur un iPhone 15. Image Apple.
Cette fonction apparue avec iOS 16.1 sert à activer la charge des appareils iOS quand le réseau électrique produit de l'énergie bas carbone (éolien, solaire, hydro-électrique, nucléaire, etc.). Elle n'est disponible qu'aux États-Unis et dépend en partie des fournisseurs d'électricité. Dans sa page de support, Apple explique que la localisation doit être active, pour permettre de déterminer le fournisseur, et qu'une notification apparaît quand l'iPhone stoppe sa charge en attendant le meilleur moment, avec la possibilité de la forcer en cas de besoin.
Dans le cas précis des Apple Store, MacRumors explique que la charge se déclenchera tout de même automatiquement si la batterie descend sous les 50 %.
OpenDNS, un résolveur DNS alternatif proposé par Cisco, a quitté la Belgique le 11 avril 2025, après avoir effectué le même mouvement avec la France et le Portugal mi-2024. Si le message posté par un employé de Cisco n'indique pas la raison exacte de ce changement, elle est probablement liée à une demande de censure légale par le royaume.
Le logo d'OpenDNS.
La Belgique, comme la France, tend en effet à bloquer certains sites Internet via des décisions de justice. Les opérateurs et les fournisseurs de DNS alternatifs doivent suivre ces décisions et fournir ce qu'on appelle parfois des DNS menteurs. Même si Cisco ne communique pas directement sur ce point, le fait que de nombreux sites de streaming illégaux ont été fermés récemment en Belgique (comme l'indique La Libre et Le Soir) n'est probablement pas une coïncidence. Le Soir cite d'ailleurs Cisco dans la liste des fournisseurs alternatifs, et explique qu'une astreinte de 100 000 € par jour est prévue en cas d'absence de blocage.
La disparition d'OpenDNS n'est en théorie pas un réel problème : il existe de nombreux autres résolveurs et le blocage ne devrait pas être un problème… sauf si vous avez l'habitude d'aller sur des sites qui diffusent illégalement du sport (notamment). Mais comme le note Next, ce n'est pas totalement anodin : certains objets connectés reposent sur OpenDNS, avec une adresse IP codée en dur. C'est notamment le cas des ampoules de la gamme Hue pour certaines fonctions.
Aux États-Unis, Apple a changé sa façon de communiquer sur Apple Intelligence. À la sortie des iPhone 16, le slogan choisi était « Hello, Apple Intelligence » sur les images promotionnelles. La police choisie était assez grande, avec notamment les couleurs choisies pour le nouveau Siri. Mais après la sortie d'iOS 18.4, qui a ajouté de nombreuses fonctions à Apple Intelligence, Apple a décidé de communiquer d'une autre manière. C'est Basic Apple Guy qui le montre : le slogan est devenu « Built for Apple Intelligence », avec l'idée (probablement) de faire croire que la stratégie d'Apple était évidemment d'intégrer toutes les fonctions dans les iPhone.
Avant/Après aux États-Unis.
Soyons clairs, c'est probablement faux : les iPhone 16 et les produits sortis à la fin de l'année 2024 ont été imaginés bien avant les premières mentions d'Apple Intelligence. Même si rien n'est véritablement officiel, Apple a pris le train de l'IA assez tard et le développement de l'iPhone 16 était a priori bien avancé. Mais la police plus petite et le slogan sont là pour tenter d'inspirer la confiance dans les outils d'Apple. Il faut noter que le premier slogan n'a pas été utilisé en France, car Apple Intelligence n'était pas disponible. Apple a commencé directement avec « Conçu pour Apple Intelligence » dans nos contrées, en parallèle de la sortie d'iOS 18.4. Reste que dans les deux cas, quel que soit le slogan, les outils d'Apple semblent tout de même à la peine par rapport à ce que propose la concurrence.
Vous avez aimé Severance ? Vraiment aimé ? Bonne nouvelle, une société propose un clavier en édition limitée, qui reprend le format de celui utilisé dans le département du raffinement des macrodonnées dans la série. Il est proposé par Atomic Keyboard, qui travaille avec Keeb AI, spécialisée dans les claviers en édition limitée.
Un clavier inspiré de celui de la série. Image Atomic Keyboard.
Le clavier de la série est inspiré de celui du Data General Dasher, un terminal de commande qui date de la fin des années 70. La version de la série (et celui qui devrait être proposé à la vente) intègre un trackball à droite, à la place du pavé numérique, et le bloc de flèches n'est pas identique à celui de la version originale. C'est un clavier avec 73 touches, dans un agencement 70 %, sans touches esc, control ou option, ce qui nécessite évidemment un peu d'apprentissages. La marque explique qu'il va se connecter en USB-C et nos confrères de Toms Hardware indiquent un prix (élevé) de 400 $. Notons tout de même que si le clavier peut être tentant, le prix élevé et le manque d'informations légales sur le site incitent à la prudence.
Si vous avez eu un Macintosh dans les années 90, vous avez peut-être joué à Marathon. Il s'agit d'un des premiers FPS, sorti peu après Doom, et il était disponible exclusivement sur les machines d'Apple1. Il permettait notamment de montrer la supériorité graphique des Macintosh, avec du 640 x 480 quand Doom se contentait du 320 x 200 des PC. Bungie (qui appartient à Sony depuis quelques années) a décidé de proposer une suite à ce jeu qui se place dans le même univers qu'Halo, et vient d'annoncer une date de sortie, le 23 septembre 2025. Le titre est plutôt attendu, notamment grâce à une direction artistique plutôt réussie.
Le jeu est très coloré et se démarque des nombreux FPS du marché sur ce point.
Et malheureusement, comme nous l'avions déjà annoncé lors de l'annonce, il n'est pas prévu sur les Mac. Il est attendu uniquement sur les Xbox Series, la PlayStation 5 et les PC. Si vous aviez poncé les trois opus avec votre PowerPC flambant neuf dans les années 90, il faudra donc changer de crèmerie…
Que les fans de HFS et HFS+ respirent, il semble bien qu’une solution se dessine pour maintenir les pilotes de ces deux formats de fichier dans le noyau de Linux. La suppression envisagée pour fin 2025 n’aura peut-être pas lieu, puisque de nouveaux volontaires sont montés au créneau pour assurer leur bon fonctionnement à l’avenir. Comme le note Phoronix, c’est notamment le cas d’un employé de chez IBM, qui propose de prendre un petit peu de temps pour mettre à jour les pilotes si nécessaire et en tout cas assurer leur bon fonctionnement avec les futures mises à jour du noyau.
Un développeur de Debian, célèbre distribution GNU/Linux, a aussi apporté son aide, en suggérant qu’il pourrait participer aux vérifications et tests des futurs correctifs. Il a des Mac de l’ère PowerPC sous la main pour effectuer ces tests et peut ainsi participer à l’effort nécessaire. Face à ces bonnes volontés, les pilotes HFS et HFS+ ne sont officiellement plus dépréciés et devraient rester dans le noyau Linux pour le moment et ce jusqu’à nouvel ordre.
Article original :
Apple, au fil des années, a fait évoluer ses systèmes de fichiers et en a abandonné certains. Si le HFS+ (qui date de la fin des années 90 avec Mac OS 8.1) est encore pris en charge, ce n'est par exemple plus le cas du HFS original, apparu en 1985 avec les premiers disques durs pour Macintosh. Si Microsoft n'a jamais pris en charge le HFS/HFS+, les distributions GNU/Linux le font encore… mais peut-être uniquement pendant quelques mois.
Les HDD formatés en HFS sont encores courants.
Christian Brauner, un développeur qui travaille sur le noyau, vient en effet de proposer de supprimer la prise en charge du HFS et du HFS+ dans le noyau, d'ici fin 2025. Les modules ne sont plus maintenus depuis une dizaine d'années, et Phoronix explique qu'il existe des pilotes en espace utilisateur pour ceux qui en ont besoin. La différence entre un module pour le noyau et un pilote en espace utilisateur est simple : le premier dispose de privilèges plus importants et un bug peut planter littéralement tout le système, contrairement au second.
Le HFS+ reste encore utile
Le problème principal de cette suppression est simple : il existe encore de nombreux médias formatés en HFS+. Les Mac Intel un peu anciens (ceux qui datent d'avant macOS High Sierra) ne prennent pas en charge l'APFS directement et une partie des partitions cachées nécessaires pour le démarrage reposent encore sur le HFS+. De même, le passage en espace utilisateur n'est pas nécessairement une solution : elle implique qu'il soit possible d'installer des logiciels. Des appareils comme les téléviseurs ou les décodeurs acceptent généralement les disques durs formatés en HFS+, parce que le module nécessaire est présent. La suppression des modules du noyau risque donc d'amener des incompatibilités à ce niveau, notamment pour ceux qui voudraient installer une distribution GNU/Linux sur un vieux Mac Intel ou un Mac à base de PowerPC.
Sans le HFS, vous ne pourrez pas lire les données de ce CD Audio.
Le cas du HFS classique est plus compliqué. D'un point de vue pratique, il reste rare : il a essentiellement été employé dans les Mac à base de CPU 68000 et dans les premiers PowerPC. Apple a pris en charge le HFS en lecture et écriture jusqu'à Mac OS X Leopard, et en lecture uniquement entre Mac OS X Leopard et macOS Catalina. Depuis, il n'est plus possible de lire les volumes formatés en HFS, ce qui peut poser des soucis avec les CD-ROM et certains CD Audio. En effet, les bonus proposés sur les CD Plus sont par exemple souvent formatés en HFS pour les Mac.
Dans le cas du noyau Linux, un compromis pourrait être de supprimer le HFS et de garder le HFS+, mais il ne réglerait probablement pas les problèmes de maintenance du code.
Google vient d'annoncer que le nom de domaine google.fr (et de nombreux autres) allait être abandonné. Dans les prochains mois, le moteur de recherche va en effet rediriger toutes les versions locales qui reposent sur un domaine de premier niveau national (ccTLD, pour country code top-level domain) vers google.com. Selon Wikipédia, Google disposerait de 194 variantes (google.com compris), en 129 langues.
Un vieux logo Google lié à la France.
Ce changement devrait majoritairement être transparent pour les utilisateurs, pour une bonne raison, expliquée par Google : les résultats ne dépendent plus du nom de domaine depuis 2017. Le moteur de recherche vous localise à travers votre IP (et demande éventuellement l'accès à une information plus précise à travers votre navigateur) et fournit donc les mêmes résultats si vous êtes sur google.com, google.fr ou google.com.vc1. Ce changement devrait peut-être vous obliger à confirmer quelques réglages, mais ne devrait rien changer d'autre. Bien évidemment, les restrictions nationales (notamment liées à l'Union européenne) restent en place. Le seul éventuel problème pourrait venir de vieux navigateurs ou de signets enregistrés, qui codent l'adresse google.fr en dur.
La géolocalisation de nos appareils et de nombreux périphériques est de plus en plus cruciale à notre époque, et les attaques dans ce domaine sont nombreuses. Les États-Unis viennent de commencer à mettre en place une solution intéressante pour éviter les attaques sur le GPS, le système de localisation par satellite maison. Le BPS — Broadcast Positioning System — repose sur le réseau de télévision hertzien, et permet d'obtenir une localisation imprécise, mais suffisante pour détecter une attaque sur le réseau GPS.
Image NAB.
C'est un problème de plus en plus important : comme les signaux issus des satellites — quelle que soit la constellation employée — sont assez faibles, il est simple de le brouiller pour empêcher la géolocalisation ou d'envoyer des données modifiées pour fournir une position faussée. Si les appareils mobiles peuvent profiter du réseau cellulaire et du Wi-Fi pour valider la position ou détecter l'attaque, ce n'est pas le cas de tous les appareils et c'est là qu'intervient le BPS.
Image NAB.
La technologie derrière le BPS est la même que le GPS sur le fond : une base de temps est fournie via les antennes émettrices, dont la position est connue. En mesurant le temps nécessaire aux ondes pour atteindre le récepteur, il est possible de trianguler la position de ce dernier. Le BPS dépend de la norme ATSC 3.0 — l'équivalent du DVB-T2 utilisé en France pour la TNT en Ultra HD — et le déploiement est en cours aux États-Unis, avec deux phases de test (2025 à 2027, puis 2027 à 2029) et une mise en place en 2029. Un récepteur adapté sera bien évidemment nécessaire, et la précision attendue reste assez faible, de l'ordre de 100 mètres. Une valeur parfaitement suffisante pour un véhicule terrestre, un bateau ou un système critique installé dans un bâtiment, tout du moins pour détecter une compromission du réseau GPS. Qui plus est, la technologie pourrait être intégrée dans les récepteurs GNSS1 de nos appareils, pour fournir une solution de repli supplémentaire.
Global Navigation Satellite System, un sigle qui englobe toutes les constellations de satellites. ↩︎