Avec l'évolution de la taille des capteurs et de l'électronique, les appareils photo prennent parfois des voies… étonnantes. L'Opti100 NeoFilm, un gadget vendu pour environ 6 000 ¥ au Japon (à peu près près 33 €) est en effet en forme de pellicules. Dans la même veine que le boîtier pour SSD externe dont nous avons parlé récemment, c'est un reliquat du passé : les pellicules ne sont plus utilisées que de façon marginale par les adeptes des photos argentiques.
Trois appareils photo.
Il ne s'agit pas d'une méthode bizarre pour intégrer un capteur numérique dans un appareil argentique, mais réellement uniquement une esthétique un peu nostalgique, qui amène évidemment des défauts mais aussi un côté « gadget » totalement assumé.
Le boîtier de 25 grammes (sans la carte microSD) existe en trois couleurs, pour s'approcher des différentes pellicules qu'il était possible d'acheter au 20e siècle. Il mesure 47 x 25 mm et intègre une batterie de 230 mAh. La fiche technique donne une autonomie de 60 minutes.
Ceci n'est pas une pellicule.
L'appareil photo filme en 1080p (en MJPEG) et les photos ont une définition de 3 760 x 2 128 pixels (soit 8 millions de pixels). Ce n'est pas forcément la définition réelle du capteur : les fabricants de ce genre d'accessoires tendent à appliquer des filtres pour agrandir artificiellement les images. La diagonale du petit écran n'est pas indiquée, mais la définition (80 x 160) devrait à peine permettre de cadrer. L'appareil s'alimente en USB-C, avec une prise qui permet de récupérer les images.
L'écran est très petit.
Soyons clairs sur un point : c'est littéralement un jouet et cet appareil photo ne va pas vous permettre de gagner des prix ou même de faire des photos que vous serez contents de regarder dans quelques années. Mais le format est amusant, et il va peut-être permettre, paradoxalement, de créer des souvenirs…
Dans le monde des dalles OLED, deux grands fabricants se tiennent la corde : LG et Samsung. Si le premier vend des dalles Tandem OLED depuis un moment maintenant, le second a fini par réagir. La société vient de présenter des dalles QD-OLED Penta Tandem.
Le principe reste le même : pallier la luminosité limitée des dalles OLED et l'usure induite par une luminosité élevée en couplant deux dalles. Il est ainsi possible d'obtenir une luminosité plus élevée tout en réduisant l'usure (les deux dalles montent moins haut qu'une seule dalle).
La nouvelle dalle. Image Samsung.
Le QD vient du fait que Samsung emploie des boîtes quantiques (Quantum Dot) pour générer les couleurs de ses dalles. La technologie permet plus de couleurs et une luminosité plus élevée au départ, en utilisant les boîtes quantiques pour générer le vert et le rouge, avec une structure techniquement composée de sous-pixels bleus au départ. Le Penta, lui, ne vient pas de la structure mais bien du nombre de couches : le préfixe d'origine grec signifie cinq, et c'est le nombre de couches.
Le principe du Tandem, lui, permet d'atteindre une luminosité élevée. Samsung annonce 1 300 nits pour les moniteurs et 4 500 nits pour les téléviseurs, avec un cas assez précis : 3 % d'OPR. De façon très concrète, la valeur n'est atteinte que si 3 % des pixels sont allumés, avec par exemple un soleil brillant sur un fond sombre. Si le nombre de pixels allumés augmente, la luminosité maximale diminue, un problème qui existe aussi avec les écrans LCD, mais qui est moins prégnant et qui va dépendre de la qualité du système de refroidissement de la dalle.
Un écran 27 pouces Ultra HD
Samsung a notamment montré un moniteur de 27 pouces Ultra HD (3 840 x 2 160), un couple assez rare dans les moniteurs OLED. Un moniteur de 31,5 pouces en Ultra HD a aussi été montré, et il montre les limites des mesures annoncées par Samsung : il est certifié DisplayHDR True Black 500, ce qui implique une luminosité maximale de 500 nits au minimum. La valeur est plus faible que les 1 300 nits annoncés pour une raison simple : la certification impose des mesures avec 10 % d'OPR.
Deux moniteurs. Image Samsung.
Les autres moniteurs annoncés sont un modèle de 34 pouces pour les joueurs en WQHD (habituellement du 3 440 x 1 440) et un modèle 49 pouces en Dual QHD, soit 5 120 x 1 440. Ni la date de sortie ni les caractéristiques exactes ne sont connus, et les prix n'ont pas été annoncés.
Pas pour Apple
Si les dalles QD-OLED Penta Tandem semblent intéressantes, elles ne sont pas encore adaptées aux moniteurs qu'Apple pourrait proposer. En effet, la résolution des dalles OLED dans le cas des moniteurs est un peu plus faible que dans le cas des modèles LCD, et le moniteur 27 pouces le montre bien : Samsung explique que la résolution de 160 ppp atteinte est un exploit. Apple, actuellement, tend à employer une résolution d'environ 218 ppp, avec une dalle 5K (5 120 x 2 880) sur un moniteur 27 pouces.
Dans les ordinateurs (ou les smartphones), le firmware est généralement un logiciel fermé, ce qui pose parfois de nombreux problèmes. Que ce soit dans les vieux appareils (le BIOS des PC, la ROM des Macintosh) ou dans les plus récents — Open Firmware, UEFI ou iBoot chez Apple —, le côté fermé a de nombreuses contraintes. Mais AMD a une solution avec openSIL, et a montré une version open sourcce pour ses futurs processeurs Zen 6.
Le problème principal, en 2026, vient de la mise à jour du microcode, spécialement dans le cas des processeurs x86. Dans un système classique, le firmware est un UEFI, qui dépend généralement du fabricant de la carte mère. Il est parfois possible d'ajouter ou supprimer certains composants logiciels (par exemple pour ajouter la prise en charge du NVMe dans de vieux systèmes) mais les différentes variantes d'UEFI sont propriétaires. Et c'est un défaut : quand un fabricant de processeurs comme AMD ou Intel déploie une mise à jour de microcode pour ses processeurs, il faut que le fabricant de la carte mère l'intègre dans son UEFI et propose une mise à jour, ce qui n'est pas systématique sur les cartes mères un peu anciennes (ou chez des marques disparues).
Cette carte peut fonctionner avec un firmware open source. Image MSI.
Le microcode, en simplifiant, est un firmware pour le CPU. Il peut régler des bugs ou modifier l'implémentation de certaines fonctions. Chez AMD, le microcode est nommé AGESA et permet notamment l'initialisation du processeur. Typiquement, si AMD sort un nouveau processeur, il est préférable d'avoir une version de l'UEFI qui contient la dernière version en date de l'AGESA. Si ce n'est pas le cas, il est possible que le processeur fonctionne mal ou même pas du tout.
Un firmware open source
C'est ici que la nouveauté d'AMD est intéressante. Premièrement, la société propose une version repensée (et open source) de l'AGESA, nommée openSIL. Elle devrait permettre d'intégrer beaucoup plus facilement les modifications dans le firmware des cartes mères, ce qui est un gage d'évolutivité. Et deuxièmement, une démonstration a été faite sur une carte mère du commerce, une MSI B850-P Pro. Elle combine openSIL avec coreboot, un firmware open source qui peut remplacer dans certains cas un UEFI propriétaire.
Le logo de coreboot.
Disposer d'un firmware open source n'est pas anodin : c'est dans certains cas un gage de sécurité1 et c'est un point important pour certains chantres de l'open source, qui ne veulent absolument pas travailler avec des logiciels fermés2. Et pour l'évolutivité de nos appareils, c'est aussi un point important : de nombreux ordinateurs et smartphones sont bloqués sur des versions obsolètes et abandonnées de systèmes d'exploitation sans possibilités de passer sur des systèmes libres ou à jour car le firmware fermé ne permet pas l'installation d'un système alternatif (oui nous pensons aux iPhone).
Vous aimez les objets Apple vintage ? Bonne nouvelle, il est possible d'installer un Mac mini dans un lecteur de disquettes 5,25 pouces issu d'un vénérable Apple II. Le vendeur italien précise d'ailleurs dans son annonce qu'il préfère que son bricolage soit effectué avec un lecteur de disquettes (l'Apple Disk II) défectueux, pour préserver les modèles fonctionnels.
L'avant du Disk II, qui cache le lecteur optique du Mac mini.Le bouton, relié à la carte mère.
Le kit, vendu 25 €, comprend le nécessaire pour remplacer l'intérieur du lecteur de disquettes par un Mac mini. Ce dernier est par ailleurs un modèle techniquement vintage, au moins sur les photos : c'est un Mac mini G4, sorti en 2005. Compte tenu du format du Mac mini, il doit probablement être possible d'adapter tous les modèles qui emploient le boîtier d'origine. Apple a employé ce boîtier jusqu'en 2009, avec des modèles à base de Core 2 Duo. Avec ces derniers, la découpe des éléments imprimés en 3D risque tout de même d'empêcher l'accès aux prises jack.
Un Mac mini G4.La découpe est adaptée au Mac mini G4, mais doit s'adapter aux modèles Intel. Il faudra au pire faire deux trous pour les prises jack.
Dans un rapport forcément laudatif, SpaceX (qui a racheté xAI récemment) donne quelques informations sur l'état de son réseau Starlink. On apprend notamment que l'offre de connexion à Internet par satellites a plus de 9 millions de clients et qu'il y a eu 4,6 millions de nouveaux clients actifs en 2025.
Le premier nombre est impressionnant et un peu ridicule à la fois. Plus de neuf millions de clients dans le monde est une prouesse pour un service de ce type, qui cible essentiellement les zones où un accès à Internet classique n'est pas nécessairement aisé, mais il est aussi à mettre à l'aune du nombre de satellites. SpaceX revendique plus de 9 000 satellites actifs (environ 9 700 selon des sources externes), soit un ratio assez faible entre le nombre de clients et celui de satellites. La répartition n'est évidemment pas linéaire sur l'ensemble du globe, mais le nombre de clients par satellite est bas, ce qui explique le nombre de lancements, en hausse, 120 en 2025 (selon la même source, SpaceX a déployé 11 138 satellites depuis le lancement de l'offre).
La société met en avant l'utilité de Starlink dans les zones reculées mais aussi en cas de catastrophe : le déploiement d'antennes permet de garder une connectivité dans des zones touchées par des ouragans ou des tremblements de terre, ce qui permet de mieux organiser les secours et offre aux personnes touchées la possibilité de contacter leurs familles ou les secours. Le monde de l'aviation est aussi mis en avant : les compagnies aériennes s'équipent de plus en plus avec des antennes Starlink, car c'est la solution la plus efficace actuellement pour offrir une connexion à Internet en vol. Le secteur maritime est aussi évoqué, avec plus de 150 000 bateaux équipés selon la société, que ce soit dans le domaine du fret ou dans le secteur des loisirs, avec les croisières.
Après un lancement limité aux États-Unis, Starlink a étendu son offre Direct to Cell, qui permet à certains smartphones 4G de se connecter directement aux satellites pour offrir une connexion basique d'appoint. SpaceX annonce des partenariats avec 27 opérateurs dans 22 pays, avec 400 millions de personnes disposant d'un accès. La couverture est plus faible que pour l'offre classique, car tous les satellites ne sont pas adaptés, ils sont 650 selon SpaceX.
Image SpaceX.
Le rapport évite évidemment opportunément les problèmes liés à l'encombrement de l'espace, avec des risques de collisions qui sont en augmentation et qui nécessitent une maintenance importante. De même, l'usage des antennes Starlink dans les conflits en cours n'est pas évoqué. Starlink est en effet employé dans le conflit ukrainien, et tant la Russie — jusqu'il y a peu — que l'Ukraine profitent des antennes et de la connexion. SpaceX, après plusieurs années, a finalement décidé de couper l'accès aux forces russes, ce qui a visiblement provoqué une désorganisation des communications, mais nous ne sommes pas à l'abri d'un mouvement d'humeur d'Elon Musk dans ce domaine.
Une étude publiée par la revue JAMA Psychiatry, effectuée sur 93 personnes, montre que les mesures prises par un bracelet connecté (ici un Fitbit) peuvent permettre de détecter une rechute dans le cas d'une dépression en rémission.
L'analyse du sommeil peut détecter une rechute.
Le but de l'étude, dont les données ont été collectées entre 2016 et 2019, était donc de vérifier que l'analyse du sommeil permet de détecter une rechute lors d'une dépression. C'est un problème important, car les troubles dépressifs majeurs touchent environ une personne sur vingt et les rechutes sont courantes (50 à 60 % des personnes touchées, dans les cinq ans). Dans le domaine de la dépression, les troubles du sommeil et du rythme circadien sont très répandus, et il y a une relation directe entre les symptômes dépressifs et les troubles en question.
Les personnes suivies ont donc porté le bracelet mais ont aussi été évaluées cliniquement de façon périodique, pour tenter de déterminer les signaux associés à une rechute. De nombreux paramètres ont été mesurés : heure de début et heure de fin du sommeil, durée du sommeil, durée de l'éveil, temps total de sommeil, efficacité du sommeil, régularité, etc.
Les paramètres liés à une rechute
L'étude montre qu'une régularité du sommeil plus faible et une efficacité plus faible sont associées à une rechute. Une grande irrégularité et une amplitude quotidienne plus faible des rythmes d'activité ont aussi été associées à la rechute, tout comme les réveils fréquents. Les données sont validées tant par les analyses des bracelets que par les résultats cliniques et les autodéclarations des personnes qui participaient.
Un bracelet Fitbit.
Malgré tout, les personnes à l'origine de l'étude donnent quelques limites, notamment le fait que l'échantillon était un peu faible. De plus, le nombre de rechutes a pu limiter le suivi et l'analyse : une rechute au début du suivi a pu fausser certains résultats. Enfin, les algorithmes tendent à gonfler l'efficacité du sommeil, un problème souvent relevé avec l'Apple Watch, par exemple.
Le problème principal est malheureusement plus compliqué, et n'est pas évoqué dans l'étude. Car si les analyses des mesures de sommeil (ou d'autres capteurs intégrés dans les bracelets et les montres) peuvent permettre de détecter différentes pathologies, les fabricants des appareils en question sont assez frileux sur les analyses en question, spécialement dans le cas d'Apple. Les appareils et les applications tendent donc souvent à fournir des données brutes, sans forcément analyser les données ou être proactifs sur ce qui est détecté, pour éviter les erreurs inhérentes à ce genre de traitements... tout en empêchant la détection de certains problèmes.
Les fabricants d'accessoires ont beaucoup d'imagination : sur Aliexpress, un vendeur propose un boîtier externe pour SSD M.2 (NVMe) qui prend la forme d'une icône bien connue par de nombreux utilisateurs, celle de la sauvegarde ( ). Il est vendu environ 22 € et intègre un connecteur USB-C. Le fabricant indique qu'il utilise un contrôleur Realtek RTL9210CN, qui permet des débits de 10 Gb/s en USB-C (environ 1 Go/s en pratique).
Une icône de sauvegarde qui pend sur un porte-clés.
Le boîtier accepte les SSD M.2, mais uniquement dans les variantes courtes (2230 et 2242). Les premiers mesurent 30 mm de long pour 22 de large, les seconds 42 mm. Ils ont été popularisés par les consoles comme le Steam Deck et se trouvent assez facilement dans des capacités de 1 ou 2 To chez Crucial (avec le P310), Sandisk ou Corsair. Attention, les prix sont assez élevés à cause des pénuries de mémoire flash et du fait que les SSD M.2 2230 et 2242 restent plus rares que les 2280 classiques.
10 Gb/s.
Sinon, bien évidemment, cette « icône de sauvegarde » est la reproduction d'une disquette 3,5 pouces, popularisée par le premier Macintosh et qui est passée de 400 ko à 1,44 Mo en quelques années (et même à 2,88 Mo dans une variante assez rare). Mais en 2026, les disquettes sont essentiellement des vestiges du passé, un reliquat des années 90 qui est encore mis en avant dans certaines icônes par habitude.
Depuis le lancement du Vision Pro, une application1 manque réellement au casque d'Apple, pour les amateurs de loisir : YouTube. Le seul moyen de profiter du service de Google était en effet de passer par le navigateur, et c'est une voie qui a des limites. Mais ce problème est enfin réglé : Google vient de publier une app YouTube pour visionOS.
YouTube sur Vision Pro.
Elle est compatible avec les deux versions du casque, simplifie la navigation et prend en charge les différents modes dédiés à la réalité virtuelle que YouTube propose, que ce soit les vidéos à 360° ou celle en VR180 (un format Google qui permet de voir un environnement en 3D positionné uniquement devant l'utilisateur). Google annonce aussi que les vidéos en 8K sont prises en charge sur le modèle M5. Ce n'est pas lié à la qualité de la dalle, mais plus probablement au fait que le M5 est capable de décoder matériellement le codec AV1.
Si Severance est une série qui est diffusée sur Apple TV1, elle n'appartenait pas à Apple pour autant : comme souvent, c'était une coproduction, ici avec Fifth Season. Selon Deadline, Apple a racheté les droits de la série à son coproducteur, qui n'est donc plus que producteur exécutif, derrière Apple Studio. Ce n'est pas la première fois qu'Apple fait ce mouvement, Silo avait par exemple été dans le même cas, mais Apple avait racheté les droits à AMC Studios en fin de saison 1.
Apple rachète les droits. Image Apple.
Pour Severance, Apple aurait donc mis sur la table environ 70 millions de dollars. Un chiffre élevé, mais à mettre en regard du prix des épisodes, qui serait d'environ 20 millions de dollars par épisode pour la seconde saison. Une des raisons de la vente des droits à Apple Studio viendrait des difficultés de la production, entre une grève à Hollywood et des reshoots : Fifth Season avait des problèmes de liquidités liés à la série et à une période très longue entre la saison 1 et la saison 2. Elle aurait même perdu de l'argent, ce qui aurait pu faire annuler la série.
Au moins quatre saisons
Selon nos confrères, le plan prévoit quatre saisons, et peut-être éventuellement une cinquième. La possibilité de proposer des séries dérivées pour permettre de combler l'attente des fans entre les saisons est aussi évoquée. Une préquelle, un spin-off (une série dérivée) et des adaptations étrangères sont évoqués.
Une fuite en avant. Image Apple.
Visiblement, le développement de la saison 3 est toujours en cours, car la méthode employée n'est pas la même que pour d'autres séries : alors que certains commencent à filmer quand une partie des scripts est disponible, Ben Stiller (très impliqué) et Dan Erickson (le showrunner, c'est-à-dire l'architecte de la série) préfèrent finaliser tous les scripts pour garder une cohérence dans un univers qui est très cadré, ce qui ralentit fortement le déroulé des opérations.
Image Apple.
Notons enfin que si Apple essaye peu à peu de prendre le contrôle sur certains des contenus disponibles sur Apple TV, ce n'est pas systématique : Ted Lasso, Pluribus ou The Studio proviennent d'autres studios.
Le service, mais pas nécessairement le boîtier, mais souvent l'app. ↩︎
Si vous avez un téléphone (ou même un smartphone1) 2G, c'est le moment de penser à le changer. Free, qui utilise le réseau d'Orange pour cette technologie, commence d'ailleurs à prévenir ses clients par courriel2.
L'opérateur est capable de détecter si votre carte SIM est dans un appareil qui est uniquement 2G — vieux téléphone, ascenseur, montre connectée basique, etc. — et le message de Free donne une information importante : les dates de fermeture.
• 31 mars 2026 : dans l’agglomération de Biarritz, Anglet, Bayonne (64)
• 12 mai 2026 : Landes (40) et reste des Pyrénées-Atlantiques (64)
• 9 juin 2026 : Ariège (09), Haute-Garonne (31), Gers (32), Lot (46), Lot-et-Garonne (47), Hautes-Pyrénées (65) et Tarn-et-Garonne (82)
• Septembre 2026 : le reste de la France métropolitaine
Le message de Free. Image Univers Freebox.
Techniquement, il est évidemment possible de trouver un (vieil) appareil 3G si votre budget est limité, mais c'est une mauvaise idée, surtout chez Free : l'accord avec Orange pour la 3G limite les débits et (surtout) le réseau va être coupé dans quelques années. Dans son message, Free renvoie vers sa boutique et un téléphone Doro, pour les personnes qui ne veulent pas de smartphone.
Un Doro compatible 4G. Image Doro.
Pour les alarmes et autres objets connectés au réseau 2G (ascenseur, etc.), c'est un peu plus compliqué : vous devrez vérifier auprès du fabricant s'il est possible de connecter l'appareil à un réseau plus moderne (idéalement la 4G) mais le coût peut parfois être élevé… quand c'est possible sans tout remplacer, ce qui n'est pas systématique.
Depuis des années, une rumeur court : Apple pourrait adopter Force Touch pour la Magic Mouse, qui se passerait donc d'interrupteur pour le clic, comme les trackpad Apple. Mais ce n'est pas Apple qui a dégainé la première souris de ce type, mais Logitech. La G Pro X2 Superstrike est un modèle haut de gamme (comptez 180 €) qui remplace les interrupteurs utilisés habituellement pour détecter les clics de souris par un système capacitif.
Une souris très haut de gamme. Image Logitech.
La détection du clic se base sur un capteur capacitif, ce qui amène quelques avantages. Premièrement, le résultat n'est plus binaire comme avec un interrupteur : il est possible de détecter la pression (comme sur les trackpads des Mac) ou de mesurer (et fixer) la distance d'activation (il y a dix paliers). C'est une technologie déjà déployée dans certains claviers, qui permet un peu plus de flexibilité mais aussi, selon Logitech, permet de réduire la latence du clic d'environ 30 ms. C'est une valeur finalement assez importante : pour rappel, un jeu qui fonctionne à 60 images/s voit chaque image affichée pendant environ 16 ms.
Le mécanisme expliqué par Logitech.
Un retour haptique désactivable
Le problème d'un capteur capacitif, c'est qu'il n'y a pas de retour physique au moment de la prise en compte du clic. Pour pallier ce défaut, Logitech a choisi la même voie qu'Apple avec ses trackpads (encore) : un moteur haptique qui fournit un retour tactile. Comme souvent, il est possible de régler la puissance de ce retour, de 1 à 5. C'est un choix intéressant : il est possible d'obtenir un retour léger (et silencieux) en temps normal, mais d'ajuster pour un retour plus franc dans d'autres cas. Logitech propose aussi la possibilité de se passer de tout retour tactile, ce qui est assez surprenant selon nos confrères de Frandroid. C'est un peu l'équivalent du « toucher pour cliquer » des trackpads, mais sur une souris pour les joueurs.
Si vous mettez un clic sur les boutons latéraux, vous aurez un retour audio émis par un haut-parleur.
Pour revenir à la Magic Mouse, les technologies de Logitech seraient parfaitement utilisables dans une Magic Mouse, qui utilise encore un mécanisme classique avec des interrupteurs, mais avec une surface tactile capacitive pour les mouvements1. Et le retour haptique est une solution bien meilleure que celle qui avait été déployée sur la Mighty Mouse en son temps : pour les deux boutons capacitifs latéraux, qui ne reposent pas sur des interrupteurs, Apple avait choisi de se limite à un retour audio… avec un haut-parleur qui émet un bruit de clic.
Elle pourrait techniquement proposer un clic tactile, mais Apple ne l'a pas activé. Probablement pour des raisons similaires à la souris de Logitech : un clic sans retour tactile est perturbant. ↩︎
Dans les accessoires Qi de chez Ugreen, pour la charge sans fil, le Zapix est intéressant : il propose une zone Qi (5 W) pour des AirPods ou des appareils incompatibles MagSafe, et une zone QI2 (15 W) surélevée, qui permet de placer un iPhone MagSafe en mode veille, par exemple sur une table de nuit. Ou, dans les exemples d'Ugreen, pour les appels FaceTime ou les films. La version noire est à 25 € au lieu de 50 € directement chez Ugreen en prix public, la bleue est à 26 €.
Le noir. Image Ugreen.
Le support s'alimente en USB-C et le câble est fourni, mais pas l'adaptateur secteur. La marque explique qu'il nécessite un adaptateur USB-C 27 W pour fournir la puissance maximale (15 W et 5 W). Avec un modèle 20 W, vous n'aurez que 15 W sur l'emplacement principal et le second sera désactivé. Avec un modèle 15 W, vous n'aurez que 5 W sur le principal et 2,5 W sur le second.
Après avoir annoncé la fin des Blu-ray enregistrables il y a un an, Sony a annoncé la fin des enregistreurs de Blu-ray. Nous ne parlons pas ici des graveurs pour les ordinateurs (Sony a quitté ce marché il y a de nombreuses années) mais bien de celui des enregistreurs de salon. C'est un appareil qui n'a jamais eu un grand succès en occident, mais qui avait trouvé sa place à une époque au Japon, notamment.
Le dernier enregistreur Sony. Image Sony.
Les enregistreurs de Blu-ray sont l'équivalent des magnétoscopes d'antan, ou des enregistreurs de DVD : ils permettent de stocker des vidéos enregistrées à la télévision (n'espérez pas en profiter pour enregistrer Netflix ou d'autres services de streaming) sur des disques onéreux et pas nécessairement fiables dans le temps. Car il faut bien l'avouer, l'intérêt reste assez faible, ce qui explique le peu de succès de ces appareils dans nos contrées. Les enregistreurs de DVD (puis de Blu-ray) ont été remplacés assez rapidement par des appareils qui intégraient un disque dur, puis par le cloud et les services de replay des différentes chaînes. En 2026, l'enregistrement sur un support physique n'est plus vraiment à la mode.
Dans la pratique, du côté de Sony, les ventes étaient assez faibles : elles sont passées d'environ 6,4 millions d'enregistreurs en 2011 au Japon (toutes marques confondues) à 620 000 en 2025. Le BDZ-ZW1900 (sorti en 2024) et les BDZ-FBT4200, FBT2200 et FBW2200 (qui datent de 2023) seront donc les derniers enregistreurs de Sony. Les derniers modèles seront produits ce mois-ci. Pour vous donner une idée, le dernier modèle en date était compatible BD-XL (des disques qui peuvent stocker 100 Go dans cette variante enregistrable), intégrait un disque dur de 1 To et proposait deux tuners numériques. Le prix japonais est de l'ordre de 85 000 ¥, soit un peu plus de 450 €.
Et les lecteurs ?
Soyons clairs sur un point, pour terminer : l'annonce de Sony se limite aux enregistreurs de Blu-ray de salon. Les lecteurs de Blu-ray sont encore produits, et Sony ne propose plus directement de lecteurs ou de graveurs pour le monde informatique. Si vous avez l'habitude d'encore acheter des films en Blu-ray (ou en Blu-ray Ultra HD), il ne faut pas paniquer pour le moment : les principaux constructeurs continuent à vendre des platines. Et Sony a par exemple dévoilé un nouveau modèle en 2025, le BDP-X700.
L'information peut vous éviter une petite déconvenue : si Apple adapte régulièrement la prise en charge des manettes tierces dans ses différents systèmes (iOS, macOS, etc.) et que les accessoires des PlayStation 4, PlayStation 5, Xbox One, Xbox Series et Nintendo Switch sont compatibles, ce n'est pas (encore ?) le cas des accessoires de la Nintendo Switch 2, sortie l'été dernier.
Les Joy-Con 2. Image Nintendo.
Les Joy-Con 2 ou la manette Pro Controller pour Switch 2 sont en effet incompatibles avec les appareils Apple. Si vous tentez de les jumeler, ils ne seront pas détectés et la liaison filaire, possible sur la manette, n'est pas fonctionnelle. Elle est reconnue comme un périphérique HID, mais les boutons ne réagissent pas. C'est aussi le cas pour la manette de Game Cube lancée en même temps que la console pour l'émulateur officiel de Nintendo.
La manette Pro Controller. Image Nintendo.
Apple tend généralement à mettre à jour rapidement ses systèmes quand de nouveaux accessoires sortent, avec une prise en charge assez large : les gâchettes haptiques ou les LED colorées de la DualSense sont parfaitement utilisables en Bluetooth sur Mac ou iPhone. Mais dans le cas de la Nintendo Switch 2, c'est un peu compliqué : Nintendo utilise visiblement un protocole spécifique, basé sur le Bluetooth LE, alors que la majorité des autres manettes du marché passent par le Bluetooth dans sa version classique. En attendant une éventuelle mise à jour de la part d'Apple, nous vous rappelons que les Joy-Con de la première Switch et la première version du Pro Controller fonctionnent parfaitement sur Mac, iPhone et iPad, retour haptique compris pour la seconde.
Il y a quelques mois, Google a surpris pas mal de gens : les Pixels sont devenus compatibles (dans une certaine mesure) avec AirDrop, la technologie de partage d'Apple. Et sur le site de présentation du Google Pixel 10a, Google sème le doute : un message indique explicitement « Continuez à discuter en vidéo, même avec FaceTime. ».
Le petit 2 n'indique pas la solution choisie par Google, c'est uniquement une note sur le fait que FaceTime est une marque déposée d'Apple. Maintenant, une question se pose : que veut réellement dire ce message ?
Première possibilité : Google a une solution
La première possibilité est peu probable, mais imaginons. Peut-être que comme pour AirDrop, Google a trouvé une solution pour proposer une interopérabilité avec FaceTime. Ce n'est pas totalement impossible, et nous pouvons soit imaginer que Google a effectué de la rétro-ingénierie sur le protocole de FaceTime, soit supposer qu'Apple a permis à Google d'en profiter. Même si c'est assez rare, Apple licencie parfois certaines de ses technologies : de nombreux téléviseurs sont AirPlay 2 et il existe même quelques smartphones Android officiellement compatibles avec AirPlay (la première version), par exemple chez HTC. Mais c'est tout de même peu probable : un tel changement mériterait plus qu'une case dans une présentation.
Le Pixel 10a. Image Google.
Deuxième possibilité : Google joue sur les mots
La seconde possibilité, la plus probable (et c'est ce qu'Android Authority pense aussi), est que Google joue sur les mots. Techniquement, les smartphones Android peuvent participer à des conversations FaceTime en vidéo depuis iOS 15, sur le web. Cette solution permet uniquement de répondre à des appels, et seulement si la personne a décidé de partager un lien, mais elle existe. La phrase de Google n'est pas mensongère, mais elle est extrêmement biaisée : ce n'est pas aussi simple que depuis un iPhone.
Troisième possibilité : Steve Jobs sort de sa tombe pour passer FaceTime en open source
Bon, c'est évidemment une blague. Lors de l'annonce de FaceTime avec l'iPhone 4, il y a une bonne quinzaine d'années, Steve Jobs avait annoncé que le protocole employé pour discuter entre deux iPhone 4 (et uniquement en Wi-Fi) était ouvert. Mais c'était tout simplement complètement faux : il avait décidé de l'annoncer sans prévenir les personnes qui développaient la technologie. Et dans les faits, Apple n'a évidemment jamais ouvert FaceTime.
Depuis quelques années maintenant (iOS 14.5 et macOS Big Sur 11.3), Apple prend en charge la manette de la PlayStation 5, la DualSense. Et plus de cinq ans après la sortie de la console, Sony se décide enfin à proposer une version « pour PC » (et Mac) de sa manette. C'est logique, dans un sens : les portages des exclusivités PlayStation 5 sur PC se vendent bien, et la DualSense est plus complète que la manette des Xbox Series, qui a longtemps été la référence dans le monde PC.
La manette DualSense pour PC. Avec un câble. Image Sony.
Cette version spécifique, attendue au Japon le 5 mars, est un peu plus onéreuse que la version classique : 11 480 ¥ contre 10 436 ¥ (environ 62 et 56 €, respectivement, elle vaut 75 € en France). Une différence qui ne provient pas d'une différence physique, la manette est a prioriune version Midnight Black identique à la version en vente actuellement, mais d'un accessoire. Car la solution de Sony pour vendre une manette « pour PC » est la même que Microsoft en son temps : mettre un câble dans la boîte.
C'est la seule différence selon nos confrères japonais de Game Watch : Sony va mettre un câble USB-C vers USB-C dans la boîte. Les manettes vendues seules actuellement ne sont pas fournies avec le câble en question, et Sony met un câble USB-A vers USB-C dans la boîte de ses consoles. Rappelons qu'il sert essentiellement à recharger la batterie de la manette : la manette est Bluetooth. Cette variante a donc peu d'intérêt, sauf si vous n'avez pas du tout de câble USB-C chez vous.
Si vous avez un Mac avec une encoche, vous avez peut-être déjà pesté devant son inutilité, même si elle a permis la réduction des bordures sur certains modèles tout en gardant un ratio 16:10. Les développeurs de Seam, une app pour Mac, ont décidé d'en faire quelque chose, contrairement à Apple. Ils se sont inspirés de la Dynamic Island apparue sur les iPhone 14 Pro pour une réinterprétation sous macOS.
La connexion d'AirPods.
L'app vaut 10 $, mais il est possible de la tester pendant 48 heures. Une fois le long tunnel d'autorisations imposé par macOS, il est possible d'en profiter. Comme la Dynamic Island des iPhone, l'app étend l'encoche des Mac pour afficher des informations. Elle peut récupérer les informations sur ce que vous êtes en train d'écouter (Musique ou Spotify), afficher les calendriers, des alertes ou la connexion des AirPods.
Le tunnel d'autorisations.
La mise en place est un peu limitée par les contraintes physiques : il est évidemment impossible d'afficher des données dans l'encoche elle-même et donc Seam affiche ses données de part et d'autre de cette dernière. Comme la Dynamic Island, la zone peut s'étendre pour afficher plus d'informations si vous approchez le curseur de la zone.
Seam cache certains menus. En haut, sans Seam. Au milieu, avec : il cache deux menus en partie. En bas, il cache totalement deux menus.
D'un point de vue purement pratique, ce n'est pas parfait. Premièrement, la différence entre le noir de l'écran et celui de l'encoche peut être visible, surtout sur un MacBook Air. C'est un point qui dépend de la technologie des écrans et une dalle OLED (attendue un jour dans les Mac) serait évidemment plus adaptée. Deuxièmement, le curseur n'est pas affiché en permanence, ce qui peut donner une impression bizarre : il est caché par l'encoche (assez logiquement) mais pas par la zone gérée par Seam. Et troisièmement, Seam cache de temps en temps les menus. C'est un point qui va dépendre des apps et de votre Mac, mais sur un MacBook Air, Seam passe devant les menus centraux de Musique, par exemple. Sur les apps avec des menus moins nombreux (Safari, par exemple), le problème se pose moins.
On peut voir la limite de Seam avec le curseur.
Un peu d'IA
Nous sommes en 2026, il faut évidemment de l'IA. Seam intègre un petit modèle de transcription en local, qui va permettre de capter votre voix et récupérer vos paroles sous forme de texte. Cette fonction nécessite une licence, un modèle local et semble un peu redondante avec la dictée intégrée à macOS.
De l'IA.
Pour terminer, il faut noter une chose : certains développeurs tendent presque parfois le bâton pour se faire battre. Car il est évident que Seam est un candidat parfait pour se faire « sherlocker » dans une future version de macOS avec des MacBook Pro OLED.
C'est un point qui ne change rien à son intérêt : elle rend un peu plus utile une zone qui ne l'est pas en temps normal. La possibilité de voir en permanence ce qui est joué est pratique, l'affichage de certaines notifications aussi, et l'app vaut probablement ses 10 $. Mais il faut aussi être honnête : une prise en charge native devrait être un peu mieux intégrée, même si les développeurs de Seam ont probablement fait ce qu'ils pouvaient avec les limites de macOS…
Depuis une dizaine d'années, les fabricants de téléviseurs essayent de vendre une nouvelle évolution dans la définition des appareils. Après la SD (480i ou 576i), la HD — du 720p au 1080p — et l'Ultra HD (aussi appelée 4K), l'étape suivante devait être le 8K. Pourquoi devait ? Parce qu'environ huit ans après les premiers téléviseurs (les premiers modèles réellement commercialisés datent de 2018), les fabricants abandonnent peu à peu la technologie.
Samsung y croit encore. C'est tout. Image Samsung.
Le dernier en date est LG : la gamme 2026 ne comprend pas de téléviseurs 8K. Les modèles OLED 8K sont abandonnés et LG continue uniquement à vendre un modèle de la gamme 2024 en LCD. TCL avait abandonné officiellement ce marché en 2023 (et le dernier modèle date de 2021), et Sony a abandonné la norme en avril 2025 (et est en passe de sortir du marché des téléviseurs). En pratique, seul Samsung propose encore des téléviseurs 8K. Même dans l'association qui doit promouvoir la technologie, les sociétés abandonnent : elle comptait 33 membres en 2022 et seulement 16 en 2026, selon Ars Technica.
Les quatre problèmes du 8K
La 8K, c'est quoi ? Une définition de 7 680 × 4 320, soit quatre fois plus de pixels qu'en 4K. Et c'est cette densité qui bloque un peu la technologie, il faut l'avouer. Premièrement, la densité est telle qu'il faut une dalle extrêmement grande pour commencer à voir une réelle différence entre une dalle 4K et une 8K. Typiquement, même en prenant un modèle de 80 pouces, il faut être à environ deux mètres pour réellement discriminer du 4K et du 8K1. Avec trois mètres de recul, vous ne verrez plus la différence. Sur les diagonales plus faibles, c'est peine perdue : la différence entre 4K et 8K est imperceptible.
Un tableau qui donne quelques indices pour déterminer s'il est possible d'avoir une meilleure image en 8K.
Le second problème est physique : une densité de pixels plus élevée implique généralement un rétroéclairage plus puissant (sur les modèles LCD) ou l'obligation de créer des pixels physiquement plus petits (dans le cas de l'OLED). Dans les deux cas, c'est compliqué, et l'impact sur la consommation globale n'est pas négligeable. Les téléviseurs plasma, par exemple, ne sont pas passés à la 4K pour cette raison : un hypothétique modèle plasma 4K n'aurait pas pu être commercialisé à l'époque à cause de sa consommation. L'effet secondaire de ce défaut, c'est que les pics lumineux sont plus faibles à rétroéclairages identiques.
Le troisième problème, c'est évidemment les contenus. La majorité des ordinateurs n'est pas capable d'afficher en 8K2 (il faut une sortie HDMI 2.1) et les médias physiques n'offrent pas cette possibilité. Au niveau de la diffusion en broadcast, le hertzien (utilisé en France) n'offre pas assez de bande passante et les rares offres disponibles sont au Japon, via le satellite. Enfin, même en streaming, les différents services n'offrent pas de 8K. En partie parce que la bande passante nécessaire est élevée (même si ce n'est plus totalement un problème) et en partie parce que les sources 8K restent très rares. Dans le cinéma, les films tournés en numérique sont souvent uniquement montés en 4K, tout comme les séries. Il est théoriquement possible d'obtenir un niveau de détail suffisant en partant d'un des rares films modernes tournés en IMAX ou en 70 mm, mais les longs-métrages tournés sur pellicule sont très rares. Sur les vieux films, le résultat dépendra du niveau de conservation des négatifs.
En pratique, les seules sources accessibles pour un utilisateur lambda sont essentiellement ce qui a été tourné avec un smartphone (Samsung propose de filmer en 8K) et éventuellement quelques vidéos sur YouTube, qui tend à compresser un peu trop. Dans tous les autres cas, les téléviseurs 8K affichent du contenu 4K ou 1080p upscalé et même si les technologies d'agrandissement se sont améliorées, une image en 4K sur un téléviseur 4K sera au moins aussi bonne (et parfois meilleure) qu'une image en 4K sur un téléviseur 8K.
Le dernier point est évidemment fortement lié aux trois premiers : personne n'achète de téléviseurs 8K. Car au-delà des limites techniques et des contenus, les téléviseurs sont onéreux. Selon l'institut de recherche Omdia, il y avait un peu plus de 1 milliard de téléviseurs 4K dans le monde en septembre 2024… et seulement 1,6 million de téléviseurs 8K. Même en ajoutant les ventes de 2025 (environ 135 000 exemplaires dans le monde, toujours selon Omdia, soit 0,1 % du marché), on est a priori encore sous les 2 millions.
En résumé, personne n'achète de TV 8K, il n'y a pas de contenus et les fabricants arrêtent la production… ce qui réduit l'intérêt de la technologie. Dans la pratique, la norme devrait suivre la 3D et quelques autres technologies dans le grand cimetière des innovations abandonnées.
C'est une moyenne, une généralisation : on ne doute pas que certains ici indiqueront qu'ils voient une différence. ↩︎
Et ne parlons même pas de la puissance nécessaire pour animer des jeux vidéo en 8K. ↩︎
Logitech propose de nombreuses promotions cette semaine sur Amazon, avec plusieurs claviers et souris intéressants si vous êtes sur Mac. Le premier est le clavier MX Keys Mini pour Mac : ce modèle Bluetooth compact a un agencement Apple et est en promotion à 70 € au lieu de 120 € en prix public, une belle réduction.
Image Logitech.
Un autre clavier en promotion est le Signature Slim K950, un modèle classique (avec pavé numérique) avec des touches qui ont une course courte. Le clavier avec son double marquage PC/Mac — un compromis valable pour l'agencement Apple — est à 60 € en noir (au lieu de 90 €). Si vous préférez le blanc, la promotion est un peu plus faible, 70 €. Si vous avez besoin d'une souris, un kit comprenant aussi une souris Signature Plus M750 (elle est vendue seule pour 55 €) est à 90 € au lieu de 120 €. Un coupon à cocher descend même le prix à 83,96 €.
Image Logitech.
Le troisième clavier est le Pop Icon Keys, un modèle Bluetooth. Il est à 40 € au lieu de 60 € dans sa variante noire, avec encore une fois un double marquage PC/Mac et des couleurs acidulées pour certaines touches.
Image Logitech.
Des souris en promotion
Dans les souris, la MX Master 3S est en promotion à 79 € au lieu de 120 €. C'est une évolution silencieuse de la MX Master 3 et même si la MX Master 4 est sortie, il s'agit toujours d'une excellente souris. Il y a aussi une promotion sur la souris verticale Lift, qui est à 45 € au lieu de 80 € en prix public (en noir). Enfin, si vous avez besoin d'une souris d'appoint pas trop onéreuse, la Signature M650 est à 25 € au lieu de 50 €. C'est la version pour les petites mains en rose. Les autres variantes ne sont pas en promotion, mais elle existe en noir et en blanc, pour les grandes mains et même pour les gauchers.
Mise à jour du 6 février 2026 : La TNT Ultra HD est bien passée en Dolby Vision et HDR10+ il y a quelques jours, pour les Jeux olympiques d'hiver de 2026. Si vous voulez profiter de la cérémonie d'ouverture, elle sera retransmise dès 20 heures sur France 2. Si vous avez un téléviseur Ultra HD et que vous êtes couverts par la TNT Ultra HD, vous pourrez donc en profiter en HDR et en Dolby Atmos.
Article original : pour les Jeux olympiques de Paris, en 2024, France Télévisions avait inauguré une chaîne en 4K, France 2 UHD. Si la compétition avait bien été proposée en Ultra HD nativement (avec HDR10), elle ne propose plus depuis que des contenus upscalés. Mais ça va changer : pour les Jeux olympiques d'hiver de 2026, le contenu natif va revenir. Et en Dolby Vision et HDR10+.
Les sports d'hiver sont bien adaptés au HDR. France Olympique, CC BY-NC-ND 2.0.
C'est Ultra-K qui l'indique, France 2 UHD va donc passer dans une diffusion mixte avec du Dolby Vision et HDR10+. Les deux normes permettent d'améliorer un peu le rendu du HDR avec des métadonnées dynamiques. Elles permettent surtout d'adapter le rendu à des contenus dont la luminosité moyenne varie beaucoup, comme les Jeux olympiques. En effet, les réglages pour les sports d'intérieur et pour ceux qui prennent place dans la neige, en extérieur, ne sont pas forcément les mêmes. Selon lui, le Dolby Atmos devrait aussi être de la partie pour la partie audio.
Pour la TNT (diffusion hertzienne) et Fransat (diffusion satellite), le changement est prévu le 26 janvier 2026, un peu avant la cérémonie d'ouverture prévue le 6 février 2026 à Milan. Les différents opérateurs qui diffusent déjà France 2 UHD devraient probablement suivre, mais il n'y a pas encore de retour de la part d'Orange, Free, SFR ou Bouygues Telecom. Le fournisseur d'accès régional OrneTHD a par contre annoncé l'arrivée de cette version le 26 janvier.
Au niveau de la compatibilité, vous aurez besoin d'une box compatible 4K et HDR10 chez les différents opérateurs (et évidemment un téléviseur compatible). Pour la TNT, il faut un modèle 4K compatible HDR10 avec un tuner DVB-T2 et être couvert par la TNT UHD. Attention, certaines zones qui diffusaient la zone en 2024 ne sont plus couvertes en 2025. Le meilleur moyen de vérifier la compatibilité sans fouiller la fiche technique du téléviseur est de faire une recherche dans l'interface. Enfin, ceux qui possèdent un téléviseur uniquement HDR10 pourront tout de même profiter de la chaîne : dans le cas précis d'un flux à la fois compatible HDR10+ et Dolby Vision, la rétrocompatibilité HDR10 classique est assurée. Sans les métadonnées dynamiques, évidemment, donc avec potentiellement une dynamique réduite dans certains cas.
Comme à chaque version majeure de macOS, Apple a un peu modifié certains réglages. Et avec macOS Tahoe, une modification dans les réglages liés au protocole SMB (utilisé pour les transmissions vers les NAS, notamment) peut empêcher dans certains cas les sauvegardes Time Machine. C'est un problème pernicieux car macOS n'affiche pas de messages, selon Tao of Mac, les sauvegardes ne sont tout simplement pas effectuées, sans autre forme de procès.
L'icône de sauvegarde de macOS Tahoe.
Le problème vient a priori des réglages liés au chiffrement. Pendant longtemps, il a été recommandé de désactiver le chiffrement des connexions SMB, pour des raisons de performances. Sur les Mac, cette fonction imposée par Apple ralentissait fortement les débits vers un NAS, surtout sur les modèles d'entrée de gamme. Mais avec macOS Tahoe, ce chiffrement est obligatoire.
Vérifiez vos sauvegardes
La première chose à faire, c'est de vérifier si Time Machine sauve bien les données. Dans Réglages Système > Général > Time Machine, vous verrez les détails sur les sauvegardes et la date de la dernière sauvegarde. Elle doit évidemment être proche de la date actuelle, sinon il y a un problème.
Un exemple de sauvegardes fonctionnelles.
Si les sauvegardes datent d'il y a plus de quelques jours, c'est le moment d'investiguer. Vous pouvez déjà tenter une sauvegarde manuelle en faisant un clic secondaire puis Sauvegarder maintenant sur….
Vérifier les paramètres SMB
Pour vérifier si vous avez désactivé le chiffrement (peut-être sans vous en souvenir), il faut taper la commande suivante dans le terminal de macOS.
sudo nano /etc/nsmb.conf
Si vous voyez les lignes suivantes, c'est probablement la raison du problème.
[default]
signing_required=no
Pour mettre toutes les chances de votre côté, il faut remplacer les deux lignes par les suivantes où — si le fichier est vide —, coller les lignes suivantes, avant de sauver avec control + X.
Cette page sur GitHub explique aussi qu'il est préférable de modifier le nom de la sauvegarde (et donc de votre Mac) pour éviter les caractères non-ASCII. Il donne aussi quelques réglages pour les NAS Synology, que nous n'avons pas pu tester, faute de NAS de la marque sous la main. Mais normalement, un NAS avec les paramètres par défaut devrait maintenant permettre la sauvegarde de façon fiable… et régulière.
Rappelons enfin que macOS Tahoe met (presque) le dernier clou dans le cercueil du protocole AFP et des boîtiers Time Capsule : le protocole SMB est obligatoire pour les nouvelles sauvegardes sous macOS Tahoe. Les sauvegardes existantes (si vous avez migré un Mac depuis un système précédent) restent accessibles en AFP, mais macOS 27 supprimera cette fonction. Un problème qui touche essentiellement les boîtiers Time Capsule d'Apple (qui ne proposent que l'AFP) et quelques vieux NAS. La sauvegarde en SMB, plus fiable, a été déployée dès macOS Sierra (2016) et les fabricants de NAS proposent donc généralement cette possibilité.