↩ Accueil

Vue lecture

☕️ Après 20 ans à s’occuper du design chez Apple, Alan Dye part chez Meta

Selon son profil LinkedIn, Alan Dye est arrivé en 2006 chez Apple. En 2015, quand Jony Ive prenait la tête du design chez Apple, Alan Dye prenait la direction de la division User Interface Design. Jony Ive est parti en 2019 fonder sa propre entreprise, avant de se faire racheter par OpenAI. Jony Ive avait récupéré trois autres anciens responsables de chez Apple : Scott Cannon, Evans Hankey et Tang Tan.

« Compte tenu du secret qui entoure l’entreprise Apple, il est difficile de créditer des travaux à des designers en particulier, mais Dye a travaillé sur plusieurs des principales nouvelles plateformes et changements de design d’Apple, notamment l’interface de visionOS et son nouveau langage de design Liquid Glass », explique Engadget.

Via un message sur Threads, confirmant une information de Bloomberg, Mark Zuckerberg annonce qu’il rejoint Meta : « Aujourd’hui, nous mettons en place un nouveau studio de création Reality Labs dirigé par Alan Dye, qui a passé près de 20 ans à diriger le design chez Apple ». Alan Dye sera placé sous le directeur technique de Meta, Andrew Bosworth.

Alan Dye ne vient pas tout seul, il arrive avec Billy Sorrentino, également ancien d’Apple (directeur sénior chez Apple Design Team). Le Reality peut aussi compter sur des forces internes : Joshua To et Pete Bristol, tous deux chez Meta depuis un peu moins de cinq ans.

Chez Apple, Stephen Lemay prendra la succession d’Alan Dye, selon des sources de Bloomberg.

Il y a quelques jours, c’était l’opération inverse qui était réalisée sur l’intelligence artificielle : Apple débauchait Amar Subramanya (ex-Google et Microsoft) comme vice-président de l’IA. Il doit s’occuper des modèles Apple Foundation, de la recherche en machine learning, de la sécurité et de l’évaluation de l’IA.

  •  

☕️ Après 20 ans à s’occuper du design chez Apple, Alan Dye part chez Meta

Selon son profil LinkedIn, Alan Dye est arrivé en 2006 chez Apple. En 2015, quand Jony Ive prenait la tête du design chez Apple, Alan Dye prenait la direction de la division User Interface Design. Jony Ive est parti en 2019 fonder sa propre entreprise, avant de se faire racheter par OpenAI. Jony Ive avait récupéré trois autres anciens responsables de chez Apple : Scott Cannon, Evans Hankey et Tang Tan.

« Compte tenu du secret qui entoure l’entreprise Apple, il est difficile de créditer des travaux à des designers en particulier, mais Dye a travaillé sur plusieurs des principales nouvelles plateformes et changements de design d’Apple, notamment l’interface de visionOS et son nouveau langage de design Liquid Glass », explique Engadget.

Via un message sur Threads, confirmant une information de Bloomberg, Mark Zuckerberg annonce qu’il rejoint Meta : « Aujourd’hui, nous mettons en place un nouveau studio de création Reality Labs dirigé par Alan Dye, qui a passé près de 20 ans à diriger le design chez Apple ». Alan Dye sera placé sous le directeur technique de Meta, Andrew Bosworth.

Alan Dye ne vient pas tout seul, il arrive avec Billy Sorrentino, également ancien d’Apple (directeur sénior chez Apple Design Team). Le Reality peut aussi compter sur des forces internes : Joshua To et Pete Bristol, tous deux chez Meta depuis un peu moins de cinq ans.

Chez Apple, Stephen Lemay prendra la succession d’Alan Dye, selon des sources de Bloomberg.

Il y a quelques jours, c’était l’opération inverse qui était réalisée sur l’intelligence artificielle : Apple débauchait Amar Subramanya (ex-Google et Microsoft) comme vice-président de l’IA. Il doit s’occuper des modèles Apple Foundation, de la recherche en machine learning, de la sécurité et de l’évaluation de l’IA.

  •  

American Express faisait n’importe quoi avec les cookies et écope d’une amende

Attention à l’indigestion
American Express faisait n’importe quoi avec les cookies et écope d’une amende

Après Condé Nast la semaine dernière, c’est au tour d’American Express d’écoper d’une amende administrative de 1,5 million d’euros de la CNIL. En cause là encore, le « non-respect des règles applicables en matière de traceurs (cookies) ». Explications.

Condé Nast, American Express : même combat

La semaine dernière, Condé Nast (éditrice de Vanity Fair, Vogue, GQ et AD) écopait d’une amende de 750 000 euros pour exactement le même motif, à savoir « le non-respect des règles applicables en matière de traceurs (cookies) ». La société s’était remise dans le droit chemin, mais la CNIL retenait la gravité du manquement et prononçait une sanction.

L’histoire se répète, mais avec un poids lourd du secteur bancaire et une amende administrative deux fois plus importante. Il y a plusieurs similitudes entre deux affaires qui arrivent à quelques jours d’intervalle… le début d’une nouvelle série ?

La CNIL rappelle qu’American Express est le « troisième émetteur de cartes de paiement au monde ». En janvier 2023 (il y a donc presque trois ans), elle a mené des contrôles sur le site Internet et dans les locaux de l’entreprise.

En cause, American Express déposait des traceurs sans le consentement de l’utilisateur ou malgré son « refus de consentir ». De plus, la société continuait « à lire les traceurs précédemment déposés malgré le retrait de leur consentement ». La délibération est publiée, permettant d’en apprendre davantage que le communiqué sur les tenants et aboutissants.

À peine arrivé, 31 cookies déposés

Lors du contrôle le 30 janvier 2023, le rapporteur de la CNIL explique que, « dès l’arrivée de l’utilisateur sur le site web  » www.americanexpress.com/fr-fr/ « , et avant toute action de sa part, huit cookies, qui ne bénéficient pas de l’exemption prévue par les textes susvisés et auraient donc dû être soumis au consentement de l’utilisateur, étaient déposés ».

American Express ne conteste pas et affirme avoir corrigé le tir en novembre 2024 afin que seuls les « cookies essentiels » soient déposés dès l’arrivée sur la page d’accueil. Lors d’un nouveau contrôle le 16 mai 2025, la CNIL confirme qu’il n’y a plus de trace du dépôt de ces cookies.

Les huit cookies ne sont que la face émergée de l’iceberg. En tout, le site déposait 31 cookies, mais les 23 autres entrent dans champ de l’exemption prévue par l’article 82 et sont donc considérés comme essentiels et non soumis au consentement.

Refusez des cookies, on vous les sert de force

Vient ensuite le cas du dépôt de cookies malgré le refus de l’utilisateur. Deux cas sont à distinguer. Sur le site principal tout d’abord. Quand un utilisateur cliquait sur « Tout refuser », six nouveaux cookies, considérés comme non essentiels par le rapporteur, étaient déposés. « Au regard des explications fournies par la société quant aux finalités poursuivies par ces cookies, le rapporteur, dans sa réponse et lors de la séance, a indiqué abandonner cette branche du manquement ».

Autre problème similaire, à partir du site email.amex-info.fr cette fois-ci. Toujours le 30 janvier 2023, la délégation de la CNIL continue de naviguer sur le site d’American Express et, au détour d’un clic et de l’ouverture d’un nouvel onglet, elle constate « le dépôt de dix nouveaux cookies. Le rapporteur considère que, parmi ces dix cookies, trois nécessitaient le recueil du consentement ». American Express ne conteste pas et affirme s’être mis en conformité par la suite.

Vous avez retiré le consentement, ok ! et… ?

Dernier grief, la lecture de cookies après retrait du consentement. Pour rappel, on doit pouvoir retirer son consentement aussi simplement qu’on l’a donné et ce à tout moment. Lors de la navigation, la CNIL a accepté les cookies, puis les a refusés. Elle a constaté « la présence sur son navigateur de l’ensemble des cookies déposés avant retrait du consentement, parmi lesquels plusieurs étaient pourtant soumis au consentement de l’utilisateur ».

En défense, l’entreprise américaine « soutient que le rapporteur n’apporte aucune preuve de ces opérations de lecture et que la seule présence des cookies sur le terminal de l’utilisateur est insuffisante pour démontrer un manquement ».

Lors des échanges avec l’entreprise américaine, le rapporteur a « produit un fichier HAR [HTTP Archive, ndlr] démontrant que les cookies précédemment déposés et toujours présents sur le navigateur continuaient, après retrait du consentement, à être lus ». American Express a fini par se mettre en conformité, mais « le manquement demeure néanmoins caractérisé pour le passé ».

Bien évidemment, American Express s’oppose à la publication de la décision et estime que le montant de l’amende proposé par le rapporteur – 1,5 million d’euros – est « disproportionné et insuffisamment motivé ». La formation restreinte de la CNIL estime au contraire que le montant est « adapté ».

De plus, la publicité de la sanction « se justifie au regard de la gravité avérée des manquements en cause, de la position de la société sur le marché et du nombre de personnes concernées, lesquelles doivent être informées ».

  •  

☕️ Le temps légal français en passe de valider une nouvelle optimisation énergétique

Cela fait maintenant longtemps que l’Agence nationale des fréquences (ANFR) s’est lancée dans une opération de sobriété énergétique pour la diffusion du temps légal français via les ondes. Ce temps légal permet pour rappel aux équipements « d’être synchronisés de façon extrêmement précise ».

« Disposer d’un signal horaire permettant une synchronisation de tous les équipements concernés est donc essentiel pour la vie de la Nation, notamment dans des domaines touchant à la sécurité », expliquait l’Agence. Cet impératif peut se conjuguer avec la sobriété énergétique.

Des baisses ont déjà eu lieu. En 2020 par exemple, la puissance du site d’Allouis qui diffuse le signal est passée de 1 110 à 800 kW. Il y a un an, des expérimentations ont débuté pour la réduire encore, à 675 kW, pendant une semaine. Entre mai et novembre 2025, la puissance de diffusion a de nouveau été abaissée de 800 à 675 kW.

Dans les deux cas, tout s’est bien passé. La deuxième phase était plus complexe car elle « incluait une opération sensible : le passage de la diffusion du pylône nord au pylône sud le 14 octobre. Même durant cette manœuvre technique, aucune dégradation notable du signal n’a été enregistrée. Ces résultats confirment la robustesse de la diffusion, même avec une puissance réduite ».

De nouvelles phases de tests sont prévues pour valider définitivement l’optimisation énergétique avec le passage à 675 kW (soit quasiment deux fois moins que les 1 110 kW d’avant 2020) :

  • Retour à 800 kW à partir du 18 novembre 2025.
  • Nouvelle période à 675 kW du 16 décembre 2025 au 31 mars 2026.

« À l’issue de cet hiver d’observation, un passage permanent à 675 kW pourrait être décidé dès le deuxième trimestre 2026 », ajoute l’ANFR.

  •  

Amazon lance ses puces Trainium3 pour l’IA : 2,5 pétaflops et 144 Go de HBM3e

Mélange de puces et de chiffres
Amazon lance ses puces Trainium3 pour l’IA : 2,5 pétaflops et 144 Go de HBM3e

Amazon présente ses UltraServers pour les entrainements et l’inférence d’IA avec Trainium3. Le géant du Net augmente à la fois la densité et les performances de sa puce maison, lui permettant ainsi d’afficher un gros x4,4 sur les performances. On vous détaille cette annonce.

Amazon vient d’annoncer la disponibilité pour les clients de sa nouvelle puce Trainium3 pour l’entrainement et l’inférence des intelligences artificielles. La division cloud du géant américain continue sur sa lancée, avec une nouvelle génération par an.

Des UltraServers et UltraClusters avec Trainium3 disponibles

L’année dernière, durant la conférence re:Invent, c’était Trainium2 qui était disponible et la puce Trainium3 présentée. Encore un an avant (en 2023), Trainium2 était annoncée pour remplacer le SoC Trainium de première génération.

On rembobine cette fois avec les performances. Trainium2 était annoncée comme quatre fois plus rapide sur les entrainements, avec une capacité mémoire multipliée par trois. L’efficacité énergétique (performances/watt) était multipliée par deux.

Amazon promettait des instances Trn2 avec jusqu’à 100 000 puces Trainium2 via les UltraClusters, pour une puissance de calcul pouvant atteindre « jusqu’à 65 exaflops ». Des UltraServers plus raisonnables avec 64 Trainium2 interconnectés étaient aussi de la partie, pour une puissance maximale de 83,2 pétaflops.

Les UltraClusters Elastic Compute Cloud (EC2) « sont composés de milliers d’instances EC2 accélérées, colocalisées dans une zone de disponibilité AWS donnée et interconnectées via un réseau », explique Amazon. Les UltraServers sont d’au moins un ordre de grandeur plus petits, puisqu’il est question de « plusieurs instances EC2 ».

AWS re:Invent 2025 Trainium3
AWS re:Invent 2025 Trainium3
AWS re:Invent 2025 Trainium3
AWS re:Invent 2025 Trainium3

Trainium3 : x2 sur les performances, 50 % de mémoire en plus

Nous revoilà à Trainium3, dont les UltraServers équipés de cette génération proposent « une puissance de calcul jusqu’à 4,4 fois supérieure, une efficacité énergétique quatre fois plus grande et une bande passante mémoire presque quatre fois supérieure à celle des serveurs Trainium2 UltraServers ». Trainium3 est gravée avec une technologie 3 nm.

Un UltraServer peut héberger jusqu’à 144 puces Trainium3 pour une puissance de 362 pétaflops, avec une précision en virgule flottante de 8 bits (FP8). Avec un arrondi, on arrive bien au rapport x4,4 annoncé par Amazon par rapport aux 83,2 pétaflops de la génération précédente. Un UltraServer Trn3 complet dispose de 20,7 To de mémoire HBM3e et d’une bande passante agrégée de 706 To/s.

Avec une division par 144, cela nous donne 2,5 pétaflops de calculs en FP8 et 144 Go de mémoire par puce. Le même calcul donne respectivement 1,3 pétaflop et 96 Go pour la puce Trainium2. La bande passante mémoire totale de Trn2 est de 185 To/s (on a donc un gain de x3,8 avec Trainium3).

2 500 téraflops (ou 2,5 pétaflops) pour Trainium3 alors que NVIDIA revendique pour rappel 5 000 téraflops en FP8 pour un die Blackwell, mais le fabricant en intègre deux par puce, soit 10 000 téraflops. Pour rappel, la H100 de NVIDIA est annoncée pour 3 958 téraflops en FP8.

UltraClusters : jusqu’à un million de puces Trainium3

L’entreprise affirme avoir amélioré sa partie réseau, notamment son NeuronSwitch-v1 qui permet de doubler la bande passante à l’intérieur des UltraServers. Pour les échanges entre les puces, une version améliorée de Neuron Fabric permet de réduire la latence à moins de 10 ms.

Les UltraClusters sont aussi améliorés et peuvent connecter entre eux des milliers d’UltraServers pour arriver à un total d’un million de puces Trainium, soit 10 fois plus que les 100 000 puces de la génération précédente.

Prudence sur les chiffres d’Amazon toutefois. La société se faisait récemment l’écho du projet Rainier : une « infrastructure collaborative avec près d’un demi-million de puces Trainium2 ». Trainium3 ne fait donc « que » deux fois mieux, pas 10. Les puces de Rainier sont réparties entre plusieurs centres de données aux États-Unis.

Selon Amazon, ses UltraClusters permettent « l’entraînement de modèles multimodaux avec des milliards de jetons et de l’inférence en temps réel pour des millions d’utilisateurs en simultané ».

AWS re:Invent 2025 Trainium3

Trainium4 : FP4 et au NVLink Fusion

Si vous avez lu attentivement le début de cet article, vous savez certainement de quoi parle la fin : Trainium4. Amazon annonce « six fois plus de performances de traitement (FP4), trois fois plus de performances en FP8 et quatre fois plus de bande passante mémoire ».

L’annonce sur FP4 est la conséquence directe du x3 en FP8. En divisant la précision par deux, on multiplie les performances par deux. Amazon rejoint donc NVIDIA qui était le premier à se lancer en FP4 avec Blackwell.

Enfin, Amazon prévoit de rendre Trainium4 compatible avec NVLink Fusion, une technologie NVIDIA permettant de monter « une infrastructure d’IA semi-personnalisée », avec des puces du Caméléon et celles de partenaires. Au lancement, MediaTek, Marvell, Alchip Technologies, Astera Labs, Synopsys et Cadence s’étaient associés à l’annonce.

  •  

☕️ Apple veut se (re)relancer dans l’IA et recrute Amar Subramanya (ex Google et Microsoft)

En 2018, John Giannandrea prenait la tête du développement de Siri et l’IA. Apple l’avait débauché de chez Google. Six ans plus tard, la marque à la Pomme est largement à la traine sur l’intelligence artificielle.

Dans un communiqué, Apple annonce « que John Giannandrea, vice-président sénior de l’apprentissage automatique et de la stratégie IA chez Apple, quitte son poste et restera conseiller pour l’entreprise avant de prendre sa retraite au printemps 2026 ».

Dans la foulée, l’entreprise annonce qu’Amar Subramanya arrive et prend la place de vice-président de l’IA, sous la responsabilité de Craig Federighi (vice-président sénior de l’ingénierie logicielle). Le nouveau venu est un poids lourd du domaine : il a passé 16 ans chez Google et DeepMind (il s’est notamment occupé de Gemini), puis six mois comme vice-président de l’IA chez Microsoft.

Illustration de Flock représentant l'application Siri sous forme d'oeuf en gestation nourri par le logo apple via un cordon ombilical.

En mars dernier, Mark Gurman de Bloomberg expliquait que « Tim Cook avait perdu confiance dans la capacité du responsable de l’IA, John Giannandrea, à diriger le développement des produits, il déplaçait donc un autre cadre supérieur : Mike Rockwell, le créateur du Vision Pro ».

Dans le communiqué du jour, le même Tim Cook se dit « reconnaissant pour le rôle que John a joué dans la construction et l’avancement de notre travail en IA ». Il affirme qu’il a « joué un rôle clé dans la stratégie d’IA »… mais on se demande si c’est une bonne ou une mauvaise nouvelle étant donné l’état de l’IA chez Apple vis-à-vis de ses concurrents.

Amar Subramanya s’occupera notamment des modèles Apple Foundation, de la recherche en machine learning, de la sécurité et de l’évaluation de l’IA.

  •  

☕️ Asterion rachète le datacenter de Covilhã à Altice Portugal pour 120 millions d’euros

Empêtré dans sa colossale dette, même si Patrick Drahi repousse toujours les échéances, Altice n’en finit pas de vendre certaines de ses activités. Après le centre d’appels Intelcia au Maroc, c’est au tour du datacenter de Covilhã au Portugal d’être cédé pour 120 millions d’euros à Asterion, comme le rapporte Alloforfait. Il se trouve à environ 200 km de Porto et de Lisbonne.

Asterion Industrial Partners, se présente comme « une société d’investissement indépendante spécialisée dans les infrastructures de taille intermédiaire en Europe ». La transaction devrait être finalisée au premier trimestre, une fois les autorisations réglementaires obtenues.

Covilhã Data Center Campus
Covilhã Data Center Campus. Source : Asterion

Selon le communiqué, le datacenter « offre actuellement une capacité installée de 6,8 MW, mais une architecture modulaire permet une extension significative. Le datacenter peut accueillir jusqu’à 75 MW de plus grâce à de nouveaux modules au sein du campus existant, et il est également possible d’atteindre environ 175 MW sur un terrain adjacent bénéficiant d’une alimentation électrique déjà sécurisée ».

Comme lors de la vente des datacenters de SFR à UltraEdge pour 764 millions d’euros en juin 2024, « Altice restera le locataire principal dans le cadre d’un accord de services à long terme ».

La vente de l’opérateur SFR (Altice France) est pour rappel discutée avec ses trois concurrents, Bouygues Telecom, Free et Orange.

  •  

☕️ Un Raspberry Pi 5 avec 1 Go de mémoire à moins de 50 euros… et des hausses de prix

Lors de l’annonce du Raspberry Pi 5 en 2023, il était proposé avec 4 ou 8 Go de mémoire vive, pour respectivement 70 et 94 euros. En août 2024, la fondation proposait une version avec 2 Go de mémoire et un nouveau stepping D0 pour la puce BCM2712.

Le Raspberry Pi 5 avec 2 Go était alors vendu 57 euros. Au début de l’année, le Raspberry Pi 5 explosait les compteurs avec 16 Go de mémoire pour 147 euros… loin de la promesse initiale d’un micro-ordinateur pas cher.

Dans un billet de blog, la fondation le reconnait à demi-mots et explique revenir à ses fondamentaux : « Chez Raspberry Pi, notre mission est de mettre des ordinateurs à haute performance, à faible coût et à usage général, entre les mains de personnes du monde entier ». Pour Eben Upton (CEO de Raspberry Pi), « l’élément crucial de cette phrase est le faible coût »… du moins cette fois.

Difficile de conjuguer cette promesse avec la « récente hausse sans précédent du coût de la mémoire LPDDR4 » au niveau mondial. La fondation annonce donc « des hausses de prix pour certains produits Raspberry Pi 4 et 5 », avec 5 à 25 dollars de plus, après celles annoncées en octobre pour les Compute Module et Raspberry Pi 500.

Elle a la bonne idée de proposer un tableau officiel des anciens et nouveaux prix, permettant de se rendre compte des changements :

Cette mauvaise nouvelle s’accompagne néanmoins du lancement d’une version avec 1 Go de mémoire du Raspberry Pi 5. Elle est annoncée à 45 dollars et disponible juste en dessous des 50 euros chez Reichelt, contre 51,60 euros chez Kubii. L’expédition prendra quelques jours.

Pour rappel, le Raspberry Pi original avait 256 ou 512 Mo de mémoire à son lancement, puis il est passé à 1 Go à partir du Raspberry Pi 2. Les Raspberry Pi 3 et 4 étaient aussi disponibles avec 1 Go de mémoire, mais cette version avait été abandonnée lors du lancement du Raspberry Pi 5.

  •  

☕️ Apple Plans et Ads bientôt soumis au DMA ? L’Europe a 45 jours pour se décider

La Commission européenne a reçu une notification d’Apple l’informant « que ses services Apple Ads et Apple Maps ont atteint les seuils du Digital Markets Act (DMA) ». L’Europe dispose désormais de 45 jours ouvrables pour décider si elle désigne ou non Apple comme « contrôleur d’accès » (ou gatekeeper). Si c’est le cas, Apple aura six mois pour se conformer au DMA.

Sont qualifiées de contrôleurs d’accès les plateformes ayant « un impact significatif, une position forte et durable sur le marché, et constituent une porte d’entrée importante entre entreprises et consommateurs. Cela est présumé pour les services qui comptent 45 millions d’utilisateurs actifs mensuels et 10 000 utilisateurs professionnels annuels au cours des trois derniers exercices financiers ».

Actuellement, 23 services (de sept entreprises) sont désignés comme gatekeepers, dont quatre chez Apple (huit chez Google) : l’App Store, Safari, iOS et iPadOS. Si les nouveaux services devaient être désignés comme contrôleurs d’accès, Plans rejoindrait Google Maps et Apple Ads les régies publicitaires de Google, Amazon et Meta déjà soumises au DMA.

Apple est évidemment opposée à une telle désignation : « Nous sommes impatients d’expliquer à la Commission européenne pourquoi Apple Maps et Apple Ads ne devraient pas être désignés », explique le groupe dans un communiqué repris par Reuters. Toujours selon nos confrères, Apple soutient qu’Ads ne serait pas un acteur majeur et détiendrait une part de marché minime. Même argument pour Plans face à Maps et Waze, deux services de Google.

Apple est, pour rappel, vent debout contre le DMA depuis le début et attaque régulièrement la Commission européenne, dernièrement avec une plainte contre l’Union européenne. Si elle finit généralement par se plier aux règles, non sans raler ouvertement, elle obtient parfois gain de cause. Dans le cas d’iMessage par exemple : la messagerie n’est pas visée par le DMA actuellement.

  •  

QNAP lance QuTS hero h6.0 en bêta : sécurité et haute disponibilité renforcées

Évidemment avec IA, mais locale !
QNAP lance QuTS hero h6.0 en bêta : sécurité et haute disponibilité renforcées

Le fabricant de NAS QNAP vient d’annoncer la version bêta de QuTS hero 6.0, l’interface d’administration maison basée sur le système de fichiers ZFS. Les nouveautés touchent tous les domaines, de la haute disponibilité aux LLM dans Qsirch, en passant par des snapshots immuables, FIDO2 et MCP Assistant.

QNAP propose pour rappel deux versions de son interface de gestion des NAS : QTS et QuTS hero. La première est basée sur ext4/btrfs, tandis que la seconde exploite le système de fichiers ZFS prévu pour les systèmes qui ont de très gros besoins.

« Plus de 90 % des services désormais compatibles HA »

Dans la liste des nouveautés, le fabricant annonce du changement pour la haute disponibilité (lancée en bêta au début de l’année) Dual-NAS : « Deux appareils NAS forment un cluster HA actif-passif à l’aide du High Availability Manager. La version h6.0 prend en charge encore plus de modèles et d’applications – avec plus de 90 % des services désormais compatibles HA ». La haute disponibilité n’est par contre pas disponible pour SnapSync en temps réel, Q’center, les applications tierces et VJBOD.

Snapshots immuables, même par les admins

Les snapshots immuables portent bien leur nom : « Disponibles sur tous les modèles QuTS hero, les snapshots immuables verrouillent les données contre toute modification ou contre toute suppression pour une période de protection, garantissant l’intégrité des données et la récupération rapide même après des attaques par ransomwares ».

Le constructeur affirme que ces instantanés ne peuvent pas être supprimés ou modifiés, même par les administrateurs système.

KMIP, FIDO2, Ransomware Guard, accès IP et Qtier

Avec QuTS hero h6.0 (bêta), les NAP NAS peuvent agir comme client du protocole Key Management Interoperability Protocol (KMIP) : « Les clés sont stockées à distance et appliquées automatiquement ». QNAP présente cela comme une nouveauté, mais sa page de présentation de cette fonctionnalité indique que c’est disponible à partir de QuTS hero h5.3.0.

La sécurité est renforcée avec la prise en charge des clés FIDO2 pour une authentification sans mot de passe. QNAP parle aussi d’un « démarrage sécurisé » avec une « protection matérielle pour vérifier l’intégrité du firmware au démarrage ».

Prochainement, deux fonctionnalités seront proposées. La première est Ransomware Guard pour ajouter « une détection comportementale et un isolement du Malware Remover, identifiant les anomalies, enregistrant les activités suspectes et neutralisant les menaces en temps réel ». La seconde est un accès limité à certaines adresses IP prédéfinies.

« La hiérarchisation Stockage est désormais disponible sur QuTS hero », affirme le fabricant. La répartition se fait selon trois niveaux : les données « chaudes » sur SSD PCie, les données « tièdes » sur SSD et enfin les données « froides » sur des HDD.

Daemon SMB en kernel, ACL 2.0, LLM dans Qsirch et MCP Assistant

Parmi les autres nouveautés, QNAP annonce que le daemon SMB en mode Kernel prend désormais en charge le chiffrement des données. Il est aussi question de QNAP ID SSO (connexion unique avec votre QNAP ID), de Fibre Channel NPIV (N_Port ID Virtualization) et d’un contrôle d’accès avancé ACL 2.0.

Cette version augmente le nombre maximal d’entrées de 124 à 1024, est plus rapide et consomme moins de mémoire. QNAP précise qu’ACL « est appliqué dossier partagé par dossier partagé. Les utilisateurs peuvent choisir la version ACL à utiliser pour chaque dossier, mais une fois ACL 2.0 activé, il n’est pas possible de revenir à ACL 1.0 ». Plus de détails sont disponibles sur cette page.

La plateforme de gestion maison AMIZcloud permet la surveillance des groupes HA, mais proposera aussi prochainement d’autres fonctionnalités de surveillance : activité de connexion, activité des fichiers et orchestration VM/conteneur.

L’IA n’est pas oubliée avec des LLM sur site avec Search RAG dans Qsirch permettant de déployer en local des modèles de langage opensource comme DeepSeek, Gemma, Phi et Mistral. Cette fonctionnalité a déjà été annoncée en avril. Pour en profiter, il faut un NAS QAI-h1290FX, TS-h1290FX ou TS-h1277AFX équipé d’un GPU NVIDIA RTX PRO 6000 (Blackwell Max-Q), RTX 6000 ou 4000 Ada.

Enfin, MCP Assistant « permet aux administrateurs de gérer le NAS avec des commandes en langage naturel avec des outils comme Claude Desktop, VS Code, Telegram ou n8n ».

La liste des NAS compatibles et les notes de versions se trouvent par ici. Pour télécharger QuTS hero h6.0 bêta, c’est par là.

  •  

☕️ L’Europe demande des comptes à Shein, qui « pourrait présenter un risque systémique »

La semaine dernière, la Commission européenne a demandé à la plateforme Shein de lui « fournir des informations sur la vente de produits illégaux au titre de la législation sur les services numériques ». Cela fait suite à « la vente de produits illégaux en France et de plusieurs rapports publics ».

La Commission « soupçonne que le système de Shein pourrait présenter un risque systémique pour les consommateurs dans l’ensemble de l’Union européenne ». Elle demande à la plateforme de fournir des détails « sur la manière dont elle veille à ce que les mineurs ne soient pas exposés à des contenus inappropriés pour leur âge […] ainsi que sur la manière dont elle empêche la circulation de produits illicites sur sa plateforme ».

La semaine dernière devait se tenir l’audience de Shein devant le tribunal judiciaire. Elle « a été renvoyée au vendredi 5 décembre, à la demande de l’avocat de l’État », expliquent l’AFP et Le Monde. Le magistrat Francis Le Gunehec explique n’avoir reçu que la veille de l’audience les arguments de défense de Shein et a demandé un report. Il existe une « contestation assez radicale par Shein de la possibilité même [pour l’État] de venir voir le juge », ajoute-t-il.

De son côté, le ministère public « a d’ores et déjà annoncé qu’il ne s’associerait pas à la demande de blocage du site Shein formulée par l’État », ajoutent nos confrères. « L’assignation de l’État repose essentiellement sur une posture morale et des articles de presse, c’est une posture très politique qui est juridiquement fragile », explique l’avocat spécialisé Alexandre Archambault à Public Sénat.

  •  

☕️ Sharenting : la CNIL rappelle les risques de partager photos et vidéos de vos enfants

« 53 % des parents français ont déjà partagé sur les réseaux sociaux du contenu sur leurs enfants », commence par rappeler la CNIL. Un chiffre à mettre en balance avec une autre statistique : « 50 % des images ou des vidéos d’enfants échangées sur les forums pédocriminiels ont été initialement publiées par leurs parents via les réseaux sociaux ».

La Commission explique que partager du contenu de ses enfants « n’est pas un acte anodin » et qu’il « comporte de nombreux risques ». En conséquence, elle déconseille de le faire, surtout si votre profil sur les réseaux sociaux est public.

Les risques sont connus depuis longtemps, mais une piqure de rappel ne peut pas faire de mal : « Certains parents publient des photos dénudées de leur enfant (par exemple lorsqu’ils jouent dans le bain) : des internautes malveillants détournent ces photos pour créer de faux profils, les partagent avec d’autres inconnus ou les diffusent sur des réseaux de pornographie infantile ». De plus, avec l’intelligence artificielle et les deepfakes, dénuder des personnes – notamment des mineurs – est malheureusement très facile. Même avant l’arrivée de l’IA générative la problématique existait déjà.

La publication de photos des enfants peut aussi « alimenter le harcèlement scolaire et le cyberharcèlement ». Les clichés donnent des indications sur les centres d’intérêt des enfants, les lieux qu’ils fréquentent, etc. En effet, les « photos et vidéos contiennent des indications sur la localisation et l’heure à laquelle l’image a été prise ».

La CNIL rappelle que « les photographies et les vidéos partagées par les parents peuvent donc priver les enfants de leur capacité à définir leur propre image et leur identité ». Elle rappelle les bonnes pratiques : « Demandez l’accord de votre enfant et de l’autre parent avant toute publication ». Dans tous les cas, « évitez la publication de certaines photos et vidéos qui ont trait à l’intimité de votre enfant ». Il est « également conseillé de cacher le visage de votre enfant ». Enfin, faites régulièrement le tri dans vos abonnés, photos et vidéos publiées.

La CNIL liste aussi des histoires vécues, pour rappeler que les dangers sont bien réels : « Un mineur s’est adressé à la CNIL pour faire retirer des photographies, vidéos et enregistrements vocaux diffusées par ses parents sur un réseau social. Des parents ont appelé l’attention de la CNIL sur les difficultés qu’ils rencontraient à faire cesser la diffusion de photographies du baptême de leurs enfants mineurs ».

  •  

Fuite de données à la Fédération Française de Cardiologie… y compris des mots de passe

Hypertension sur le réseau
Fuite de données à la Fédération Française de Cardiologie… y compris des mots de passe

Pendant le pont du 11 novembre, la Fédération Française de Cardiologie a été piratée et des données personnelles des adhérents ont été dérobées. Dans le lot, on retrouve des mots de passe.

Il ne se passe pas une semaine quasiment sans qu’une fuite de données ne soit rendue publique. C’est désormais au tour de la Fédération Française de Cardiologie de prévenir ses adhérents : « À la suite d’une faille, un tiers non autorisé a accédé à notre système et dérobé certaines de vos données personnelles ». Contactée par Next, la Fédération nous confirme l’envoi des messages aux adhérents et le contenu du message.

Nom, prénom, adresses, téléphone et… mot de passe

La liste des données dérobées contient les nom et prénom, adresses e-mail et postale, numéro de téléphone et… mot de passe ! Aucune précision sur ce dernier : est-il chiffré ou haché ? Si oui, comment ? Notre interlocuteur n’était pas en mesure de nous apporter les précisions sur les mots de passe. Nous mettrons à jour cette actualité dès que nous les aurons.

Mon espace en « maintenance »

Dans son message aux adhérents, la Fédération ajoute que « la partie « Mon espace » de notre site internet reste indisponible pour une durée indéterminée ». Effectivement, cette partie du site est « en Maintenance » avec le message suivant : « Nous procédons actuellement à une maintenance technique afin d’améliorer les performances et la sécurité de notre site ».

La Fédération Française de Cardiologie se rassure comme elle peut : « Nous tenons à vous assurer qu’aucune donnée bancaire, telle que des numéros de carte bancaire ou des numéros de compte bancaire, n’a été compromise ».

Elle termine par des recommandations d’usage dans ce genre de situation : « redoubler de vigilance face aux e-mails, SMS ou appels que vous pourriez recevoir, notamment ceux contenant des liens ou sollicitant des informations sensibles. Ne cliquez jamais sur un lien suspect et ne communiquez pas vos informations personnelles sans certitude de l’expéditeur ». Une bonne pratique à appliquer en permanence.

Comme la loi l’y oblige, la Fédération a notifié la CNIL. Elle a aussi renforcé sa sécurité, lancé un audit complet et collabore avec les autorités compétentes. Une plainte a été déposée pour « pour limiter les impacts [comment ?, ndlr] et identifier les responsables ».

  •  

☕️ Centre d’appels : Altice a signé un accord pour vendre ses 65 % d’Intelcia

Intelcia est une des entreprises d’Altice laissée de côté lors du deal proposé par Bouygues Telecom, Free et Orange pour racheter SFR. Il s’agit pour rappel d’une société marocaine de 40 000 employés spécialisée dans les centres d’appels, détenue à 65 % par Altice depuis presque 10 ans. Cela fait un peu plus de deux mois qu’une vente est évoquée.

C’est désormais officiel : « Intelcia annonce aujourd’hui une nouvelle étape structurante de son parcours. Le 24 novembre 2025, ses actionnaires dirigeants ont signé un accord avec Altice portant sur la reprise des 65 % du capital que ce dernier détenait depuis 2016 […] Cette opération consolide le contrôle du management d’Intelcia sur l’entreprise, qui détient désormais 100% des parts, et ouvre un nouveau cycle de croissance ».

Karim Bernoussi, CEO et co-fondateur d’Intelcia, en profite pour assurer la promotion de Patrick Drahi : « Nous tenons à exprimer notre gratitude à Altice pour l’accompagnement constant durant ces années. Nous sommes fiers de ce que nous avons réalisé durant près de dix ans. À titre personnel, je tiens à remercier particulièrement Patrick Drahi pour sa confiance et l’esprit de notre collaboration ».

La finalisation de cette transaction est prévue pour le premier trimestre 2026, sous réserve comme toujours de la validation des autorités compétentes. Le montant de la transaction n’est pas connu.

Cette annonce intervient dans une période morose pour Altice, qui vient de publier son bilan financier : des abonnés en moins sur le fixe et le mobile (respectivement 6,08 et 19,36 millions au lieu de 6,17 et 19,52 millions), ainsi que des revenus en baisse de 7,6 % sur un an. Les pertes sur le trimestre sont de 609,9 millions d’euros, contre 619,2 millions un an auparavant.

  •  

☕️ Sony aussi a un capteur de 200 Mpx, avec la technologie Quad-Quad Bayer Coding

Samsung propose depuis longtemps des capteurs photo de 200 Mpixels pour les terminaux mobiles. Il est désormais en concurrence avec Sony qui vient d’annoncer lui aussi un capteur de 200 Mpx, baptisé LYTIA 901. 2025 oblige, il y a de l’IA à l’intérieur… c’est du moins ce qu’annonce Sony.

Il s’agit d’un capteur de 1/1,12 pouce de type CMOS avec des pixels de 0,7 x 0,7 μm environ. Le capteur propose une technologie baptisée Quad-Quad Bayer Coding (QQBC) permettant soit de regrouper les pixels par paquet de 16 pour améliorer le résultat en basse luminosité (avec une image de 12,5 Mpixels) soit de garder la granularité des 200 Mpx pour améliorer le résultat si le zoom est utilisé.

Dans le deuxième cas, Sony parle de « remosaicing ». C’est là qu’on arrive à la partie IA : « Sony a développé une nouvelle technologie de remosacing basée sur l’apprentissage automatique pour la matrice QQBC et a intégré le circuit de traitement à l’intérieur du capteur ». En gros, l’IA à l’intérieur du capteur sert au traitement de signal.

Niveau vitesse de capture des images, Sony annonce 10 fps en RAW à 200 Mpixels et jusqu’à 120 fps en 4K2K. Quelques exemples d’images sont disponibles sur cette page.

  •  

Seagate valide en laboratoire des HDD de 69 To, les 100 To toujours en ligne de mire

69, HDD érotique
Seagate valide en laboratoire des HDD de 69 To, les 100 To toujours en ligne de mire

Seagate continue d’augmenter la capacité de ses plateaux pour disques durs. De 6,5 To par plateau l’année dernière, il est désormais question de 6,9 To en laboratoire. Le fabricant vise toujours des HDD de 3,5 pouces de 100 To et plus à long terme. Du côté des ventes, plus d’un million de disques durs HAMR de 30 To et plus ont été expédiés sur le dernier trimestre.

Le stockage suit une progression rapide. Il y a 10 ans à peine, les fabricants étaient à 10 To par disque dur de 3,5 pouces. Désormais, la barrière des 40 To est franchie, toujours avec le même principe général : des plateaux empilés les uns sur les autres.

Dix plateaux est généralement la norme dans la haute capacité, mais Western Digital est monté à 11, puis Toshiba à 12 plateaux (bien qu’il reste des zones d’ombre). C’est de plus en plus compliqué d’en ajouter car les dimensions sont contraintes si l’on veut rester dans le format classique de 3,5 pouces pour une compatibilité maximale.

6,9 To par plateau dans les labos de Seagate

Pour augmenter la capacité des disques durs dans leur ensemble, les fabricants augmentent la densité des plateaux. À 40 To avec 10 plateaux, cela donne 4 To par plateau. Passer à 5 To par plateau donnerait des disques durs de 50 To. C’est aussi simple que cela.

L’année dernière, Seagate annonçait avoir atteint, en laboratoire, une capacité de 6,5 To par plateau, soit de quoi mettre sur pied un disque dur de 3,5 pouces de 65 To. La présentation d’une conférence de Stephanie Hernandez (directrice sénior chez Seagate) au Research Center for Magnetic and Spintronic Materials (CMSM) affirme que « des expériences récentes en laboratoire sur la technologie HAMR démontrent une capacité de 6,9 ​​To/disque », comme le rapporte IT Home. On arriverait ainsi à 69 To par HDD.

10 To par plateau en ligne de mire, soit des HDD de 100 To

Sa conférence devait explorer « des idées pour maximiser la capacité de densité surfacique du HAMR à 10 To/disque et au-delà, y compris de nouvelles architectures système et conceptions de lecteurs ». Elle ne semble par contre pas disponible en ligne, impossible donc de savoir de quoi il en retourne. Rien de neuf pour autant puisque, l’année dernière, Seagate visait déjà les 10 To par plateau à l’horizon 2032.

À l’occasion de la publication du bilan financier trimestriel, le patron de Seagate, Dave Mosley, affirmait que les livraisons de disques durs HAMR étaient en augmentation. De plus, les HDD Mozaic 3 +(30 To et plus en HAMR) sont « désormais qualifiés par cinq des plus grands clients cloud au monde » et « nous sommes en bonne voie pour qualifier les trois CSP mondiaux restants au cours du premier semestre de l’année civile 2026 », ajoutait-il pendant la session de questions/réponses.

Les Mozaic 4 + en cours de qualification

Pendant ce temps, le fabricant annonce que « la qualification d’un deuxième fournisseur de services cloud majeur » (sans donner son nom) a débuté pour la plateforme Mozaic de prochaine génération, avec des plateaux de plus de 4 To, soit des disques durs de plus de 40 téraoctets.

Pour l’entreprise, des disques durs avec une très haute capacité sont demandés par des plateformes vidéo des médias sociaux et les nouvelles applications d’IA. « L’IA transforme la façon dont le contenu est consommé et créé, augmentant ainsi la valeur des données et du stockage », affirmait-il ; et Seagate compte bien en être un acteur majeur.

Sur le dernier trimestre comptable, Seagate affirme avoir écoulé 1 million de disques durs Mozaic 3 + de 30 à 36 To. Financièrement, les voyants sont au vert avec 2,63 milliards de dollars de revenus sur le premier trimestre fiscal de 2026, pour des bénéfices de 549 millions de dollars. Il y a un an, c’étaient respectivement 2,168 milliards et 305 millions de dollars.

  •