Après AMD et NVIDIA, c’était au tour d’Intel de présenter ses nouveautés… enfin de balancer toute une série de références de processeurs pour le fixe et le mobile. Le fondeur tire tous azimuts avec des Core Ultra Série 2 HX, H, U, F, T… Pas facile de suivre, d’autant qu’il est aussi question du bout des lèvres de Core 200S et 200H non Ultra et d’autres références encore…
Intel traverse une période difficile : 2024 est définitivement une année noire. Ses résultats trimestriels ne sont pas bons, avec pas moins de 15 000 licenciements, une réorganisation stratégiques et la démission du CEO Pat Gelsinger, il y a à peine plus d’un mois.
Le CES de Las Vegas est le premier gros rendez-vous du fondeur pour les deux CEO par intérim, David Zinsner et Michelle Johnston Holthaus. Les annonces sont nombreuses, mais on a bien du mal à suivre les gammes du fondeur et à s’y retrouver dans les multiples références…
Lors de la keynote, Michelle Johnston Holthaus en a profité pour présenter une puce Panther Lake gravée avec la technologie 18A d’Intel, en précisant que des machines équipées de ce processeur tournent actuellement au CES. Panther Lake est attendu pour la seconde moitié de l’année.
Pas moins de sept familles dans les Core (Ultra) de Série 2 (200)
Commençons par une session rattrapage sur les nomenclatures des processeurs de chez Intel avec une pierre de Rosette maison pour (essayer de) comprendre à quoi correspond chaque gamme de produits :
Core Ultra 200V (mobile) : Lunar Lake, annoncé en septembre 2024
Core Ultra 200S (desktop) : Arrow Lake-S, annoncé en octobre 2024
Core Ultra 200H et 200HX (mobile) : Arrow Lake-H
Core Ultra 200U (mobile) : Arrow Lake U
Core 200S (desktop) : Bartlett Lake-S
Core 200H (mobile) : Raptor Lake H Refresh
Core 100U (mobile) : Raptor Lake U Refresh
Core 3 et Intel Processor (mobile) : Twin Lake
En septembre, Intel donnait le coup d’envoi des Core Ultra Série 2 avec les 200V (Lunar Lake) pour les ordinateurs portables. En octobre, c’était au tour des Core Ultra 200S (Arrow Lake) pour les ordinateurs de bureau de débarquer.
Au CES 2025, Intel présente les Core Ultra 200HX et Ultra 200H (Arrow Lake-H) de nouveaux pour les ordinateurs portables.
Il reste 80% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Meta a annoncé mardi un changement de cap dans sa politique de modération et de lutte contre la désinformation. Aux Etats-Unis, Facebook, Instagram et Threads abandonnent leurs programmes de vérification des informations, au profit d’une modération assurée par les utilisateurs finaux, à la façon des Community Notes instaurées sur X. Mark Zuckerberg ne cache pas le caractère politique de cette décision : « Il est temps de revenir à nos racines autour de la liberté d’expression ».
« Plus de parole et moins d’erreurs ». C’est par ces mots que Meta introduit mardi l’annonce d’un changement drastique au niveau de sa politique de modération. L’entreprise indique en effet avoir pris la décision de mettre un terme, aux États-Unis pour l’instant, à son programme de vérification des informations (fact checking). Elle instaurera, à la place, un outil permettant à la communauté de signaler le caractère litigieux d’une publication ou d’une information, à la façon de ce qu’a implémenté Elon Musk sur X (ex-Twitter).
Une modération ouverte au nom de la lutte contre les biais
« Nous avons vu cette approche fonctionner sur X, où la communauté est libre de décider quand les publications sont potentiellement trompeuses et nécessitent plus de contexte, et où des personnes issues d’horizons divers décident du type de contexte qu’il est utile que les autres utilisateurs voient », justifie dans un communiqué le républicain Joel Kaplan, nouveau responsable des affaires internationales de Meta, nommé le 2 janvier dernier.
L’entreprise précise que dans ce contexte, elle n’interviendra pas dans la rédaction ou l’affichage des notes de communauté, qui seront « écrites et évaluées par les utilisateurs ». La fonctionnalité sera déployée sur Facebook, Instagram et Threads. Pour chacun de ces trois réseaux sociaux, Meta propose aux utilisateurs américains la possibilité de s’inscrire sur liste d’attente, pour faire partie des premiers utilisateurs de la fonction Community Notes.
« Si vous voyez une publication susceptible d’être inexacte ou déroutante, vous pouvez écrire une note avec des informations de contexte, un conseil ou une idée que les gens pourraient trouver utile. Votre note peut être publiée sur la publication si elle est évaluée comme utile », résume l’entreprise, selon qui le caractère ouvert de cette modération réduirait les risques de biais ou de jeux d’influence. « Nous voulons mettre un terme à la dérive qui a rendu nos règles trop restrictives et trop sujettes à une mise en œuvre excessive », estime pour sa part Joel Kaplan.
Le message est également incarné, et endossé, par Mark Zuckerberg. En vidéo, le fondateur et patron de Facebook affirme qu’il est « temps de revenir à nos racines autour de la liberté d’expression ».
« Le problème des systèmes complexes, c’est qu’ils commettent des erreurs. Et nous avons atteint un point où il y a trop d’erreurs, et trop de censure », déclare-t-il, avant d’expliquer que le fonctionnement des filtres de modération automatique allait être revu de façon à générer moins de faux positifs. Il admet dans le même temps que le filtre de la communauté n’aura pas forcément la même efficacité qu’une modération assurée par une tierce partie. « Ça veut dire que nous attraperons moins de mauvais contenus, mais nous réduirons aussi le nombre de posts ou de comptes d’utilisateurs innocents que nous supprimons accidentellement », assume-t-il.
Une décision éminemment politique
En 2016, année de la première accession de Donald Trump à la Maison-Blanche, Meta avait lancé un vaste programme de vérification des informations. Il combinait des fact-checkers internes à l’entreprise et des partenariats conclus dans le monde entier avec des médias et des agences de presse, notamment réunis sous la houlette de l’International Fact-Checking Network.
« À chaque fois qu’un média de vérification évalue un contenu comme faux sur nos plateformes, nous réduisons largement la diffusion de ce contenu afin qu’il soit vu par moins de personnes, nous lui ajoutons une étiquette et nous informons les personnes qui tentent de le partager », explique toujours le site de Meta.
Bien qu’il ait lui-même porté l’initiative, Zuckerberg prend aujourd’hui ouvertement ses distances avec cette logique, et il ne cache pas que la réélection de Donald Trump à la présidence des États-Unis constitue un « point de basculeculturel » vers un supposé retour en grâce de la liberté d’expression.
L’Europe en ligne de mire
« Après que Trump a été élu pour la première fois en 2016, les médias traditionnels n’ont pas arrêté d’écrire à quel point la désinformation était une menace pour la démocratie. Nous avons essayé de bonne foi de résoudre ces problèmes, sans devenir les arbitres de la vérité. Mais les fact-checkers sont devenus trop biaisés politiquement, et ils ont détruit plus de confiance qu’ils n’en ont créée, particulièrement aux États-Unis », juge Mark Zuckerberg.
Le patron de Facebook indique enfin vouloir travailler avec Donald Trump et son administration en faveur de la liberté d’expression à l’échelle mondiale. Il cible très directement l’Europe, accusée de passer un nombre toujours plus important de lois « accroissant la censure » et portant préjudice aux démarches d’innovations. La Chine est aussi dans le collimateur, comme l’Amérique latine et ses « tribunaux secrets ». « La seule façon que nous ayons de résister face à cette tendance globale est d’avoir le soutien du gouvernement américain », déclame-t-il encore.
Les équipes de modération transférées de Californie au Texas
Autre décision à grande portée symbolique : Mark Zuckerberg annonce que les équipes de la division « Confiance, support et modération de contenus » seront relocalisées hors de Californie, et que le service chargé de la supervision des contenus pour les États-Unis sera basé au Texas. « Alors que nous travaillons à promouvoir la liberté d’expression, je pense que réaliser ce travail dans des lieux où il y a moins de préoccupations quant aux biais de nos équipes va nous aider à construire la confiance », affirme-t-il face caméra. Il annonce par ailleurs que des sujets comme le genre ou l’immigration, thèmes polémiques par excellence, ne seront plus modérés a priori.
Meta et Mark Zuckerberg ont depuis le mois de novembre envoyé de nombreux signaux en direction du président réélu, en prévision de son retour à la Maison-Blanche. L’homme d’affaires, qui a versé 1 million de dollars pour l’investiture de Donald Trump, vient ainsi tout juste de nommer Dana White, célèbre patron de l’UFC (la ligue américaine de MMA) et partisan affiché de Donald Trump, à son conseil d’administration.
Depuis, le 1ᵉʳ janvier, 17 États américains restreignent l’accès aux contenus pornographiques. Ils exigent en effet une preuve d’identité. Plusieurs sites parmi les plus fréquentés ont fermé leurs portes pour protester contre des lois jugées dangereuses. Parallèlement, les recherches de solutions VPN explosent pour contourner les restrictions.
Alabama, Arkansas, Floride, Géorgie, Idaho, Indiana, Kansas, Louisiane, Mississippi, Montana, Nebraska, Caroline du Nord, Caroline du Sud, Oklahoma, Texas, Utah, Virginie : un tiers des États américains dispose désormais d’une législation restreignant l’accès aux contenus pornographiques. Toutes ont la même ambition : interdire ces contenus pour les jeunes de moins de 18 ans. Pour cela, il est exigé de fournir la preuve de son identité.
Au Kansas, par exemple, la loi est entrée en vigueur le 1er juillet dernier. Elle concerne les sites dont au moins 25 % des pages contiennent du contenu pornographique, sous une forme ou une autre, pouvant porter préjudice aux mineurs. Tous ces sites doivent vérifier l’identité et l’âge des internautes pour dévoiler ces contenus. La technologie utilisée pour cette vérification doit avoir été approuvée par le bureau du procureur général de l’État. « Les dommages causés par la pornographie à nos enfants du Kansas nous obligent à créer des obstacles à leur accès », indiquait alors Susan Humphries, représentante républicaine du Kansas.
Au Texas, où une loi équivalente a été votée, le texte a été attaqué devant la Cour suprême par la Free Speech Coalition. La demande a été rejetée.
Le problème des données personnelles
En Floride, dernier État à s’être doté d’une loi interdisant l’accès aux contenus pornographiques par les mineurs, le texte a été promulgué le 25 mars 2024, pour une entrée en vigueur ce 1ᵉʳ janvier. Baptisé House Bill 3, il prévoit notamment une amende de 50 000 dollars par infraction constatée. Une somme que l’on retrouve dans la plupart des législations équivalentes dans les 16 autres États. Autre point commun, il faut pouvoir présenter une pièce d’identité approuvée par l’État, comme un passeport ou un permis de conduire.
Devant la recrudescence de ces lois, le groupe Aylo – propriétaire notamment de Pornhub, RedTube et Youporn – a contre-attaqué. La société ne voulant pas se plier aux nouveaux impératifs, elle bloque géographiquement depuis 2023 toutes les personnes vivant dans les États concernés. Depuis le 1er janvier, les résidents de Floride ont été ajoutés à la liste.
Plus aucun de ces sites n’est donc disponible dans un tiers des États-Unis. La société avait combattu les projets législatifs en insistant sur un point : prouver l’identité nécessite l’envoi de pièces d’identité, dont il faut assurer le stockage sécurisé des informations sensibles, sous peine de violentes fuites de données. En outre, les sites se retrouvent en possibilité de prouver qu’une personne spécifique consulte ses contenus pornographiques.
« Aylo soutient publiquement la vérification de l’âge des utilisateurs depuis des années, mais nous pensons que toute loi à cet effet doit préserver la sécurité et la vie privée des utilisateurs, et doit protéger efficacement les enfants contre l’accès à des contenus destinés aux adultes », a ainsi déclaré Aylo à The Independant.
« Malheureusement, la façon dont de nombreuses juridictions dans le monde, y compris la Floride, ont choisi de mettre en œuvre la vérification de l’âge est inefficace, aléatoire et dangereuse. Toute réglementation qui oblige des centaines de milliers de sites pour adultes à collecter des quantités importantes d’informations personnelles très sensibles met en péril la sécurité des utilisateurs », a-t-elle ajouté.
Ruée sur les VPN
Sans surprise, les résidents et résidentes des 17 États se sont dirigés vers les solutions VPN, pour apparaître connectés depuis un autre endroit. En dépit d’affirmations du contraire par les entreprises concernées, c’est la principale utilisation de ces outils. En France, nombre de vidéos sur YouTube sont sponsorisées par des acteurs comme NordVPN, CyberGhost VPN et autres. Beaucoup de ces messages commerciaux mentionnent directement la possibilité d’accéder aux catalogues streaming des autres pays. Dans le cas présent, les VPN sont utilisés pour contourner la loi.
Et c’est une véritable explosion. En Floride, comme relevé par Business Insider, un rapport de vpnMentor évoque une augmentation de 1 150 % des recherches sur les VPN, à peine quatre heures après l’entrée en application de la loi. Le 19 décembre déjà, lendemain de l’annonce d’Aylo sur le blocage prochain de la Floride, les demandes étaient en augmentation de 51 %. Des chiffres cohérents avec ce que vpnMentor avait observé en mai 2023, quand l’Utah avait promulgué sa propre loi, avec à la clé un pic de 967 % dans les demandes.
Cette explosion dans les demandes a été constatée également par Proton. Dans un tweet du 3 janvier, la société suisse relevait ainsi « une augmentation massive des inscriptions à @ProtonVPN en provenance des États-Unis ». Elle ajoutait ne constater habituellement « de telles augmentations [que] dans les pays avec des gouvernements instables qui font face à des fermetures d’Internet, ce qui signifie qu’il s’agit d’une anomalie ».
Trois heures plus tard, dans un autre tweet, Proton comprend et tweete : « Fausse alarme. C’est du porno », citant l’article de The Independant.
Et en France ?
Dans l’Hexagone, la situation est complexe actuellement. L’Arcom propose un cadre dans lequel les sites pornographiques doivent opérer. Il est demandé aux acteurs impliqués d’être « particulièrement attentifs à la protection de la vie privée de leurs utilisateurs et à la sécurité des systèmes d’information concernés, principes au respect desquels la CNIL est chargée de veiller en application notamment du règlement général sur la protection des données (RGPD) ».
En octobre, une période transitoire de six mois a été ouverte, permettant aux sites d’utiliser la carte bancaire comme preuve de majorité. Qu’il s’agisse de ce moyen simple ou d’un contrôle plus complet de l’identité, la loi française prévoit un passage par des prestataires de confiance qui devront opérer en double anonymat. En clair, le prestataire ne doit pas savoir que le client consulte un site porno, et ce dernier ne doit pas connaitre l’identité du visiteur. Le référentiel avait été accueilli favorablement par la CNIL.
Mi-novembre, les sites Xhamster, Tukif, Mrsexe et Iciporno ont été bloqués suite à une décision de la cour d’appel de Paris le 17 octobre, pour n’avoir intégré aucun mécanisme de vérification. Le blocage n’aura pas duré longtemps, tous ces sites étant aujourd’hui disponibles.
Deux des plus importantes banques d’image au monde, Getty Images et Shutterstock, enclenchent un processus de rapprochement. L’opération doit conduire à la création d’une entreprise unique, Getty Images Holdings, sur la base d’une valorisation estimée à 3,7 milliards de dollars.
« La société fusionnée sera bien positionnée pour répondre aux besoins évolutifs des secteurs de la création, des médias et de la publicité grâce à des investissements combinés dans la création de contenu, la couverture d’événements et l’innovation en matière de produits et de technologies », résument les deux sociétés dans un communiqué commun.
Getty Images, fondée en 1995 à Seattle, est une agence de photographie doublée d’une banque d’images, initialement positionnée sur le marché des agences publicitaires et des médias. Depuis 2012, la société est contrôlée par le groupe Carlyle, tout en étant par ailleurs cotée à la bourse de New-York.
Shutterstock fait pour sa part ses débuts en 2003, d’abord comme une place de marché dédié aux contenus visuels, avec un modèle d’abonnement qui vient supplanter le traditionnel achat à l’acte. La société, également cotée au Nasdaq, s’est illustrée ces dernières années par une série d’acquisitions, parmi lesquelles plusieurs agences de photographie, mais aussi le célèbre service Giphy, racheté à Meta en 2023 pour 53 millions de dollars.
Sur la base de leurs activités combinées, les deux sociétés affirment que le nouvel ensemble génèrera un chiffre d’affaires de près de 2 milliards de dollars sur son exercice 2024, soutenu à 46 % par l’abonnement. Elles attendent 150 à 200 millions de dollars de synergies annuelles d’ici trois ans, et affichent l’ambition d’accélérer leurs investissements en matière d’intelligence artificielle générative, de recherche visuelle ou de 3D.
Le cours des deux actions concernées s’envole à Wall Street mardi avant l’ouverture des marchés, dans la mesure où la transaction valorise très nettement les deux titres.
C’était attendu : NVIDIA profite du CES de Las Vegas pour lancer sa nouvelle gamme de cartes graphiques RTX 50 (Blackwell). On retrouve quatre modèles pour les ordinateurs de bureau et quatre autres pour les portables. La disponibilité débutera le 30 janvier pour les RTX 5080 et 5090, puis continuera en février et mars… un nouveau cycle d’annonce débutera alors avec la GTC 2025.
Le fabricant a déjà présenté cette architecture Blackwell lors de sa GTC en mars 2024, avec son GPU B200 pour l’intelligence artificielle dans les datacenters. Les RTX de la série 50 utilisent une variante de Blackwell, comprenant 92 milliards de transistors contre 76 milliards pour le GPU des RTX 40 et 2x 104 milliards pour le B200. Ce dernier exploite pour rappel deux dies sur une même puce.
Suivant les modèles, le nombre de CUDA Cores varie entre 6 144 et 21 760, avec une fréquence en mode Boost de 2,41 à 2,62 GHz. NVIDIA insiste sur les performances de la GDDR7 capable de monter jusqu’à 1 792 Go/s sur la RTX 5090, contre 1 008 Go/s sur la RTX 4090 en GDDR6x. La sortie vidéo DisplayPort 2.1b UHBR20 permet d’avoir du 8K à 165 Hz.
Les nouvelles RTX 50 exploitent ainsi des Ray Tracing Cores de 4ᵉ génération, des Tensor Cores pour l’IA de 5ᵉ génération (avec prise en charge du FP4), le PCIe 5.0, un encodeur NVENC de 9ᵉ génération, un décodeur NVDEC de 6e génération, le DLSS 4, de la GDDR7, etc. Sur les RTX 40 nous avions des RT Cores de 3ᵉ génération, des Tensors Cores de 4ᵉ génération, du PCIe 4.0, etc.
Au sujet des Ray Tracing Cores de 4e génération, NVIDIA annonce « un taux d’intersection entre un rayon et un triangle deux fois supérieur à celui de la génération précédente et une compression améliorée afin de réduire l’empreinte mémoire ».
Voici DLSS 4 avec génération multi-images et Reflex 2
Un billet de blog dédié revient sur le fonctionnement et les performances de DLSS 4. Selon NVIDIA, cette version représente « la plus grande mise à niveau de ses modèles d’IA depuis la sortie de DLSS 2.0 en 2020 ». La génération multi-images avec DLSS (une exclusivité des RTX 50) « accélère la fréquence d’images en faisant appel à l’IA pour générer jusqu’à trois images par trame à afficher », explique NVIDIA
À titre d’exemple, NVIDIA affirme que sur la GeForce RTX 5090, « DLSS 4 avec Multi Frame Generation [génération multi-images dans la langue de Molière, ndlr] multiplie les performances par plus de 8X par rapport au rendu traditionnel dans cette scène Cyberpunk 2077 ».
NVIDIA en profite pour présenter Reflex 2 pour baisser la latence jusqu’à 75 %, contre 50 % avec Reflex de première génération, grâce à la technologie Frame Warp, « qui réduit encore davantage la latence en fonction du dernier clic de souris ».
Cette fonctionnalité arrivera prochainement, mais ne sera pas une exclusivité des RTX 50, on la retrouvera aussi sur les RTX 40, RTX 30 et RTX 20.
Alimentation requise de 650 à 1 000 watts
La consommation des GPU (Total Graphics Power) est de 575 watts pour la RTX 5090, 360 watts pour la RTX 5080, 300 watts pour la RTX 5070 Ti et enfin 250 watts pour la RTX 5070.
Côté alimentation, il faudra une puissance de 1 000 watts pour la RTX 5090 selon NVIDIA. On passe à 850 watts pour la RTX 5080, puis 750 watts pour la RTX 5070 Ti et enfin 650 watts pour la RTX 5070 de base.
Prévoyez quatre câbles d’alimentation PCIe à 8 broches ou un cable PCIe Gen 5 de 600 watts pour la RTX 5090, contre deux câbles 8 broches ou un PCIe Gen 5 de 300 watts pour les RTX 5070 Ti).
RTX 50 vs RTX 40 : les performances font « x2 »
NVIDIA annonce que sa GeForce RTX 5090 est « deux fois plus rapide que la GeForce RTX 4090 », une promesse que l’on retrouve aussi sur la RTX 5080 par rapport à la RTX 4080, ainsi que les RTX 5070 (Ti) vs les RTX 4070 (Ti).
Le fabricant propose de nombreux graphiques sur des tests maison par ici. Un rapide coup d’œil permet de se rendre compte qu’il faut ne faut pas prendre ces performances doublées comme une promesse formelle mais plutôt comme le cas de figure optimal.
Les RTX 5080 et 5090 seront disponibles le 30 janvier
Des Founders Edition (cartes maison de NVIDIA) seront proposées pour l’ensemble des versions, sauf la RTX 5070 Ti. La RTX 5090 est annoncée à 1 999 dollars ou 2 349 euros avec une disponibilité au 30 janvier, alors que la RTX 4090 était à 1 599 dollars (1 949 euros) lors de son lancement.
La version Founders Edition de la RTX 5090 mesure 304 x 137 mm et occupe deux emplacements PCIe (contre trois pour la RTX 4090). Elle est « SFF-Ready », SFF pour Small Form Factor. Cette certification a été lancée au Computex de l’année dernière et permet d’assurer une compatibilité entre des cartes graphiques et des boitiers SFF.
La RTX 5080 sera vendue 999 dollars ou 1 179 euros, à partir du 30 janvier également. Les dimensions de la Founders Edition sont les mêmes que celles de la RTX 5090, avec donc la certification SFF.
Il faudra attendre le mois de février pour les RTX 5070 et 5070 Ti, qui seront respectivement proposées à partir de 549 et 749 dollars, ou 649 et 884 euros selon le site français de NVIDIA. La RTX 5070 Founder Edition mesure 242 x 112 mm et occupe également deux emplacements.
Bien sûr, les nombreux partenaires de NVIDIA ne vont pas se priver de proposer des modèles maison avec des ventirads plus ou moins extravagants et de l’overclocking plus ou moins marqué. La valse des annonces a d’ailleurs déjà débutée. TechPowerUp reprend les communiqués des fabricants à ce sujet.
Quatre RTX 50 pour les ordinateurs portables en mars
Sur les ordinateurs portables, NVIDIA annonce aussi des RTX 50, et explique que sa technologie Max-Q profite de nouvelles fonctionnalités comme l’Advanced Power Gating, le Low Latency Sleep et l’Accelerated Frequency Switching qui « augmentent la durée de vie de la batterie jusqu’à 40 % par rapport à la génération précédente ».
On retrouve une RTX 5090 avec 10 496 CUDA Cores et une puissance de calcul de 1 824 TOPS pour l’IA, avec 24 Go de GDDR7. Avec la RTX 5080 on passe à respectivement 7 680 CUDA cores, 1 334 TOPS et 16 Go de GDDR7.
Deux GeForce RTX 5070 complètent là aussi la gamme. La RTX 5070 Ti avec 5 888 CUDA cores, 992 TOPS, et 12 Go de GDDR7 ainsi que la RTX 5070 avec 4 608 CUDA cores, 798 TOPS et 8 Go de GDDR7. Il faudra faire attention aux fréquences qui varient suivant les modèles d’ordinateur portable et des performances de son système de refroidissement.
Toutes les puces mobiles de la série RTX 50 seront disponibles en mars.
À compter de mercredi, les opérateurs de transports publics auront la possibilité d’interroger l’administration fiscale pour vérifier l’adresse des contrevenants. Réclamée de longue date par la profession, cette mesure inédite est censée améliorer le taux de recouvrement des amendes. Le service sera assuré par l’intermédiaire d’une plateforme développée par IN Groupe, déjà en charge du téléservice « Vérif Permis ».
L’Union des Transports Publics et Ferroviaires (UTPF), qui réunit la plupart des sociétés de transports publics françaises, profitera de ses vœux, mercredi 8 janvier, pour annoncer le lancement officiel de Stop Fraude, un nouveau dispositif grâce auquel la profession espère améliorer l’efficacité du travail de lutte contre la fraude mené par ses contrôleurs.
« Lors d’une opération de contrôle, les contrevenants fournissent une adresse qui est erronée dans 50% des cas. Ces « fausses adresses » empêchent le recouvrement des amendes, résume l’Union dans un communiqué publié début décembre. Le dispositif, qui pourra réaliser un million d’interrogations par an, permettra d’augmenter significativement le taux de recouvrement des amendes ».
Deux fichiers fiscaux et un dispositif sécurisé
Il reste 80% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Comme l’ont repéré nos confrères d’iGen, une fiche d’assistance d’Apple a été mise à jour. On y apprend qu’Apple Intelligence, le bouquet de services IA de la société, réclame 7 Go d’espace disponible sur les appareils compatibles, contre 4 Go il y a peu.
Cette augmentation est directement liée au nombre de fonctions. Nos confrères rappellent ainsi que la recommandation officielle était de 4 Go d’espace libre sur iOS 18.1, quand les premières fonctions dopées à l’IA sont sorties. Le passage à 7 Go prend en compte iOS 18.2 et les fonctions supplémentaires, notamment la génération d’images avec Playground.
Il se pourrait ainsi que le besoin en espace continue de croitre avec les versions 18.3 et 18.4. La première est en phase bêta et la deuxième est attendue pour avril, lors du lancement d’Apple Intelligence en Europe.
Or, cette évolution est loin d’être anodine. Selon Apple, la grande majorité des opérations d’IA sont effectuées sur les appareils. En conséquence, les besoins en RAM augmentent (seuls les produits ayant au moins 8 Go fonctionnent), de même que ceux en espace de stockage.
Durant ces derniers mois, Apple a augmenté la quantité de mémoire vive sur ses appareils. Actuellement, aucun appareil mobile vendu n’a moins de 8 Go et tous les Mac ont désormais au moins 16 Go. 7 Go de stockage représentent toutefois un besoin significatif, surtout sur un appareil mobile, en plus des applications, photos et vidéos. Si les Européens ne seront concernés que dans trois mois environ, la question se pose : Apple va-t-elle également fournir plus de stockage dans ses prochaines configurations pour tenir compte des besoins croissants de l’IA ?
À l’occasion du CES à Las Vegas, Qualcomm a présenté une nouvelle référence Snapdragon X. Attendue de pied ferme pour intégrer des configurations Copilot+ à un tarif d’appel de 600 dollars, la nouvelle puce présente un visage uniforme.
Le nouveau Snapdragon X1-26-100 n’impressionnera pas par ses caractéristiques ou son originalité. Il est, dans les grandes lignes, une version légèrement moins rapide du modèle X1P-42-100, le Snapdragon X Plus à huit cœurs présenté en aout dernier. Une nomenclature pas si simple à suivre.
Il s’agit donc de la septième référence Snapdragon X que Qualcomm ajoute à son catalogue, après quatre versions Elite et deux Plus. D’ailleurs, le nom courant de cette référence est simplement « Snapdragon X », débarrassé de toute autre étiquette, pour bien représenter l’entrée de gamme. Son objectif est en effet de « redéfinir la catégorie des PC pour les appareils grand public à 600 dollars ».
On ne se casse pas la tête
Ce nouveau Snapdragon X reprend donc les caractéristiques de sa grande sœur apparue l’été dernier. Tous les éléments sont identiques, à l’exception de la fréquence de base : 3 GHz au lieu de 3,4 sur la puce X1P-42-100. Pour le reste, elle prend les mêmes attributs : le cache de 30 Mo, le NPU à 45 TOPS, le GPU Adreno à 1,7 TFLOPS, la LPDDR5x, etc.
Dans le tableau-ci-dessous, on retrouve la nouvelle référence et son intégration dans la gamme. Comme on peut le voir, le découpage des séries est homogène sur l’ensemble des caractéristiques de base.
Attention cependant, car si tous les Snapdragon présentent le même visage sur certains aspects – dont le NPU à 45 TOPS, le support de trois moniteurs externes 4K 60 Hz ou encore le Wi-Fi 7 – le reste peut être intégré ou non, selon les options. Sur le petit nouveau par exemple, des éléments tels que la 5G, le support du streaming 4K HDR ou encore le codage/décodage AV1 sont en option.
Une arrivée dans les semaines qui viennent
Nous ne sommes pas en présence d’un foudre de guerre. Qualcomm évoque cependant dans son communiqué son ambition de proposer les performances de ses cœurs Oryon sur un segment bon marché : des configurations Copilot+ à 600 dollars. L’autonomie est citée comme point fort, les machines pouvant « tenir toute la journée ».
« Le Snapdragon X est une solution idéale pour les étudiants, les travailleurs indépendants et les consommateurs soucieux de leur budget qui ont besoin d’un ordinateur portable fiable et puissant capable de suivre leur rythme de vie », indique ainsi Qualcomm. L’entreprise met en avant un « GPU intégré économe en énergie », mais il n’est jamais question de jeu. À la place, elle parle de « graphiques dynamiques, ce qui est idéal pour créer des présentations, naviguer sur le web ou diffuser du contenu en continu ».
Acer, Asus, Dell Technologies, HP et Lenovo sont cités parmi les fabricants de PC qui proposeront des configurations basées sur la nouvelle puce X1-26-100. Elle devrait s’insérer sans trop mal dans les gammes existantes, puisqu’il s’agit d’une version moins performante de ce qui existe déjà.
Alors que le CES ouvre ses portes à Las Vegas, Qualcomm devrait encore faire parler d’elle durant le salon. L’annonce du Snapdragon X a été faite avant pour laisser la place aux constructeurs partenaires et d’autres présentations devraient suivre. On pourrait notamment assister à l’avènement des premiers mini-PC équipés de ces puces. Aucune information en revanche sur la prochaine salve de puces attendues chez Qualcomm. Les rumeurs évoquent pour rappel un passage direct de la première à la troisième génération de coeurs Oryon, sans que l’on sache pourquoi à ce stade.
La norme HDMI 2.2 est officielle, avec un doublement de la bande passante pour arriver à 96 Gb/s. Le HDMI Forum en charge de cette norme présente au passage de nouvelles fonctionnalités et un programme de certification Ultra96 HDMI pour les câbles. La version finale de la norme arrivera dans le courant du semestre.
HDMI 2.0 en 2013 (18 Gb/s) et HDMI 2.1 en 2017 (48 Gb/s)
Cela fait maintenant plus de 10 ans que la norme HDMI 2.0 a été finalisée par le HDMI Forum. C’était fin 2013, avec un débit de 18 Gb/s et la prise en charge de la 4K à 60 Hz. Par la suite, les évolution du HDMI ont été annoncées lors des CES de Las Vegas.
En 2017, nous avons eu le HDMI 2.1 avec un débit presque triplé de 48 Gb/s. Cette version prend en charge la 8K à 60 Hz ainsi que la 4K à 120 Hz (ce ne sont que des exemples, d’autres configurations sont possibles), Dynamic HDR, eARC (enhanced Audio Return Channel) et Game Mode VRR (Variable Refresh Rate).
Au CES de 2020, le HDMI Forum a lancé son programme de certification Ultra High Speed pour les câbles HDMI. Cela permet de « garantir que toutes les fonctionnalités et capacités de la norme HDMI 2.1 sont transmises d’un appareil source à un écran ».
En 2025, voici le HDMI 2.2 à 96 Gb/s (10K à 120 Hz)
On arrive donc au CES 2025 avec l’annonce de la norme HDMI 2.2. La bande passante est doublée avec 96 Gb/s, contre 48 Gb/s en HDMI 2.1 pour rappel. Dans les exemples mis en avant par le HDMI Forum, on retrouve de la 4K à 480 Hz, de la 8K à 240 Hz ainsi que de la 10K à 120 Hz.
Le communiqué dresse une liste des applications possibles avec une telle bande passante : « améliorer les applications exigeantes en données, immersives et virtuelles telles que les réalités augmentée, virtuelle et mixte, la réalité spatiale […] diverses applications commerciales telles que l’affichage dynamique à grande échelle, l’imagerie médicale et la vision machine ».
Fixed Rate Link et Latency Indication Protocol
Le HDMI Forum annonce l’arrivée de la « technologie HDMI Fixed Rate Link de nouvelle génération », ou HDMI FRL. Le FRL a été introduit avec la norme HDMI 2.1b et vient remplacer le TMDS (Transition Minimized Differential Signaling). Le HDMI Forum explique que cette technologie est « nécessaire pour atteindre des résolutions non compressées plus élevées telles que celles supérieures au 4K à 60 Hz ainsi que des bandes passantes ultra-rapides jusqu’à 48 Gb/s ».
Le HDMI Forum met aussi en avant le protocole LIP pour Latency Indication Protocol. Comme son nom le laisse supposer, il permet d’« améliorer la synchronisation audio et vidéo, en particulier pour les configurations avec des sauts multiples comme un récepteur multimédia ou une barre de son ».
Câbles Ultra96 pour le HDMI 2.2
Un nouveau programme de certification pour les câbles voit le jour avec l’ « Ultra96 HDMI ». Il permet de s’assurer que le câble soit capable de tenir un débit de 96 Gb/s et toutes les fonctionnalités du HDMI 2.2.
La version finale de la norme est attendue pour le premier semestre de l’année, sans plus de précision. Il faudra ensuite que les fabricants de cartes graphiques, de télévision et d’autres appareils avec une entrée/sortie HDMI sautent le pas avant de voir débarquer le HDMI 2.2.
Dans son discours aux ambassadrices et aux ambassadeurs, le 6 janvier, le président de la République a abordé une variété de sujets : l’Ukraine, la Syrie… et Elon Musk.
Elon Musk cc-by-2.0 ZACK/MCOM
Évoquant, sans le nommer, le soutien du multimilliardaire à l’AfD, le parti d’extrême-droite allemand, le Président s’est interrogé : « Voilà dix ans, si on nous avait dit que le propriétaire d’un des plus grands réseaux sociaux du monde soutiendrait une nouvelle internationale réactionnaire et interviendrait directement dans les élections, y compris en Allemagne, qui l’aurait imaginé ? »
Dans le même discours, le président indique néanmoins au futur chef des États-Unis Donald Trump, auquel s’est allié Musk, qu’« il a en France un allié solide ».
Donald Trump et Elon Musk sont par ailleurs tous les deux invités par le président pour le sommet de l’IA qui se tiendra début février à Paris.
Dell a profité du CES de Las Vegas pour annoncer la refonte de ses gammes d’ordinateurs, fixes comme portables. Ce faisant, le fabricant texan tire un trait sur ses trois marques historiques : Inspiron (machines d’entrée de gamme), Latitude (bureautique avancée) et XPS (haut de gamme).
S’il conserve l’idée d’un catalogue produits réparti selon trois gammes, le constructeur adopte de nouvelles marques plus… consensuelles : Dell, Dell Pro et Dell Pro Max.
La première, Dell, incarne la proposition de valeur en direction du grand public et des usages familiaux. La seconde, Dell Pro, se veut tournée vers la productivité. La troisième, Dell Pro Max, est quant à elle pensée pour une « performance maximale », annonce la société. Dell conserve en revanche dans son catalogue la marque Alienware, qui évolue de façon indépendante.
Chacune des trois nouvelles marques se décline ensuite en trois segments : Base, Plus et Premium, qui signalent une gradation en matière d’équipement et de prestations. Ce nouveau découpage n’a pas forcément vocation à reprendre le positionnement exact des gammes précédentes : un PC portable commercialisé sous la marque XPS hier pourrait ainsi se retrouver demain soit dans la marque Dell, segment Premium, soit sous la marque Dell Pro Max.
D’après Dell, cette nouvelle nomenclature se veut plus simple et plus descriptive. De quoi favoriser, selon le fabricant, la lisibilité d’une offre qui fait, pour le reste, la part belle à l’intelligence artificielle. Dell profite en effet du CES de Las Vegas pour introduire de nombreuses nouvelles références, basées sur les derniers processeurs en date annoncés par Intel, AMD mais aussi Qualcomm.
Lors du CES, AMD a présenté toute une panoplie de processeurs qui seront disponibles durant le premier semestre 2025. Il y a les deux Ryzen 9 9950X3D et 9900X3D avec 3D V-Cache pour les ordinateurs de bureau, des Ryzen Z2 pour les consoles portables, trois Ryzen 9000HX dont un avec 3D V-Cache et des Ryzen AI Max(+) avec un gros GPU pour les portables.
Deux nouveaux Ryzen 9 avec 3D V-Cache
Lors de sa keynote d’hier soir à l’occasion du CES de Las Vegas, AMD a présenté une série de nouveaux processeurs, à commencer par les Ryzen 9 9950X3D et 9900X3D. Comme leur grand frère le Ryzen 9800X3D, les deux nouveaux CPU disposent la technologie 3D V-Cache de 2ᵉ génération.
Elle apporte 64 Mo supplémentaire de cache L3, pour un total de 128 Mo. Pour le reste, le 9950X3D est identique au 9950X et le 9900X3D au 9900X, à une exception près : la fréquence max Boost du 9900X est de 5,6 GHz, contre 5,5 GHz sur le 9900X3D.
Comme sur le 3D V-Cache du Ryzen 7 9800X3D (là encore de 2ᵉ génération), les cœurs CPU Zen 5 des deux nouveaux CPU Ryzen 9 9950X3D et 9900X3D sont placés au-dessus du 3D V-Cache, alors que c’était l’inverse sur la première génération de cette technologie. Les cœurs sont ainsi « plus près de la solution de refroidissement, offrant des vitesses d’horloge plus élevées à des températures plus basses, et donc avec de meilleures performances par rapport à la génération précédente », affirme AMD.
Ces deux nouveaux processeurs sont attendus en mars.
Trois Ryzen Z2 pour console, attention aux détails techniques
AMD annonce également ses processeurs Ryzen Z2 pour les consoles portables. Ils font suite aux Ryzen Z1 que l’on retrouve notamment dans les ROG Ally et Lenovo Legion Go. Trois versions sont annoncées, avec un grand bazar dans les caractéristiques techniques (nous avons ajouté les Ryzen Z1 pour mémoire) :
Ryzen Z2 Extreme : 8 cœurs CPU (3x Zen 5+ 5x Zen 5c) et 16 cœurs GPU RDNA 3.5 (Radeon 890M)
Ryzen Z2 : 8 cœurs CPU (8x Zen 4) et 12 cœurs GPU RDNA 3 (Radeon 780M)
Ryzen Z2 Go : 4 cœurs CPU (4x Zen 3 +) et 12 cœurs GPU RDNA 2 (Radeon 680M)
Ryzen Z1 Extreme : 8 cœurs CPU (8x Zen 4) et 12 cœurs GPU RDNA 3 (Radeon 780M)
Ryzen Z1 : 6 cœurs CPU (2x Zen 4+ 4x Zen 4c) et 4 cœurs GPU RDNA 3 (Radeon 740M)
Selon VideoCardz, le Ryzen Z2 Go serait une exclusivité pour Lenovo, spécialement conçu pour la console Legion Go S. Ce CPU se place bien en dessous des autres sur la partie CPU avec seulement quatre cœurs Zen3+. Si le nombre d’unités sur la partie graphique tient la comparaison avec les autres SoC, il s’agit de la génération RDNA 2 seulement, quand tous les autres sont à la génération 3 minimum.
On remarque enfin que les parties CPU et GPU des Ryzen Z2 et Z1 Extreme semblent exactement les mêmes. Les fiches techniques ne donnent guère de détails et AMD n’a pas mis en ligne de comparatifs sur les performances pour le moment.
La disponibilité des Ryzen Z2 est prévue pour le premier trimestre.
Sur BlueSky, Pierre-Loup Griffais (développeur chez Valve) douche les espoirs d’un Steam Deck avec une puce Ryzen Z2 : « Il n’y a pas et il n’y aura pas de Steam Deck Z2. Je suppose que la diapositive avait pour but de dire que la série est destinée à des produits de ce type, sans rien annoncer de spécifique ».
La diapositive en question se trouve chez VideoCardz et montre la Steam Deck aux côtés des Lenovo Legion Go et Asus ROG Ally :
Ryzen 9 9955HX3D (à vos souhaits) : du 3D V-Cache dans un CPU pour portable
On continue dans la mobilité avec trois nouveaux Ryzen 9000HX. Le premier est le Ryzen 9 9955HX3D avec 16C/32T et, vous l’aurez deviné, du 3D V-Cache pour un total de 144 Mo de mémoire cache. Il y a également une version classique – le Ryzen 9 9955HX – avec 80 Mo de cache et le Ryzen 9 9850HX.
Ces trois processeurs se contentent de deux cœurs sur la partie graphique, en l’occurrence une Radeon 610M. Les machines équipées de ces puces sont prévues pour la première moitié de l’année.
Ryzen AI Max(+) : jusqu’à 16x Zen 5 et 40x RDNA 3.5
Toujours sur la partie mobilité, AMD présente de nouvelles puces pour des « PC IA ». On retrouve donc des Ryzen AI de la série 300 et Max avec des cœurs Zen 5 et des modèles de la série 200 en Zen 4. AMD propose aussi des versions « PRO » (avec des fonctionnalités dédiées) dans les gammes Ryzen AI Max, Ryzen AI 300 et 200.
AMD sort l’artillerie lourde avec le Ryzen AI Max+ 395 (ne lui manque que le Turbo Ultra à celui-là) avec 16 cœurs Zen 5, 40 compute units RDNA 3.5 et du XDNA 2 pour le NPU (Neural Processing Unit) avec une puissance de calcul de 50 TOPS. Deux autres représentants de la gamme AI Max sont annoncés, avec moins de cœurs CPU et GPU.
Passons 30 secondes sur le Ryzen AI Max PRO 380, qui n’existe qu’en version PRO. Il ne dispose que de six cœurs et 16 compute units sur le GPU, avec 22 Mo de cache au total, ce qui le place bien en dessous des autres SoC. Pas de changement sur le NPU avec 50 TOPS, suffisant pour prétendre à la certification Copilot+ PC de Microsoft qui demande au minimum 40 TOPS.
Ces processeurs sont attendus pour le premier trimestre 2025, comme les nouveaux Ryzen AI (PRO) 300 en Zen 5.
De nouveaux Ryzen AI 300 et 200 pour la route
Pour les Ryzen (PRO) 200 exploitants l’architecture Zen 4, il faudra attendre le deuxième trimestre de l’année. Attention, les Ryzen 200 ont un NPU d’ancienne génération à 16 TOPS, pas suffisant pour entrer dans la famille des Copilot+ PC.
Lancé en 1999, le projet TuxFamily reposait sur une promesse simple et efficace : un hébergement à prix libre (gratuit, mais ouvert au don), accessible à tous les projets ou contenus gravitant autour du logiciel libre et de sa philosophie. La plateforme, gérée par une association, revendiquait « 3 780 utilisateurs et 2 848 projets utilisant les services de TuxFamily » lors de la dernière mise à jour de la page d’accueil de son site Web.
Un site Web qui n’a pas beaucoup bougé récemment, comme s’en alarment depuis plusieurs mois les utilisateurs sur les forums de discussion dédiés. Plusieurs messages soulignent des incidents techniques qui se prolongent et un service globalement dégradé… jusqu’à ce qu’un internaute finisse par poser la question qui fâche, le 29 décembre dernier : le projet TuxFamily serait-il en état de mort cérébrale ?
Deux jours plus tard, Xavier Guerrin, l’un des administrateurs, confirme l’oraison funèbre : « Même s’il pourrait y avoir quelques correctifs ponctuels ici et là, la tendance est claire : TuxFamily est actuellement en train de descendre dans la tombe ». Entre motivation perdue, vieillissement des services et départ des bénévoles vers d’autres projets, TuxFamily souffrirait aussi de ne plus répondre aux standards du marché. « Même s’il y avait dix ingénieurs brillants avec trop de temps libre (…), la dure vérité est que la pertinence de TuxFamily à l’ère du cloud computing est négligeable ».
Dans ce contexte, que conseiller aux utilisateurs et porteurs de projet ? « Ça risque de paraître triste à nos hôtes les plus anciens, mais la vérité est que les meilleures choses à faire sont : 1, de déplacer votre projet hors de TuxFamily (…), 2, d’écrire à ce sujet, ici ou en dehors de TuxFamily, afin que les autres hôtes reçoivent une liste de suggestions », écrit-il encore.
« Nous tenons à remercier TuxFamily.org et les personnes derrière pour les services rendus pendant des années. Et nous arrêtons à regret de vanter cet hébergeur : il n’est plus listé dans les projets amis dans notre bas de page et la bannière affichée en rotation a été retirée », salue Benoit Sibaud de LinuxFR dans une dépêche dédiée, publiée lundi. Le site communautaire rappelle qu’il profitait lui aussi des services offerts par TuxFamily pour la gestion de ses DNS.
Après enquête, la Cour des Comptes souligne le net retard des établissements hospitaliers en matière de cybersécurité, troisième secteur le plus visé par des cyberattaques en France.
En 2023, soit quatre ans après l’attaque d’envergure qui avait visé le CHU de Rouen et un an avant celle qui vient d’affaiblir l’hôpital de Cannes, 10 % des victimes de cyberattaques en France étaient des établissements de santé.
Principales menaces : des « « compromissions » du système d’information », selon les travaux que la Cour des Comptes publie en cette rentrée 2025 sur la sécurité informatique des établissements de santé. Autrement dit : des « violations de bases de données et de codes confidentiels, de messages électroniques malveillants », et des « rançongiciels, ces derniers étant les plus destructeurs ».
En novembre 2024, l’ANSSI constatait que les défenses des établissements de santé restaient très disparates, alors que les risques pour les patients sont très réels. À titre d’exemple, la Cour des Comptes cite de son côté le cas d’un centre hospitalier de « 800 lits et places, et accueillant 35 500 séjours en hospitalisation complète dans le champ « médecine, chirurgie et obstétrique » (MCO) ».
Ce dernier a mis 18 mois pour remettre son système d’information sur pieds, et alors que son activité avait chuté de 20 % après l’attaque, il n’avait « pas encore retrouvé son niveau de novembre 2022 à la fin du mois de février 2024 » (l’hôpital André Mignot de Versailles, qui correspond à cette description, a été attaqué le 4 décembre 2022).
Regrettant le « retard » de la réaction des autorités publiques, la Cour des Comptes insiste pour que la dynamique de financement de la prévention et de la protection contre les risques numériques soit poursuivie.
Elle recommande par ailleurs la mise en place d’un « groupe national d’expertise chargé, en cas de cyberattaques d’ampleur exceptionnelle, d’évaluer les pertes de recettes à compenser » et la création d’un « audit périodique obligatoire pour tous les établissements de santé, qui pourrait être pris en compte dans le dispositif d’incitation à la qualité et dans la certification par la HAS ».
Troisième secteur le plus à risque
Dans le paysage français, la Cour des Comptes constate que la « vulnérabilité des systèmes d’information des hôpitaux et leur interconnexion accrue avec des systèmes (…) extérieurs » place ce type d’entités au troisième rangs des domaines les plus touchés par des attaques numériques.
« La sécurité informatique des établissements de santé », Cour des Comptes, janvier 2025
Juste devant : les collectivités territoriales. Les entreprises, des plus petites à celles de taille intermédiaire, sont quant à elles en tête des acteurs les plus à risque.
En termes d’interconnexions, la Cour des Comptes relève que la complexité des systèmes d’information hospitaliers, « sans équivalent », va croissant – « jusqu’à 1 000 applications pour les CHU les plus importants » – alors que le numérique reste un poste de dépense très limité. En moyenne, seulement 1,7 % du budget d’exploitation lui est ainsi alloué, contre 9 % dans le domaine bancaire.
« La sécurité informatique des établissements de santé », Cour des Comptes, janvier 2025
Résultat : plus de 20 % des postes de travail et des serveurs ont « plus de sept ans ou un système d’exploitation hors de maintenance ou obsolète » et 23 % des équipements réseaux et 22 % des applicatifs métiers ne peuvent plus être mis à jour.
La cybersécurité, parent pauvre du (parent pauvre qu’est le) numérique hospitalier
Dans le domaine numérique hospitalier lui-même, les enjeux de cybersécurité sont par ailleurs mal pris en compte. Les conséquences sont pourtant concrètes : les cyberattaques peuvent créer des interruptions de services, que ce soit du côté administratif (gestion des malades, gestion économique et financière) ou de la prise en charge des patients (le plus souvent aux urgences), et les vols de données peuvent avoir des effets sur le temps long.
« La sécurité informatique des établissements de santé », Cour des Comptes, janvier 2025
En moyenne, « le coût pour un hôpital peut atteindre 10 M€ pour la gestion de la crise et la remédiation et 20 M€ pour la perte de recettes d’exploitation », chiffre la Cour des comptes, et ce, sans compter les conséquences financières potentielles des vols et publication de données médicales et non médicales des patients et des professionnels.
Le rapport souligne par ailleurs des répercussions en cascade, lors de l’arrêt forcé du fonctionnement normal d’un établissement hospitalier. Les déprogrammations de prises en charges peuvent se traduire par des transferts de patients vers d’autres hôpitaux. Elles créent aussi « des risques à court et à moyen terme sur la continuité et sur la qualité des soins (séquelle, perte de chances…) ».
Pour autant, « malgré l’obligation à laquelle sont astreints les établissements de santé en la matière, les incidents de cybersécurité qui les affectent ne sont pas tous déclarés, regrette la Cour des Comptes, faute de compétence interne suffisante en matière de cybersécurité, mais aussi sans doute, par crainte de retombées médiatiques et réputationnelles. »
La délégation au numérique en santé pilote le CaRE
Pour faire face, le ministère de la Santé a chargé la délégation du numérique en santé (DNS) de la gouvernance du numérique en santé à l’échelle nationale. Le volet cybersécurité de sa feuille de route 2023 – 2027 comprend un volet de financement sur cinq ans pour rattraper le retard, le programme « Cyberaccélération et résilience des établissements » (CaRE).
Mis en œuvre par l’Agence du numérique en santé (ANS), au sein de laquelle est hébergé le Cert Santé, ce « programme de rattrapage » vise à verser 750 millions d’euros sur cinq ans pour favoriser la sécurité des systèmes d’information des établissements de santé – qui subissaient jusqu’ici seuls les pertes d’exploitation et les coûts de remise en état des systèmes, à l’exception d’aides financières attribuées de manière non uniforme par les agences régionales de santé.
Si la Cour des Comptes salue l’effort, elle souligne que l’engagement financier n’était assuré que jusqu’à la fin 2024 et déclare « indispensable » sa poursuite. Elle prévient aussi de la nécessité de perpétuer le financement de la cyberprotection après 2027 et enjoint à coordonner les différentes démarches d’audit (de l’ANS, via l’Anse) existantes.
Dans son rapport, la Cour des Comptes relève divers autres retards qui participent à la situation actuelle, parmi lesquels le manque de coopération effective entre les 136 groupements hospitaliers de territoire (GHT) créés en 2016, ou l’absence complète d’éléments relatifs au numérique et à la cybersécurité dans la formation initiale des professionnels de santé.
L’institution souligne par ailleurs que les effets de la deuxième directive européenne sur la cybersécurité (NIS 2), entrée en vigueur le 17 octobre 2024, mais en cours de transposition tardive dans le droit français, n’ont pas du tout été anticipés. Le texte européen élargit pourtant clairement le périmètre des établissements concernés par les obligations de cybersécurité, pour y inclure toutes les « entités essentielles » (de plus de 250 employés et 50 millions d’euros de chiffre d’affaires) et « importantes » (de plus de 50 salariés et 10 millions d’euros de chiffre d’affaires).
La Cour des Comptes estime qu’entre 750 et 800 établissements de santé seront soumis aux obligations relatives aux entités essentielles, et près de 1 300 à celles relatives aux entités importantes.
Le développement de Debian 13, alias Trixie, a commencé il y a quelques mois déjà. Cette nouvelle version, très attendue (comme toujours avec les Debian), doit arriver cet été, sans plus de précisions pour l’instant. Une première version alpha est arrivée il y a quelques jours, avec un installeur à jour et l’inclusion du nouveau thème par défaut, nommé Ceratopsian (créé par Elise Couper).
Pour l’instant, les nouveautés à se « mettre sous la dent » ne sont pas si nombreuses. On trouve l’inévitable mise à jour généralisée des paquets. Pour l’instant, cette préversion est basée sur la version 6.12 LTS du noyau, mais on ne sait pas si celle-ci sera gardée pour les bêtas et la version finale.
Ce qui pourrait paraitre anodin pour de nombreuses distributions ne l’est pas chez Debian. La distribution n’enclenche les mises à jour majeures de ses composants qu’entre ses versions tout aussi majeures. Connue pour sa grande stabilité, le système sert de fondation à de nombreuses autres distributions, dont la plus connue est Ubuntu (qui sert à son tour de base à une multitude de systèmes, comme Linux Mint).
On relève quand même quelques changements, centrés sur l’installeur de Trixie. Le partitionnement automatique a ainsi été amélioré dans plusieurs cas, en particulier en cas d’espace de stockage réduit ou pour le calcul de la taille de l’espace de pagination. L’installeur propose également des étapes révisées pour créer les comptes du premier utilisateur et de l’administrateur (root).
Cette première alpha est compatible avec les architectures AMD64, ARM64, ARMhf, MIPS64el, PPC64el, RISCV64 et S390x, qui devraient être aussi celles de la version finale. On remarque l’arrivée de riscv64, gérée pour la première fois par Debian, comme l’équipe l’avait annoncé dès juin 2023. En revanche, ARMel et i386 disparaissent du tableau. Quant à MIPSel, elle a été supprimée de l’archive l’année dernière.
En octobre dernier, l’Open Source Initiative a publié la version 1.0 de sa définition de l’IA ouverte, mais des acteurs du milieu du logiciel libre n’en sont pas satisfaits. Ils s’organisent autour de Sam Johnstonpour peser sur la définition qui sera utilisée en Europe lors du AI Action Summit organisé par l’Élysée les 10 et 11 février.
La définition de l’IA ouverte (le terme utilisé internationalement est « open source ») est un enjeu important dans la régulation du secteur. L’AI Act européen s’appuie notamment sur ce terme pour exonérer leurs concepteurs de certaines obligations :
« Les tiers qui rendent accessibles au public des outils, services, processus ou composants d’IA autres que des modèles d’IA à usage général ne devraient pas être tenus de se conformer aux exigences visant les responsabilités tout au long de la chaîne de valeur de l’IA, en particulier à l’égard du fournisseur qui les a utilisés ou intégrés, lorsque ces outils, services, processus ou composants d’IA sont rendus accessibles sous licence libre et ouverte ».
En octobre, l’Open Source Initiative (OSI) a publié la version 1.0 de sa définition de l’IA. Pendant les différentes phases d’élaboration de cette définition, les informations sur les données utilisées pour entrainer les IA étaient au centre des discussions. Des entreprises comme Meta, qui considère que ses modèles Llama sont les leaders de l’IA open-source, ne veulent absolument pas donner de détail sur les données qu’elles utilisent. De l’autre côté, certains acteurs de l’open source comme Linagora insistaient pour que ne soient considérées comme ouvertes que les IA dont sont connues les données d’apprentissage.
Une définition qui fait des remous du côté de Debian
Au final, la définition 1.0 de l’OSI insiste sur le besoin d’une « description complète » des données utilisées pour entrainer le modèle sans pour autant exiger que ces données soient totalement connues. Cette définition a convaincu certains acteurs comme Hugging Face, Linagora, :probabl. ou Mozilla qui l’ont officiellement approuvée.
Mais des développeurs de Debian ont eu des positions assez virulentes contre cette définition sur leur liste de discussion. L’un d’entre eux, Mo Zhou, expliquait par exemple, que « les systèmes d’IA sont des logiciels et (pour citer Bruce Perens, auteur du DFSG [Debian Free Software Guidelines] et de l’OSD [Open source definition] et fondateur de l’OSI) les données d’entraînement sont la source, de sorte que l’OSAID [open source artificial intelligence definition] est fondamentalement incompatible avec l’OSD ». Rappelons aussi que la définition de l’open source a dérivé des Debian Free Software Guidelines (DFSG), comme l’explique aussi l’OSI à la fin de son texte.
Un autre développeur de Debian opposé à la définition de l’OSI, l’australien Sam Johnston, a entamé des démarches pour construire une organisation sur une définition qui inclurait clairement la publication des données d’entrainement. Il propose notamment le brouillon d’une autre définition, qui s’appuie aussi sur la définition originelle de l’open source. Celle-ci commence par affirmer :
« L’open source ne signifie pas seulement l’accès à la source, mais la liberté pour les utilisateurs d’étudier, d’utiliser, de modifier et de partager le programme, pour n’importe quel but et sans avoir à demander la permission. Dans les cas où le logiciel repose sur des données – y compris des bases de données, des modèles ou des médias – pour sa création, sa modification ou son fonctionnement, ces données sont considérées comme faisant partie intégrante du programme et sont soumises aux mêmes exigences. »
Une nouvelle structure : l’Alliance pour l’Open Source
Nos confrères de Contexte ont obtenu sa proposition de participation au AI Action Summit (Sommet pour l’action sur l’Intelligence Artificielle) organisé par l’Élysée les 10 et 11 février dans laquelle il explique qu’une « Alliance pour l’Open Source » (AOS) est en train d’être mise en place. Celle-ci miserait notamment « sur la France en tant que centre stratégique pour encourager la collaboration et l’innovation dans le domaine de l’Open Source ».
Et étonnamment, alors que Linagora et :probabl. ont approuvé le texte de l’OSI, Sam Johnston y explique « de récentes réunions productives avec Yann Lechelle, PDG de :probabl. et Alexandre Zapolsky de LINAGORA, ont permis d’initier un effort de sensibilisation organisé pour impliquer les groupes nationaux de logiciels libres en tant que primo-adoptants et collaborateurs, contribuant ainsi a jeter les bases de la formalisation de l’AOS dans l’arène publique ».
Il espère aussi pouvoir rallier l’association April, le projet Debian, la Free Software Foundation Europe, OpenForum Europe, Linux Australia, la Free Software and Open Source Foundation for Africa, OpenUK ou encore les structures internationales que sont la Software Freedom Conservancy, la Free Software Foundation, Digital Public Goods Alliance, la fondation Linux ou la fondation Apache.
Avec cette nouvelle organisation, Sam Johnston, veut « maintenir l’intégrité des principes de l’Open Source ».
Le réseau cuivre en France compte, selon Orange, pas moins d’un million de kilomètres de câbles, soit des milliards d’euros au cours actuel. L’arrêt de la commercialisation des abonnements xDSL, la fermeture technique des accès et le décommissionnement du cuivre qui en découle soulèvent des questions sur le recyclage de ce métal très recherché.
La fermeture du réseau cuivre n’est pas nouvelle, Orange en parle depuis plus de cinq ans. « Des années 40 à 70, les câbles de cuivre ont été massivement déployés par France Télécom pour mailler les territoires. Un réseau qui a permis d’apporter le téléphone fixe, le fax, le minitel… puis enfin, Internet, la télévision, la visiophonie… 50 ans plus tard, c’est une page de l’histoire est sur le point de se tourner », explique l’opérateur.
Le réseau cuivre est dépassé sur tous les aspects techniques par la fibre optique. Elle permet d’avoir des débits largement supérieurs (des offres sont actuellement à 8 Gb/s symétriques) sans perdre en performance en fonction de la distance, contrairement au cuivre. De plus, la fibre a une empreinte écologique bien moindre : « un abonné à la fibre consomme quatre fois moins d’énergie qu’un abonné au cuivre », rappelle l’Arcep. Par contre, le coût est généralement plus élevé pour le client.
Le plan d’Orange, les craintes des opérateurs
Les choses sont devenues concrètes début 2022 avec la notification par Orange à l’Arcep d’un plan de fermeture, soumis à consultation publique. Comme nous l’avions alors expliqué, il y avait des inquiétudes dans les retours des opérateurs.
Iliad, par exemple, rappelait qu’il s’agit ni plus ni moins que d’« organiser l’inéluctable » avec la migration vers la fibre optique. Mais l’opérateur en profitait pour adresser une pique à son concurrent : « En pratique […] Orange décide, puis éventuellement concerte, et in fine Orange reste seule décisionnaire ». Altitude pointait du doigt un manque important dans le plan présenté : « Orange élude dans son plan toutes les questions sous-jacentes à la dépose du cuivre ».
La fermeture technique démarrera le 31 janvier 2025
Il reste 79% de l'article à découvrir. Vous devez être abonné•e pour lire la suite de cet article. Déjà abonné•e ? Générez une clé RSS dans votre profil.
Dans un rapport, l’Agence espagnole de protection des données (AEPD), équivalente espagnole de la CNIL, a analysé l’offre Workspace for Education de Google, à la demande du ministère de l’Education. Elle y décrit un lot de services voraces en données personnelles, l’entreprise pouvant se livrer à un profilage des utilisateurs, mineurs pour la plupart.
Le rapport, publié il y a six mois, a fait l’objet d’un article dans El Mundo le 27 décembre et repris par le Figaro le 3 janvier. Il fait suite à une demande du ministère espagnol de l’Éducation, plus précisément de l’Institut national des technologies éducatives et de formation des enseignants (Intef), qui en fait partie.
La demande partait d’un constat : depuis le confinement de 2020, de très nombreuses écoles ont basculé sur des solutions intégrées pour faciliter le travail à distance et la communication. La question était de savoir si ces services, parmi lesquels Google apparait comme majoritaire, étaient en phase avec la loi espagnole et le règlement général sur la protection des données (RGPD).
Des dangers pour les élèves
Le rapport, de 64 pages, n’est pas public. Consulté par El Mundo, il décrit divers dangers pour les élèves. « Il est incontestable que nous sommes en présence d’une collecte invasive d’informations personnelles », indique ainsi l’AEPD. Les données, qui émanent essentiellement de mineurs, sont « de caractère particulièrement sensible ».
Les observations ont été formulées sur de nombreux services. On trouve ainsi le traitement de texte Docs, le tableur Sheets, Calendrier, Gmail, le service de visioconférence Meet et l’espace de stockage en ligne Drive. Des services « additionnels » sont également cités, dont YouTube pour les vidéos, Maps pour les cartes et le GPS, ainsi que Photos pour le stockage et la synchronisation des images.
Or, « à partir des interactions avec les différents services, des données sur la santé ou les convictions religieuses pourraient être déduites. Et cette information pourrait être transférée à des États tiers qui ne garantiraient pas un niveau suffisant de protection ». Le rapport rappelle que les conditions d’utilisation mentionnent très clairement la possibilité pour les données d’être stockées dans des serveurs situés partout dans le monde.
Des observations déjà formulées par l’Intef, comme l’a indiqué au Figaro son directeur, Julio Albalad, qui pointe également la possibilité pour Google de modifier unilatéralement ses conditions. « Mais l’agence va beaucoup plus loin en ce qui concerne YouTube et Maps, par lesquels l’entreprise peut se livrer à sa spécialité, le profilage des données », a-t-il ajouté.
Pour Google, tout est parfaitement en règle
Google affirme de son côté que tout est en règle : « L’entreprise n’utilise pas les données personnelles que les étudiants partagent dans Workspace ; et en ce qui concerne les services additionnels, il n’y a pas de partage des données à des fins publicitaires ni de confection de profils », a déclaré un porte-parole au Figaro.
La société rappelle qu’elle dispose de toutes les normes ISO requises, ainsi que des certifications du Centre national espagnol de cryptologie et une conformité au Schéma national de sécurité, imposé aux administrations espagnoles.
Espagne : une situation particulière
Même si le rapport a été remis par l’AEPD au ministère de l’Éducation, celui-ci n’a dans l’absolu que des « pouvoirs » limités. L’Espagne n’est en effet ni un État centralisé, ni une fédération. Dans cette monarchie constitutionnelle à la configuration particulière, unique en Europe, chaque région dispose d’une grande autonomie. Dans le sillage de la crise sanitaire, chacune a fait ses propres choix d’outils éducatifs. Seules les écoles de Ceuta et Melilla sont sous administration directe du ministère.
Comme le relève El Mundo, les résultats de l’enquête ont été partagés avec toutes les régions. Madrid, l’Andalousie, l’Estrémadure, les îles Canaries, Murcie et La Rioja utilisent actuellement Google Workspace for Education et n’ont aucune intention d’en changer pour l’instant. L’Andalousie et les Iles Canaries viennent d’ailleurs de renouveler leur contrat avec Google, pour une durée de quatre ans.
Selon les sources d’El Mundo, les outils de Google font l’objet d’une attention particulière aux Canaries, notamment sur la sécurité, avec plusieurs audits déjà réalisés. Le média ajoute que les comptes des élèves ont été soumis à des restrictions : « ils ne peuvent pas chatter, utiliser YouTube, installer des applications Google Play, créer des appels vidéo via Meet et ne peuvent envoyer et recevoir des courriels Gmail qu’avec d’autres élèves et enseignants des îles Canaries ».
Pas de Google, mais du Microsoft
La Murcie a également déclaré qu’elle conserverait la solution de Google, adoptée depuis déjà quinze ans, car il s’agit d’un « service très utilisé et demandé par la communauté éducative ». Parallèlement, la région a interdit les écrans jusqu’en CM2.
En revanche, la région de Castille-et-León ne souhaite pas se tourner vers Google, car ses outils « échappent au contrôle de sécurité de l’administration ». Elle a préféré se tourner vers Microsoft. On ne sait pas, à l’heure actuelle, si l’AEPD compte se pencher aussi sur l’offre 365 de l’entreprise.
En France, le contrat open bar entre Microsoft et l’Éducation nationale avait fait l’objet de vives critiques et de plusieurs plaintes. Il est toujours en cours, même si les versions gratuites d’Office 365 et Google Workspace n’ont plus le droit d’être installées depuis fin 2022. L’année précédente, la CNIL avait appelé « à des évolutions dans l’utilisation des outils collaboratifs états-uniens pour l’enseignement supérieur et la recherche ». En Europe, la question de l’adéquation des protections sur les données personnelles avec les États-Unis reste au cœur de vifs débats, notamment dans le cadre de la future directive EUCS ainsi que dans le stockage des données de santé.
Selon Sam Altman, le CEO d’OpenAI, son entreprise perd de l’argent sur son offre « ChatGPT Pro ». OpenAI a lancé cette offre début décembre en même temps que l’annonce de son modèle o1.
Flock
L’idée est de mettre à disposition de ses clients ses modèles les plus puissants avec un accès illimité. Mais le CEO s’est exclamé sur X « chose folle : nous perdons actuellement de l’argent sur les abonnements openai pro ! les gens l’utilisent beaucoup plus que ce à quoi nous nous attendions ».
Sam Altman fait mine sur le réseau de ne pas se soucier de ce problème de rentabilité. À un utilisateur qui s’excuse, il lui répond « pls chill ». Il a expliqué à un autre : « j’ai personnellement choisi le prix et j’ai pensé que nous gagnerions de l’argent ».
Pourtant, en parallèle, Sam Altman estime que son entreprise est proche d’atteindre l’intelligence artificielle générale, sachant que Microsoft et OpenAI ont une définition très financière de ce terme : OpenAI n’aurait atteint l’AGI que lorsqu’elle développera des systèmes d’IA capables de générer au moins 100 milliards de dollars de bénéfices.
Pas de repos pour les centres de données qui permettent à l’IA (et au reste) de tourner : dans un billet de blog titré « l’opportunité en or de l’intelligence artificielle américaine », le président de Microsoft Brad Smith détaille la vision de l’entreprise en la matière.
Outre comparer le domaine à l’invention de l’électricité, l’homme d’affaires indique que Microsoft investira de l’ordre de 80 milliards de dollars en 2025 pour construire les data centers nécessaires à l’entraînement et déploiement de modèles d’IA et d’applications cloud partout sur la planète.
Plus de la moitié de ces investissements seront fléchés vers les États-Unis, écrit encore Brad Smith, qui surfe sur plusieurs sujets chers au prochain président – emploi local, nécessité de former au maximum pour compenser les destructions d’emplois, compétition avec la Chine, etc.
Il appelle très directement Donald Trump et le Congrès à renforcer leur soutien au développement de l’industrie. Il se déclare aussi confiant, dans ces conditions, dans les capacités du secteur états-unien de l’IA à mener la danse.
D’après les outils de mesure de la Shadowserver Foundation, 3,3 millions de serveurs mail dans le monde opèrent des échanges POP3 ou IMAP sans que le chiffrement TLS soit imposé au client. De ce fait, les identifiants de l’utilisateur circulent en clair sur le réseau, l’exposant aux conséquences d’une interception. La fondation affirme avoir commencé à contacter les administrateurs concernés.
INternautes avisés par excellence, les lecteurs de Next savent que le chiffrement s’impose lorsqu’on échange des identifiants sur Internet. Il peut cependant subsister, même chez les plus avertis, un serveur de messagerie oublié, paramétré de façon trop laxiste. Le cas échéant, attendez-vous à recevoir un message de la part de la Shadowserver Foundation qui, au tournant de la nouvelle année, s’est attelée au problème des serveurs n’imposant pas le protocole TLS (Transport Layer Security).
3,3 millions de serveurs vulnérables, en POP3 ou en IMAP
L’alerte prend la forme d’un bulletin de sécurité, que la fondation affirme avoir commencé à faire circuler en direction des serveurs concernés. « Ce rapport identifie les hôtes qui ont un service POP3 exécuté sur le port 110/TCP ou 995/TCP sans prise en charge TLS. Cela signifie que les mots de passe utilisés pour accéder à la messagerie peuvent être interceptés. De plus, l’exposition du service peut permettre des attaques par devinette contre le serveur. Si vous recevez ce rapport de notre part, veuillez activer la prise en charge TLS pour POP3 et déterminer si le service doit être activé ou déplacé derrière un VPN », écrit-elle par exemple. Un message équivalent est adressé aux services IMAP.
Le rapport de situation se décline en versions IPv4 et IPv6. Il concerne, selon les outils de visualisation proposés par la Shadowserver Fondation, environ 3,3 millions de serveurs utilisant POP3, et 3,3 millions de serveurs utilisant IMAP, les deux ensembles se chevauchant largement. L’Europe serait le premier continent contributeur en matière d’adresses IP de serveurs POP3 vulnérables.
En France, ses outils font par exemple ressortir 120 000 adresses IP (v4 et v6 confondues) qui correspondraient à des serveurs exploitant le protocole IMAP sans TLS.
Un chiffrement à activer côté serveur
S’il est devenu activé par défaut dans la plupart des grandes messageries en ligne, notamment sur les serveurs exploités par les fournisseurs d’accès à Internet, le chiffrement TLS reste une option, à laquelle le fonctionnement des logiciels clients se subordonne. Sur Outlook par exemple, l’utilisateur a la possibilité de se connecter à un compte POP3 ou IMAP sans aucun chiffrement, même si la manipulation est bien sûr déconseillée, hors protections spécifiques de type réseau privé.
Recommandations de sécurité
Publiée en 2018, la dernière version en date du protocole de cryptographie TLS est la 1.3 et sa genèse, mâtinée des révélations d’Edward Snowden sur les capacités d’espionnage massif du trafic Internet, n’a rien eu d’un long fleuve tranquille.
Le déploiement de TLS reste cependant recommandé par l’ensemble des autorités en matière de cybersécurité. On pourra à cet égard consulter le guide réalisé par l’Agence nationale de la sécurité des systèmes d’information (ANSSI).
Le 28 décembre, le groupe Space Bears a annoncé avoir réussi à pirater une base de données appartenant à Atos et en avoir extirpé des informations.
De son côté, la société temporisait : « les premières analyses ne montrent aucun signe de compromission ou de rançongiciel affectant les systèmes Atos/Eviden dans aucun pays », écrit la société. De plus, aucune demande de rançon n’avait été reçue, ajoutait Atos.
Dans un nouveau communiqué, le groupe français confirme sa position : « Aucune infrastructure gérée par Atos n’a été compromise, aucun code source n’a été consulté et aucune propriété intellectuelle ou donnée propriétaire d’Atos n’a été exposée », a ainsi affirmé Atos le 3 janvier.
De ce que le groupe en comprend, Space Bears a compromis « l’infrastructure externe d’une tierce partie, non connectée à Atos ». La fameuse base de données mentionnait la société Atos, mais ce serait à peu près tout. Nous devrions avoir le fin mot de l’histoire dans moins de 40 heures, puisque c’est le décompte restant avant la mise en ligne d’un fichier présenté par les pirates comme une « company database ».
Si le communiqué insiste sur la gestion par un tiers de cette base, le groupe ne dit pas explicitement qu’aucune donnée sensible n’a été compromise. Contacté, le groupe nous répond : « Les données qui mentionnent Atos sont soit des informations publiques, soit des données techniques qui ne contiennent pas de données sensibles ».