↩ Accueil

Vue normale

La plateforme d’automatisation n8n à nouveau victime de failles critiques

8 janvier 2026 à 12:08
Les blagues les plus courtes...
La plateforme d’automatisation n8n à nouveau victime de failles critiques

La plateforme d’automatisation open source n8n est victime de deux failles critiques affichant la note de sévérité maximale (10/10). Il est recommandé de mettre à jour au plus vite les installations.

n8n est une plateforme d’automatisation des workflows. Elle permet de connecter des services (API, bases de données, SaaS, scripts…) à des actions pour qu’elles se déclenchent quand les conditions sont réunies. La plateforme, open source, a largement gagné en popularité au point d’en faire l’un des produits les plus suivis, notamment parce qu’elle peut s’interfacer avec à peu près n’importe quoi, via des connecteurs, dont des systèmes IA.

Deux failles critiques de sévérité maximale

Elle est cependant touchée par deux failles de sécurité dont la criticité est maximale, avec un score CVSS de 10 sur 10, soit le maximum. La première, estampillée CVE-2026-21877, est de type RCE (Remote Code Execution) et peut donc permettre l’exécution d’un code arbitraire à distance. « Dans certaines conditions, un utilisateur authentifié peut être capable de faire exécuter un code non fiable par le service n8n. Cela pourrait entraîner une compromission complète de l’instance concernée. Les instances auto-hébergées et n8n Cloud sont toutes deux concernées », indique l’équipe de développement dans une note sur GitHub.

Dans ce contexte, un acteur malveillant peut, en exploitant la faille, introduire des instructions dans la logique d’exécution des workflows et de gestion des identifiants. Il peut ajouter ou supprimer des workflows, exfiltrer des données sensibles, déployer du code malveillant et aboutir à une compromission totale du serveur.

La deuxième faille, CVE-2026-21858, est « pire », bien que disposant de la même note. « Une vulnérabilité dans n8n permet à un attaquant d’accéder aux fichiers du serveur sous-jacent en exécutant certains flux de travail basés sur des formulaires. Un flux de travail vulnérable pourrait accorder l’accès à un attaquant distant non authentifié. Cela pourrait entraîner une exposition d’informations sensibles stockées sur le système et permettre de nouvelles compromissions selon la configuration du déploiement et l’utilisation du flux de travail », explique l’équipe dans une autre note. La faille est corrigée

Quatre fois en deux mois

La première faille a été corrigée dans la version 1.121.3 et la seconde dans la 1.121.0, toutes deux sorties en novembre. D’ailleurs, les failles aussi ont été découvertes en novembre. Elles n’ont été révélées que très récemment, le temps que les mises à jour se fassent sur un maximum de configurations. Dans les deux cas, la consigne est bien sûr d’installer la dernière version dès que possible, si ce n’est pas encore fait.

Problème supplémentaire pour n8n, c’est la quatrième fois en deux mois qu’une faille critique est découverte. Et pas des moindres : les vulnérabilités CVE-2025-68613 et CVE-2025-68668, découvertes respectivement fin décembre et début janvier, ont toutes deux un score CVSS de 9,9, soit pratiquement le maximum.

☕️ Les États-Unis se retirent de 68 organisations dont le GIEC et la Freedom Online Coalition

8 janvier 2026 à 10:58

Par un mémorandum présidentiel signé par Donald Trump, les États-Unis se retirent d’une liste de 68 organisations, collaborations et traités internationaux dont le GIEC, la Freedom Online Coalition, le Global Counterterrorism Forum ou encore le Global Forum on Cyber Expertise.

Dans cette liste, 31 organisations appartiennent à l’ONU dont, par exemple, l’Université des Nations unies, le Centre du commerce international, l’Agence d’information sur l’énergie ou encore l’Institut des Nations unies pour la formation et la recherche.

Hors ONU, y figurent aussi la Commission for Environmental Cooperation, l’European Centre of Excellence for Countering Hybrid Threats, l’Intergovernmental Forum on Mining, Minerals, Metals, and Sustainable Development ou l’Intergovernmental Panel on Climate Change.

Le mémorandum précise que « j’ai déterminé qu’il était contraire aux intérêts des États-Unis de rester membre, de participer ou d’apporter un soutien » à ces organisations.

Chatbots : Google et Character.AI règlent à l’amiable des plaintes liées à des suicides

8 janvier 2026 à 10:36
Terminator
Chatbots : Google et Character.AI règlent à l’amiable des plaintes liées à des suicides

Google et Character.AI ont trouvé de premiers accords dans diverses plaintes relatives à des suicides ou des blessures de mineurs après l’usage de robots conversationnels.

La start-up de création de chatbot Character.AI et Google ont conclu des accords avec plusieurs familles dont les enfants se sont blessés ou suicidés après des échanges avec leurs robots conversationnels.

Au moins cinq accords conclus aux États-Unis

En octobre 2024, Megan Garcia avait déposé une plainte contre Character.AI, accusant l’entreprise d’être responsable du suicide de son fils Sewell Setzer III, 14 ans au moment des faits. Ce dernier avait discuté longuement avec l’un des chatbots de l’entreprise avant de se donner la mort.

Megan Garcia accusait l’entreprise de ne pas avoir déployé les garde-fous nécessaires sur ses outils pour empêcher son fils de développer une relation intime et problématique avec les robots. Selon la plainte, les outils auraient notamment généré des textes à connotation sexuelle, et n’auraient pas formulé de réaction lorsque le garçon a commencé à évoquer des formes d’automutilation.

Ce 7 janvier, relève Business Insider, une nouvelle requête judiciaire indique que la famille Garcia, les fondateurs de Character.AI, Noam Shaker et Daniel de Freitas, et Google ont trouvé un accord. En 2024, Google avait embauché les deux fondateurs de Character.AI et signé un accord non exclusif d’accès aux technologies de la start-up.

Character.AI et Google ont par ailleurs conclu des accords dans au moins quatre autres affaires similaires, dans les États de New York, du Colorado et du Texas.

Multiples plaintes déposées contre des constructeurs d’IA générative

La plainte de la famille Garcia fait partie d’une série plus large déposée contre différents constructeurs de robots conversationnels, dont OpenAI ou Meta.

Le premier est notamment poursuivi depuis l’été 2025 par la famille Raine, dont le fils s’est suicidé à 16 ans, et par au moins six autres familles. La seconde est accusée d’avoir laissé ses agents conversationnels produire des conversations « sensuelles » avec des enfants, y compris de moins de 13 ans.

Ces multiplications de plaintes ont conduit la Federal Trade Commission (FTC) à ouvrir une enquête sur les conséquences générales que créent l’exposition de mineurs à des robots conversationnels.

☕️ Exchange Online : Microsoft renonce à la limite de 2 000 e-mails par jour

8 janvier 2026 à 10:05

Microsoft prévoyait depuis avril 2024 d’imposer graduellement une limite de 2 000 e-mails par jour et par personne dans les entreprises clientes d’Exchange Online. Un changement radical de l’External Recipient Rate, puisque la limite était alors fixée à 10 000. Microsoft justifiait la mesure par des abus constatés, l’éditeur expliquant que son service n’était pas conçu pour les envois de masse.

Ce changement devait initialement prendre effet au 1er janvier 2026. Comme le rappelle notamment Neowin, il avait été repoussé à avril pour les nouveaux clients et les comptes d’essais, et à octobre pour les comptes existants. Il n’en sera finalement rien.

Dans un billet de blog publié le 6 janvier, Microsoft explique avoir renoncé à ce changement « indéfiniment pour le moment ». La raison ? Les retours négatifs de la clientèle : « Les clients ont indiqué que cette limite pose d’importants défis opérationnels, surtout compte tenu des capacités limitées des offres d’envoi en masse disponibles aujourd’hui. Vos retours comptent, et nous nous engageons à trouver des solutions qui équilibrent sécurité et ergonomie sans provoquer de perturbations inutiles ».

Microsoft ajoute vouloir toujours combattre les abus du service, « comme le spam et les e-mails malveillants ». Elle aimerait également limiter les mésusages d’Exchange Online, dont les applications line-of-business (LOB) qui se servent du service pour les envois de masse. « Cependant, nous prévoyons de traiter ces problèmes de manière à moins perturber les flux de travail de votre entreprise. Cela signifie des approches plus intelligentes et adaptatives qui protègent le service tout en respectant vos besoins opérationnels », ajoute l’entreprise.

La limite reste donc de 10 000 e-mails envoyés par jour et par personne, en tout cas pour l’instant.

☕️ Discord prépare une entrée en bourse pour mars

8 janvier 2026 à 09:47

Discord travaille avec Goldman Sachs et JP Morgan Chase à une entrée en bourse prévue pour mars, d’après Bloomberg.

Populaire chez les adeptes de jeux vidéo et les programmeurs, la plateforme affirme compter plus de 200 millions d’utilisateurs mensuels dans le monde. En 2022, elle en comptait 7,6 millions en France.

l'icône de discord

Les discussions ne viennent toutefois pas de commencer : en mars 2025, Discord était déjà en discussion pour ce type d’opération.

Les actions du gouvernement fédéral en général et du ministère de l’efficacité gouvernementale (DOGE) en particulier avaient créé trop d’inquiétudes pour permettre une entrée en bourse dans les bonnes conditions.

En 2021, l’entreprise avait refusé d’être rachetée par Microsoft pour 10 milliards de dollars.

Alpamayo : les grandes ambitions de NVIDIA dans la conduite autonome

8 janvier 2026 à 09:19
Va va voum !
Alpamayo : les grandes ambitions de NVIDIA dans la conduite autonome

NVIDIA ne veut pas rester enfermée dans le matériel. L’entreprise a profité du CES pour dévoiler une toute nouvelle plateforme et plusieurs modèles IA ouverts pour permettre aux constructeurs automobiles de progresser vers la conduite autonome.

Tesla aurait-elle tout à coup un très sérieux concurrent ? Pas sûr, mais la société d’Elon Musk doit surveiller de près le développement de NVIDIA, dont les activités sur la conduite autonome se renforcent depuis une décennie maintenant et viennent de passer un nouveau cap.

Si la présentation de la plateforme Vera Rubin a largement concentré les attentions, la firme au caméléon avait une autre annonce majeure en réserve. Elle a ainsi officialisé une plateforme désormais complète pour aider à développer des véhicules autonomes. Contrairement à Tesla qui développe sa propre technologie à des fins d’intégration verticale, NVIDIA a choisi de se présenter en fournisseur d’un « cadre » de développement, permettant de gérer toutes les étapes de l’automatisation.

Le duo Cosmos-Alpamayo

Revenons d’abord un instant sur Cosmos, une plateforme déjà présentée et conçue pour accélérer le développement de ce que NVIDIA nomme « l’IA physique » (véhicules autonomes, robots, agents d’analyse vidéo…). Elle comprend des modèles de fondation ouverts, un lot de garde-fous et des bibliothèques pour traiter les informations. En clair, Cosmos est dédié à l’entrainement des modèles.

Lors d’une présentation au CES, NVIDIA a fait la démonstration d’opérations réalisées par Cosmos : génération de vidéos « réalistes » depuis une seule image, synthèse de scénarios de conduite multi-caméras, modélisation d’environnements spécifiques, raisonnement « physique » et prédiction de trajectoires, etc. Pendant la présentation, ces opérations étaient réalisées à partir de la version 2 des modèles Cosmos.

Sur ce socle amélioré, NVIDIA vient greffer Alpamayo. Ce portefeuille est constitué de modèles d’intelligence artificielle de type vision-langage-action (VLA) allant au-delà de la simple perception. Selon Jensen Huang, « Alpamayo permet aux véhicules autonomes de réfléchir dans des situations rares, de naviguer en toute sécurité dans des environnements complexes, et d’expliquer leurs décisions de conduite. Non seulement il prend l’entrée des capteurs et active le volant, les freins et l’accélération, mais il réfléchit aussi à l’action qu’il va entreprendre ».

Alpamayo 1, le modèle principal, compte 10 milliards de paramètres. Il peut traiter la vidéo des caméras pour générer des trajectoires de conduite. Les ambitions de NVIDIA passent également par l’open source : les modèles sont ouverts et sont accompagnés d’un simulateur (AlpaSim) et d’une base comptant les données de plus de 1 700 heures de conduite. Le tout s’intègre dans la plateforme DRIVE Hyperion dédiée au développement de véhicules autonomes, avec la volonté affichée de faire progresser les véhicules vers le niveau 4 d’automatisation.

Le premier modèle Alpamayo est disponible sur Hugging Face, NVIDIA souhaitant que les développeurs s’en emparent pour le spécialiser ou le distiller.

Des plans concrets

Contrairement aux précédentes annonces de NVIDIA dans ce domaine, l’arrivée d’Alpamayo a été suivie immédiatement par la confirmation d’un premier véhicule pour le premier trimestre de cette année : une Mercedes-Benz CLA de 2025, basée sur la plateforme DRIVE et utilisant donc Alpamayo. Comme l’indique le communiqué de presse, il s’agit pour l’instant d’une conduite de niveau 2 +, à destination du marché américain uniquement. L’Europe et l’Asie doivent suivre plus tard dans l’année, sans autre précision pour l’instant.

Cette voiture, qui s’inscrit dans le cadre d’un partenariat entre les deux entreprises depuis 2020, proposera des fonctions comme « la navigation urbaine point à point dans des environnements urbains complexes, une sécurité active avancée avec prévention proactive des collisions et un stationnement automatisé dans les espaces exigus ».

Rien de révolutionnaire dans l’absolu, mais il s’agira du premier véhicule à tirer réellement partie de toute la pile DRIVE : Cosmos pour l’entrainement, Omniverse pour les bibliothèques et microservices, Alpamayo pour la conduite elle-même et Halos pour la sécurité. La présentation était assortie d’une démonstration de 45 minutes où l’on pouvait notamment voir la Mercedes se glisser dans une circulation dense à San Francisco

Les ambitions de NVIDIA dans ce domaine sont très claires : « Notre vision est qu’un jour, chaque voiture, chaque camion sera autonome, et nous travaillons à cet avenir », a déclaré Jensen Huang, CEO de la société. L’expertise dont elle se dote à toute allure se répand également dans les usines de production et les robots, avec des partenaires comme Synopsys, Cadence, Boston Dynamics et Franka.

Chambardement dans l’industrie automobile ?

NVIDIA n’a donc clairement pas l’intention de se laisser enfermer dans le domaine du matériel, qui commence déjà à montrer des signes de tensions importantes avec les problèmes d’approvisionnement en mémoire. La société jouit déjà depuis longtemps d’une pile logicielle en expansion constante pour exploiter la puissance de ses GPU dans de multiples domaines. Elle avait commencé avec CUDA et a récupéré la première place dans la course folle à l’IA, voyant au passage sa capitalisation boursière exploser.

L’arrivée d’un tel acteur dans le domaine de la conduite autonome pourrait donc entrainer un bouleversement dans l’industrie automobile, d’autant que l’arrivée de la Mercedes-Benz CLA modifiée vient poser du concret sur la table. Plusieurs autres véhicules sont prévus, en provenance de Toyota, Volvo, Lotus ou encore Rivian, tous basés sur la plateforme DRIVE.

NVIDIA, dans ses communications, n’évoque jamais directement Tesla, mais il suffit d’avoir vu la vidéo consacrée à Cosmos pour comprendre la référence : « Collecter des données entrainées sur le monde réel est un processus lent et couteux, et ce n’est jamais assez. La réponse ? Les données synthétiques ». Jensen Huang a cependant été interrogé sur cette comparaison par Bloomberg. Le CEO estime que la pile logicielle de Tesla est actuellement « la plus avancée au monde » et que les approches des deux entreprises sont « assez similaires ». Ne voulant manifestement pas développer plus loin le sujet, Huang a simplement ajouté qu’il « encourageait » Tesla à continuer.

La comparaison avec Tesla est inévitable. Est-ce pour autant un concurrent direct ? Pas vraiment. Tesla est assise sur une base immense de données de conduite issues directement de l’utilisation de ses véhicules. Une base qui continue de grandir, permettant d’affiner sa fonction de conduite supervisée FSD (Full Self-Driving). Tesla ne licencie pas sa technologie, qui n’existe que sur ses propres véhicules. NVIDIA part au contraire d’une technologie plus ouverte et de données synthétiques, que les constructeurs sont libres d’intégrer.

Avec cette approche, NVIDIA veut se tailler une place de choix. Fournir gratuitement les modèles et le simulateur permet une adoption rapide, ainsi que le prototypage de nouvelles solutions. NVIDIA cherche tout simplement à reproduire le grand succès de CUDA, car une fois les solutions prêtes, c’est bien son matériel qui doit être utilisé pour les faire fonctionner. Et NVIDIA vend bien sûr des kits de développement Drive AGX (Thor et Orin), le même système qui peut ensuite être intégré aux véhicules pour s’occuper des calculs. Et pour entrainer les modèles ? Il faut des systèmes DGX, contenant les fameuses puces dédiées à l’IA et dont le couple Vera Rubin est la prochaine incarnation.

NVIDIA n’est cependant pas la seule entreprise à proposer ce type de vision intégrée. Qualcomm est également sur la rampe depuis des années avec son Digital Chassis, notamment renforcé en 2023 en direction des deux roues. La société s’intéresse également depuis longtemps aux communications entre les véhicules et l’infrastructure. Et le CES a également été l’occasion de plusieurs annonces autour de « l’IA physique ».

☕️ Bose arrête le support des enceintes SoundTouch mais ouvre leur API à la communauté

8 janvier 2026 à 08:57

Voilà une idée qui mériterait sans doute de faire des émules : Bose, qui avait annoncé en octobre dernier la fin du support technique et des services connectés associés aux enceintes de la gamme SoundTouch, vient d’offrir une alternative aux consommateurs concernés.

Le fabricant a en effet mis à jour, mercredi 7 janvier, la note d’information dédiée, pour signaler la mise à disposition de la documentation relative à l’API SoundTouch. « Nous rendons nos spécifications techniques disponibles afin que les développeurs indépendants puissent créer leurs propres outils et fonctionnalités compatibles avec SoundTouch ».

Les conditions d’utilisation de l’API en question (documentation en PDF) ont elles aussi été mises à jour en date du 7 janvier, pour refléter cette nouvelle permissivité.

Bose a commercialisé l’enceinte sans fil SoundTouch 20 de 2014 à 2023. A l’époque, la marque avait passé un accord avec Deezer – crédit Bose

Bose annonce par ailleurs que la date de fin programmée des services cloud opérés par ses soins sur les produits SoundTouch, initialement fixée au 18 février 2026, était désormais reportée au 6 mai 2026.

Après le 6 mai, les enceintes concernées ne recevront donc plus aucune mise à jour (notamment de sécurité). Ces dernières resteront cependant fonctionnelles sur un réseau local, lorsqu’elles sont alimentées par une application ou un service de musique exécuté depuis un autre appareil. En revanche, le pilotage centralisé des services musicaux depuis l’application Bose ne sera plus possible… à moins donc que de nouveaux clients non officiels prennent le relais, en vertu de l’API rendue disponible.

« Les systèmes SoundTouch par Bose ont été lancés en 2013. Depuis, la technologie a évolué et nous ne sommes plus en mesure de continuer le développement et l’assistance de l’infrastructure du cloud qui supporte cette ancienne génération de produits. Nous nous engageons toujours vers la création de nouvelles expériences sonores pour nos clients en nous appuyant sur des technologies modernes », justifie le constructeur.

☕️ Android : Google ne publiera le code source d’AOSP que deux fois par an

8 janvier 2026 à 08:32

Google n’en finit pas de revoir sa gestion d’Android Open Source Project (alias AOSP). C’est la version open source (sous licence Apache 2.0) du système d’exploitation mobile utilisée par des fabricants et développeurs de ROM alternatives, comme LineageOS.

Google indique à Android Authority que la publication du code source se fera désormais deux fois par an, « au deuxième et au quatrième trimestre de chaque année ». Cela correspond au rythme de déploiement d’Android, avec une version majeure au deuxième trimestre et une mineure au quatrième.

Jusqu’à présent, la version AOSP était publiée « dans les jours suivant le déploiement de la mise à jour correspondante sur ses propres appareils mobiles Pixel », rappellent nos confrères. Désormais, Google va se garder une longueur d’avance.

Flock

L’annonce est confirmée sur cette page, avec un message pour les développeurs : « À partir de 2026, pour nous aligner sur notre modèle de développement stable et garantir la stabilité de la plate-forme pour l’écosystème, nous publierons le code source sur AOSP au deuxième et au quatrième trimestre. Pour créer et contribuer à AOSP, nous vous recommandons d’utiliser android-latest-release au lieu de aosp-main. La branche de fichier manifeste android-latest-release fera toujours référence à la version la plus récente envoyée à AOSP ».

Google précise à nos confrères que cela ne devrait rien changer pour les correctifs liés à la sécurité : « l’entreprise continuerait à publier chaque mois des correctifs de sécurité sur une branche dédiée uniquement à la sécurité pour les versions pertinentes du système d’exploitation, tout comme elle le fait aujourd’hui », affirme Android Authority. Pourtant, ce fonctionnement aussi a changé il y a quelques mois, au grand dam de LineageOS.

Il y a un peu moins d’un an, Google annonçait que le développement d’Android passait uniquement en interne, avec une conséquence visible : la version publique d’Android est toujours en retard sur la version interne. Google bascule de plus en plus dans un modèle où ses smartphones seront en avance sur les autres niveau logiciel.

La FDA réduit sa surveillance des dispositifs de santé portables ou s’appuyant sur l’IA

8 janvier 2026 à 08:01
Porte ouverte
La FDA réduit sa surveillance des dispositifs de santé portables ou s’appuyant sur l’IA

Le directeur de la FDA, Marty Makary, a annoncé au CES assouplir la régulation sur les appareils de santé numériques, notamment concernant les logiciels d’aide à la décision clinique (dont ceux utilisant l’IA générative) et les produits portables pour surveiller les problèmes de santé, tant que ceux-ci ne s’affichent pas comme des dispositifs médicaux.

« Une nouvelle ère pour la santé numérique », c’est le titre de la conférence qu’a donnée Marty Makary, le directeur de la FDA (Food and Drug Administration, l’agence états-unienne responsable de la régulation concernant les médicaments et les produits alimentaires), ce mardi à l’occasion du CES. Cette nouvelle ère ressemble fortement à celle de l’IA voulue par Donald Trump lors de son second mandat : celle d’un assouplissement de la régulation de ces industries. Ainsi Marty Makary a affirmé vouloir favoriser un environnement propice aux investisseurs et faire évoluer la réglementation de la FDA « à la vitesse de la Silicon Valley », comme l’explique le site d’informations médicales Statnews.

L’agence a publié, de fait, une nouvelle interprétation [PDF] des critères à prendre en compte pour savoir si un logiciel d’aide à la décision clinique rentre ou non dans son périmètre de régulation.

« Laissons le marché décider »

Sur Fox Business, Marty Makary a insisté sur les assouplissements concernant les appareils considérés comme « fournissant des informations non médicales ». « Nous voulons faire savoir aux entreprises, à l’aide de directives très claires, que si leur appareil ou leur logiciel se contente de fournir des informations, elles peuvent le faire sans être soumises à la réglementation de la FDA », affirme-t-il.

« S’ils ne prétendent pas être de qualité médicale, laissons le marché décider. Laissons les médecins choisir parmi un marché concurrentiel ceux qu’ils recommandent à leurs patients. Bon nombre de ces dispositifs médicaux basés sur l’IA et ces technologies logicielles s’améliorent avec le temps. Il n’est donc pas vraiment approprié pour nous, à la FDA, d’utiliser un ancien modèle consistant simplement à apposer un cachet sur quelque chose, dans un marché en pleine évolution », ajoute le responsable de l’agence de régulation.

Marty Makary ne détaille pas les appareils qui ne figureront plus dans la liste des produits que la FDA régulera. Selon Statnews, cette nouvelle doctrine indique que cela va concerner des appareils qui mesurent des paramètres physiologiques tels que la pression artérielle, la saturation en oxygène et la glycémie, et qui sont destinés uniquement à des fins de bien-être. Mais cela va aussi « ouvrir la voie à l’utilisation non réglementée de produits d’IA générative pour certaines tâches médicales, telles que la synthèse des conclusions d’un radiologue ».

Conseillé par des personnes impliquées dans le business du numérique en santé

Pourtant, si une régulation était en place depuis 2022, certains chercheurs appelaient en octobre dernier dans la revue scientifique médicale JAMA à faire exactement le contraire de ce qu’annonce Marty Makary. Ils expliquaient que les lois états-uniennes excluaient déjà trop les logiciels (dont les logiciels avec de l’IA) de la définition des « dispositifs médicaux » si leur fonction est d’apporter un soutien administratif, un soutien général au bien-être, certains types d’aide à la décision clinique ou certaines fonctions de gestion de dossiers médicaux.

Mais, sur le numérique dans la santé, la FDA a indiqué à Statnews que Marty Makary est notamment conseillé par Jared Seehafer, Shantanu Nundy et Richard Abramson. Tous les trois ont travaillé pour des entreprises spécialisées dans le numérique en santé (Enzyme pour le premier, Accolade Health pour le deuxième et annalise.ai maintenant nommée Harrison.ai pour le troisième).

Selon Statnews, une des principales critiques contre la régulation de 2022 concernait le fait que si un dispositif indiquait un résultat et une voie à suivre, il entrait alors dans le périmètre de surveillance de l’agence. Du point de vue de l’industrie, il suffisait alors de proposer plusieurs résultats, même non appropriés, pour passer outre. La nouvelle directive simplifie le problème en permettant à la FDA d’exercer un pouvoir discrétionnaire sur le classement d’un dispositif dans la catégorie des produits qu’elle n’a pas à contrôler.

Enfin, Marty Makary ne veut surtout pas mettre le nez dans les affaires des entreprises de l’IA grand public, même si leurs produits génèrent des contenus sur la santé : « Si quelque chose se contente de fournir des informations comme ChatGPT ou Google, nous ne pouvons pas rivaliser avec ce géant. Nous n’allons pas intervenir et dire : « il y a un résultat qui est inexact, nous devons donc fermer ce service » », affirme-t-il à Fox Business. Les AI Overviews de Google ont pourtant généré récemment plusieurs exemples de conseils de santé erronés.

L’UE va négocier avec les USA l’accès à des données sensibles pour l’exemption de visa

7 janvier 2026 à 14:41
Frontières biométriques
L’UE va négocier avec les USA l’accès à des données sensibles pour l’exemption de visa

Alors que Donald Trump menace d’annexer le Groenland, la Commission européenne va négocier en 2026 avec les États-Unis l’accès à des données sensibles de citoyens européens comme l’origine ethnique, les opinions politiques, l’orientation sexuelle ou des données biométriques pour recourir à l’exemption de visa aux frontières étatsuniennes. Les ministres des Affaires européennes des pays européens ont donné leur feu vert aux négociations.

Mi-décembre, le Conseil des affaires générales (qui rassemble tous les ministres des Affaires européennes des États membres de l’UE) a autorisé « sans débat » la Commission européenne à entamer des négociations avec les États-Unis concernant un accord-cadre prévoyant le partage de données sensibles dans le cadre de leur programme « Visa Waiver ».

Celui-ci, mis en place en 1986, permet à des ressortissants de 42 pays (dont la France) de « voyager aux États-Unis pour affaires ou pour le tourisme pour des séjours d’une durée maximale de 90 jours sans visa ».

De nouvelles conditions introduites en 2022

Mais, sous Joe Biden en 2022, les États-Unis ont introduit une nouvelle condition pour qu’un pays puisse en bénéficier : la signature d’un « Partenariat renforcé pour la sécurité des frontières », PRSF (« Enhanced Border Security Partnership », EBSP) avec le département de la Sécurité intérieure des États-Unis.

Dans ce « partenariat », ce département exige, pour donner accès au programme « Visa Waiver » aux ressortissants d’un pays, d’avoir accès à des informations sur « les voyageurs qui se rendent aux États-Unis et sont susceptibles d’avoir un lien avec le pays partenaire du programme d’exemption de visa », mais aussi toute personne qui voudrait immigrer aux États-Unis ou avoir une protection humanitaire, et enfin « les personnes détectées par les services répressifs du ministère américain de la sécurité intérieure dans le cadre des contrôles frontaliers et de l’immigration aux États-Unis », explique la Commission européenne dans un document de recommandation publié en juillet 2025. Bref, les bases de données européennes pourraient être consultées lors d’une bonne partie des contrôles d’immigration.

Rappelons que, depuis le retour de Donald Trump au pouvoir, les services de l’immigration et des douanes états-uniens, l’ICE, ont massifié leur système de surveillance, scrutant les réseaux sociaux et mettant en place une reconnaissance biométrique sans échappatoire pour les contrôles d’identité dans les rues. Les services des douanes américains envisagent de conditionner l’entrée des candidats au programme « Visa Waiver » au partage, entre autres, de 5 ans d’historique de réseaux sociaux.

Un accès conditionné à des données à caractère personnel sur les opinions politiques, l’origine, les données biométriques et génétiques…

Toujours selon le document de la Commission, l’accord-cadre pourrait autoriser « le transfert de données à caractère personnel qui révèlent l’origine raciale ou ethnique, les opinions politiques, les convictions religieuses ou philosophiques ou l’appartenance syndicale, ainsi que le transfert de données génétiques, de données biométriques aux fins de l’identification d’une personne physique de manière unique, et de données relatives à la santé et à la vie sexuelle ou à l’orientation sexuelle d’une personne […] pour prévenir ou combattre les infractions pénales, dont le terrorisme, visées dans l’accord-cadre, et sous réserve de garanties appropriées parant aux risques propres au traitement des données ».

Le texte affirme que ce transfert devra se faire « lorsque cela est strictement nécessaire et proportionné ». L’administration Trump a montré, par exemple avec l’enlèvement récent de Nicolás Maduro ou ses menaces d’annexer le Groenland, qu’elle pouvait passer outre ce genre de considérations. Pourtant, les gouvernements européens ont donc tous, « sans débat », donné le feu vert à la Commission européenne pour négocier cet accord-cadre.

Selon un document de travail [PDF] de la présidence danoise du Conseil obtenu par le site Statewatch datant de quelques semaines avant l’autorisation donnée par le Conseil des affaires générales, l’accord-cadre doit couvrir « le contrôle et la vérification de l’identité des voyageurs nécessaires pour déterminer si leur entrée ou leur séjour présenterait un risque pour la sécurité publique ou l’ordre public ». Et les informations pourront être utilisées « pour lutter contre l’immigration irrégulière et pour prévenir, détecter et combattre les infractions graves et les infractions terroristes, à condition que ces efforts s’inscrivent dans le cadre de la gestion et du contrôle des frontières ».

Un cadre puis des négociations bilatérales pour le détail du type de données partagées

La Commission va donc négocier ce cadre et chaque pays devra ensuite engager des négociations en bilatéral avec Washington pour préciser quels types de données pourront être utilisés et quelles bases de données seront interrogeables. Mais selon un autre document obtenu par StateWatch [PDF], ces négociations doivent aller vite, puisque les États-Unis s’attendent à ce que ces « partenariats » soient mis en place au 31 décembre 2026.

Si le Conseil met en avant une unanimité des positions, une note diplomatique allemande datant du 1e décembre [PDF] obtenue par Euractiv indiquait qu’à ce moment-là « un État membre a posé une ligne rouge ». La diplomatie allemande indiquait ensuite « (probablement la France) ». Contacté dans la matinée par Next sur le sujet, le ministère de l’Europe et des Affaires étrangères n’a pour l’instant pas répondu à nos demandes de précisions sur le sujet.

En septembre, le Contrôleur européen de la protection des données (CEPD) a émis un avis sur le sujet [PDF], affirmant que cet accord-cadre « créerait un précédent important, car il s’agirait du premier accord conclu par l’UE impliquant un partage à grande échelle de données à caractère personnel, y compris de données biométriques, à des fins de contrôle des frontières et de l’immigration par un pays tiers ». Il estimait « nécessaire de procéder à une analyse approfondie de l’impact sur les droits fondamentaux de l’accord-cadre proposé et des partenariats renforcés avec les États-Unis en matière de sécurité aux frontières ».

Dans son document de préparation, la Commission européenne précise que le Danemark et l’Irlande ne sont pas concernés par le texte (le premier en référence à sa position sur le fonctionnement de l’Union européenne, le deuxième car il ne fait pas partie de l’espace Schengen).

Le Wi-Fi 8 est déjà une réalité au CES

7 janvier 2026 à 14:25
Alors qu’on est toujours à la 5G… pfff !
Le Wi-Fi 8 est déjà une réalité au CES

Le CES est l’occasion pour Asus de dégainer son premier routeur Wi-Fi 8… enfin un « concept » plus exactement, pas encore un produit commercial. Broadcom continue de décliner sa gamme de puces pour le Wi-Fi, tandis que MediaTek occupe le terrain médiatique avec une annonce (vide). 2026 devrait être l’année des premières annonces de produits.

Depuis des années, les fabricants sont en avance sur la norme. Le Wi-Fi 8 n’est pas encore officiel que déjà les annonces pleuvent durant le CES de Las Vegas. Asus par exemple présente un « concept » de routeur en Wi-Fi 8 : le ROG NeoCore.

Asus partage une image, mais ne donne aucune caractéristique technique. Le fabricant se contente de déclarations du genre : « le Wi-Fi 8 ne consiste pas seulement à augmenter les débits – il s’agit de rendre chaque connexion plus intelligente et plus fiable », explique Tenlong Deng, vice-président chez Asus.

Alors que les routeurs de nouvelles générations sont souvent bardés d’antennes bien visibles, le ROG NeoCore n’en a aucune extérieure. Le fabricant affirme que « ses premiers routeurs domestiques WiFi 8 arriveront en 2026 ». L’entreprise propose plus de détails sur la technologie du Wi-Fi 8 sur cette page.

Des puces Wi-Fi 8 chez Broadcomm et MediaTek

Broadcomm de son côté annonce un APU BCM4918 ainsi que deux puces BCM6714 et BCM6719 ; tous avec le Wi-Fi 8 en ligne de mire. Le fabricant avait déjà présenté sa puce BCM6718 en octobre dernier, elle aussi en Wi-Fi 8. Des échantillons sont déjà disponibles pour certains clients triés sur le volet.

La BCM6714 propose 3 flux en 2,4 GHz (3×3) et 4 flux en 5 GHz (4×4), tandis que la BCM6719 est en 4×4 sur les deux bandes de fréquences. Les deux disposent d’un amplificateur de puissance sur les 2,4 GHz pour « réduire les composants externes et améliorer l’efficacité des ondes ». La BCM6718 prend pour sa part en charge trois bandes de fréquences (2,4, 5 et 6 GHz) en 4×4, mais sans amplificateur intégré.

MediaTek aussi répond présent à l’appel du Wi-Fi 8 avec sa famille Filogic 8000… et c’est à peu près tout. Le reste du communiqué parle des avantages et espoirs du Wi-Fi 8, pas des caractéristiques des futures puces de MediaTek, dont les premiers exemplaires « devraient être livrés aux clients plus tard cette année ».

Le Wi-Fi 8 fonctionne déjà (en labo), les nouveautés attendues

En octobre, TP-Link affirmait réaliser pour la première fois des échanges de données en Wi-Fi 8, via un prototype développé dans le cadre d’un partenariat industriel (sans précision supplémentaire).

Le Wi-Fi 8 ne devrait pas révolutionner les débits – même si certains parlent de 100 Gb/s, bien au-delà de ceux théoriques du Wi-Fi 7 (46 Gb/s) – mais augmenter grandement la fiabilité, notamment dans des conditions difficiles. Le Wi-Fi 8 est aussi connu sous la norme IEEE 802.11bn Ultra High Reliability (UHR).

« Le Wi-Fi  8 pourrait atteindre des débits théoriques proches de 100 Gb/s, mais sa priorité serait une expérience plus fluide et stable », affirmait TP-Link. « L’objectif de cette norme de nouvelle génération est d’améliorer l’expérience utilisateur en augmentant, non seulement la vitesse, mais aussi la fiabilité ». La latence devrait aussi être améliorée », expliquait HPE.

Qualcomm en parle comme « un tournant fondamental : il va au-delà des débits pour privilégier des performances fiables dans des conditions réelles et difficiles ». Le Wi-Fi proposera une « connectivité cohérente, à faible latence et presque sans perte, même dans des environnements (mobiles) très encombrés, sujets aux interférences ».

Rendez-vous en 2028 pour la finalisation, cette année pour les produits

L’été dernier, nous avions publié un tour d’horizon des attentes du Wi-Fi 8, avec par exemple la coordination multi-AP (points d’accès multiples) souvent mise en avant. Citons également des améliorations sur la gestion du spectre, avec « le fonctionnement dynamique du sous-canal DSO/l’accès au canal non principal NPCA ». La finalisation de la norme est attendue pour 2028.

Comme c’était déjà le cas pour les précédentes versions, des produits seront commercialisés bien avant, dès cette année selon les déclarations du jour d’Asus par exemple. Le programme de certification du Wi-Fi 7 est par exemple arrivé en janvier 2024… bien après les premiers produits sur le marché, basés sur des brouillons de la norme.

☕️ NVIDIA va étendre GeForce Now à Linux et Fire TV

7 janvier 2026 à 11:33

NVIDIA semble enfin prendre un peu plus au sérieux la plateforme Linux avec l’annonce de l’arrivée de son GeForce Now au pays des manchots.

L’entreprise en a fait l’annonce pendant le CES. « Les PC Linux et les clés USB Amazon Fire TV rejoignent la famille d’applications natives GeForce Now », déclare NVIDIA. L’application sera basée sur celles qui existent déjà pour Windows, macOS ou encore les Chromebooks. Les offres seront strictement identiques. À ce sujet, NVIDIA assortit désormais tous les abonnements d’une limite mensuelle de 100 heures (sauf anciennes formules antérieures à 2021 et dont l’abonnement a été payé depuis sans interruption).

Logo de GeForce Now

Mais attention, car le support officiel de Linux n’est prévu que pour Ubuntu 24.04 et ses versions ultérieures. Cela ne signifie pas qu’on ne pourra pas l’installer sur d’autres distributions, mais que les problèmes rencontrés ailleurs ne seront pas une priorité pour NVIDIA. Côté Fire TV d’Amazon, le support initial ne concernera que deux modèles, les Stick 4K Plus (2ᵉ génération) et Stick 4K Max (2ᵉ génération).

Dans tous les cas, l’application devrait arriver en bêta en ce « début d’année », sans plus de précisions.

Vincent Strubel (ANSSI) tient à rappeler ce qu’est vraiment SecNumCloud

7 janvier 2026 à 11:04
Piqûre salutaire
Vincent Strubel (ANSSI) tient à rappeler ce qu’est vraiment SecNumCloud

Alors que les débats autour de la souveraineté numérique sont particulièrement vifs cette année, la qualification SecNumCloud, délivrée par l’ANSSI, revient souvent sur la table. Le directeur de l’agence, Vincent Strubel, a tenu à rappeler les forces et limites du label.

Le directeur de l’Agence nationale de la sécurité des systèmes d’information a pris la plume ce 6 janvier sur LinkedIn. Objectif : refaire un tour d’horizon de ce qu’est et n’est pas la qualification SecNumCloud (SNC pour les intimes). Il estime en effet que des « incompréhensions persistantes » gravitent autour de SecNumCloud, remises en lumière par l’obtention récente du label par S3NS sur son offre hybride.

Immunité aux lois étrangères et au kill switch

Il rappelle ainsi que la qualification SNC est un processus long et exigeant, avec de multiples facettes (1 200 points de contrôle) et qui s’applique de la même manière à tous les candidats. Les garanties apportées sont techniques, juridiques et organisationnelles. La qualification a en outre été pensée pour les usages sensibles du cloud, pas pour les solutions standards.

La protection contre la portée extraterritoriale des lois étrangères (les lois américaines Cloud Act et FISA sont citées) est l’aspect le plus souvent discuté. Plusieurs critères sont imposés : le siège social du prestataire et sa capitalisation doivent être européens, les sous-traitants et fournisseurs ne doivent jamais avoir accès aux données des clients, et il doit prouver une autonomie complète dans l’exploitation de sa solution.

SecNumCloud immunise également contre le « kill switch », « celui de voir des prestataires non européens contraints de couper le service qu’ils fournissent à certains de leurs clients, en fonction de sanctions ou de restrictions d’exportations imposées par le pays d’origine de ces prestataires », explique Vincent Strubel. Le directeur de l’ANSSI mentionne à ce sujet le cas emblématique des magistrats de la Cour Pénale Internationale. Ici, le prestataire européen n’est pas tenu de donner suite à une telle injonction.

Il y a quelques temps, Vincent Strubel rappelait à juste titre que la protection contre les lois extraterritoriales est « souvent ce que l’on retient, mais au final, ça ne représente qu’une page dans les 55 du référentiel, sans même parler de toutes les annexes et les documents auxquels ils renvoient ».

La qualification n’est pas une barrière absolue

En revanche, la qualification n’est pas une protection absolue pour tous les scénarios. Surtout, comme le rappelle le directeur, elle ne signifie pas une absence de dépendances : « Une qualification SecNumCloud ne signifie pas que le prestataire de cloud peut opérer à long terme en autarcie complète, sans s’appuyer sur des fournisseurs non européens ni disposer de mises à jour fournies par des tiers ».

S’il pointe que des offres hybrides comme Bleu et S3NS sont « sans doute » plus exposées à ce risque, le choix n’est pas binaire. Ainsi, toutes les offres de cloud dépendent d’une manière ou d’une autre de technologies non européennes. Il peut s’agir aussi bien de la partie logicielle (systèmes d’exploitation, bases de données, couches d’orchestration…) que de la partie matérielle (CPU, GPU…). L’open source peut jouer « indiscutablement » un rôle dans l’émancipation, sans être « pour autant la panacée » : « aucun acteur, État ou entreprise, ne maîtrise entièrement, et ne peut prétendre forker et maintenir en autarcie toute la stack technologique du cloud », indique Vincent Strubel.

Pour le directeur de l’ANSSI, il est « évident » que priver l’Europe de l’accès à la technologie américaine ou chinoise entrainera nécessairement un « problème global de dégradation du niveau de sécurité en l’absence de mises à jour, dans le cloud comme ailleurs ». Ce problème ne concerne pas que les offres hybrides, pas même uniquement le cloud. D’ailleurs, il estime que la montée en compétence dans la capacité européenne à exploiter des technologies américaines « est en soi un progrès dans la prise en compte des dépendances ».

Sans le dire explicitement, Vincent Strubel semble regretter cependant que la plupart des débats tournent autour de la partie juridique et de l’extraterritorialité des lois. Il rappelle que les cyberattaques restent « la menace la plus tangible » sur le cloud et que SecNumCloud impose de fortes contraintes, que ce soit sur l’architecture ou les caractéristiques techniques. On retrouve par exemple le cloisonnement fort entre clients, chaine d’administration et supervision, la gestion sécurisée des mises à jour ou encore le chiffrement systématique des données, aussi bien en transit qu’au repos.

Il ajoute à cela la dimension humaine, en rappelant que le référentiel SNC « consacre un chapitre entier aux ressources humaines du prestataire ». En plus d’exigences techniques pour garantir qu’aucun employé n’est en mesure de porter une atteinte grave sans être détecté, la qualification prend en compte l’éventuelle coopération d’employés dans un objectif malveillant, que ce soit « par corruption, contrainte ou infiltration ».

« Un outil de cybersécurité, pas de politique industrielle »

Enfin, dans une petite FAQ en fin de billet, le directeur de l’ANSSI aborde deux questions importantes. SecNumCloud est-il un label de souveraineté ? Pas de réponse définie, la « souveraineté » n’ayant pas de définition unique… et c’est peu de le dire. La qualification permet au moins de se pencher sur les aspects cybersécurité et extraterritorialité, et influe en partie sur le choix des technologies. « Les offres qualifiées SecNumCloud sont donc, sans le moindre doute, « souveraines », et cette qualification est un levier indispensable pour défendre notre souveraineté numérique », indique Strubel.

En revanche, SecNumCloud est « un outil de cybersécurité, pas de politique industrielle ». Il n’en naitra donc pas « des solutions alternatives ou des briques technologiques maîtrisées pour résoudre toutes les questions de dépendances », avertit le directeur.

Quant à savoir si les offres hybrides qualifiées offrent le même niveau de garantie que les autres, il répond clairement : « Oui ». Un fournisseur comme S3NS « n’est pas forcément en mesure d’assurer la maintenance dans la durée de sa solution s’il est privé de tout accès à la technologie non européenne, mais les offres « non hybrides » sont également soumises à ce risque fondamental, même si leurs dépendances peuvent être moindres, plus réparties ou plus complexes à identifier ».

Ce sujet de la « durée de vie » des systèmes en cas de coupure nette, nous en avions parlé avec Bleu et S3NS. Les deux pensent pouvoir tenir au moins plusieurs mois avec des plans de réversibilité. Si nous devions en arriver à une telle situation, cela signifierait qu’il y aurait des problèmes bien plus importants avec Microsoft, ainsi qu’entre la France et les États-Unis, nous expliquait Bleu récemment.

xAI d’Elon Musk lève 20 milliards de dollars, en dépit des polémiques liées à Grok

7 janvier 2026 à 10:38
Billion dollar baby
xAI d’Elon Musk lève 20 milliards de dollars, en dépit des polémiques liées à Grok

xAI vient de réaliser un nouveau tour de table qui permet à l’entreprise spécialisée dans l’IA d’Elon Musk de disposer de 20 milliards de dollars supplémentaires pour financer ses développements. Une partie de cette manne devrait servir les pharaoniques projets d’infrastructure de l’entreprise, qui vient par exemple de signer l’acquisition de turbines à gaz destinées à leur fournir près de 2 GW d’énergie supplémentaires.

Grok a beau dérailler à pleins tubes, entre saillies négationnistes et deepfakes douteux, l’entreprise d’IA générative pilotée par Elon Musk semble n’avoir pas perdu la confiance des investisseurs. Elle vient en effet d’annoncer la conclusion de sa série E, soit son cinquième tour de financement après l’amorçage, sur une note positive : xAI affirme en effet avoir réuni 20 milliards de dollars, alors que son objectif initial se situait plutôt à 15 milliards de dollars.

Une valorisation supérieure à 200 milliards de dollars ?

La plupart des investisseurs historiques de xAI remettent au pot. Le tour de table associe ainsi plusieurs fonds états-uniens (Valor Equity Partners, Stepstone Group, Fidelity Management & Research Company), mais aussi des industriels du secteur (dont NVIDIA et Cisco) et des financeurs venus du Moyen-Orient, Qatar Investment Authority et le fonds émirati MGX, par ailleurs premier financeur du projet Campus IA en Île-de-France (voir notre reportage).

Ce nouvel apport d’argent frais intervient sept mois après la série D, réalisée en juin 2025 sur un montant d’environ 5 milliards de dollars. Précédemment, xAI avait levé 6 milliards de dollars en décembre 2024 et, déjà, 6 milliards en mai de la même année. Chaque opération de ce type est en principe l’occasion pour l’entreprise de renégocier à la hausse sa valeur, mais xAI ne précise pas la capitalisation retenue pour ce nouveau tour de table.

Le Financial Times affirmait pour sa part en novembre dernier que xAI raisonnait sur une valeur de l’ordre de 230 milliards de dollars au moment où l’entreprise cherchait à lever 15 milliards de dollars.

Notons qu’outre ces levées de fonds, réalisées en capital, xAI recourt également dans des proportions importantes à la dette bancaire : la série D bouclée en juin 2025 a par exemple été accompagnée d’un emprunt de 5 milliards de dollars, destiné notamment à la poursuite du financement de Colossus, le gigantesque datacenter de xAI installé à Memphis (Tennessee).

Accélérer le développement des infrastructures

Le renforcement continu des infrastructures de calcul fait partie des principaux objectifs annoncés par l’entreprise, qui se félicite d’avoir accru, à fin 2025, son « avantage décisif en matière de calcul grâce aux plus grands supercalculateurs d’IA au monde, Colossus I et II ». Elle revendique à cette date un parc installé de plus d’un million de GPU H100 (NVIDIA) ou équivalents.

« Ce financement accélérera le développement de notre infrastructure de pointe », affirme xAI dans son communiqué du 6 janvier. Le même jour, Elon Musk a confirmé, sur son réseau social, l’information selon laquelle l’entreprise venait de boucler l’acquisition de cinq gigantesques turbines dédiées à l’alimentation au gaz naturel de ses centres de données.

« xAI a acheté cinq turbines à gaz naturel de 380 MW supplémentaires à Doosan Enerbility de Corée du Sud. Les deux premières unités sont programmées pour une livraison fin 2026. Elles alimenteront un cluster additionnel équivalent à plus de 600 000 GB200 NVL72 », a affirmé le compte X SemiAnalysis, auquel Musk a sobrement répondu « True » (vrai), soulignant à quel point l’approvisionnement en énergie devient un enjeu crucial pour les grands noms de l’IA, dont les besoins dépassent souvent l’offre disponible en local.

Grok 5 en phase d’entraînement

Dans son communiqué, xAI salue les progrès continus effectués par ses modèles Grok. Après la version 4 sortie en juillet 2025 (non sans quelques heurts médiatiques), l’entreprise révèle que la prochaine génération en est au stade de l’entraînement, ce qui laisse supposer que le lancement de Grok 5 est imminent.

xAI affirme à ce niveau se concentrer « sur le lancement de nouveaux produits innovants destinés aux consommateurs et aux entreprises qui exploitent la puissance de Grok, Colossus et X pour transformer notre façon de vivre, de travailler et de jouer ».

Le réseau social X (racheté par xAI à Elon Musk en mars 2025) constitue en effet aujourd’hui la principale vitrine commerciale de Grok et donc de xAI. Les modèles maison y sont implémentés sous forme de chatbot, avec un onglet dédié, et une mise en œuvre immédiate des dernières fonctionnalités, à l’image de Grok Imagine, famille de modèles de génération d’images et de vidéos ultra-rapides qui « offrent des capacités de pointe en matière de compréhension, d’édition et de génération multimodales » selon l’entreprise.

Le handicap des polémiques

L’approche volontairement permissive de xAI en matière de modération participe grandement à la popularité de Grok sur X. La vague récente de demandes relatives à des photos de femmes dénudées ou à des détournements de photos illustrant des personnalités permet de confirmer la qualité des traitements opérés par Grok Imagine, mais les scandales récurrents, l’élargissement de l’enquête en France ou les critiques récentes de la ministre britannique Liz Kendall n’entravent-elles pas le succès commercial de xAI et donc le retour sur investissement attendu par les fonds qui financent l’entreprise ?

La question se pose d’autant plus que xAI ne communique aucun élément relatif à son chiffre d’affaires. L’entreprise dispose d’importants débouchés au travers des autres entreprises gérées par Elon Musk (au premier rang desquelles Tesla et SpaceX), mais elle aurait du mal à signer d’autres grands clients dans le monde professionnel, remarquait The Information le 15 décembre dernier. En dépit de quelques références prestigieuses telles que Morgan Stanley ou Palantir, les contrats se limiteraient souvent à des projets pilotes, là où OpenAI, Google, Microsoft ou Anthropic parviennent à boucler des déploiements à grande échelle.

Fin décembre, xAI a tout de même remporté un contrat à forte valeur symbolique auprès du Pentagone et des installations militaires états-uniennes.

En attendant, xAI revendique 600 millions d’utilisateurs actifs mensuels au travers des applications X et Grok. L’entreprise est encore loin des statistiques affichées par OpenAI, qui parle de son côté de 800 millions d’utilisateurs actifs par semaine, mais sa valorisation atteint déjà près de la moitié de celle de son principal concurrent (500 milliards de dollars estimés pour OpenAI avant une possible entrée en bourse).

Ryzen AI 400, Max+ et 9850X3D… au CES, AMD assure (à peine) le service minimum

7 janvier 2026 à 08:35
Le non changement dans la continuité
Ryzen AI 400, Max+ et 9850X3D… au CES, AMD assure (à peine) le service minimum

Lors du CES, AMD a présenté ses nouveautés qui n’ont pas grand chose de nouveau. Les Ryzen AI 400 sont des copies des 300, le Ryzen 7 9850X3D est une version plus rapide du 7 9800X3D et les Ryzen AI Max+ ont droit à un GPU plus rapide.

Après Intel qui a lancé ses Core Ultra Series 3 (Panther Lake), passons chez AMD avec les Ryzen AI 400 (Pro) alias Gorgon Point. Les processeurs sont construits autour de l’architecture Zen 5 (et sa déclinaison allégée 5c), déjà présente dans les Ryzen AI 300 (Strix Point) lancé en juin 2024. On retrouve aussi un NPU XDNA de 2ᵉ génération, là encore comme dans la série 300. La partie graphique ne change pas non plus avec du RDNA 3.5 (Radeon 8x0M).

Ryzen AI 400 : vous voyez les 300 ? Ben c’est pareil…

À référence identique, le nombre de cœurs est le même. Le Ryzen AI 9 465 par exemple a 10 cœurs, exactement comme le Ryzen 9 365. La répartition est identique avec 4x Zen 5 et 6x Zen 5c pour les deux CPU. Les fréquences aussi sont les mêmes : jusqu’à 5 GHz en mode Boost pour Zen 5, 3,3 GHz maximum pour les cœurs Zen 5c et 2 GHz en fréquence de base, aussi bien pour le Ryzen AI 9 365 que le 465.

Pour d’autres, seule la fréquence Boost change avec jusqu’à 5,2 GHz pour les Ryzen 9 AI HX 475 et 470 au lieu de 5,1 GHz pour les AI HX 375 et 370. Parfois, c’est la partie graphique qui est légèrement améliorée, comme le Ryzen AI 5 430 qui a une Radon 840M au lieu d’une 820M pour le AI 330, ou alors la fréquence du GPU est augmentée (3,1 GHz sur le AI 9 HX 475 au lieu de 2,9 GHz sur le 375 par exemple).

Il y a également un peu de changement sur le NPU dont la puissance de calcul peut désormais atteindre 60 TOPS.

Bref, rien de révolutionnaire, une simple petite mise à jour avec principalement un « 4 » à la place du « 3 ». Les premières machines avec un Ryzen AI de la série 400 sont attendues à partir de ce trimestre chez Acer, ASUS, Dell, HP, Gigabyte et Lenovo.

Deux nouveaux Ryzen AI Max+ avec un GPU plus performant

Deux nouvelles références Ryzen AI Max+ sont aussi annoncées : les 392 et 388. Cette gamme de processeurs ne dispose pour rappel que de cœurs Zen 5 (aucun cœur n’est en Zen 5c, moins performants mais plus économes). Le Ryzen AI Max+ 392 en a 12 comme le AI Max+ 390, tandis que le Ryzen AI Max+ 388 en a 8 comme le AI Max+ 385.

Contrairement à leur grand frère, ces deux nouveaux CPU ont une partie graphique Radeon 8060S avec 40 cœurs graphiques au lieu d’une 8050S avec seulement 32 cœurs, tandis que la fréquence gagne 100 MHz pour arriver à 2,9 GHz. AMD renforce donc la partie graphique de ses processeurs, déjà un point fort de cette gamme.

Le NPU est toujours à 50 TOPS. Là encore la disponibilité est prévue pour ce trimestre.

Sur le jeu, AMD enfonce le clou avec le Ryzen 7 9850X3D

Enfin, AMD annonce un Ryzen 7 9850X3D avec 8 cœurs Zen 5 et un 3D V-Cache de 2ᵉ génération de 96 Mo, pour un total de 104 Mo de mémoire cache sur le processeur. Il vient donc redonner un coup de jeune au Ryzen 7 9800X3D (qui a lui aussi 104 Mo de cache) avec une fréquence plus élevée de 5,6 GHz en boost (au lieu de 5,2 GHz), mais toujours à 4,7 GHz de base.

AMD annonce des performances « jusqu’à 27 % supérieures à celles de l’Intel Core Ultra 9 285K ». Le processeur est toujours sur socket AM5 et AMD promet aussi quelques pourcents de gain par rapport au Ryzen 7 9800X3D, comme on peut le voir dans le graphique ci-dessous comparant le Core Ultra 9 285K, le Ryzen 9800X3D et le 9850X3D.

Six AMD Ryzen AI Embedded P100

AMD pense aussi au monde de l’embarqué avec des AMD Ryzen AI Embedded P100 Series doté de 4 ou 6 cœurs Zen 5. Le NPU affiche 30 ou 50 TOPS, la connectivité est en 10 Gb/s, la DDR5 à 5 600 MT/s, etc. Le TDP varie entre 15 et 54 watts suivant les références.

Voici le détail des puces :

Lisa Su expose des dies : GPU MI455X et CPU Venice (Zen 6)

Enfin, AMD profite du CES pour parler un peu de ses prochains GPU pour serveurs et pour l’intelligence artificielle : les AMD Instinct. Il était notamment question de la série MI500 « prévue pour 2027 », qui devrait proposer « jusqu’à 1 000 fois plus de performances en AI que les GPU AMD Instinct MI300X introduits en 2023 ».

AMD présentait aussi son rack Helios, déjà annoncé en octobre dernier. Il comprend des processeurs AMD Epyc Venice avec la future architecture Zen 6 ainsi que des GPU Instincts MI455X. Lisa Lu présentait durant la conférence un (imposant) die du GPU de l’Instinct MI455X (le rectangle dans les photos ci-dessous) et un tout aussi imposant die du CPU Venice (le carré).

AMD annonce jusqu’à 2,9 ExaFLOPS de puissance de calcul (sans indiquer la précision) pour son rack Helios, avec 31 To de mémoire HBM4 et 4 600 cœurs CPU Zen 6. Pour la connectivité, AMD affiche le logo de l’Ultra Ethernet sur ses documents, sans plus de détails.

La version 1.0 de cette norme, qui se pose comme un concurrent de l’Infiniband de NVIDIA, a été mise en ligne au début de l’été 2025. Dans le comité directeur, on retrouve AMD, mais aussi Arista, Broadcom, Cisco, Eviden, HPE, Intel, Meta, Microsoft et Oracle. Google Cloud, NVIDIA, Qualcomm, Synopsys et Marvell (pour ne citer qu’eux) sont des membres du consortium.

Le ministère de la Culture relaie une « hallucination » générée par IA

6 janvier 2026 à 16:54
Rachida Data
Le ministère de la Culture relaie une « hallucination » générée par IA

Le tsunami de sites d’infos générées par IA que nous documentons depuis des mois a pris une telle ampleur que le ministère de la Culture vient lui-même de publier un communiqué de presse largement inspiré d’un billet de blog généré par IA, tout en y relayant une erreur « hallucinée » par l’IA.

Sur X.com, @nizzague s’étonne en effet de voir que l’hommage rendu au rappeur récemment décédé Calbony M’Bani, dit Calbo, vantait la « virtuosité du groupe et leur amour de la langue française maniant rimes multisyllabiques et métaphores sans jamais perdre leur ancrage dans le réel ».

Après avoir initialement avancé que le communiqué « illustre parfaitement les limites de l’IA », @nizzague a publié un second message relevant que « quasiment tout a été pompé et retravaillé à partir d’un site qui dressait la biographie de Calbo, juste avant son décès » :

« Avec la même erreur sur « Shalom » au lieu de « Shaolin » et le même plan de présentation avec des termes similaires. »

À gauche, le communiqué du ministère de la Culture, à droite, le billet de blog généré par IA

Des fautes d’accord, de conjugaison et de syntaxe

Pis, relève LePoint.fr : « des fautes d’accord, de conjugaison et de syntaxe se sont glissées dans le texte, qui manifestement n’a pas été relu », telles que « il était définitivement entrée »« des titres comme Boxe ou Shalom avait révélé » ou encore « la virtuosité du groupe et leur amour ».

Le communiqué du ministère de la Culture a depuis été corrigé, mais nous ne sommes pas suffisamment connaisseurs de l’œuvre de Calbo et du groupe Ärsenik qu’il avait créé avec son frère Lino pour savoir si y figuraient d’autres erreurs venant du billet de blog qui avait halluciné « Shaolin » en « Shalom ».

Le blog dont se serait inspiré le conseiller de Rachida Dati auteur du communiqué est lui-même truffé de biographies ou de billets consacrés à la maternité semblant, eux aussi, avoir été générés par IA. Étrangement, y figure également un billet intitulé « Grosse Bite : Définition, Perception et Réalité », alors que le blog est censé être celui d’une entreprise bordelaise de location d’équipements pour bébés.

Un spammeur qui rachète des noms de domaine expirés

Gambin, l’entreprise en question, avait en réalité cessé ses activités en août 2024, et son nom de domaine expiré a depuis été racheté pour y héberger des contenus générés par IA, à l’instar des milliers de sites d’infos générées par IA (GenAI) que nous avons identifiés ces derniers mois.

Une récente étude de Médiamétrie, basée sur notre base de données de sites d’infos « en tout ou partie » générées par IA (GenAI, qui vient de franchir ce week-end le cap des 9 500 sites GenAI !) a ainsi découvert qu’un quart des internautes français visitent chaque mois au moins un des 250 sites GenAI faisant partie du Top1000 des sites mis en avant par l’algorithme Discover de recommandation de contenus.

Occasion de rappeler que Next propose une extension web gratuite, pour les navigateurs basés sur Chrome et Firefox (y compris dans sa version Android) qui affiche un message d’alerte lorsque ses utilisateurs consultent ces sites d’infos GenAI.

Nous venons d’y rajouter gambin.co, ainsi que le site de l’école de tir de Chabris, celui du Fonds Alcuin pour l’école de la fondation Roi Baudouin et celui d’Au Vél’o Vert, un loueur de vélos de l’île de Groix, dont les noms de domaine expirés ont eux aussi été rachetés par le spammeur GenAI.

Message d’alerte apparaissant sur les sites d’infos générées par IA figurant dans l’extension de Next

☕️ La bibliothèque clandestine Anna’s Archive perd son .org

6 janvier 2026 à 16:48

Le nom de domaine annas-archive.org a été suspendu. Cette bibliothèque clandestine est, en fait, un métamoteur de recherche pour fouiller aussi bien dans Sci-hub que dans Libgen ou Z-Lib à la recherche d’epubs piratés. Son équipe s’est récemment illustrée en revendiquant la récupération de 300 To de musique de Spotify.

Mais, comme l’a repéré TorrentFreak, le registre en charge du domaine annas-archive.org semble l’avoir placé en statut « ServerHold », ce qui le désactive dans le DNS.

Comme le soulignent nos confrères, la suspension de domaines en .org, géré par le registre d’intérêt public PIR, est plutôt rare, ce qui laisse supposer qu’elle a été prise dans le cadre d’une décision de justice. Mais le directeur marketing du registre affirme à nos confrères que « malheureusement, le PIR n’est pas en mesure de commenter la situation pour le moment ».

De son côté, l’équipe de la bibliothèque clandestine a constaté sur Reddit cette suspension de façon flegmatique en indiquant : « Nos autres domaines fonctionnent correctement, et nous en avons ajouté quelques-uns supplémentaires. Nous vous recommandons de consulter notre page Wikipédia pour connaître les derniers domaines ». Elle ajoute ne pas croire que ça puisse avoir un lien avec la récupération de millions de fichiers qu’elle a effectuée sur Spotify.

Polymarket : un gain de plus de 430 000 $ sur la chute de Maduro

6 janvier 2026 à 14:58
Paris d'initiés
Polymarket : un gain de plus de 430 000 $ sur la chute de Maduro

En pariant sur la chute du chef d’État vénézuélien Nicolás Maduro juste avant son annonce, un internaute a gagné plus de 430 000 dollars sur Polymarket. Nouvelle lumière sur la plate-forme qui a permis de parier aussi bien sur la résistance du sous-marin touristique Titan en 2023 que plus récemment, sur des avancées militaires sur le front russo-ukrainien. Avec, pour les paris gagnants, leurs lots de soupçons de délits d’initiés ou même de manipulation de données.

Comme certains patrons du numérique très proches de Donald Trump, des utilisateurs de la plateforme de pari en ligne Polymarket ont misé sur la déstabilisation du Venezuela. L’un d’entre eux a opportunément créé un compte en décembre dernier et a commencé à parier sur le sujet « Maduro démis de ses fonctions avant le 31 janvier 2026 ? » le 31 décembre en augmentant sa mise de façon conséquente vendredi 2 janvier, juste avant l’enlèvement de Nicolás Maduro par l’armée états-unienne. Son gain ? 436 759,61 dollars après avoir misé 32 537,28 dollars en tout.

Un pic des paris sur la chute de Maduro juste avant son enlèvement

La plateforme permet de parier sur la réalisation ou non d’un événement jusqu’à une date donnée. Comme l’a repéré le Wall Street Journal, les paris en faveur du départ de Nicolás Maduro de ses fonctions avant le 31 janvier ont oscillé entre 5 % et 6 % pendant la majeure partie de la semaine dernière avant d’augmenter vendredi, atteignant 12,5 % dans la nuit peu de temps après que les États-Unis ont ordonné aux avions commerciaux de quitter l’espace aérien vénézuélien.

En tout, 56,6 millions de dollars ont été mis sur la table pour des paris sur le départ de Maduro dont 11 millions sur le fait que cela arrive avant le 31 janvier 2026 et 40 millions entre le 30 novembre 2025 et le 31 décembre 2025.

Le compte de l’utilisateur anonyme qui a remporté la plus grosse mise semble avoir été supprimé mais une sauvegarde de son profil existe sur archive.org. On peut y voir qu’il avait aussi parié de plus petites sommes sur l’invasion du Venezuela par les États-Unis et l’invocation par Donald Trump de la loi américaine sur les pouvoirs de guerre contre le Venezuela, de même avant le 31 janvier 2026 :

Aujourd’hui, sur la page d’accueil de Polymarket, on peut voir que l’actualité géopolitique est particulièrement visée par les parieurs même si le sport, et notamment le Super Bowl, est aussi présent :

Plusieurs paris gagnés sur la plateforme sont régulièrement mis en avant. Ainsi, la plateforme s’est fait remarquer vraiment pour la première fois en 2023, lorsque des utilisateurs ont parié sur la fin tragique des richissimes habitants du sous-marin touristique Titan. En novembre 2024, un utilisateur de la plateforme, se présentant comme français, a plus que doublé sa mise en remportant 155 millions de dollars sur l’élection de Donald Trump.

Mais ce cas particulier de pari sur Maduro pose plus que jamais des questions sur l’encouragement au délit d’initié et à la manipulation de l’information par ce genre de plate-forme où l’utilisateur peut faire des paris peu contrôlés sur tout et n’importe quoi.

Une manipulation des cartes en coïncidence avec un pari

Mi-novembre, ce n’est pas un délit d’initié qui a été repéré mais la manipulation de certaines données en sources ouvertes utilisées par Polymarket à propos du front opposant la Russie et l’Ukraine. En effet, certains utilisateurs parient froidement sur les différentes avancées militaires concernant l’invasion en cours de l’Ukraine par la Russie. On peut voir, par exemple, que certains internautes ont parié sur la possibilité que la Russie frappe la municipalité de Kyïv avant le 31 décembre ? Début décembre, le Kyiv Post dénonçait une « guerre transformée en casino mondial ».

Pour valider les gains sur ce sujet, Polymarket utilise notamment une carte éditée en direct par le think tank néoconservateur américain Institute for the Study of War. Celui-ci est censé mettre à jour sa carte avec une méthodologie qu’il décrit sur son site. Mais selon 404 Media, cette carte a été éditée pour afficher une fausse avancée russe sur la ville de Myrnohrad le 15 novembre, ce qui coïncide avec un pari fait sur la plateforme. La plateforme affiche plus d’1,3 million de dollars de paris concernant la prise par l’armée russe de cette ville.

Rappelons qu’en France, les jeux de hasard et d’argent sont strictement encadrés par le Code de la sécurité intérieure, même s’il a été récemment modifié par la loi 2010 - 476 du 12 mai 2010 relative à l’ouverture à la concurrence et à la régulation du secteur des jeux d’argent et de hasard en ligne. En novembre 2024, l’Autorité nationale des jeux a examiné la plateforme et a conclu que son offre était illégale sur le territoire français.

Un système de prédiction pour le milieu financier ?

Mais Polymarket et Kalshi, son concurrent direct, ne se sont pas montées financièrement comme de simples plateformes de pari en vogue sur internet. Comme l’explique Bloomberg, elles prétendent pouvoir fournir des informations utiles aux sphères économiques. Polymarket et Kalshi vendent leur plateforme comme une nouvelle forme de sondages prédictifs basée sur l’argent misé par tout un chacun à propos de son quotidien.

De fait, si elles font la une des médias sur des paris politiques, géopolitiques ou de conquêtes militaires, une bonne partie des paris s’intéresse à d’autres sujets comme le résultat de matchs de football américains ou d’autres sujets de société.

C’est sur cette promesse en tout cas, que des entreprises de la finance comme CME, Intercontinental Exchange ou Cboe Global Markets ont investi des milliards de dollars dans ce secteur. Les valeurs des deux entreprises ont doublé pendant l’année 2025 en atteignant plus de 10 milliards de dollars.

« Il est dans leur intérêt de nous convaincre que cela va être extrêmement bénéfique pour la société », explique à Bloomberg l’économiste de la Dartmouth Business School Ken French, pour qui « [ces] marchés créent en grande partie des risques qui n’ont pas lieu d’être ».

Lego Smart Play : et les briques devinrent capables d’interactions contextuelles

6 janvier 2026 à 12:23
AFOLant
Lego Smart Play : et les briques devinrent capables d’interactions contextuelles

Lego lancera début mars les premiers sets d’une nouvelle collection baptisée Smart Play, articulée autour d’une brique intelligente, d’un tag et d’une figurine capables d’interactions croisées. Le groupe présente ce trio Smart Brique, Smart Tag et Smart Minifigurine comme une évolution majeure dans la façon de jouer avec ses kits de construction. Le tout sans écran, ni IA.

Dévoilée lundi à l’occasion du CES de Las Vegas, la gamme Lego Smart Play ne serait rien de moins que la « plus grande innovation » depuis l’introduction des mini-figurines, en 1978. Au-delà des superlatifs chers au marketing, l’annonce repose effectivement sur une nouveauté inédite chez le fabricant danois : l’intégration de fonctions connectées au niveau d’une brique de taille standard, la classique 2×4.

Une brique 2×4 centralise les interactions

Dotée d’un système électronique (un ASIC développé en interne) et d’une batterie rechargeable par induction (sur une base dédiée), cette Smart Brick fonctionne en adéquation avec deux éléments satellites : de petites tuiles (2×2 tenons) baptisées Smart Tags et des mini-figurines, elles aussi qualifiées de « smart ». Et ce sont les interactions entre ces trois éléments qui sont censées offrir une dimension supplémentaire aux jeux Lego.

« La technologie permet ainsi aux créations des constructeurs de devenir interactives, en réagissant aux actions par des sons et des comportements appropriés, pour une expérience de jeu véritablement réactive », promet le fabricant.

En pratique ? Dissimulée au sein d’une construction Lego (par exemple, un véhicule), la Smart Brick met à profit sa panoplie de capteurs (accéléromètres, micro, détecteur de lumière) pour déclencher son haut-parleur et ses éclairages en fonction de ses interactions avec les tuiles et les mini-figurines situées à proximité.

Une brique « intelligente » émet du son et de la lumière en fonction des interactions mesurées avec les tuiles et les figurines du set

Dans cette logique, ce sont les tags et les mini-figurines qui amènent le contexte. Le tag va par exemple permettre de définir si la construction en cours est une voiture, un vaisseau spatial ou un hélicoptère, tandis que la figurine servira à déclencher des réactions liées au contexte de jeu :

« Lorsqu’elle est placée au-dessus ou à proximité d’un Smart Tag, la Smart Brique devient ce que le Smart Tag lui demande. Cela signifie qu’elle peut être tour à tour un hélicoptère puis une voiture. 
Mais elle peut aussi détecter la présence de Smart Minifigurines pour donner vie à vos histoires d’une manière inédite. La Smart Brique génère les sons, les humeurs et les réactions uniques de chaque Smart Minifigurine. »

Un système de positionnement intégré

Outre les nombreux kits dédiés à l’apprentissage de la programmation, les amateurs de Lego ont certainement en tête l’expérience des figurines Mario « connectées », qui offraient une dimension interactive, mais sortaient des standards de construction de la marque. Ici, pas de personnage alimenté par des piles LR6 : les éléments Smart Play ont vocation à prendre place au cœur des sets traditionnels, et c’est via des constructions emblématiques de l’univers Star Wars que le groupe danois va tester le marché.

En jaune, le chargeur à induction qui permet d’alimenter la Smart Brique

Les trois premiers produits compatibles Smart Play sortiront ainsi début mars avec un Tie Fighter (set 75421, 473 pièces, figurine Dark Vador, 70 euros), un X-Wing (set 75423, 584 pièces, figurines Luke Skywalker et Princesse Leia, 90 euros) et une scène baptisée Throne Room Duel & A-Wing (set 75427, 962 pièces, deux briques, trois figurines et cinq tags, 160 euros).

Les possibilités en matière d’interactions sont censées s’enrichir au fur et à mesure que le nombre de composants Smart augmente. Lego affirme en effet que chaque élément est capable de se positionner dans l’espace par rapport à ses homologues. « Cela signifie que ces éléments peuvent réagir à la présence des autres, savoir dans quelle position il se trouvent, si on les fait tourner, balancer, si on les lance… tout ! », promet le groupe dans un article dédié à la genèse du projet.

Pour ce faire, Lego indique avoir mis au point un protocole baptisé BrickNet, basé sur le Bluetooth, adossé à un système de positionnement magnétique propriétaire, le Neighbour Position Measurement (NPM). La combinaison des deux doit par exemple permettre de déclencher des interactions différentes selon que la figurine de Luke ou celle de Leia est installée au cockpit du X-Wing. C’est également elle qui servira à détecter si le vaisseau est posé, en mouvement, ou situé à proximité d’un autre set équipé en Smart Play.

Lego, qui revendique neuf ans de R&D et 25 brevets déposés, laisse en effet entendre que son environnement Smart Play a vocation à s’enrichir de nouveaux appareils et donc de nouvelles possibilités d’interactions.

Telegram touché par le gel de 427 millions d’euros d’obligations russes

6 janvier 2026 à 11:52
Money money money
Telegram touché par le gel de 427 millions d’euros d’obligations russes

Alors que Pavel Durov multiplie les efforts pour distancier sa plateforme du pouvoir russe, 427 millions d’obligations émises par Telegram se retrouvent gelées dans le cadre des sanctions occidentales contre le pays de l’Est.

Mise à jour 15h40 : ajout de la précision de Telegram.

Le patron de Telegram Pavel Durov a beau avoir manœuvré pour élaguer les liens de son entreprise avec la Russie, 500 millions de dollars (427 millions d’euros) d’obligations sont gelées dans le cadre des sanctions occidentales contre Moscou.

Au fil des années récentes, la société a lancé une série d’émissions obligataires pour racheter sa dette existante, détaille le Financial Times, dont 1,45 milliard d’euros en mai dernier. Telegram aurait ainsi racheté l’essentiel des obligations arrivant à échéance en 2026. Les 427 millions d’euros d’obligations gelées viennent illustrer les liens que la société maintient néanmoins avec le pays d’origine de son fondateur.

Pavel Durov : une carrière de refus de partage de données utilisateurs

Historiquement, Pavel Durov s’est fait connaître pour avoir cofondé VKontakte, l’équivalent russe de Facebook, en 2007. Après avoir refusé de partager les données de certains utilisateurs ukrainiens avec les services secrets russes, en 2014, Pavel Durov a déclaré s’être fait licencier. Il a ensuite été contraint de vendre ses parts à des entités liées au Kremlin.

En 2013, avec son frère Nikolai, l’entrepreneur a co-fondé Telegram, dont il a refusé de partager le code source avec le FSB. D’abord implantée à Berlin, le siège de l’entreprise a rapidement été déménagé à Dubai.

En avril 2018, alors que son patron avait de nouveau refusé au Kremlin d’accéder à des données d’utilisateurs, la plateforme de messagerie était bannie de Russie. Le blocage a été levé deux ans plus tard, en juin 2020, après que l’entreprise a démontré sa « volonté » d’aider les autorités locales dans leur lutte contre le terrorisme. À l’été 2025, le service était de nouveau limité en Russie, aux côtés de WhatsApp (Meta), au motif qu’il n’agirait pas suffisamment pour lutter contre la fraude et le terrorisme.

L’épineuse question des liens de Telegram avec la Russie

Malgré ces passes d’armes, les doutes subsistent : quels sont les liens qu’entretient Telegram avec le Kremlin ? Pour Pavel Durov, toute spéculation sur le sujet relève de la « théorie du complot ». Son récent biographe Nikolay Kononov, qui décrit l’entrepreneur comme ayant « un QI très élevé », mais « enclin aux théories du complot », déclare n’avoir trouvé aucune preuve que Durov ait travaillé avec ou pour le gouvernement russe.

En 2025, une enquête de l’Organized Crime and Corruption Reporting Project (OCCRP) révélait néanmoins que le maintien de ses serveurs et la gestion d’une large part des adresses IP du service de messagerie étaient assurés par la société de Vladimir Vedeneev, un ingénieur russe ayant travaillé à plusieurs reprises avec des acteurs de la défense russe et les services du FSB.

L’information relative aux 427 millions d’euros d’obligations touchés par les sanctions occidentales, elle, émerge alors que Pavel Durov travaille à une possible entrée en bourse de sa société. Auprès de Next, Telegram note que le montant fait référence « à l’émission obligataire de 2021 » et ne présente, en soi, « aucun risque » pour l’entreprise. « Conformément aux pratiques standard, les fonds destinés au remboursement des obligations sont transférés à un intermédiaire international, et les paiements ultérieurs aux obligataires ne relèvent plus de la responsabilité de la société, même si certains détenteurs ne sont pas en mesure de les recevoir. »

Formulé dès le printemps 2024, le projet d’entrée en bourse de la société avait pris du retard sous le coup des sanctions que lui a imposées la justice française à partir de l’été 2024. Les mesures qui visaient son dirigeant ont été définitivement levées en novembre 2025.

Dell ressuscite finalement sa marque XPS, mais l’IA ne fait pas vendre

6 janvier 2026 à 11:19
Bonne épiphanie 2026
Dell ressuscite finalement sa marque XPS, mais l’IA ne fait pas vendre

Dans une même conférence, Dell a relancé sa gamme XPS et évoqué la « promesse non tenue de l’IA ». Le constructeur revient dans une position qui se veut à l’écoute des retours.

Il y a un an jour pour jour, Dell abandonnait ses gammes XPS (entre autres). Toutes les machines étaient réorientées selon trois gammes : Dell pour le grand public, Dell Pro pour la productivité et Dell Pro Max pour les performances maximales. Chaque gamme était découpée en trois segments : Base, Plus et Premium. Alienware restait une entité à part, toujours active et développée séparément, à destination surtout des joueurs.

Alors que revoilà les XPS

Pour fêter l’anniversaire de cette disparition, Dell relance les XPS. La réponse du marché semble avoir été particulièrement négative et le constructeur s’est adapté. Deux machines ont été présentées, les nouveaux XPS 14 et 16, tous deux équipés des Core Ultra Series 3 d’Intel, tout juste présentés eux aussi au CES de Las Vegas.

Selon le constructeur, tout est nettement mieux : le processeur, l’écran (allant du LCD classique au Tandem OLED), la partie graphique intégrée, la webcam intégrée, etc. Même l’autonomie est à l’avenant, annoncée pour 27 heures en usage classique et jusqu’à 40 heures en lecture vidéo locale (batterie de 70 Wh, densité de 900ED).

Les machines sont disponibles aux États-Unis pour respectivement 2 049 et 2 199 dollars dans leur configuration de base. D’autres configurations et une disponibilité plus générale dans d’autres marchés sont attendues pour février. Des versions Ubuntu seront également proposées plus tard dans l’année, de même qu’un nouveau XPS 13.

Parler d’IA à tout bout de champ ne fait pas vendre

Relancer la gamme XPS peut être vu comme un aveu d’échec. Dell en a d’ailleurs fait un autre : parler d’IA à tout bout de champ ne fait pas vendre, comme le rapporte notamment PC Gamer. Jeff Clarke, vice-président et directeur des opérations, était ainsi sur une scène du CES pour évoquer le marché, notant une migration lente. Il a surtout mentionné la « promesse non tenue de l’IA », couplée à une « pénurie de mémoire assez importante ». Durant la présentation des nouveaux produits, ce fut la seule mention de l’IA.

Interrogé à ce sujet par nos confrères, Kevin Terwilliger, responsable produit chez Dell, confirme : « Une chose que vous remarquerez, c’est que le message que nous avons transmis autour de nos produits n’était pas axé sur l’IA. Donc, un petit changement par rapport à il y a un an, quand tout tournait autour des PC IA ».

Toutes les machines annoncées contiennent un NPU, mais « ce que nous avons appris au cours de cette année, surtout du point de vue des consommateurs, c’est qu’ils n’achètent pas en fonction de l’IA », a reconnu Kevin Terwilliger. Il a ajouté : « En fait, je pense que l’IA les embrouille probablement plus qu’elle ne les aide à comprendre un résultat précis ». Des réponses jugées rafraichissantes et bienvenues par nos confrères.

☕️ Windows : Microsoft se débarrasse de l’activation par téléphone

6 janvier 2026 à 09:13

Plusieurs médias (dont Neowin et Tom’s Hardware) ont remarqué que l’activation par téléphone ne fonctionnait plus pour toutes les versions de Windows, de 7 à 11.

Si vous ne l’avez jamais utilisée, cette méthode permet d’activer Windows quand on se retrouve sans connexion internet. Elle était également utile à une certaine époque, chez les personnes qui modifiaient plusieurs pièces de leur PC. Windows détectait alors les modifications matérielles et il pouvait être nécessaire de procéder à une nouvelle activation, le processus étant lié à la configuration matérielle.

Selon les remontées constatées, cette méthode ne fonctionne plus. À la place, les personnes reçoivent un SMS avec un lien vers une page web. C’est bien sur celle-ci que les manipulations se feront ; mais avec une différence de taille : il est nécessaire d’entrer le compte Microsoft, ce que l’activation par téléphone n’exigeait pas.

Selon Ben Kleinberg, on tombe automatiquement sur un message vocal, qui annonce : « Le support de l’activation du produit a été déplacé en ligne. Pour le moyen le plus rapide et le plus pratique d’activer votre produit, veuillez visiter notre portail d’activation de produit en ligne à aka.ms/aoh ». On peut voir d’ailleurs sur l’adresse en question que le site est clairement pensé pour la navigation mobile. Sur ce point, Tom’s Hardware indique qu’un collaborateur a tenté l’opération sur la version iOS de Firefox, sans succès, mais que la procédure a bien fonctionné avec Safari.

La méthode ne semble plus fonctionner par aucun moyen, où que soit déclenchée la procédure. Pourtant, la documentation officielle de Microsoft indique que l’on peut activer par téléphone. Il est probable qu’elle n’ait pas été mise à jour, nous avons posé la question à Microsoft pour nous en assurer.

☕️ Les caméras « touristiques » des communes dans le viseur de la CNIL

6 janvier 2026 à 08:50

Lorsque la CNIL parle des caméras « touristiques », il s’agit de celles utilisées par des communes pour « valoriser un territoire ». La Commission rappelle qu’elles « ne devraient pas permettre la collecte de données personnelles ».

Problème : « lors de contrôles, la CNIL a constaté qu’il était parfois possible de distinguer, sur les vidéos et photographies diffusées par les communes sur leurs sites web à des fins de promotion touristique, des personnes dans leur quotidien ainsi que des plaques d’immatriculation des véhicules dans le champ des caméras ».

La Commission explique que cela constitue un traitement de données personnelles et qu’il doit donc respecter le RGPD. Certaines communes ont fait valoir « que l’utilisation de ces caméras […] reposait sur la base légale de l’intérêt légitime ».

La CNIL n’est pas du même avis et parle d’un « traitement de données personnelles disproportionné au regard de sa finalité ». De plus, « ce type de dispositif ne permet pas aux personnes de s’opposer à cet enregistrement avant le recueil des images ». Les communes ciblées et les griefs précis ne sont pas indiqués.

Les caméras permettaient d’observer « des moments de vie personnels » comme ceux aux terrasses de bars, ou lors de manifestations sur la voie publique, mais aussi des moments « intimes » avec des caméras sur les entrées et fenêtres d’habitations par exemple. La Commission rappelle aussi qu’il existe des risques de « cambriolages, harcèlement, chantage, violences conjugales ».

La CNIL n’interdit pas les caméras touristiques, mais à condition qu’elles respectent la vie privée des personnes. Un exemple de bonnes et mauvaises pratiques est donné avec Notre-Dame à Paris :

❌