Les nerfs à rude épreuve, à vif, avec lesquels on joue, le nerf de la guerre, les avoir, voilà ce que nous fait subir le quotidien. Quelque soit l’alignement des planètes, je ne peux empêcher mes nerfs faire mes rides. Du coup eh bien moi je vais aller me les calmer ailleurs quelques jours, au frais. A très vite pour la suite dans les idées.
Signe des temps, OpenAI a pris la décision de fournir sa fonction Deep Research à l’ensemble des comptes gratuits. Cette fonction, au succès grandissant, se propose d’aller chercher sur le web les informations demandées pour les rassembler, les résumer et en fournir si besoin une analyse. Elle est d’ailleurs la démonstration du fonctionnement d’un agent.
OpenAI semble suffisamment en confiance pour généraliser sa fonction, mais il se pourrait que la concurrence croissante de Google et de son Gemini 2.5 Pro se fasse sentir. Deep Research est en cours de déploiement, il se peut que vous ne le voyiez pas encore.
Il existe bien sûr une différence avec les comptes payants. Ces derniers gardent le modèle o3, qui fournit les informations et les rapports les plus complets. La version gratuite se base sur o4-mini, que nous évoquions il y a peu. Ce modèle plus petit est décrit par OpenAI comme « presque aussi intelligent » que son grand frère, mais il est « significativement moins cher » à faire fonctionner. OpenAI prévient que les réponses du petit modèle seront plus courtes.
Cette version allégée va également intégrer les comptes payants la semaine prochaine. Toutes les formules actuellement proposées par OpenAI comportent en effet des quotas. L’idée est donc simple : basculer sur la version o4-mini de Deep Research quand ces quotas sont atteints.
Il y a un mois environ, nous avons pris en main le COSMIC Desktop de System76 à destination des distributions Linux. Écrit intégralement en Rust, l’environnement a vite attiré les regards pour son potentiel, avec de nombreuses options de personnalisation, une gestion intéressante et poussée des fenêtres et sa suite d’applications intégrées.
Alors que l’équipe prépare sa première bêta, elle se dépêche de nettoyer son code en vue de la version 1.0. Sans surprise, l’équipe annonce donc avoir éliminé de nombreux bugs, dont on peut trouver la liste à la fin de l’annonce faite hier soir. On note d’ailleurs que les premiers concernent tous des optimisations sur l’utilisation du CPU. On en trouve d’autres liés à l’interface – dont des barres de progression qui fonctionnaient parfois mal – et d’autres encore presque drôles, comme des horodatages erronés pour les fichier dans la corbeille, qui les faisait paraître créés dans le futur.
COSMIC Desktop
Les développeurs ajoutent se dépêcher d’intégrer les derniers éléments prévus pour la première version. Comme nous l’indiquions dans notre article, ils étaient notamment en retard sur l’accessibilité. Plusieurs ajouts importants sont donc à signaler : un thème à contraste élevé, des filtres de couleurs pour les trois formes les plus fréquentes de daltonisme, la possibilité d’inverser les couleurs ainsi que le son mono. La loupe reçoit aussi plusieurs améliorations. L’équipe précise que des options supplémentaires seront ajoutées dans les versions suivantes.
D’autres nouveautés sont présentes. Par exemple, les espaces de travail peuvent être librement réarrangés, que ce soit sur l’écran en cours ou sur d’autres. On note aussi l’apparition de tooltips pour les éléments du dock, des espaces de travail et dans le Launcher. Du neuf également pour les raccourcis, avec l’arrivée de raccourcis dit « globaux ». Ils permettent d’utiliser des raccourcis spécifiques à des applications même quand celles-ci ne sont pas au premier plan.
La mise à l’échelle fractionnelle dans XWayland a été modernisée. Il y a maintenant deux modes de fonctionnement : « Optimiser pour les applications » pour que ces dernières apparaissent nettes même quand elles ne prennent pas en charge ce mode d’affichage, et « Optimiser pour le plein écrans/les jeux » pour s’adapter à la définition de l’écran.
La liste complète des nouveautés est visble depuis le billet de blog. L’équipe propose une nouvelle image ISO du système Pop!_OS intégrant cette nouvelle alpha. Les personnes ayant déjà installé le système peuvent simplement le mettre à jour.
Alors que certains acteurs du numérique cherchent à recueillir un consentement unique valable sur tous les terminaux, la CNIL publie son projet de recommandation sur le sujet. L’autorité ne s’y oppose pas, mais veut encadrer la pratique.
Sites web ou applications mobiles, nous accédons tous à nos services internet via différents terminaux. Mais le consentement que je donne pour accéder à tel site web pour l’utilisation de cookies et traceurs est-il forcément le même quand je le consulte sur mon smartphone perso ou sur mon ordi pro ?
L’utilisateur peut avoir envie de faire la différence alors que certains acteurs du numérique peuvent chercher à recueillir un consentement unique, valable sur tous les terminaux d’un même utilisateur. En effet, cela permet de ne pas lasser avec des demandes intempestives, mais aussi de récolter directement plus de données sur un même utilisateur.
Consciente de cette évolution, la CNIL veut faire évoluer sa recommandation proposant des modalités pratiques de mise en conformité en cas de recours aux « cookies et autres traceurs » qui date de 2020 [PDF]. Elle explique avoir élaboré un projet de recommandation « sur la base d’échanges avec des professionnels et des associations de la société civile », sans pour autant détailler avec quels acteurs elle a discuté.
Appliquer les choix d’un utilisateur sur plusieurs terminaux
Elle présente maintenant ce projet de recommandation [PDF] et invite maintenant tout acteur public ou privé concerné à participer à une consultation publique à partir de ce document.
Elle y définit le consentement multi-terminaux comme « un mécanisme permettant d’appliquer les choix d’un utilisateur concernant la mise en œuvre d’opérations de lecture ou d’écriture d’informations à l’ensemble des environnements (à savoir les terminaux : ordinateur, tablette, ordiphone, télévision connectée, etc., ainsi que le navigateur ou l’application utilisés) à partir desquels il accède à un site web ou une application mobile donnée, sans qu’il ait besoin de les formuler sur chaque terminal ».
Elle précise que « dans le contexte des univers logués [terme utilisé par la CNIL pour qualifier les environnements dans lesquels les utilisateurs sont authentifiés à un compte, ndlr], ces choix ne sont plus rattachés à un terminal mais au compte de l’utilisateur associé au site web ou à l’application mobile ».
« En premier lieu, les choix formulés par les utilisateurs doivent avoir une portée identique », affirme la CNIL. L’autorité explique plus clairement qu’ « ainsi, si le consentement peut être donné en une fois pour plusieurs terminaux, il doit en être de même pour le refus ou le retrait du consentement ».
« En second lieu », ajoute l’autorité, « les utilisateurs doivent être informés de la portée du consentement avant de pouvoir exercer leurs choix afin que celui-ci soit éclairé : l’information doit notamment préciser que les choix seront appliqués pour tous les terminaux sur lesquels l’utilisateur du compte est authentifié ».
Elle y explique que « l’information des utilisateurs peut se faire, par exemple, par le biais de la fenêtre de recueil du consentement », et recommande de rappeler la portée des choix effectués, ainsi que la possibilité de les modifier « immédiatement après l’authentification au compte ».
Une contradiction possible dans le consentement, deux modalités de résolution
Dans le document, elle identifie une contradiction possible entre le consentement recueilli avant l’authentification et les choix enregistrés sur son compte. Elle demande au responsable de traiter cette contradiction « d’une façon qui soit claire et loyale vis-à-vis de l’utilisateur ».
Pour aider les responsables de traitement, l’autorité a identifié dans son document deux modalités qui permettent de résoudre cette contradiction :
« Modalité 1 : les choix formulés sur le nouveau terminal avant l’authentification au compte (c’est-à-dire au niveau de la dernière fenêtre de recueil du consentement affichée) écrasent ceux enregistrés précédemment au sein du compte. Les nouveaux choix enregistrés s’appliqueront à l’ensemble des autres terminaux connectés au compte, ce qui présente l’avantage d’assurer que le dernier choix exprimé par l’utilisateur est pris en compte, indépendamment du terminal.
Modalité 2 : les choix enregistrés au sein du compte prévalent sur les choix formulés sur le nouveau terminal avant l’authentification au compte (c’est-à-dire au niveau de la dernière fenêtre de recueil du consentement affichée). Pour être effectif, cette modalité suppose de distinguer le suivi de navigation de l’utilisateur selon qu’il est logué ou non (par exemple via deux cookies et/ou identifiants différents). »
Elle ajoute que, « quelle que soit la modalité, l’information doit préciser les moyens à la disposition de l’utilisateur pour modifier les choix associés à son compte ».
Elle précise que « les choix des utilisateurs en univers logué ne doivent pas avoir d’impact sur les choix préalablement enregistrés en univers non logué (par exemple via un cookie déposé au sein d’un navigateur) ». L’idée est de protéger, par exemple, les utilisateurs d’un même terminal non logué d’un choix fait par l’un d’entre eux sur son propre compte.
Attention aux identifiants envoyés aux prestataires
La CNIL recommande dans le cas de la mise en place d’un consentement multi-terminaux de faire d’autant plus attention aux échanges avec un prestataire, et notamment « de ne pas transmettre l’identifiant de compte de l’utilisateur dans la mesure où il contient en clair des données à caractère personnel fournies par l’utilisateur (par exemple, un pseudonyme contenant le prénom, voire le nom, ou une adresse de courrier électronique) au prestataire de la plateforme de gestion du consentement ». Elle demande, dans ce cas, de « lui substituer systématiquement un identifiant technique pour lui permettre notamment de réconcilier les différents terminaux de l’utilisateur ».
Si le service en question fait évoluer son mécanisme de consentement d’un système classique à un consentement multi-terminaux, « les responsables de traitement devront recueillir un nouveau consentement libre, spécifique, éclairé et univoque », signale l’autorité.
Enfin, la CNIL « encourage le responsable du traitement à laisser aux utilisateurs la possibilité de revenir sur leurs choix, terminal par terminal ».
Si vous avez des remarques au sujet de ce projet de recommandation, la consultation de la CNIL est ouverte jusqu’au 5 juin prochain.
Dans l’hypothèse où la justice américaine force Google à se débarrasser de son navigateur Chrome, Perplexity et OpenAI se sont montrées intéressées. Mais pourquoi ces entreprises d’IA générative veulent-elles posséder un logiciel de navigation ?
Actuellement, deux entreprises bien placées sur le marché de l’IA générative possèdent aussi un navigateur : Microsoft avec Edge et Google avec Chrome. Mais il se pourrait que la justice oblige l’entreprise dirigée par Sundar Pichai à se séparer de son outil de navigation pour démanteler le monopole qu’elle a constitué sur la recherche en ligne. Google s’y oppose fermement pendant le procès actuellement en cours qui va décider de son sort.
Les entreprises du secteur sont convoquées à la barre par le ministère de la Justice pour être entendues au sujet des changements de pratiques commerciales de Google nécessaires pour supprimer cette position monopolistique. Dans ce cadre, OpenAI et Perplexity se sont déclarées intéressées par un rachat de Chrome.
Résoudre des problèmes de distribution dûs à Google
« Vous pourriez offrir une expérience vraiment incroyable si ChatGPT était intégré à Chrome », a déclaré Nick Turley, le responsable du chatbot chez OpenAI, selon Bloomberg. « Nous aurions la possibilité d’initier les utilisateurs à ce à quoi ressemble une expérience AI first » a-t-il ajouté.
Pour lui, l’un des problèmes les plus difficiles auxquels OpenAI est confrontée aujourd’hui est celui de la distribution. Selon Bloomberg, toujours, il a relevé qu’ « alors que la société a conclu un accord pour intégrer ChatGPT dans l’iPhone d’Apple, elle n’a pas eu de succès avec les fabricants de smartphones Android ».
De son côté, le Chief business officer (CBO) de Perplexity, Dmitry Shevelenko, a aussi exprimé à la barre son intérêt pour un rachat de Chrome. Questionné sur la possibilité que quelqu’un d’autre que Google puisse gérer un navigateur comme Chrome sans en diminuer la qualité ou le rendre payant, il a répondu « je pense que nous pourrions le faire », explique The Verge.
Devant le tribunal, il en a profité pour appuyer lui aussi sur le problème de distribution que rencontre son entreprise. Il a notamment fait valoir les difficultés qu’aurait mises en place Google, dans Android, au choix de l’assistant IA de Perplexity comme outil par défaut. il a également souligné que son assistant ne pouvait pas être activé via un « wake word » comme « ok Google ».
Pour Perplexity, l’intérêt de récupérer plus de données vraiment personnelles
Mais l’intérêt de Perplexity quant à Chrome va plus loin que la simple opportunité d’un navigateur pour son modèle d’IA. En effet, la startup a déjà un projet en cours nommé Comet et annoncé en février.
Selon le CEO de l’entreprise, Aravind Srinivas, Comet devrait être lancé en mai. Dans un podcast repéré par TechCrunch, il explique pourquoi son entreprise veut absolument son navigateur : récupérer des données sur ce que font les utilisateurs en dehors de son application d’IA générative.
« C’est l’une des autres raisons pour lesquelles nous avons voulu créer un navigateur : nous voulons obtenir des données en dehors de l’application pour mieux vous comprendre », y affirme Aravind Srinivas. Il déplore pour son entreprise que « certaines des questions posées par ces IA sont purement liées au travail. Ce n’est pas comme si c’était personnel ».
Et il remarque que « les articles que vous achetez, les hôtels où vous allez, les restaurants que vous fréquentez, le temps que vous passez à naviguer, nous en disent beaucoup plus sur vous ». Créer ou racheter un navigateur permettrait à Perplexity d’acquérir des données beaucoup plus intéressantes pour les annonceurs : « nous prévoyons d’utiliser tout le contexte pour établir un meilleur profil de l’utilisateur et, peut-être, par le biais de notre flux de découverte, nous pourrions y afficher des publicités ».
Ajoutons, comme nous l’évoquions plus haut, que Microsoft est un autre sérieux concurrent concernant l’intrication de la navigation sur web avec l’IA générative. L’entreprise a déjà intégré Copilot vision à Edge pour y lire l’écran de ses utilisateurs. Ceux-ci peuvent échanger avec le logiciel en langage naturel pour toutes sortes de choses liées à leurs pérégrinations sur le web.
Spécialisée dans l’achat vente de produits d’occasion et reconditionnés, la chaîne de magasins Easy Cash a alerté cette semaine ses clients d’une fuite de données survenue « sur le poste d’un magasin ».
L’attaque, dont les modalités n’ont pas été précisées, aurait permis la récupération des données personnelles associées à 92 000 clients, ainsi que celles des collaborateurs du magasin. Dans son message aux clients, Easy Cash affirme que les données concernées se limitent à nom, prénom et date de naissance.
« À ce stade, les éléments disponibles ne laissent pas penser que des données bancaires des clients, ou les mots de passe, ou une quelconque information permettant d’accéder aux comptes Easy Cash n’aient été compromises », rassure l’enseigne, qui appelle tout de même à la prudence et conseille à ses clients de modifier leur mot de passe associé à leur compte.
Outre l’information de ses clients, réalisée par SMS, elle indique avoir alerté les autorités compétentes et lancé une« enquête approfondie avec le cabinet OrangeCyberDefense ».
Easy Cash rejoint Indigo, Alain Afflelou, Hertz ou la Mutuelle des motards dans la liste des victimes récentes d’une cyberattaque ayant entraîné la compromission de données personnelles.
Adobe a ouvert sa conférence MAX à Londres hier. Comme on s’y attendait, la plupart des annonces faites jusqu’à présent ont concerné l’IA. Mais l’éditeur a voulu marquer les esprits en poussant loin les capacités et l’intégration, afin que ses outils restent pertinents. Il veut également promouvoir le respect des œuvres originales par les éditeurs de solutions IA.
Firefly est à la fois le nom donné par Adobe à une application et à ses modèles d’IA générative utilisés pour la création d’images. Il s’agit d’une famille, dont une nouvelle génération a été présentée hier, avec toutes les améliorations que l’on imagine sur la taille des images, leur précision ou encore le nombre de détails qu’elles peuvent comporter.
Des modèles toujours plus précis
Le modèle principal, Firefly Image Model 4, est donc présenté comme meilleur que son prédécesseur sur tous les plans. Il permet de générer des images jusqu’en définition 2K, améliore la qualité, présente de meilleures performances ainsi qu’un plus grand nombre de contrôles sur la structure, le style, les angles de caméra ou encore le zoom. Une version Ultra du Model 4 a également été présentée, avec un accent mis sur les scènes complexes et sa capacité à générer de nombreux détails.
La conférence d’hier a aussi été l’occasion de lancer officiellement le premier modèle vidéo Firefly, qui n’existait jusque-là qu’à travers une bêta limitée. On retrouve des capacités désormais « classiques » pour ce genre de produits : génération d’une vidéo à partir d’un texte ou d’une image, sélection des angles de vue, possibilité de préciser des images de début et de fin pour mieux contrôler les plans, génération d’éléments atmosphériques ou encore personnalisation du mouvement. Des outils désormais habituels dans ce genre de produit.
Autre membre de la famille, le Firefly Vector Model. Il pourrait devenir l’un des produits les plus importants de l’entreprise, car ses capacités sont liées aux illustrations vectorielles. On peut ainsi débroussailler le terrain sur une création de logo, en itérant et générant des variantes. Même chose pour les emballages de produits, les icônes, les motifs et de manière générale tout ce qui touche à l’identité visuelle d’une marque.
The place to be
Même si Adobe ne tarit pas d’éloges sur les capacités de ses nouveaux modèles, l’éditeur veut promouvoir l’application Firefly comme l’endroit idéal où développer ses idées. La version web intègre ainsi d’autres modèles pour la génération d’images, dont ceux d’OpenAI, Google (Imagen 3 et Veo2), ainsi que Flux (1.1 Pro). Les utilisateurs peuvent passer librement d’un modèle à un autre, toutes les images créées comportant un filigrane pour les identifier comme contenus générés par IA. D’autres modèles seront ajoutés par la suite, dont ceux de Pika, Luma, Runway, Ideogram et fal.ai.
Connaissant bien l’intérêt du travail collaboratif – Adobe a tenté de racheter Figma – l’éditeur lance également un nouveau produit nommé Firefly Boards. Disponible uniquement en préversion pour l’instant, il permet de jeter rapidement ses idées dans l’interface et d’inviter d’autres personnes pour participer à l’élaboration. Les images de départ peuvent être générées ou importées. Boards est accessible depuis l’application Firefly et sera un concurrent à des solutions déjà sur le marché comme Cove, Kosmik ou Visual Electric, toutes centrées sur l’idée de « workflow », les maquettes et les storyboards.
Adobe transforme donc progressivement son application Firefly en outil à tout faire. Une version mobile est d’ailleurs prévue, sans plus de précisions pour l’instant.
Adobe veut un robots.txt pour les images générées
On reste dans l’IA générative, mais dans un domaine parallèle. Lors de sa conférence, Adobe a en effet affiché sa volonté de créer l’équivalent d’un robots.txt pour les images générées par IA. Le fichier robots.txt, présent sur la plupart des sites web, indique aux « crawlers » si les informations présentes peuvent être moulinées pour apparaitre sur les moteurs de recherche. Depuis la déferlante de l’IA générative, d’autres crawlers sont apparus, cette fois pour aspirer les données, dans l’optique d’entrainer les modèles. Avec toutes les questions que cela comporte sur le droit d’auteur, le sujet étant sensible et ayant déjà conduit à plusieurs plaintes.
En tant que membre de la Coalition for Content Provenance and Authenticity (C2PA, lancée par Microsoft en 2021), Adobe propose donc une Content Authenticity App pour ajouter des informations d’identification aux images. Elle peut traiter des lots de 50 images, mais en JPG et PNG uniquement pour l’instant. On peut ajouter des informations comme le nom de l’auteur/autrice ou de l’entreprise, les comptes de réseaux sociaux et autres renseignements. Adobe s’est d’ailleurs associé à LinkedIn pour permettre de renvoyer vers un profil dont l’identité a été vérifiée par la plateforme.
L’application permet aussi de marquer les images pour indiquer qu’elles ne doivent pas être utilisées pour l’entrainement des modèles. Cependant, à la manière des fichiers robots.txt, il n’y a aucune garantie que les crawlers respecteront ces informations. Adobe n’a en outre pas annoncé de partenariats, simplement qu’elle était en discussion avec tous les principaux éditeurs de modèles d’IA pour les convaincre de respecter ces informations.
Aussi efficace et simple à utiliser que soit la technologie, le gros du défi consistera bien à convaincre l’industrie de l’IA de respecter ces informations.
De nouveaux outils dans le Creative Cloud
Les applications du Creative Cloud ont également reçu de nouveaux outils, dont beaucoup liés à l’IA. Dans Photoshop par exemple, il est possible de s’appuyer sur des images existantes pour en générer une autre qui en gardera la structure et les principales caractéristiques. La suppression d’arrière-plan reçoit une nouvelle fois des amélioration avec des améliorations liés aux éléments complexes ou entremêlés.
L’ajustement des couleurs a aussi été renforcé pour simplifier le choix de la teinte, de la saturation et de luminosité. En outre, Photoshop reçoit un nouveau panneau Actions (en bêta pour l’instant) qui ambitionne de fournir des suggestions de flux de travail « plus intelligentes ». À noter que cette fonction évoluera pour devenir plus tard le premier agent IA d’Adobe.
On note de nouveaux outils pour Express. Par exemple, Clip Maker peut convertir de longues séquences vidéo en clips adaptés aux réseaux sociaux. Dynamic Animation peut animer des images fixes, Enhance Speech est chargé de supprimer les bruits de fond, Generative Video peut se servir de texte et d’images pour générer des fonds à intégrer dans les vidéos commerciales, et Generate Similar peut créer rapidement des variations d’une image de référence.
Illustrator intègre lui aussi de nouveaux outils comme Generate Shape Fill et Text to Pattern. Ces outils doivent accélérer le prototypage. L’application se veut également plus rapide, Adobe indiquant que les « effets les plus populaires sont désormais jusqu’à cinq fois plus rapides ». Citons également la possibilité dans InDesign de convertir des PDF en documents de travail et d’accéder à un éditeur de formules mathématiques, la création facilitée de masques dans Lightroom pour les éléments de paysage courants, ou encore de nouveaux outils dans Premiere Pro centrés sur la recherche et l’édition rapides des séquences, avec l’aide de l’IA ou pas.
L’association noyb a déposé plainte en Autriche à l’encontre d’Ubisoft pour infraction au RGPD. En cause : la connexion à Internet imposée par l’éditeur au lancement de ses jeux vidéo, même si ces derniers n’ont pas de mode en ligne. Le plaignant représenté par noyb affirme avoir constaté plus de 150 connexions à des serveurs externes au cours d’une session de 10 minutes sur le jeu Far Cry Primal.
Célèbre pour son engagement en faveur du respect de la vie privée, l’association noyb pilotée par Max Schrems s’est trouvé une nouvelle cible : le Français Ubisoft. Dans une plainte rendue publique jeudi, elle accuse en effet l’éditeur d’enfreindre les termes du RGPD, en imposant la connexion Internet lors de l’utilisation de jeux solo. Elle estime par ailleurs qu’Ubisoft procède au recueil de données personnelles sans consentement utilisateur ni motif légitime.
Une connexion obligatoire, au moins au premier lancement
La plainte (traduite en français, PDF) décrit les mésaventures d’un plaignant autrichien, confronté à Uplay, le client logiciel d’Ubisoft, pour jouer à Far Cry Primal après l’avoir acheté sur Steam. Il s’agit d’un jeu de tir à la première personne qui ne dispose pas de fonctions multijoueurs en ligne.
Fin septembre 2024, le plaignant initie une prise de contact avec le service client d’Ubisoft, et s’étonne qu’il soit obligatoire de s’identifier au moyen de Uplay pour lancer son jeu. Sur ce point, le service client d’Ubisoft lui répond qu’une connexion Internet est obligatoire au premier lancement du jeu, pour vérifier que l’utilisateur dispose bien de la licence associée. Il rappelle que Uplay peut ensuite fonctionner en mode hors-ligne, si aucune connexion Internet n’est active.
Le plaignant, « qui s’y connaît en technologie » d’après noyb, lance dans le même temps une écoute du trafic réseau associé à Far Cry Primal et constate que son jeu envoie des paquets vers des serveurs distants. Il évoque 150 connexions en l’espace de dix minutes, et identifie Google, Amazon ou Datadog, une entreprise spécialisée dans l’analyse de données à des fins de monitoring.
Un flux de paquets envoyé pendant les phases de jeu
Sur ce volet, l’utilisateur est renvoyé vers le CLUF, le contrat de licence de l’utilisateur final associé au jeu. Ce dernier stipule effectivement qu’Ubisoft collecte des données personnelles « afin de vous offrir une meilleure expérience de jeu » et utilise « des outils d’analyse tiers pour collecter des informations concernant vos habitudes de jeu et l’utilisation du produit par vous et d’autres utilisateurs ».
Parmi ces données figureraient notamment des « informations de localisation, date et temps passé sur le produit, scores du jeu, métriques et statistiques du jeu, utilisation des fonctionnalités, taux de conversion publicitaire, taux de monétisation, historique des achats et autres informations similaires », d’après le CLUF cité par la plainte.
« Le problème, c’est que le plaignant n’a jamais consenti à ce traitement. Conformément à l’article 6(1) RGPD, cela signifie que le traitement n’est légal que s’il est nécessaire – ce qui n’est pas le cas pour le plaignant », estime noyb.
Pour l’association, l’acte d’achat réalisé via Steam suffit à confirmer la propriété du jeu. Et si Ubisoft permet de jouer à Far Cry hors connexion, c’est bien que « le traitement de toutes les données à caractère personnel dans le cadre de la configuration standard n’est pas réellement nécessaire », souligne-t-elle.
Un dossier pour la CNIL ?
« Si Ubisoft a besoin de données pour améliorer un jeu, il lui suffit de demander le consentement des utilisateurs. La société peut également demander aux joueurs s’ils souhaitent envoyer des rapports de bogues individuels à ses serveurs », explique-t-elle encore.
La plainte réclame de ce fait à l’Autorité de protection des données compétente l’ouverture d’une enquête. Dans la mesure où Ubisoft est une société française, c’est donc a priori à la CNIL que reviendra la responsabilité de ce dossier. Elle demande également à cette même autorité de prononcer une amende administrative dissuasive, qu’elle estime pouvoir atteindre 92 millions d’euros, sur la base des 2 milliards d’euros de chiffre d’affaires annuel d’Ubisoft.
Contacté par l’AFP, l’éditeur a réaffirmé jeudi que ses jeux solos pouvaient être pratiqués hors ligne. En cas de connexion, les données seraient « utilisées pour améliorer les performances du jeu ».
Le nouveau CEO d’Intel a confirmé jeudi la mise en œuvre d’un profond plan de restructuration de l’entreprise, sans confirmer le nombre de départs envisagé. Il affiche l’ambition de réduire les dépenses opérationnelles d’1 milliard de dollars par an, prône une culture d’entreprise centrée sur l’IA, et estime que l’avènement du procédé de gravure 18A permettra au groupe de renouer avec d’excellents niveaux de marge, pour ses propres puces comme pour le compte de clients tiers…
« Nous devons rester focalisés comme des lasers sur l’exécution », a martelé Lip-Bu Tan jeudi soir, lors de la présentation aux analystes des résultats financiers d’Intel pour le premier trimestre. « Laser-focused », l’expression est revenue cinq fois dans la bouche du nouveau CEO du groupe. Elle figure également noir sur blanc dans le courrier interne, envoyé jeudi aux équipes d’Intel, qui pose les bases d’une restructuration de grande ampleur.
« Construire un nouvel Intel »
Cinq semaines après sa prise de fonction, le nouveau CEO d’Intel lance donc officiellement les grands chantiers. Avec, à la clé, une « remise à plat » annoncée de l’organisation d’Intel, motivée par deux objectifs : alléger la structure de décision, et réduire les coûts de fonctionnement.
« On nous considère comme trop lents, trop complexes et trop ancrés dans nos habitudes – et nous devons changer », déclare Lip-Bu Tan, qui affirme avoir déjà supprimé une couche de management intermédiaire au sommet de l’entreprise, en reprenant en direct la gestion des principales directions.
« De nombreuses équipes comptent huit niveaux hiérarchiques ou plus, ce qui crée une bureaucratie inutile et ralentit notre travail. J’ai demandé aux équipes de reconsidérer leurs organisations respectives, en mettant l’accent sur la suppression de ces niveaux hiérarchiques, l’augmentation des responsabilités et la responsabilisation des meilleurs éléments », écrit encore le CEO.
Le mouvement engagé s’accompagnera de coupes franches dans les effectifs, sensibles dès le deuxième trimestre et pendant plusieurs mois, prévient-il encore. Aucun chiffre n’est confirmé, mais d’après Bloomberg, le plan envisagerait de licencier plus de 20 % des effectifs du groupe, soit aux alentours de 20 000 personnes.
Outre la modernisation des processus internes, Lip-Bu Tan annonce par ailleurs une politique de retour au bureau, qui imposera aux salariés d’Intel quatre jours de présence sur site, contre trois précédemment, à compter du mois de septembre. « Ce sera difficile. Des décisions douloureuses seront nécessaires. Mais nous les prendrons, conscients que c’est la clé pour mieux servir nos clients, tout en construisant un nouvel Intel pour l’avenir », conclut le CEO.
Renouer avec la rentabilité
En termes financiers, la restructuration engagée par Lip-Bu Tan doit, selon l’entreprise, permettre de réviser à la baisse ses dépenses de fonctionnement pour 2025 à 17 milliards de dollars (contre 17,5 milliards envisagés suite au précédent plan mis en œuvre à partir d’août 2024 par Pat Gelsinger), puis 16 milliards de dollars en 2026. Intel revoit dans le même temps ses dépenses d’investissement, qui passent de 20 milliards à 18 milliards de dollars pour 2025.
Ces mesures d’économie, associées aux cessions engagées du côté d’Altera (vendu pour 51 % à Silver Lake Capital) et des activités mémoire flash NAND (le second volet de la vente à SK Hynix, initiée en 2020, a été bouclé en mars), sont censées permettre à Intel de retrouver la voie de la rentabilité.
Le premier trimestre 2025 se révèle à ce niveau relativement décevant : Intel a fait état jeudi d’un chiffre d’affaires de 12,7 milliards de dollars sur la période (stable sur un an), assorti d’une marge brute en diminution (36,9 % contre 41 %) et d’un résultat légèrement négatif, avec une perte de l’ordre de 800 millions de dollars. Hors éléments exceptionnels, le groupe parvient tout de même à afficher un bénéfice par action de 0,13 dollar, légèrement supérieur aux attentes.
Résultats d’Intel pour le premier trimestre 2025, en milliards de dollars
Les résultats s’accompagnent de prévisions prudentes pour le deuxième trimestre. Elles envisagent une marge toujours en baisse, un résultat négatif et un chiffre d’affaires stable sur un an. C’est, d’après Lip-Bu Tan, à partir de la deuxième moitié de l’année que la situation devrait s’améliorer.
Intel 18A attendu au tournant
Le deuxième semestre devrait en effet coïncider avec la montée en cadence du procédé de fabrication Intel 18A, suivie du lancement des puces Panther Lake qui devraient, selon David Zinsner, directeur financier d’Intel, offrir des marges supérieures à celles des processeurs Lunar Lake (Core Ultra 200V). L’entreprise a d’ailleurs renouvelé jeudi son objectif, déjà affirmé par Gelsinger en 2024, de rapatrier 70 % de la production de Panther Lake dans ses propres usines, en Intel 18A.
La firme de Santa Clara affiche enfin ses ambitions en matière d’intelligence artificielle, segment sur lequel elle accuse un retard significatif, à la fois face à NVIDIA ou AMD, mais aussi face aux solutions plus spécialisées développées en interne par les géants du secteur. « Nous devons repenser notre stratégie IA avec un focus sur les secteurs émergents du domaine (…) Notre objectif sera d’utiliser notre vision intégrée du système et de la plate-forme pour développer des solutions d’IA complètes qui permettent une plus grande précision, une meilleure efficacité énergétique et une meilleure sécurité à nos clients entreprises », déclare Lip-Bu Tan.
Mercredi, la Commission européenne a prononcé ses deux premières condamnations pour infractions au Digital Markets Act. La première, de 500 millions d’euros, a frappé Apple pour ses pratiques anti-steering. La seconde, de 200 millions d’euros, a été infligée à Meta pour son mécanisme « payer ou consentir » sur les publicités personnalisées.
Nous nous posions la question d’une réaction de la Maison-Blanche. Le gouvernement américain avait en effet indiqué fin février que le DMA et le DSA seraient examinés de près. En outre, il s’était montré très clair : les sociétés américaines ne devaient être réglementées que par des lois américaines, quels que soient les marchés dans lesquels elles opèrent. La Maison-Blanche accusait également l’Europe de vouloir faire son beurre sur les grandes entreprises américaines, n’ayant pas elle-même de sociétés aussi développées.
Maison-Blanche, crédits : David Everett Strickler (Unsplash)
Sans surprise, le gouvernement américain s’est montré très critique face aux condamnations d’Apple et Meta. « Cette nouvelle forme d’extorsion économique ne sera pas tolérée par les États-Unis », a déclaré un porte-parole de la Maison-Blanche à Reuters. « Les réglementations extraterritoriales qui ciblent spécifiquement les entreprises américaines, étouffent l’innovation et permettent la censure seront considérées comme des obstacles au commerce et une menace directe pour la société civile libre », a-t-il ajouté.
Au vu des tensions actuelles, il est probable que le gouvernement américain contre-attaque. Donald Trump avait menacé par exemple d’adapter les droits de douane si l’Union européenne ne freinait pas sur la régulation des grandes entreprises.
L’étiquetage automatique est une fonction importante introduite initialement par Google dans son Drive. L’idée est de définir un lot de règles qui vont automatiquement apposer des étiquettes sur les données, afin que des règles s’enclenchent selon les actions entreprises. Cette fonction était en bêta dans Gmail depuis un certain temps. Depuis hier, elle est disponible en version finale.
Mais de quoi parle-t-on précisément ? Appliquée à Gmail, la fonction permet un étiquetage automatique des e-mails selon, encore une fois, un lot de critères. Par exemple, l’équipe d’administration peut indiquer que tout courriel contenant dans ses destinataires une personne de la direction soit étiqueté « interne ». Une règle peut ensuite être créée pour interdire tout transfert d’un e-mail ainsi labellisé.
C’est un exemple simple, mais que l’on peut généraliser à de nombreux autres cas. Google indique dans son billet que la phase bêta a été productive, d’autres fonctions ayant été ajoutées pour compléter le mécanisme. Ce dernier peut ainsi fonctionner de concert avec la politique DLP (Data Loss Prevention) de l’entreprise. Ce qui signifie que les règles existantes pour Drive peuvent être étendues en l’état à Gmail.
Parmi les autres apports, les administrateurs peuvent mettre en place une détection « d’extraits de contenus sensibles ». L’information générée permet notamment aux utilisateurs de savoir ce qui a provoqué une alerte, et aux administrateurs de garder une trace des évènements de sécurité liés. Ces données intègrent également les journaux d’audits et indiquent notamment quand des étiquettes ont été créées et apposées sur un contenu, automatiquement ou non.
Google indique avoir renforcé la communication aux utilisateurs, qui n’avaient initialement que peu d’informations sur ce qui se passait. Dans le cas d’un blocage, une fenêtre apparaitra pour indiquer ce qui se passe. Ces messages peuvent être personnalisés par les administrateurs, par exemple pour expliquer d’où vient le problème et comment y remédier.
Autre gros changement par rapport à la préversion, la compatibilité a été étendue aux applications Android et iOS de Gmail. Là aussi, si des règles doivent déclencher des actions comme des blocages, les applications les prendront en charge. En revanche, l’application immédiate des règles DLP n’y est pas encore disponible. Selon Google, elle devrait arriver dans le courant du mois prochain.
Enfin, les fonctions disponibles dépendent de l’abonnement Workspace souscrit. Le Label Manager est disponible dans la quasi-totalité des éditions payantes. Toutefois, les règles de prévention des données sont disponibles uniquement dans les éditions Enterprise Standard et Plus, Education Fundamentals, Standard et Plus.
Bercy a publié mardi le premier contrat stratégique de la filière « logiciels et solutions numériques de confiance ». Le texte, qui signe l’inscription officielle du numérique au sein de la stratégie industrielle nationale, ambitionne de faire émerger des leviers pour structurer la filière française du numérique de confiance et garantir son développement. Il promet notamment de faciliter l’accès à la commande publique et privée.
Il fallait bien trois ministres, les principales fédérations du secteur et un aréopage d’entrepreneurs réunis à Bercy pour célébrer, mardi 22 avril, la signature du premier contrat de filière stratégique dédié au « numérique de confiance ». Ce dernier s’entend comme l’ensemble « des éditeurs de logiciels et fournisseurs d’outils, de produits et de services numérique », hors ESN et entreprises de conseil.
Le contrat en question, qui porte sur la période 2025 - 2028, décline cinq grands projets structurants, eux-mêmes déclinés en un total de 28 propositions. L’ensemble formalise les engagements respectifs du public et du privé pour renforcer, développer et pérenniser la filière française.
Plus de deux ans de gestation
Le temps du politique n’est pas toujours calé sur celui des entreprises du numérique. « Le 12 septembre 2022, le Gouvernement avait indiqué sa volonté d’instaurer un comité stratégique de filière sur le numérique de confiance », rappellent ainsi les représentants de l’État dans un communiqué.
Il aura donc fallu plus de deux ans pour installer le comité stratégique de filière ad hoc, piloté par Michel Paulin, ancien directeur général d’OVHcloud, puis mener la longue phase de concertation préalable.
« Avec une croissance de plus de 10 % par an, qui augmente d’année en année, c’est l’une des filières les plus dynamiques de l’industrie française », fait valoir Michel Paulin en introduction du document (PDF). Avec 23,7 milliards d’euros de chiffre d’affaires cumulé en 2023 selon l’association professionnelle Numeum, elle pèse toutefois bien peu au regard de ce que représentent des marchés mondiaux tels que l’IA ou le quantique.
La structuration du secteur en filière – au sens stratégique du terme – s’imposerait ainsi comme une nécessité « plus prégnante que jamais », de façon à « garantir sa consolidation et son développement ».
Des leviers relativement conventionnels
Comment y parvenir ? Le contrat de filière identifie cinq projets structurants, autour desquels acteurs publics et secteur privé sont censés converger. Le premier concerne la dynamique de filière, avec le renforcement des infrastructures et le développement de l’offre, logicielle ou services. Le deuxième s’attache à la formation, avec l’ambition de soutenir l’avènement d’une offre en adéquation avec les besoins, actuels et futurs en matière d’emploi.
Le troisième projet touche à la réglementation. Il s’agit ici d’ « harmoniser, rationaliser et simplifier l’accès aux certifications et labels de confiance tout en garantissant des standards élevés pour la définition des données sensibles ». Enfin, le contrat met en exergue deux leviers commerciaux. D’abord, le développement du marché via un accès facilité à la commande, publique comme privée. Ensuite, la promotion de la croissance internationale du secteur, avec le soutien des offres à l’export et des mécanismes d’accompagnement dédié.
À première vue, un plan de bataille classique, dont les grandes lignes se retrouvent d’ailleurs dans la plupart des contrats des 19 autres comités stratégiques de filière labellisés par le Conseil national de l’industrie.
Un chef de file et des livrables attendus
Les 28 propositions listées se veulent nettement plus opérationnelles. Pour chacune, un ordre de mission, une proposition de moyens à mettre en œuvre, quelques contributeurs clés comme chef de file et une série de livrables attendus.
De la même façon, Atos, Quandela (au conseil d’administration duquel siège Michel Paulin), Alice & Bob et Qobly sont missionnés sur l’élaboration d’une feuille de route sur « la structuration et l’intégration du secteur des fournisseurs de logiciels de calcul quantique ».
La délicate question de la commande publique
L’actualité récente liée aux choix de l’Éducation nationale, puis de l’École Polytechnique, de souscrire à Microsoft 365 plutôt que des offres souveraines, souligne le caractère à la fois sensible et primordial de la commande publique. Elle est d’ailleurs identifiée par les auteurs du contrat comme l’un des facteurs clés de succès des grands acteurs internationaux du numérique.
« Il faut penser une politique nationale de la souveraineté et de la confiance dans la commande publique. C’est une problématique d’ordre régalien », estiment à ce niveau les membres de la filière, après avoir rappelé l’absence quasi générale de critères liés à la question dans les appels d’offre publics. Sur le sujet, ils appellent ainsi à « une vigilance renforcée du Gouvernement ».
Union sacrée
Côté État, la conviction s’incarne symboliquement par la présence de trois des ministres directement concernés : Philippe Baptiste, pour l’Enseignement supérieur et de la Recherche ; Marc Ferracci, ministre chargé de l’Industrie et de l’Énergie ; et Clara Chappaz, ministre déléguée chargée de l’Intelligence artificielle et du Numérique.
« La souveraineté, c’est notre capacité en tant que Nation à choisir notre destin. La reconquête industrielle est un élément clé pour maintenir cette capacité essentielle. Ma collègue Clara Chappaz ne me contredira pas si j’indique que cette reconquête ne se fera pas sans le numérique ni sans un numérique de confiance. L’État sera donc là pour accompagner la filière logiciels et solutions numériques de confiance, parce qu’elle est un atout. Il en attendra bien sûr en échange la plus grande mobilisation », a notamment déclaré Marc Ferracci.
Il y a deux semaines environ, nos confrères de Neowin rapportaient qu’un mystérieux dossier, nommé « inetpub » apparaissait à la racine du disque sur les systèmes Windows 10 et 11. Un dossier vide, dont la suppression ne semblait entrainer aucun problème. La piste était alors une conséquence des correctifs de sécurité d’avril.
Quelques jours plus tard, Microsoft avait confirmé l’hypothèse. Il s’agissait d’un dossier créé par le correctif contre la faille CVE-2025-21204. Celle-ci pouvait déclencher une élévation de privilèges à partir de liens symboliques, ces derniers permettant de pointer vers un fichier et d’en créer un « reflet ».
« Après avoir installé les mises à jour […], un nouveau dossier %systemdrive%\inetpub sera créé sur votre appareil. Ce dossier ne doit pas être supprimé, qu’Internet Information Services (IIS) soit actif ou non sur l’appareil. Ce comportement fait partie des changements qui augmentent la protection et ne nécessite aucune action de la part des administrateurs informatiques et des utilisateurs finaux », expliquait alors Microsoft.
Cependant, ce nouveau dossier, bien que l’on ne connaisse pas vraiment son fonctionnement, peut être détourné. C’est la découverte du chercheur en sécurité Kevin Beaumont. Dans un billet publié mardi soir, il indique que le correctif, associé au dossier inetpub, crée une opportunité : un déni de service.
L’exemple donné illustre bien le problème. La commande mklink est utilisée pour créer un lien symbolique entre le dossier c:\inetpub et l’application Bloc-notes. En somme, accéder au dossier ouvre l’application.
Ce point de jonction est suffisant pour casser le fonctionnement de Windows Update si ce type de commande est exécuté avant l’installation des correctifs d’avril. Après quoi, plus aucune mise à jour ne peut alors s’installer correctement. « Le correctif de Microsoft pour la vulnérabilité de lien symbolique introduit une autre vulnérabilité de lien symbolique », ironise le chercheur.
Comme le montre la capture fournie par Kevin Beaumont, le système indique que quelque chose s’est mal passé, aboutissant à une erreur ou à un roll back, c’est-à-dire un retour à la situation initiale. La situation est d’autant plus problématique que la commande mklink peut être utilisée par des comptes sans droits administrateurs.
Le chercheur, pourtant connu sur la scène de la cybersécurité, dit avoir contacté Microsoft il y a deux semaines, sans réponse pour l’instant.
Avec la série Adolescence, le succès des idées masculinistes qui circulent en ligne inquiète de plus en plus. Mais qu’est-ce qui permet à leurs promoteurs, dont l’influenceur Andrew Tate, de séduire ?
Depuis le succès de la série mini-série Adolescence, sur Netflix, la question de l’influence des thèses masculinistes sur les plus jeunes occupe les esprits. Des parents déclarent avoir « honte de leur fils », aux propos ouvertement misogynes.
D’un point de vue géopolitique, difficile, aussi, de ne pas s’intéresser au traitement porté à Andrew Tate. Arrêté en Roumanie en 2022, poursuivi pour des faits de trafic d’être humain, de viol et de création d’un groupe criminel organisé dans le but d’exploiter des femmes sexuellement, l’influenceur misogyne autoproclamé et son frère Tristan étaient interdits de quitter le territoire jusqu’à début février.
Le timing de leur départ vers la Floride a fait tiquer plus d’un observateur. En effet, l’homme est soutenu par Donald Trump, par Elon Musk, qui lui a très rapidement rendu son compte suspendu, après le rachat de Twitter, et surtout Richard Grenell, envoyé spécial de Trump, qui a abordé le cas de Tate auprès du ministère roumain des Affaires étrangères en janvier.
Au Royaume-Uni, un nombre croissant d’acteurs s’inquiètent de l’influence d’Andrew Tate sur une partie du public – le nom de l’ex-kickboxeur est même cité dans Adolescence. C’est d’ailleurs dans son pays d’origine, où il est aussi visé par les plaintes de quatre femmes pour violences physiques et sexuelles, que la célébrité de l’influenceur est la plus notable.
Mais si l’on retourne aux raisons de sa présence médiatique, c’est-à-dire au vaste public qu’il a réussi à accumuler en ligne, qu’est-ce qui fascine chez Andrew Tate, comme chez d’autres influenceurs misogynes ?
Sociabilité misogyne
Professeur associé en étude des médias à l’université de Liverpool, Craig Haslop a étudié la popularité de Tate au sein d’une population de garçons de 13 - 14 ans. Auprès du Monde, il décrit un usage des propos de Tate « pour plaisanter » entre jeunes hommes, pour créer du lien. Devant certaines déclarations outrancières, comme lorsqu’il déclare qu’il se sentirait en danger dans un avion piloté par une femme, la plupart déclarent le trouver « drôle », même s’ils n’aiment pas le personnage.
Cette mécanique du recours à la misogynie pour tisser du lien est aussi constatée par les scientifiques qui étudient les ressorts de la diffusion non consentie d’images à caractère sexuel. Au Royaume-Uni, la professeure de droit Clare McGlynn explique que « ces échanges servent à commercer entre hommes. C’est une culture à part entière. »
Si Andrew Tate ne formule pas – à notre connaissance – d’incitation directe à ce type de violences numériques, il promeut en revanche le dénigrement systématique du genre féminin. Auprès d’un public restreint, il partage des tactiques de manipulation des femmes pour les isoler, relève Le Monde, qui a pu analyser de nombreux échanges ayant fuité de son forum privé, The Real World (TRW).
Mais le succès de Tate fonctionne surtout sur un autre levier propre à l’époque : les logiques de développement personnel. En proposant des discours sur l’état d’esprit, la motivation, la discipline, voire les manières de devenir riches ou de cacher ses émotions, il devient un modèle « lifestyle ».
Il propose un guide apparemment simple sur la manière de mener sa vie qui, comme le décrit Pauline Ferrari dans Formés à la haine des femmes (JC Lattès, 2023), a de multiples raisons de séduire. Les discours masculinistes profitent, d’une part, de la persistance des idées sexistes dans la société.
Comme de nombreux autres influenceurs misogynes, Andrew Tate s’appuie aussi sur la désinformation qui circule dans les espaces numériques où les idées misogynes sont normalisées. Ainsi de ces argumentaires selon lesquels les femmes seraient les « gagnantes » du jeu de la séduction, voire de la vie en société, sans considération pour leur surreprésentation parmi les victimes de violences conjugales, leur persistante minorité dans les cercles de pouvoir… ni même pour la possibilité d’une vie sans compétition.
Par ailleurs, le modèle Tate fait miroiter des gains financiers, voire en rapporte réellement. En cela, il se rapproche des communautés de « crypto bros », qui se sont multipliées au plus fort de la vague crypto de 2021, pour ne plus vraiment refluer depuis.
En 2021, justement, Andrew et Tristan Tate lancent TRW, leur espace numérique privé. Pour y accéder, les utilisateurs (jusqu’à 100 000 personnes dans les périodes les plus fastes) paient l’accès 50 dollars par mois, et jusqu’à 8 000 euros pour pouvoir discuter directement avec les deux frères. Une petite fortune, pour le duo Tate.
Dans les espaces masculinistes, nombreuses sont les offres de ressources pour devenir un « homme de valeur » ou pour obtenir du « coaching charisme » contre rétribution. Dans son ouvrage, Pauline Ferrari décrit un « business de la solitude et de la souffrance », alors que la santé mentale reste un tabou chez les hommes, et que la jeunesse traverse des difficultés aiguës en la matière. De fait, la majorité des messages de TRW analysés par Le Monde évoquent des tentatives de dépasser des difficultés, notamment financières. Avec, toujours, cette manière d’opposer « losers » et « winners ».
En définitive, les masculinistes attirent, car ils offrent des réponses d’apparence simple à de réelles problématiques de société : la recherche de lien social, celle de « s’en sortir » financièrement. En articulant leur réponse à des idées profondément misogynes, en revanche, ce type d’influenceurs créent un terreau qui mène à la « Terreur masculiniste » que décrit la chercheuse Stéphanie Lamy dans un ouvrage paru en 2024 aux Éditions du détour. Terreur où l’argent joue, encore une fois, un rôle à part entière.
Sans même passer par des actions violentes comme la tentative d’attentat déjouée à Bordeaux, ces idéologies se traduisent en acte dans les pays où les dirigeants leur expriment leurs sympathies. C’est ce que démontrent les décisions récentes prises aux États-Unis.
C’est la raison pour laquelle la chercheuse Cécile Simmons alerte sur les incompréhensions que pourrait provoquer la série Adolescence. « Il est vrai que les leaders autoritaires de droite courtisent de plus en plus les jeunes hommes en difficulté, en allant sur leurs podcasts, sur leurs plateformes médiatiques préférées, comme l’a fait Trump lors de la dernière campagne présidentielle », explique-t-elle à la politologue Marie-Cécile Naves. « Mais les croyances suprémacistes masculines transcendent les classes, les groupes d’âge et même les ethnies. » Andrew Tate lui-même a 38 ans. Aux États-Unis, la milice des Proud Boys, dont le leader a 54 ans, a de son côté tenté de s’ouvrir aux hommes non blancs, « quand bien même elle est clairement nationaliste blanche ».
OpenMandriva vient de publier la version 6.0 de sa distribution Lx. L’occasion bien sûr de montrer que le développement du système est toujours dynamique, mais également de fournir de nombreux composants dans leur dernière révision.
OpenMandriva est à la fois le nom d’une distribution et celui de l’association qui préside à son développement. OpenMandriva a pris la suite de la distribution Mandriva, qui venait elle-même de Mandrake. Il ne faut pas la confondre avec Mageia, elle aussi issue de Mandriva, mais pilotée par un autre groupe de développeurs. OpenMandriva bénéficie aujourd’hui d’un soutien plus actif que Mageia et propose plus régulièrement de nouvelles versions.
Sur le site officiel, l’équipe de développement rappelle fièrement que contrairement à bien des distributions, OpenMandriva est autonome. Elle n’est pas basée sur un système existant, comme peut l’être par exemple Ubuntu avec Debian, ou Linux Mint avec Ubuntu. Elle est son propre socle et se décline en deux variantes. La branche Rock d’abord, qui est une version classique avec une nouvelle version tous les 12 à 18 mois. La branche ROME ensuite, plus récente, qui fonctionne en rolling release et se destine donc aux personnes aimant toujours avoir les dernières versions des composants.
OpenMandriva préserve l’héritage de Mandriva et même Mandrake en gardant KDE Plasma comme environnement de bureau par défaut. Lx 6.0 – nom de code « Vanadium » – intègre d’ailleurs la récente version 6.3.4 de Plasma, accompagnée de la très fraichement sortie mouture 25.04 de KDE Gear. Gear contient pour rappel toute la suite applicative officielle de KDE, dont Dolphin, Konqueror, Connect, Itinerary, Kongress, Merkuro, Kontact ou encore Okular.
Ce passage à Plasma 6 est accompagné d’un avertissement qui risque de ne pas faire plaisir. Si vous utilisez Lx 5.0, vous avez encore Plasma 5. L’équipe de développement recommande donc une installation neuve pour Lx 6.0 pour obtenir les meilleures performances avec Plasma 6. La mise à jour est possible, mais semble pouvoir provoquer des problèmes.
Tant qu’à faire, OpenMandriva Lx 6.0 intègre également le dernier noyau Linux disponible, le 6.14.2. La mouture 6.15 RC2 est même fournie, Clang ayant été utilisé pour la compilation dans les deux cas. Comme toujours dans ce genre de cas, cela devrait rendre l’installation de la distribution beaucoup plus simple sur du matériel récent. Puisque l’on parle d’installation, le système se sert de Calamares. Vous connaissez peut-être cet installateur, utilisé notamment par Manjaro, KDE Neon ou encore Netrunner. Ce n’est donc pas un composant spécifique à OpenMandriva.
Sans trop de surprise, la pile logicielle est à l’avenant. On y retrouve LibreOffice 25.2.3 ainsi que les dernières versions de Chromium (navigateur par défaut et débarrassé des composants Google), Firefox, Falkon, GIMP ou encore VirtualBox. Pour les développeurs, même constat avec LLVM/Clang 19.1.7, GCC 14.2.1, Glibc 2.41, Systemd 257.5, Mesa 25.0.4 et Java 24. Bien que non installés par défaut, Proton et Proton Experimental sont disponibles dans les dépôts officiels de Mandriva pour faciliter l’utilisation des jeux. Nous aurons d’ailleurs l’occasion bientôt de nous pencher sur le jeu sous Linux.
Des versions communautés et une nouvelle édition Server
Bien que KDE soit traditionnellement fourni par le système, ce dernier dispose – comme beaucoup de distributions – de versions communautaires. On peut donc récupérer des images ISO d’OpenMandriva contenant GNOME 48.1, LXQt 2.2, Xfce 4.20 et même une version alpha de l’environnement COSMIC. Ce dernier, développé intégralement en Rust, est suivi de près par de nombreux observateurs. Nous l’avons pris en main récemment pour vérifier son potentiel.
OpenMandriva Lx 6.0 est également l’occasion d’introduire une nouvelle édition Server. Contrairement aux autres, elle n’est pas fournie sous forme d’image ISO, mais d’image disque. Selon les développeurs, ce choix a été fait pour faciliter le déploiement dans des solutions de virtualisation comme QEMU (qui vient de sortir en version 10.0) et OpenStack, ou encore dans le cloud, sans passer par une phase d’installation.
Cette édition Server comprend un nombre réduit de paquets préinstallés. En cas de besoin, il suffit de recourir à la commande « dnf install », puisque la distribution se sert du même gestionnaire de paquets que Fedora (notamment). L’édition contient aussi un compte utilisateur préconfiguré (omv/omv comme nom et mot de passe par défaut) et intègre le support de cloud-init pour permettre une personnalisation chez des fournisseurs de solutions cloud.
Côté architectures, Lx Server prend en charge x86_64, AArch64 avec support de l’UEFI, ainsi qu’AMD Zen. Cette dernière concerne surtout les processeurs EPYC et Threadripper dans les entreprises. Les développeurs indiquent que l’édition x86_64 fonctionne avec ces derniers, mais que la version AMD Zen est plus optimisée, avec à la clé de meilleures performances.
Lx Server est également dénué d’interface graphique.
Attention dans VirtualBox
Les développeurs mettent en garde : dans l’éventualité d’une utilisation en machine virtuelle dans VirtualBox, il est recommandé d’utiliser X11 comme serveur graphique. Ils indiquent que le logiciel a des « problèmes connus » avec Wayland (sinon utilisé par défaut) et qu’il sera peut-être nécessaire de configurer le contrôleur VMSVGA pour que le système puisse démarrer avec succès. Dans le cas d’une installation native ou dans d’autres solutions de virtualisation comme KVM (qui se sert de QEMU), il ne devrait pas y avoir de problème.
L’équipe ajoute enfin que toutes les failles signalées récemment ont été corrigées.
Les personnes intéressées pourront lire les notes de version complètes pour avoir plus de détails sur les nouveautés. Le téléchargement de cette nouvelle mouture se fait depuis le site officiel.
En France, en Suède, au Danemark comme au niveau de la Commission européenne, les attaques contre le chiffrement des communications se multiplient.
Au niveau national comme à celui de la Commission, la pression augmente sur le chiffrement de bout en bout des communications (end-to-end encryption, E2EE).
Début avril, la Commission européenne présentait son plan ProtectEU, une nouvelle stratégie de sécurité interne. L’un des chapitres de la feuille de route concerne directement la nécessité de « fournir de meilleurs outils aux forces de l’ordre » et aux agences européennes.
Dans son communiqué, la Commission annonçait par exemple vouloir renforcer la coopération entre Frontex, Eurojust et l’ENISA (l’agence de l’UE pour la cybersécurité), mais aussi préparer une « feuille de route technologique sur le chiffrement et une analyse d’impact dans le but d’actualiser les règles de l’UE en matière de conservation de données ».
Du côté des États, la France vient de débattre ardemment pour la suppression de l’article 8ter de la loi Narcotrafic, qui aurait permis aux forces de l’ordre d’obtenir un accès aux messageries sécurisées. La proposition a été définitivement enterrée fin mars. Mais ailleurs en Europe, l’Espagne et la Suède s’attaquent eux aussi au sujet, de même que le Royaume-Uni.
Les forces de l’ordre « les yeux bandés »
Au Danemark, le ministre de la Justice Peter Hummelgaard a ainsi souligné auprès de Politico que le monde numérique avait rendu « beaucoup plus simple la coordination en temps réel et l’accès à une large audience pour des cybercriminels ». Et de pointer plus spécifiquement l’explosion de la pédopornographique, du blanchiment d’argent ou du trafic de drogues.
Du côté de l’agence européenne Europol, un porte-parole renchérissait auprès du média : « sans accès aux communications chiffrées, les forces de l’ordre se battent contre le crime les yeux bandés ». Une position régulièrement tenue par les chefs des polices européennes.
La tendance a mené à plusieurs passes d’armes publiques avec Meredith Whittaker, présidente du service de communication chiffré Signal. Début 2025, la Suède s’est attelée à une proposition de loi susceptible de forcer les opérateurs de messageries à enregistrer tous les messages de leurs usagers, ce qui créerait de facto une backdoor dans les systèmes de messageries chiffrés. Comme elle l’avait fait lors de l’étude de l’Online Safety Act au Royaume-Uni, l’experte avait déclaré que Signal quitterait le pays plutôt que de se plier à ce type d’obligation.
Pas de backdoor qui ne soit accessible par une multiplicité d’acteurs
Interrogée l’an dernier sur la récurrence des tentatives d’attaquer le chiffrement des communications, la présidente de Signal ne niait pas la réalité des problématiques auxquelles font face les forces de l’ordre. Auprès de Next, elle déclarait en revanche : « la promesse est toujours la même : si vous nous donnez accès à tout, nous pourrons résoudre tous les problèmes du monde. Sauf qu’il n’y a aucune preuve de cela, pas plus que de démonstration que le chiffrement soit le coupable. »
PDG de Telegram, Pavel Durov s’est joint aux critiques. Il a déclaré qu’il préférait fermer le service en France (qu’il a quittée en mars après plusieurs mois d’interdiction de sortir du territoire) et dans d’autres pays européens plutôt que renoncer à son option de chiffrement de bout en bout dans la messagerie.
Comme depuis la création du chiffrement, les experts en cybersécurité répètent par ailleurs que la moindre création de backdoor met en danger l’intégralité de l’édifice d’un système de communication, puisque son existence pourrait ensuite être utilisée par des pirates ou des gouvernements autoritaires.
Trois types de menaces
Quoi qu’il en soit, la responsable des politiques de chiffrement chez l’ONG Access Now, Namrata Maheshwari, décrit à Wired trois types d’attaques récentes contre le chiffrement. La première consiste en la demande, par des gouvernements ou des forces de l’ordre, d’obtenir un « accès légal » à des données chiffrées.
En février, le Washington Post révélait ainsi que la justice britannique avait secrètement ordonné à Apple de lui permettre l’accès aux données enregistrées par ses utilisateurs, partout sur la planète. Plutôt que d’y accéder, Apple a suspendu le service Advanced Data Protection, qui donne la possibilité de chiffrer de bout en bout les données stockées sur iCloud, pour les internautes britanniques.
La deuxième consiste en des propositions relatives au « scanning côté client », ou « analyse sur appareil », qui consiste à examiner les messages localement sur l’appareil d’une personne, avant qu’ils ne soient chiffrés. C’est le raisonnement qui avait animé le projet européen de lutte contre la pédocriminalité surnommé #ChatControl, ou « le projet de loi européen le plus critiqué de tous les temps ». Il proposait de vérifier l’ensemble des photos, vidéos et URL avant qu’elles ne soient envoyées dans des messageries potentiellement chiffrées.
Le troisième consiste enfin en un risque persistant de suspension de l’accès aux services de messageries chiffrées. La Russie a, par exemple, bloqué l’accès à Signal fin 2024. En Inde, WhatsApp est aux prises avec une action en justice qui pourrait l’obliger à quitter le pays ou à renoncer au chiffrement de bout en bout dans ce marché.
Cela dit, des voix importantes s’élèvent aussi en faveur du chiffrement. Aux États-Unis, à la suite de la cyberattaque Salt Typhoon, plusieurs représentants du FBI et de la CISA (US Cybersecurity and Infrastructure Security Agency) ont encouragé la population à largement utiliser des applications de messagerie chiffrées.
Le premier trimestre 2025 s’est révélé particulièrement dynamique pour les ventes d’ordinateurs à l’échelle mondiale, en anticipation des droits de douane et des tensions géopolitiques associées à l’investiture de Donald Trump. Lenovo reste largement numéro un, avec près d’un quart des parts de marché sur le trimestre.
Dernière embellie avant la tempête ? Le marché des ordinateurs a connu un premier trimestre particulièrement dynamique, mais pour les analystes, les acheteurs du monde entier ont probablement anticipé une partie de leurs commandes, afin de prévenir les conséquences des droits de douane décidés par l’administration Trump.
« De toute évidence, la demande commerciale est restée forte au premier trimestre, mais la nouvelle série de droits de douane américains annoncée le 2 avril pourrait avoir un impact inflationniste direct sur le marché des PC, ce qui pourrait entraîner un retard des dépenses informatiques pour le reste de l’année », estimait par exemple un analyste d’IDC le 8 avril dernier.
Un trimestre dynamique par anticipation
Pour le cabinet concurrent Counterpoint Research, le risque est d’autant plus important que le marché américain reste le principal débouché commercial des grands noms de l’informatique mondiale, ce qui profite d’ailleurs aux fabricants états-uniens.
Livraisons de PC dans le monde au premier trimestre 2025 selon IDC
D’après ses propres chiffres, Apple aurait ainsi enregistré une croissance record au premier trimestre, avec des livraisons en hausse de 17 % sur un an. HP et Dell auraient aussi bénéficié du phénomène, mais dans une moindre mesure, puisque leurs livraisons progressent de respectivement 6 % et 4 %.
Au global, le marché aurait progressé de 4,9 % selon IDC, qui estime à 63,2 millions le nombre d’ordinateurs livrés sur le trimestre, et de 6,7 % selon Counterpoint, avec un total évalué cette fois à 61,4 millions de machines.
Dans les deux cas, Lenovo s’impose une fois de plus comme le leader mondial du secteur, avec environ 15 millions de machines expédiées sur le trimestre, et des parts de marché évoluant dans une fourchette comprise entre 23 % (IDC) et 25 % (Counterpoint). HP arrive ensuite en deuxième position, avec environ 20 % des volumes, suivi par Dell, Apple, Asus, puis les autres constructeurs.
Livraisons de PC dans le monde au premier trimestre 2025 selon Counterpoint Research
Incertitudes sur la chaîne d’approvisionnement
Quid de la fin de l’année ? Si Counterpoint maintient une estimation de croissance globale du marché de l’ordre de 5 %, la prévision est assortie de nombreuses précautions oratoires. « Bien que les exemptions temporaires sur certains appareils électroniques comme les smartphones et les ordinateurs portables aient apporté un soulagement temporaire, les droits de douane américains attendus sur les semi-conducteurs menacent de perturber les chaînes d’approvisionnement et de freiner la demande et l’investissement », remarque le cabinet.
Il estime par ailleurs que la crise des droits de douane devrait accélérer le transfert des capacités de production exploitées par les marques américaines vers d’autres pays asiatiques que la Chine, à l’image de l’Inde ou du Vietnam — un mouvement déjà bien engagé par Apple.
« Jusqu’à présent, nos contrôles de la chaîne d’approvisionnement n’ont révélé aucun changement radical, mais ce n’est pas surprenant, car la situation est presque trop volatile pour prendre des décisions commerciales radicales », note Ryan Reith chez IDC. Selon qui, c’est le consommateur qui, en fin de parcours, verra sa facture s’alourdir. « En ce qui concerne le matériel comme les PC et les équipements similaires, nous maintenons que la plupart (sinon la totalité) des augmentations de prix seront répercutées directement sur le consommateur ».
Dans la dernière version de son application sur l’ensemble des plateformes, WhatsApp annonce la disponibilité d’une nouvelle option baptisée « Confidentialité avancée de la discussion ». L’entreprise, filiale de Meta, aime à rappeler que le contenu des discussions simples ou de groupe est chiffré de bout en bout et que personne, pas même elle, ne peut lire les échanges. Le statut des informations périphériques en revanche est beaucoup plus flou.
Cette option ne réside pas dans les réglages de l’application, mais dans les paramètres des conversations. Elle s’active donc « à la carte » et permet de bloquer les opérations courantes d’extraction des informations depuis les messages que vous envoyez.
Si le paramètre est actif, il n’est ainsi plus possible de transférer vos messages à d’autres destinataires. Il bloque le téléchargement automatique des médias envoyés sur les appareils des participants, ainsi que l’utilisation de Meta AI sur vos messages.
En dépit de l’annonce de Meta, nous n’avons pas encore vu cette fonction dans la dernière version de l’application. Il s’agit donc d’un déploiement en cours. Difficile pour l’instant de jauger de son efficacité, d’autant que certaines questions viennent immédiatement en tête. Peut-on par exemple copier le message via un appui prolongé ? Le téléchargement manuel des médias reste-t-il disponible ? Un signal est-il émis si une personne dans le groupe fait une capture d’écran ?
A priori, ces comportements restent permis. WhatsApp précise cependant qu’il s’agit d’une « première version de cette fonctionnalité ». « Nous prévoyons d’ajouter de nouveaux éléments pour, à terme, assurer une meilleure protection », ajoute l’entreprise.
8 ans après la première console Switch, vendue à plus de 150 millions d’exemplaires, Nintendo annonçait au début du mois le lancement prochain de la Switch 2.
Le 23 avril, l’entreprise a déclaré sur X être « surprise » devant l’engouement.
Après le lancement d’une loterie de précommande, la société indique avoir reçu plus de 2,2 millions de candidatures rien que pour le Japon. Selon Nintendo, ce nombre « dépasse largement nos attentes », ainsi que le « nombre de Nintendo Switch 2 qui pourront être livrées le 5 juin ».
Pour faire face à la demande, l’entreprise organise une seconde loterie. Elle indique surtout « travailler à renforcer son système de production », alors que les précommandes doivent s’ouvrir aujourd’hui au Canada et aux États-Unis.
Bien qu’elle ne donne pas de chiffre précis, la responsable gaming de la FNAC laisse aussi entendre auprès de Frandroid que les niveaux de précommandes sont très élevés en France.
Après treize ans d’une direction croisée assurée par les deux fondateurs de l’entreprise, une transition s’engage à la tête de Discord : la plateforme sociale vient en effet d’annoncer le recrutement d’un nouveau CEO, qui prendra ses fonctions à compter du 28 avril prochain.
Le nouveau venu fait figure de vétéran de l’industrie du jeu vidéo : Humam Sakhnini a notamment présidé aux destinées de King Digital Entertainment, le spécialiste du jeu mobile et des micro-transactions qui édite Candy Crush. Suite au rachat de King par Activision Blizzard, il a ensuite occupé un fauteuil de vice-président au sein du comité exécutif de l’éditeur de Call of Duty, World of Warcraft et de nombreuses autres licences populaires.
L’entreprise ne précise pas la feuille de route stratégique qui sera confiée au nouveau CEO. Elle rappelle en revanche compter plus de 200 millions d’utilisateurs mensuels dans le monde, qui cumuleraient plus de 2 milliards d’heures de jeux par mois. « En 2024, la société s’est recentrée sur ses racines issues du jeu vidéo et a commencé à rechercher des opportunités au-delà de son service d’abonnement grand public principal, notamment la publicité, les micro-transactions et la fourniture d’infrastructures sociales aux développeurs de jeux », affirme Discord dans un communiqué.
L’entreprise, à qui la rumeur prête l’intention de préparer une introduction en bourse, se dit en croissance financière, et rentable depuis plusieurs trimestres.
Les deux fondateurs de Discord, Jason Citron et Stanislav Vishnevskiy, restent officiellement à bord, même si le premier abandonne la direction opérationnelle et n’officiera plus qu’en tant que conseiller stratégique. Le second conserve sa casquette de CTO.
Tesla a fait état mardi soir d’un bénéfice trimestriel en recul de 71 % sur un an, sur fond de ventes qualifiées de décevantes. Si l’entreprise admet souffrir de l’incertitude économique générale liée à la guerre commerciale lancée par Donald Trump, ses représentants réaffirment leur confiance dans sa stratégie à long terme, et récusent l’idée selon laquelle Tesla souffrirait de l’implication d’Elon Musk aux côtés du président des États-Unis. L’intéressé fait quant à lui souffler le chaud et le froid quant à sa participation active au désormais célèbre Doge.
Publiés mercredi soir, les résultats de Tesla pour le premier trimestre 2025 confirment le ralentissement des ventes de l’entreprise sur son marché principal qu’est l’automobile.
Dans le détail, Tesla indique avoir produit 362 000 véhicules sur le trimestre, en recul de 16 % sur un an, tandis que les livraisons se montent à 337 000 véhicules sur la même période (- 13 %). Faut-il y voir une baisse de la demande, comme le supputent de nombreux observateurs ?
Les ventes de véhicules ralentissent
Pas forcément : la baisse des livraisons découlerait ainsi « en partie » de la conversion des lignes de production vers le nouveau Model Y au sein des quatre usines concernées, indique l’entreprise dans sa communication financière (PDF). Elle note par ailleurs une légère baisse du prix de vente moyen de ses véhicules, qu’elle attribue à la fois au mix (la répartition entre les différentes versions d’une même voiture) et aux incitations à la vente pratiquées dans son réseau de distribution.
Livraisons trimestrielles de véhicules Tesla, en millions
Les manifestations anti-Tesla, qui ont défrayé la chronique aux États-Unis suite à la mise en œuvre par Elon Musk de son plan d’épuration des finances publiques, semblent tout de même avoir affecté l’homme d’affaires. « Comme les gens le savent, il y a eu des réactions négatives suite au temps que j’ai passé au gouvernement », a-t-il commencé, avant d’affirmer sans ambages y voir le signe d’un complot. « Les manifestations que vous avez pu voir étaient très bien organisées. [Les participants] ont été payés pour ça », a notamment déclaré le patron de Tesla lors du webcast de présentation de ces résultats, sans préciser ses allégations.
Des finances toujours très solides
Résultat des courses ? Sur son activité principale qu’est l’automobile, Tesla réalise sur le trimestre un chiffre d’affaires global de 13,967 milliards de dollars, en recul de 20 % sur un an. Au sein de cet ensemble, qui réunit principalement les ventes (12,925 milliards de dollars) et le leasing (447 millions de dollars), on note que Tesla engrange aussi 595 millions de dollars grâce à la vente de crédits carbone à d’autres acteurs industriels. Une activité indirecte, qui a déjà représenté 2,8 milliards de dollars de chiffre d’affaires pour le groupe en 2024.
Outre les véhicules, Tesla réalise 2,730 milliards de dollars de chiffre d’affaires sur les activités liées au stockage et à la production d’énergie (batteries domestiques ou industrielles, actifs ENR), et 2,638 milliards de dollars via sa division dédiée aux services (au premier rang desquels la recharge).
L’ensemble représente un chiffre d’affaires trimestriel total de 19,335 milliards de dollars, en baisse de 9 % par rapport au premier trimestre 2024. En bas de bilan, Tesla parvient tout de même à un résultat positif en dépit de dépenses d’exploitation qui augmentent (+ 9 % sur un an) : son bénéfice net s’établit ainsi à 409 millions de dollars, en baisse de 71 % sur un an.
Tesla souligne dans ce contexte sa robustesse financière, avec un cycle de conversion achevé au niveau de ses principales usines, des travaux déjà bien avancés pour ses futures usines dédiées au Robotaxi/Cybercab (Texas) et au Tesla Semi (Nevada), ainsi qu’une trésorerie largement disponible de l’ordre de 2,2 milliards de dollars. Elle se montre également très optimiste quant à la future contribution de sa Megafactory de Shanghai, qui a déjà produit 100 Mégapacks (stockage d’énergie par batteries à l’échelle d’un conteneur) et doit arriver à une production annuelle de l’ordre de 40 GWh.
Un mauvais trimestre n’est pas un problème dans la trajectoire d’une entreprise de croissance… tant que cette dernière peut rassurer quant à ses perspectives futures. Et sur ce point, Tesla ne semble pas beaucoup mieux lotie que les autres acteurs de l’industrie automobile.
« Il est difficile de mesurer l’impact de l’évolution des politiques commerciales mondiales sur les chaînes d’approvisionnement automobile et énergétique, notre structure de coûts et la demande de biens durables et de services associés. Bien que nous réalisions des investissements prudents qui prépareront nos activités automobiles et énergétiques à la croissance, le rythme de croissance cette année dépendra de divers facteurs, notamment l’accélération de nos efforts en matière d’autonomie, la montée en puissance de nos usines et le contexte macroéconomique général », expose ainsi Tesla dans sa communication financière.
Elon Musk prêt à lever le pied du Doge, mais pas à le quitter
L’attitude d’Elon Musk vis-à-vis de ses multiples engagements, professionnels ou politiques, interroge tout particulièrement dans ce contexte. Un analyste de Wall Street tirait d’ailleurs la sonnette d’alarme la veille de la publication de ces résultats financiers, estimant que Musk s’exposait au risque d’un « code rouge » s’il ne revenait pas pleinement aux manettes de Tesla.
Le message semble avoir été entendu, mais l’intéressé entretient tout de même un certain flou quant à la suite de sa mission au sein du Doge, le ministère de l’efficacité gouvernementale installé par Donald Trump.
« À compter probablement du mois prochain, mai, le temps que je consacre au Doge devrait diminuer significativement, a ainsi déclaré Elon Musk aux analystes, avant d’immédiatement nuancer son propos, en expliquant qu’il devrait veiller à ce que l’action du Doge ne soit pas défaite jusqu’à la fin du mandat de Donald Trump. Je pense que je continuerai à consacrer un jour ou deux par semaine aux affaires gouvernementales, aussi longtemps que le Président le souhaitera et tant que c’est utile ». Selon les termes initiaux de l’annonce formulée par Donald Trump, la mission de Musk en tant que conseiller spécial de la Maison-Blanche devait durer 130 jours.
Musk prudent dans son désaccord avec Trump sur les droits de douane
Au-delà de son agenda personnel, Elon Musk était également attendu sur l’épineux dossier des droits de douane, qui a plongé les bourses du monde entier dans une crise de volatilité depuis le début d’avril. Sur ce point, le milliardaire avait déjà laissé entendre, via son très prolifique compte X, qu’il ne partageait pas totalement les vues de Trump, semblant plutôt se ranger du côté des soutiens du libre-échange.
Une opinion confirmée mardi. « Je suis partisan des structures de taxes prévisibles, et je soutiens en général le libre-échange et des droits de douane plus modérés, a admis Elon Musk, avant là encore quelques précautions oratoires. Je pense que ça reste à traiter stratégiquement au cas par cas. Le Président est le représentant élu du peuple, et il est complètement dans son droit de faire les choses comme il le souhaite ».
Si Tesla affirme avoir sécurisé les grands maillons stratégiques de sa chaîne d’approvisionnement, Musk reconnait que les tensions entre la Chine et les États-Unis pourraient avoir d’autres impacts opérationnels sur les diversifications du groupe, notamment la branche incarnée par le robot humanoïde Optimus. Bien qu’il soit encore au stade du développement, Tesla prévoit d’en assembler « quelques milliers » d’unités en 2025, et se heurte actuellement aux restrictions mises en place par la Chine sur les terres rares, dont les aimants permanents. « On y travaille avec la Chine », a indiqué Musk, qui réaffirme par ailleurs son ambition de produire un million de robots par an d’ici 2030.
Tesla affirme avoir débuté l’assemblage des robots Optimus sur une ligne pilote de son usine de Fremont – crédit Tesla
La Commission européenne informe, dans un communiqué, que les deux entreprises américaines ont été reconnues coupables de violations du Digital Markets Act. Les amendes, de plusieurs centaines de millions d’euros, font suite à des dossiers connus : les blocages « anti-steering » chez Apple et l’approche « consentir ou payer » chez Meta.
« Aujourd’hui, la Commission européenne a constaté qu’Apple n’avait pas respecté l’obligation de lutte contre le pilotage qui lui incombe en vertu de la loi sur les marchés numériques (DMA) et que Meta n’avait pas respecté l’obligation de donner aux consommateurs le choix d’un service qui utilise moins de données à caractère personnel les concernant », indique la Commission européenne dans son communiqué. Il s’agit des premières amendes infligées dans le cadre du DMA.
Apple et ses blocages sur les tarifs tiers
Il y a donc deux amendes. La première, de 500 millions d’euros, vient frapper Apple pour ses pratiques anti-steering. Le terme désigne les blocages plus ou moins visibles mis en place par l’entreprise pour empêcher les éditeurs tiers de communiquer librement sur leurs tarifs. Y compris quand ils sont plus intéressants que ceux affichés sur l’App Store.
C’est l’un des principaux reproches faits à l’App Store ces dernières années. Nombreux sont les éditeurs à estimer qu’ils devraient pouvoir afficher les liens qu’ils souhaitent dans leurs applications, surtout quand il s’agit de périodes promotionnelles.
En outre, ces liens peuvent pointer vers des paiements plus rémunérateurs pour les éditeurs, puisqu’Apple ne prélève pas sa fameuse dîme de 30 % sur les achats et abonnements (pour ces derniers, la commission baisse à 15 % dès le 13ᵉ mois consécutif). Spotify est probablement la société la plus remuante sur le sujet. Avec d’autres, elle fait même partie des entreprises ayant choisi de ne plus autoriser l’abonnement via l’application pour iOS. Pour s’inscrire, il faut passer par le site officiel. Apple avait estimé de son côté que Spotify devrait être reconnaissante.
Des consommateurs lésés
Quoi qu’il en soit, le DMA impose que les développeurs tiers soient libres de communiquer comme ils le souhaitent sur ces offres. La Commission indique avoir constaté qu’Apple « ne respecte pas cette obligation ». En outre, puisque les consommateurs ne peuvent pas être informés directement, ils sont lésés. Enfin, Apple était invitée à justifier ces restrictions, mais n’a pas réussi à démontrer qu’elles « étaient objectivement nécessaires et proportionnées ».
La Commission précise que le montant de l’amende (500 millions d’euros) « tient compte de la gravité et de la durée de l’infraction ». Apple a 60 jours pour payer, sous peine d’une pénalité pour chaque jour de retard. À noter que la Commission a clos en revanche le dossier sur le choix du navigateur, Apple étant félicitée pour son « engagement précoce et proactif » sur le sujet. Rappelons que la première version n’avait guère convaincu, avant que l’écran de sélection ne soit révisé dans iOS 18.
Comme l’indique notamment Le Monde, Apple a simplement indiqué qu’elle était « injustement visée » par l’Europe et qu’elle ferait appel de la décision.
Sans surprise, les abonnements de Meta n’ont pas plu
On savait que les abonnements proposés par Meta pour mettre fin à la publicité ne plairaient pas. L’entreprise les avait proposés en réaction à ses obligations face au DMA sur la publicité personnalisée.
Sommée de proposer une alternative permettant de ne pas exploiter les données personnelles sans avoir recueilli le consentement explicite des internautes, Meta avait en effet lancé une approche surprenante. Plutôt que de demander le consentement, elle avait lancé des abonnements pour ne plus afficher de publicités. Un modèle « consentir ou payer » qui n’est pas passé auprès de la Commission européenne. Non conforme au RGPD notamment, le choix ne garantissait pas non plus que les données personnelles échappaient au traitement, simplement que les publicités n’étaient pas affichées.
La Commission note cependant que Meta a proposé un autre système en novembre dernier. Il utiliserait moins de données personnelles et serait la conséquence de « nombreux échanges avec la Commission ». Cette dernière évalue actuellement la nouvelle option et dit poursuivre son dialogue avec Meta, pour lui demander notamment des preuves de son impact.
Meta voit rouge
Le montant de l’amende (200 millions de dollars) tient compte de cette chronologie, sur la période mars-novembre 2024, quand les internautes européens n’ont eu à disposition que l’option qualifiée de « binaire ». Comme pour Apple, Meta a 60 jours pour se conformer à la décision, sous peine d’une astreinte journalière.
Sur X, Joel Kaplan, responsable des affaires mondiales chez Meta, vient de lancer une réponse au vitriol : « La Commission européenne tente de mettre des bâtons dans les roues d’entreprises américaines prospères tout en permettant aux entreprises chinoises et européennes d’opérer selon des normes différentes. Ce n’est pas qu’une question d’amende, la Commission nous force à modifier notre modèle commercial, nous impose une taxe de plusieurs milliards de dollars et requiert de notre part un service inférieur ».
Dans les deux dossiers, la question demeure toutefois : la situation géopolitique actuelle, extrêmement tendue, a-t-elle joué un rôle ? Plusieurs dossiers ont été ouverts par la Commission au cours des dernières années contre des géants américains du numérique. La position récente de la Maison-Blanche était cependant que ces entreprises devaient être gouvernées par des lois américaines. Des rumeurs avaient rapidement couru sur la possibilité pour la Commission de se « retenir » sur ses prochaines amendes, mais l’institution ne s’est pas exprimée sur le sujet.
Les robots utilisés par les grands modèles de langage (LLM) pour indexer le web ne sont que la partie émergée de l’iceberg. Une étude portant sur le trafic web des clients d’une entreprise de cybersécurité proposant des services de lutte contre les bots avance que 37 % émanerait en effet de « robots malveillants » (contre 19 % il y a 10 ans), contre 14 % pour les robots légitimes, et 49 % pour les internautes humains (contre plus de 60 % il y a encore 5 ans).
Mise à jour, 19h48 : en réponse à des remarques effectuées en commentaires, l’article a été modifié pour préciser que l’étude porte sur le trafic web des clients d’une entreprise de cybersécurité proposant des services de lutte contre les bots (et non sur le « trafic Internet » en général), et le titre modifié en conséquence.
« Pour la première fois en dix ans, le trafic automatisé a dépassé l’activité humaine, représentant 51 % de l’ensemble du trafic web en 2024 ». Ces derniers représentaient en effet un peu plus de 60 % du trafic web jusqu’en 2020, contre 49 % seulement en 2024.
Les « gentils bots », tels que les crawlers qui indexent les pages web, sont quant à eux passés de 20 % environ à 14 %. Les « robots malveillants », a contrario, voient leur trafic augmenter depuis six ans, passant de 19 à 37 %.
Imperva Bad Bot Report 2025
Les chiffres émanent du 12e rapport « Bad Bot » (.pdf) d’Imperva, une entreprise états-unienne de cybersécurité rachetée par Thales en 2023 pour 3,6 milliards de dollars. Elle précise que son analyse « s’appuie sur des données collectées sur l’ensemble du réseau mondial d’Imperva en 2024, y compris le blocage de 13 000 milliards de requêtes de robots malveillants dans des milliers de domaines et d’industries ».
Le rapport définit ces robots malveillants comme des programmes automatisés conçus pour effectuer des activités nuisibles, telles que la récupération de données, le spam et le lancement d’attaques par déni de service distribué (DDoS).
Ils peuvent également extraire des données de sites web sans autorisation pour les réutiliser, obtenir un avantage concurrentiel, et « sont souvent utilisés pour le scalping, qui consiste à obtenir des articles à disponibilité limitée et à les revendre à un prix plus élevé », souligne le rapport.
Ils peuvent aussi, a contrario, être utilisés pour remplir des formulaires pour, par exemple, créer des comptes fictifs, tromper les CAPTCHA, s’attaquer à la double authentification et voler des identités (« Credential Stuffing / Cracking »).
Le nombre de vols d’identités numériques imputables à des « bad bots » aurait ainsi augmenté de 40 % depuis 2023, et 54 % depuis 2022. Une explosion « probablement due » au fait que les cybercriminels utilisent l’IA pour automatiser les tentatives d’authentification et les attaques par force brute, ce qui les rend en outre plus sophistiquées et plus difficiles à détecter.
Le rapport souligne que l’augmentation de fuites et de vols de données rend également ce type d’attaques plus faciles à exploiter. Or, le centre de ressources sur le vol d’identité (Identity Theft Resource Center), qui documente depuis 2005 les violations de données signalées publiquement aux États-Unis, a de son côté identifié une augmentation de 211 % de notifications par rapport à 2023.
Des plateformes de Bots-as-a-Service (BaaS)
Le rapport précise aussi que « les attaquants utilisent de plus en plus des techniques sophistiquées pour imiter le trafic humain et mener des activités malveillantes, ce qui rend ces attaques plus difficiles à détecter et à atténuer ».
Cette expansion serait largement due à l’adoption rapide de l’IA et des grands modèles de langage (LLM), « qui ont rendu le développement de robots plus accessible et réalisable même pour les moins qualifiés techniquement », mais également permis le lancement de plateformes de Bots-as-a-Service (BaaS).
Bytespider, un robot d’exploration du web exploité par ByteDance, le propriétaire chinois de TikTok, officiellement utilisé pour télécharger des données d’entraînement pour ses LLM, serait à lui seul responsable de 54 % de toutes les attaques basées sur l’IA, devant AppleBot (26 %), ClaudeBot (13 %) et ChatGPT User Bot (6 %).
Le rapport précise, cela dit, que cette prévalence de ByteSpider « peut être attribuée en grande partie au fait qu’il est largement reconnu comme un robot d’exploration légitime, ce qui en fait un candidat idéal pour l’usurpation d’identité » :
« Les cybercriminels déguisent souvent leurs robots malveillants en robots d’exploration pour échapper à la détection et contourner les mesures de sécurité qui placent les robots d’exploration connus sur liste blanche. »
L’équipe Threat Research d’Imperva a également constaté une augmentation de 55 % des attaques dirigées contre les API. 44 % du trafic de bots avancés prennent ces interfaces pour cibles, contre seulement 10 % ciblant les applications.
Les cybercriminels déploient en effet des bots spécifiquement conçus pour exploiter les vulnérabilités dans les flux des API, se livrant à des fraudes automatisées aux paiements, à des détournements de comptes ou encore à l’exfiltration de données.
31 % des attaques enregistrées l’an passé émanaient de « bad bots »
Au total, 31 % de toutes les attaques enregistrées l’an passé par Imperva émanaient de tels « bad bots » et de l’un des 21 types d’attaques automatisées identifiés par l’Open Web Application Security Project (OWASP).
OWASP Automated Threats to Web Applications identification chart
L’entreprise recommande dès lors de renforcer les défenses des sites web afin de de pouvoir distinguer les consommateurs légitimes des robots malveillants :
« La mise en œuvre d’une analyse avancée du trafic, de mécanismes de détection des robots en temps réel et de mesures d’authentification robustes peut contribuer à protéger votre plateforme, en garantissant un accès équitable aux clients réels. »
Imperva souligne à ce titre que de nombreux outils et scripts de robots reposent sur des user-agents de versions de navigateurs obsolètes. Alors qu’a contrario, les internautes humains sont quant à eux obligés de mettre à jour automatiquement leurs navigateurs vers des versions plus récentes.
L’entreprise, qui a également constaté un recours accru aux services de proxies, afin de masquer la provenance des robots malveillants, recommande la mise en œuvre de contrôles d’accès pour les fournisseurs d’IP connus pour être utilisés à cet effet, « tels que Host Europe GmbH, Dedibox SAS, Digital Ocean, OVH SAS et Choopa LLC ».
L’initiative Privacy Sandbox, lancée en 2019, devait aboutir progressivement au blocage par défaut des cookies tiers au sein du navigateur Chrome. La fonction, orientée vers la confidentialité et largement critiquée, est cependant figée. Dans un billet, Google a en effet annoncé que les cookies tiers resteront en place.
Les utilisateurs de Chrome n’auront finalement pas de changement sur les cookies tiers. Le comportement actuel sera préservé, avec une acceptation par défaut et la possibilité de modifier les options pour les bloquer. Le mode Incognito, qui les bloque par défaut, continuera lui aussi de fonctionner de la même manière.
On est bien comme on est
Google a annoncé cette décision hier soir, par un billet d’Anthony Chavez, vice-président de l’entreprise et chargé de Privacy Sandbox. Il explique que le contexte a largement changé depuis les débuts de l’initiative en 2019. Il cite l’adoption croissante de technologies améliorant la protection de la vie privée, de nouvelles possibilités pour la protection et la sécurisation des expériences de navigation par l’IA, ou encore une évolution « considérable » du paysage réglementaire dans le monde.
« Compte tenu de tous ces facteurs, nous avons pris la décision de maintenir notre approche actuelle pour offrir aux utilisateurs le choix des cookies tiers dans Chrome », indique ainsi Anthony Chavez. Dans le même temps, d’autres briques de protection comme Safe Browsing, Safety Check et des mécanismes s’appuyant sur l’IA seront renforcées. Google évoque également l’arrivée d’IP Protection pour le troisième trimestre. Ce mécanisme, prévu pour le mode Incognito, veut limiter la diffusion de l’adresse IP dans les contextes tiers, en la bloquant aux sites présents dans la Masked Domain List (MDL).
Que deviendra alors la Privacy Sandbox ? Ce n’est pas très clair. De ce que l’on comprend du billet, elle va rester en place. Google indique que des entretiens auront lieu avec l’industrie dans les mois à venir, pour « recueillir des commentaires et partager une feuille de route actualisée ».
Un long fleuve pas si tranquille
Si l’annonce d’hier soir vous semble familière, c’est que Google avait préparé le terrain. En juillet 2024, elle indiquait déjà qu’elle renonçait au blocage par défaut des cookies tiers. À la place, l’éditeur indiquait réfléchir à la possibilité de poser la question à l’internaute pour lui demander quoi faire. Dans le billet d’hier soir, cette possibilité a justement été écartée, pour rester sur le comportement actuel, qui a l’avantage d’être connu par des centaines de millions de personnes.
La gestion du projet Privacy Sandbox aura cependant été riche en rebondissements. À sa présentation en 2019, il s’agissait d’un mécanisme devant permettre une meilleure approche de la confidentialité des données, tout en préservant l’efficacité des publicités personnalisées. Un numéro d’équilibrisme auquel Google s’est adonné pendant plusieurs annonces, rencontrant sur cette corde raide de nombreuses critiques.
C’était notamment le cas avec la Competition and Markets Authority (CMA) et l’Information Commissioner’s Office (ICO) du Royaume-Uni, ainsi que d’une partie de l’industrie. Petit à petit, la Privacy Sandbox est devenue ce que l’on en connait aujourd’hui : un mécanisme d’envoi de statistiques groupées sur les habitudes des internautes. Il casse ainsi le suivi individuel pour se baser sur des cohortes d’internautes, dont les données sont agrégées en fonction de centres d’intérêt. La Privacy Sandbox prévoit également que les données restent locales et ne puissent pas permettre une reconstitution de l’identité.
Condamnée depuis longtemps ?
Il ne s’agissait cependant pas, comme on a parfois pu le voir, de débarrasser totalement Chrome de la collecte des données personnelles. L’objectif de la Privacy Sandbox était simplement d’en limiter la quantité. Google tire une proportion écrasante de son chiffre d’affaires des publicités et leur personnalisation représente depuis longtemps une industrie complète.
De fait, comme l’indiquait TechCrunch l’année dernière, Google s’est retrouvée prise au piège dans une ambivalence qui ne pouvait satisfaire personne. Il fallait pouvoir continuer sur les publicités comme l’entreprise l’avait toujours fait, tout en renforçant la protection de la vie privée. Le résultat peut être comparé aujourd’hui à une solution n’ayant satisfait personne. L’association noyb avait même déposé plainte contre Google, qu’elle accusait de mentir sur le fonctionnement de la Privacy Sandbox.
Dans ce contexte, la volonté affichée de collecter les avis de l’industrie sur la fonction est peut-être un vœu pieu. Mieux vaut peut-être d’ailleurs que la Privacy Sandbox disparaisse, tant elle aura attiré des problèmes à Google, entre concurrence l’accusant d’en faire une arme, critiques acerbes de plusieurs autorités nationales et erreurs manifestes pointées par le W3C.
Instagram a lancé mardi sa nouvelle application dédiée au montage vidéo. Baptisée Edits, elle se positionne comme une alternative directe au célèbre CapCut, propriété de TikTok, très en vogue chez les créateurs de contenus adeptes du mobile.
Disponible sur iOS et Android, Edits revendique une approche complète de la réalisation de vidéos, avec un volet dédié à la prise de vue (réglage de la fréquence d’images, ouverture, luminosité, etc.) et un panneau très complet dédié au montage.
Entre autres options d’édition, Edits propose la gestion de pistes audio et vidéo, le sous-titrage automatique, la création simplifiée de fondus et de transitions, etc. Elle dispose également d’une banque d’effets sonores et d’une réserve d’animations visuelles et de polices de textes.
Instagram promet par ailleurs l’arrivée prochaine de nouvelles fonctionnalités, dont un mode collaboratif, qui offrira la possibilité de partager le brouillon d’un projet avec ses contacts, ou des effets d’IA, qui permettront de modifier une vidéo à partir de prompts.
L’application se veut enfin directement connectée à Instagram. Elle affiche un flux de vidéos populaires censées pouvoir nourrir l’inspiration des créateurs en herbe, et dispose d’un panneau statistiques permettant à l’utilisateur de suivre les performances de ses propres vidéos. L’export des vidéos se fait, pour l’instant, sans filigrane ou mention explicite du logiciel utilisé.
« La réalisation de vidéos peut représenter un processus délicat, qui nécessite souvent plusieurs applications et implique des workflows complexes. Grâce à Edits, vous disposez désormais d’une plateforme dédiée avec des fonctionnalités performantes en matière de création de vidéos », estime Instagram.
L’application est disponible gratuitement sur l’App Store et le Google Play Store. Un compte Instagram est en revanche exigé pour y accéder. « Nous utiliserons vos informations Edits et Instagram pour personnaliser les publicités et d’autres expériences sur Edits et Instagram », prévient par ailleurs l’application lors du premier lancement.
Meta a initialement dévoilé son projet Edits fin janvier, en rebond à la possible interdiction de TikTok et des applications du groupe chinois Bytedance sur le sol américain.
La présentation des prochains résultats financiers d’Intel, programmée jeudi 24 avril, sera particulièrement scrutée : d’après Bloomberg, le nouveau CEO Lip-Bu Tan devrait y annoncer la mise en œuvre d’un nouveau plan de restructuration.
Le média américain évoque une réduction de l’ordre de 20 % des effectifs totaux du groupe, motivée par la volonté de « réduire la bureaucratie » et reconstruire une culture d’entreprise « basée sur l’ingénierie ».
Au 28 décembre 2024, Intel comptait 108 900 employés d’après son rapport annuel. Mercredi 23 avril, son site dédié au recrutement n’évoque déjà plus que « plus de 99 000 collaborateurs ».
Après avoir été jugée, aux États-Unis, en situation de monopole sur le marché de la recherche en ligne en août dernier, Google vient également de l’être pour ce qui est du marché de la publicité en ligne. L’entreprise, qui vient de faire l’objet d’accusations similaires au Royaume-Uni, essaie en outre de contrer la menace de devoir céder son navigateur Chrome, et d’ouvrir l’accès à ses données de recherche.
En août 2024, le ministère de la Justice états-unienne (Department of Justice, DOJ) avait tranché : Google LLC, filiale d’Alphabet, est en position de monopole sur le marché de la recherche en ligne, et elle en abuse.
Ce 21 avril, un nouveau chapitre s’est ouvert pour la société fondée par Larry Page et Sergueï Brin, qui tente de s’opposer aux conséquences susceptibles de lui être imposées. En octobre, nous détaillions en effet que le juge Amit P. Mehta envisageait des « mesures structurelles et comportementales qui empêcheraient Google d’utiliser des produits comme Chrome, Play et Android pour avantager Google search ou des produits et des fonctionnalités liées à Google search ».
Autrement dit, le DOJ réfléchissait à démanteler Google, et notamment à le forcer à se séparer de son navigateur. L’entreprise a décidé de monter au créneau avant qu’une décision finale ne soit rendue. Une bataille centrée sur les mesures de lutte contre sa position monopolistique s’est donc ouverte hier.
Et si les dirigeants d’Alphabet, comme ceux de la plupart des autres géants numériques du pays, ont fait en sorte de se rapprocher de la nouvelle administration états-unienne, cela ne leur assure pas pour autant d’éviter la condamnation. D’autant qu’en parallèle de ce procès, une autre juge fédérale états-unienne a conclu le 17 avril que Google était aussi en situation de monopole sur le marché de la publicité en ligne.
Au Royaume-Uni, l’entreprise doit par ailleurs se défendre face à une class action l’accusant… d’avoir abusé de sa position dominante pour surfacturer les annonceurs britanniques.
La fin de Chrome tel qu’on le connaît ?
La séparation de Google d’avec son navigateur, son magasin d’application ou son système d’exploitation de smartphone ne sont qu’une des pistes envisagées par la justice états-unienne. Comme nous l’expliquions en octobre, les démantèlements restent extrêmement rares aux États-Unis, surtout depuis 1984 (date de la séparation du géant des télécoms AT&T en de multiples filiales).
Néanmoins, l’industrie évoluant à marche rapide, le DoJ souligne que le monopole de Google participe à améliorer ses outils d’intelligence artificielle, désormais au cœur de toutes les attentions.
Google a, par exemple, accepté de payer Samsung chaque mois en échange de l’installation de son application d’IA Gemini sur tous ses appareils. Dans son jugement, relève Reuters, Amit Mehta avait souligné que ce genre d’accord unilatéral avec des constructeurs avait permis à Google de maintenir son monopole dans la recherche.
Google fait valoir, pour sa part, que la proposition du ministère américain de la Justice de scinder ses activités Chrome et Android affaiblirait la sécurité nationale et nuirait à la position du pays dans la course mondiale à l’intelligence artificielle, en particulier face à la Chine, souligne CNBC.
Loin de justifier de séparer Chrome de Google, analyse Platformer, ces éléments pourraient aussi pousser à obliger l’entreprise à partager son trésor de guerre, par exemple en ouvrant l’accès aux données relatives aux requêtes de recherche, aux résultats et à ce sur quoi les utilisateurs cliquent.
Google cherche de son côté à sortir l’intelligence artificielle du périmètre des discussions. L’entreprise a par ailleurs signalé qu’elle ferait appel du jugement une fois celui-ci rendu. Dans les derniers mois, elle a néanmoins fait évoluer la gouvernance du projet libre Chromium, qui soutient son navigateur.
OpenAi s’est de son côté déclaré intéressé par le rachat de Chrome si le tribunal tranchait en faveur du démantèlement. Son directeur exécutif a déclaré avoir contacté Google pour conclure un éventuel partenariat permettant à ChatGPT de s’appuyer sur les technologies de recherche de Google (en plus de son autre partenariat avec Bing de Microsoft), ce que cette dernière a refusé.
Nommée par Donald Trump, la nouvelle directrice du département de lutte contre les pratiques anticoncurrentielles du DOJ, Gail Slater, était présente à l’ouverture du procès aux côtés d’autres membres de l’équipe, pour souligner qu’il s’agissait d’un enjeu non partisan. « C’est l’avenir d’internet qui est en jeu », a-t-elle déclaré. La plainte initiale contre Google avait été déposée lors du premier mandat de Donald Trump, puis traité lors du mandat de Joe Biden.
Cinq milliards de livres sterling en jeu
En parallèle, l’entreprise doit se défendre face à une action collective déposée le 16 avril devant le tribunal d’appel de la concurrence, la juridiction en charge des problématiques monopolistiques au Royaume-Uni, relève The Guardian. Déposée par Or Brook, maître de conférence en droit et politiques de la concurrence à l’université de Leeds, le recours accuse la société d’avoir profité de sa position de monopole dans le marché publicitaire pour surfacturer les annonceurs.
De fait, Google Ads fonctionne sur un système d’enchères : plus une entité est prête à payer, meilleures seront ses chances de voir sa publicité arriver en tête des résultats sur le moteur de recherche. L’action collective demande 5 milliards de livres sterling de dommages et intérêts (soit 5,85 milliards d’euros) et appelle toute organisation britannique ayant utilisé les services publicitaires de Google du 1er janvier 2011 au 15 avril 2025 à les rejoindre.
Le recours présente des arguments similaires à ceux employés aux États-Unis, rapporte l’Usine digitale, dont les accords conclus avec des fabricants de smartphone pour réinstaller Chrome et Search sur de multiples appareils Android, et ainsi asseoir sa position.
QEMU, émulateur aussi bien que client de virtualisation, revient dans une nouvelle version majeure. Estampillée 10.0, elle comporte de nombreuses améliorations et nouveautés.
On trouve ainsi de fortes optimisations pour certains processeurs Xeon (surtout ClearwaterForest et SierraForest-v2), le support des files d’attente multiples pour le périphérique virtio-scsi, ou encore des périphériques apple-gfx-pci et apple-gfx-mmio pour fournir des graphismes accélérés sous macOS.
Les apports dépendent pour beaucoup des architectures visées. Sur ARM par exemple, on note l’arrivée des caractéristiques FEAT_AFP, FEAT_RPRES et FEAT_XS CPU, la prise en charge des timers physiques et virtuels Secure EL2, le support de différentes cartes (dont les modèles Stellaris, NPCM845 Evaluation et i.MX 8M Plus EVK), ainsi qu’une propriété highmem-mmio-size permettant de configurer une plus grande région PCIe MMIO.
C’est toutefois l’architecture RISC-V qui reçoit le plus grand nombre de nouveautés. QEMU 10.0 ajoute ainsi le support du processeur Tenstorrent Ascalon, de l’espace utilisateur AIA irqchip_split, de l’adresse 64 bits d’initrd, de la carte générique Microblaze V, du processeur RV64 Xiangshan Nanhu, du périphérique sriscv-iommu-sys, de l’extension ssstateen, des traces pour les exceptions en mode utilisateur, de Smrnmi, de l’extension ISA RISC-V Counter delegation, ou encore des extensions Smdbltrp et Ssdbltrp.
On trouve également des améliorations pour les architectures HPPA, s390x et LoongArch. Viennent aussi des nouveautés pour VFIO (Virtual Function I/O), un sous-système Linux fournissant un cadre pour exposer l’accès direct au matériel aux applications de l’espace utilisateur. QEMU 10.0 fournit la prise en charge du multifd pour la migration, des anciens GPU ATI, de la capacité PCI PM (support initial), de l’IGD passthrough pour les puces Intel Gen 11 et 12, ou encore un rapport d’erreur plus détaillé pour les échecs de mappage MMIO.
Beaucoup plus rapide que la plus rapide de tes mémoires
Une équipe de recherche de l’université chinoise de Fudan décrit comment elle a mis au point une cellule de mémoire Flash capable de changer d’état en seulement 400 picosecondes, soit une vitesse d’écriture supérieure à celle des mémoires volatiles les plus rapides.
La mémoire Flash utilisée à des fins de stockage rivalisera peut-être bientôt de performances avec la mémoire vive. Une équipe de chercheurs de l’université de Fudan, à Shanghai, vient en effet de présenter les résultats d’un projet visant à concevoir une cellule de mémoire Flash capable de réaliser une opération d’écriture en seulement 400 picosecondes (10⁻¹² seconde), soit l’équivalent de 2,5 milliards d’opérations par seconde.
La première Flash sub-nanoseconde
Présenté au travers d’un article scientifique publié dans Nature, le projet reviendrait donc à faire passer la mémoire Flash, utilisée à des fins de stockage, sous la barre symbolique de la nanoseconde ( 10⁻⁹ seconde), à laquelle se heurtent aujourd’hui les mémoires vives les plus rapides du marché.
Et les débouchés sont d’ores et déjà bien identifiés, estiment les auteurs. « À la lumière des progrès accélérés de l’intelligence artificielle, il existe un besoin urgent de mémoires de données non volatiles d’une vitesse inférieure à 1 ns afin de surmonter le goulot d’étranglement de l’efficacité énergétique des calculs ».
Au cours de leurs travaux, les chercheurs expliquent avoir étudié deux types de transistors, basés respectivement sur du diséléniure de tungstène et sur du graphène. Si le premier a permis d’atteindre des performances de l’ordre de la nanoseconde, c’est avec le second que le record a été obtenu, en raison des propriétés exceptionnelles du graphène lorsqu’il s’agit de transporter des électrons sur un plan.
Une super-injection qui pousse la NAND à ses limites théoriques
Le dispositif mis au point par les chercheurs offrirait par ailleurs une stabilité et des caractéristiques de fonctionnement prometteuses au regard des modalités techniques de l’informatique actuelle, avec une tension en entrée fixée à 3,7 V et une endurance estimée à au moins 5,5 millions de cycles. Au-delà de la performance pure, les chercheurs se réjouissent surtout d’avoir réussi à valider le principe d’une injection de porteurs chauds (Hot carrier injection, ou HCI) sur un matériau dit 2D (une couche unique d’atomes ou de molécules).
Ce qui les amène à qualifier leur procédé de « super-injection », avec la promesse théorique de pouvoir surmonter les limites usuelles des semiconducteurs. « Le mécanisme de super-injection bidimensionnel pousse la vitesse de la mémoire non volatile à sa limite théorique, redéfinissant ainsi les limites des technologies de stockage existantes », se réjouit ainsi l’un des auteurs du projet.
Des laboratoires de l’université de Fudan au PCB des supercalculateurs dédiés à l’IA, la route est toutefois encore longue : rien ne dit à ce stade que le procédé puisse être industrialisé, que ce soit d’un point de vue technique ou économique.
Synology a annoncé mi-avril que les fonctionnalités avancées de ses prochains NAS ne seraient accessibles que si l’utilisateur utilise des disques durs aux couleurs de la marque, ou à défaut des modèles tiers dûment certifiés. Le fabricant taïwanais se montre précis sur les restrictions à attendre, mais nettement moins sur les modalités de mise en œuvre de cette décision polémique.
Vous aurez moins de choix, mais c’est pour votre bien, nous informe le spécialiste du stockage réseau Synology. Dans un communiqué daté du 16 avril dernier, signé de sa filiale basée à Düsseldorf, le fabricant taïwanais annonce en effet que sa gamme Plus exigera, à partir des modèles 2025, des disques durs signés Synology ou, à défaut, des périphériques certifiés par la société, afin de délivrer l’ensemble de ses fonctionnalités.
Les vertus supposées de l’intégration
Le message, d’abord repéré par la presse germanophone, évoque de façon explicite la mise en place de restrictions dans les autres cas de figure.
« La déduplication à l’échelle du volume, l’analyse de la durée de vie et les mises à jour automatiques du micrologiciel des disques durs ne seront désormais disponibles que pour les disques durs Synology », écrit par exemple l’entreprise. L’utilisation de simples disques durs compatibles, par opposition aux disques certifiés, pourrait également diminuer le niveau de prise en charge par le support ou les possibilités en matière de création de pool de stockage.
D’après Synology, cette décision, qui consiste donc à favoriser l’emploi des disques durs propriétaires aux couleurs de la marque, se justifierait au nom d’une logique d’intégration.
« Grâce à notre solution de disque dur propriétaire, nous avons déjà constaté des avantages significatifs pour nos clients dans divers scénarios de déploiement », déclare ainsi Chad Chiang, directeur général de la filiale allemande de Synology, dans ce communiqué. « En étendant notre écosystème intégré à la série Plus, nous souhaitons offrir à tous les utilisateurs, des particuliers aux petites entreprises, les plus hauts niveaux de sécurité, de performances et une assistance nettement plus efficace ».
Une gamme de disques durs Synology depuis 2021
Ce changement ne concerne pour l’instant que les modèles de la série Plus, sortis en 2025. « Les modèles Plus commercialisés jusqu’en 2024 inclus (à l’exception de la série XS Plus et des modèles rack) ne subiront aucun changement. De plus, la migration des disques durs d’un NAS Synology existant vers un nouveau modèle Plus restera possible sans restriction », précise l’entreprise.
Rappelons que Synology a d’abord commercialisé des SSD à ses couleurs avant de se lancer, début 2021, dans la vente de disques durs. L’entreprise taïwanaise ne les fabrique cependant pas et n’a, a priori, pas vocation à le faire : elle s’approvisionne chez les grands noms du secteur, et prodigue ensuite sa propre offre de services, de l’assistance au suivi du firmware.
Le premier problème, rapidement pointé du doigt, réside dans le prix : les disques durs estampillés Synology sont parfois vendus plus cher que des modèles de série aux caractéristiques techniques équivalentes, qui peuvent par ailleurs bénéficier d’une garantie plus intéressante (cinq ans par exemple chez Seagate sur la gamme Ironwolf Pro, contre trois ans chez Synology).
Une liste de compatibilité qui reste en suspens
Pour ne rien arranger, Synology semble ne pas avoir réellement préparé sa communication, comme l’ont confirmé les réactions de certains de nos contacts en interne, quelque peu désemparés par le sujet.
La question de la compatibilité restreinte entre les NAS Synology et les disques durs de fabricants tiers n’a en réalité rien de nouveau. Les clients de l’entreprise taïwanaise sont d’ailleurs invités à vérifier dès l’achat la liste des disques compatibles avec leur serveur réseau. Jusqu’ici, l’utilisation d’un disque dur non référencé n’entraînait toutefois pas de restriction importante sur le plan des fonctionnalités.
Synology a fini par clarifier sa position, au travers d’une communication partagée, mardi, avec le site Nascompares.
« D’après les statistiques du support client au cours des dernières années, l’utilisation de disques validés entraîne près de 40 % de problèmes liés au stockage en moins et un diagnostic et une résolution plus rapides des problèmes », y affirme notamment un porte-parole de l’entreprise. Ses disques n’affichent pourtant pas un MTBF (temps moyen de fonctionnement entre deux pannes) supérieur à celui de modèles équivalents chez Seagate ou Western Digital.
Il précise que chaque disque « validé » par Synology fait l’objet de plus de 7 000 heures de test, et que les modèles répondant au cahier des charges voient leur taux de défaillances entraînant une perte significative de données baisser de 88 %.
« En adhérant à la Liste de compatibilité des produits, nous pouvons réduire considérablement les écarts introduits par les changements de fabrication non annoncés, les modifications du micrologiciel et d’autres variations difficiles à identifier et encore plus à suivre pour les utilisateurs finaux et Synology », conclut-il.
Problème : la liste de compatibilité associée aux futurs NAS de la série Plus n’est pas communiquée, et les disques Synology apparaissent donc comme la seule option disponible à date.
Non content d’avoir invité un journaliste dans une boucle Signal sur la préparation de frappes américaines contre des Houthis au Yémen, le secrétaire d’État à la Défense américain, Pete Hegseth, est accusé d’avoir informé une autre boucle Signal de ces frappes. Dans cette boucle, se trouvaient entre autres sa femme, son frère et son avocat personnel.
Le gouvernement de Donald Trump a du mal à refermer le scandale surnommé « Signalgate » par certains. Il y a un peu plus d’un mois, le rédacteur en chef de The Atlantic racontait qu’il s’était retrouvé dans une boucle Signal aux côtés de J.D. Vance, Marco Rubio ou encore du Secrétaire d’État à la Défense américain, Pete Hegseth, qui préparaient les frappes américaines du 15 mars dernier contre des Houthis au Yémen.
Un groupe de discussion informel
Mais Pete Hegseth a aussi partagé des informations sur ces frappes sur un autre groupe Signal, selon un article du New York Times publié ce dimanche. Le journal explique que ce groupe Signal a été créé par Pete Hegseth lui-même avant qu’il soit confirmé en tant que secrétaire d’État à la Défense, Le groupe réunit une douzaine de personnes dont sa femme, son frère et son avocat personnel.
« La vérité est qu’il existe un groupe de discussion informel de ses conseillers les plus proches qui a commencé avant la confirmation », a répondu un fonctionnaire du secrétariat d’état au New York Times, tout en affirmant que « rien de confidentiel n’a jamais été discuté dans ce chat ».
Sans avoir répondu à nos confrères, le porte-parole du Pentagone, Sean Parnell, a réagi après la publication de l’article en réaffirmant : « il n’y avait pas d’informations classifiées dans les discussions sur Signal, quelles que soient les façons dont ils essaient d’écrire l’histoire ». Pourtant, plusieurs sources du New York Times affirment que les messages contenaient, entre autres, les plans de vols des avions qui ont ciblé les Houthis au Yémen.
Nos confrères précisent que le frère de Pete Hegseth et son avocat travaillent aussi au sein du Pentagone, mais « on ne voit pas très bien pourquoi l’un ou l’autre aurait besoin d’être informé des prochaines frappes militaires visant les Houthis au Yémen ».
« Un quasi-effondrement au sein de l’état-major du Pentagone »
Techniquement, le système de chiffrement de Signal et sa robustesse ne sont pas remis en cause. La messagerie avait tenu d’ailleurs à s’en expliquer après la première phase de ce scandale.
Le constat est surtout que le secrétaire d’État à la Défense n’utilise pas une messagerie recommandée par la Maison-Blanche pour partager des informations sensibles, si ce n’est confidentielles, avec des personnes qui ne sont pas censées y avoir accès.
Une telle messagerie bloquerait, par exemple, tout accès à des personnes non autorisées. Plusieurs sources du New York Times, mais aussi de NBC News, affirment de plus que Pete Hegseth utilise Signal via son smartphone personnel et son téléphone officiel.
Cet épisode est celui d’ « un quasi-effondrement au sein de l’état-major du Pentagone », a commenté l’ancien porte-parole du Pentagone, John Ullyot, qui a tout juste quitté son poste la semaine dernière. Il était pourtant un des conseillers de Donald Trump lors de son premier mandat.
Dans une tribune publiée par Atlantico, le conseiller en communication a affirmé que « Dans ces conditions, il est difficile d’imaginer que le secrétaire d’État à la Défense, Pete Hegseth, puisse rester en poste encore longtemps ».
NPR a aussi publié un article ce lundi expliquant que la Maison-Blanche lui cherchait un remplaçant. Mais la porte-parole de la Maison-Blanche a démenti et Donald Trump a réaffirmé son soutien à son secrétaire d’État, affirmant qu’il faisait « un boulot super » en ajoutant « il suffit de demander aux Houthis comment ils se portent ».
L’article de NPR se clôture par ailleurs sur un « NPR disclosure : Katherine Maher, PDG de NPR, préside le conseil d’administration de la Signal Foundation ».
Depuis le lancement des RTX 50xx, NVIDIA semble avoir du mal avec ses pilotes graphiques. Les forums de l’entreprise se sont remplis d’utilisateurs mécontents qui critiquent la fiabilité des dernières versions. La dernière mouture, lancée la semaine dernière, a ainsi dû être suivie d’un « hotfix » publié lundi.
Le lancement de la série 50 des GeForce RTX restera longtemps dans les mémoires. Certains y voient déjà les travers typiques d’une entreprise ayant pris un peu trop la grosse tête, au point d’en oublier ses fondamentaux. Divers éléments ont ainsi grippé la mécanique bien huilée du lancement sur les quatre derniers mois.
Erreurs de jeunesse
Il y a d’abord les gigantesques gains annoncés sur les performances face à la génération précédente. Nous mettions d’ailleurs en garde sur ce point, puisqu’il fallait passer par le nouveau DLSS 4, à condition que les jeux soient compatibles. Comme le rapportait DigitalTrends mi-janvier, NVIDIA avait finalement indiqué au CES que le gain était de 15 à 20 % sans le DLSS. Les mois se sont enchainés avec différents problèmes, matériels cette fois, dont des ROP manquants sur certaines 5090 et 5070 Ti et des connecteurs d’alimentation qui auraient fondu sur des RTX 5090.
Mais quelle que soit la carte utilisée, beaucoup semblent avoir rencontré des problèmes de fiabilité avec les pilotes, même quand il ne s’agissait pas d’un GPU dernier cri. Témoignages d’écrans noirs, de plantages dans les jeux, d’écrans bleus et de stabilité générale ont afflué, particulièrement dans les forums officiels de NVIDIA. Au point que les développeurs du jeu InZoi par exemple ont communiqué sur le sujet, recommandant d’utiliser les pilotes 566.36 de décembre dernier pour les personnes qui le pouvaient.
Si revenir à un ancien pilote calme en théorie le jeu sur les séries 30 et 40, les possesseurs d’une RTX 50 n’ont pas le choix, car les vieux pilotes ne prennent pas en charge leur matériel. Il faut donc une version sortie au cours des quelques derniers mois, et chaque nouvelle mouture est attendue comme le loup blanc.
Gloire au nouveau pilote
Aussi, l’arrivée du pilote 576.02 la semaine dernière était porteuse d’espoir. Les notes de version (pdf) font état d’une longue liste de corrections et confirment que NVIDIA travaille bien sur le sujet. Le nouveau pilote règle notamment des incompatibilités importantes avec la version 24H2 de Windows 11 (alors qu’elle est disponible depuis l’automne), dont des écrans bleus aléatoires quand le DLSS 4 est activé. Un écran bleu, de nos jours, est un phénomène rare, le plus souvent lié au matériel ou à un pilote disposant d’un composant en espace noyau, comme c’est le cas pour un pilote graphique. Cette version apportait également le support des RTX 5060 Ti, lancées il y a une semaine.
On savait cependant que ce pilote ne réglerait pas tout. NVIDIA recensait en effet 15 tickets ouverts avec le pilote 576.02 la semaine dernière. Et effectivement, un problème est apparu, pour les personnes ayant une RTX 50 : un mauvais fonctionnement du capteur de température. À la clé, divers bizarreries comme des alarmes en sortie de veille sous Windows ou des températures erronées pour des utilitaires tels qu’AfterBurner, qui sert notamment à configurer une courbe personnalisée pour la vitesse des ventilateurs.
Correctifs de correctifs
NVIDIA a donc publié hier soir une version 576.15. Il s’agit d’un hotfix venant corriger ce défaut, ainsi que plusieurs autres, dont des corruptions graphiques dans certains jeux ou encore des fréquences plus basses que prévu sur les RTX 50 quand le système est au repos.
Si la sortie rapide de cette version reste une bonne nouvelle, les commentaires sur l’annonce dans le forum sont loin d’être élogieux. Depuis hier soir, plusieurs dizaines de commentaires mentionnent déjà de nombreux autres problèmes, voire une aggravation des soucis existants. Quelques-uns indiquent quand même que des bugs ont été résolus. Attention cependant, car on se dirige plus volontiers vers un forum pour pester contre un dysfonctionnement que pour signaler que tout va bien. La situation semble dans tous les cas encore complexe pour NVIDIA. Les correctifs devraient donc continuer à affluer dans les prochaines versions des pilotes.
En mars, un thread de Chungin Roy Lee sur X est devenu viral : le jeune homme de 21 ans y expliquait avoir été suspendu de l’université de Columbia après avoir triché lors des tests techniques d’entretiens d’embauche pour des emplois de développeurs.
Avec son camarade Neel Shanmugam, Chungin Lee avait construit un outil nommé Interview Coder, initialement pensé pour tricher aux tests techniques passés sur la plateforme LeetCode. Il déclare avoir réussi des entretiens pour un poste chez Amazon grâce à son système.
Quelques semaines plus tard, Interview Coder est devenu une start-up nommée Cluely. Son principal produit est présenté comme permettant de « tricher » à tout moment, et surtout pendant des examens ou des entretiens d’embauche, grâce à une fenêtre cachée dans le navigateur et invisible pour l’intervieweur ou l’examinateur.
Ses deux fondateurs ont publié une vidéo de présentation appréciée par certains, comparée à un épisode de Black Mirror par d’autres. Elle s’accompagne d’un manifeste, dans lequel ils expliquent globalement que l’IA permet de « tricher » de la même manière que des calculatrices, des correcteurs orthographiques ou Google l’ont permis à leur apparition.
Pour développer le projet, Chungin Lee vient d’annoncer avoir levé 5,3 millions de dollars auprès des fonds Abstract Ventures et Susa Ventures.
À partir du 27 mai, Meta utilisera les données des comptes Facebook, Instagram et Thread publics, sauf si leurs propriétaires s’y opposent.
Vous utilisez Instagram, Facebook ou Threads ? Vos profils sont réglés pour être visibles par le grand public ? Si oui, vous devez avoir reçu une notification comme celles ci-dessous vous alertant que Meta allait se servir des données de vos profils accessibles publiquement pour entraîner ses systèmes d’IA.
En vertu du Règlement Général sur la protection des données, Meta doit vous demander votre consentement avant d’utiliser ces données, quand bien même publiques, pour entraîner ses modèles. Si vous ne souhaitez pas le donner, Next vous explique comment procéder.
En 2024, Meta avait déjà annoncé son projet de traiter les données de ses usagers européens. Devant les 11 plaintes déposées par l’association noyb, l’entreprise avait d’abord renoncé. Si vous avez refusé le traitement de vos données lors de ce premier épisode, vous aurez tout de même à refaire l’opération cette fois-ci.
Cheat sheet
Si vos comptes sur vos différentes plateformes sont liés, vous n’aurez a priori qu’une seule démarche à réaliser, depuis votre espace compte. Mais si, comme dans notre cas, vos comptes Facebook et Instagram sont séparés, vous devrez la reproduire pour signaler votre refus de voir les données de chacun des comptes utilisés par l’entreprise de Mark Zuckerberg. Pour Threads, certaines fonctionnalités – dont celle-ci – sont paramétrables directement dans le compte Instagram.
Sur chacune des applications, cherchez le centre de confidentialité. Sur Instagram, vous le trouverez depuis votre profil, en cliquant en haut à gauche sur les trois barres qui donnent accès aux paramètres, puis en scrollant assez bas, jusqu’à la mention « centre de confidentialité ». Sur Facebook, un chemin possible consiste à cliquer sur votre image de profil en haut à gauche, puis sur « paramètres et confidentialité », puis sur « centre de confidentialité ».
Là, Meta vous informe d’une évolution de ses politiques de confidentialité qui entreront en vigueur le 27 mai 2025. « Nous souhaitons vous informer que nous utiliserons des informations publiques telles que les publications et les commentaires publics de comptes appartenant à des personnes âgées de 18 ans ou plus, ainsi que vos interactions avec les fonctionnalités d’IA de Meta. Nous utiliserons ces informations sur la base de nos intérêts légitimes de développement et d’amélioration des modèles d’IA générative pour l’IA de Meta », écrit l’entreprise.
Dans le deuxième paragraphe, cliquez sur le mot « opposer ». Vous arriverez sur un panneau intitulé « Vous opposer à l’utilisation de vos informations pour l’IA de Meta » qui demande encore une fois de beaucoup scroller si vous êtes sur téléphone. Sur ordinateur, ça ressemble à ceci :
Vérifiez que l’adresse e-mail entrée automatiquement correspond bien à celle de votre compte, puis cliquez sur « envoyer ». Une boîte indiquant « Nous honorerons votre objection » s’affiche. Pour vous assurer que tout est bon, vérifiez votre boîte mail. Vous devez y recevoir un mail de ce type :
La vie privée est un sport d’équipe
Au terme de ses explications sur l’entraînement de ses IA, Meta indique :
« Nous sommes susceptibles de continuer à traiter des informations vous concernant pour développer et améliorer l’IA de Meta, même si vous vous y opposez ou que vous n’utilisez pas nos produits. Cela pourrait arriver dans les cas suivants :
Vous ou vos informations apparaissez sur une image partagée publiquement sur nos produits par quelqu’un qui les utilise
Vous ou vos informations êtes mentionné·es publiquement dans des publications ou des légendes partagées par un tiers sur nos produits. »
Autrement dit, pour une meilleure protection de vos données, recommandez aussi à vos contacts ou à toute personne susceptible de partager vos contenus publiés sur Facebook, Instagram ou Threads de s’opposer au traitement de leurs données par Meta. Comme l’énonçait la directrice juridique de l’Electronic Frontier Foundation Corynne McSherry auprès de Next, « la vie privée est un sport d’équipe ».
Mon compte est privé, que dois-je faire ?
Meta précise bien que les données qu’il utilisera pour entraîner ses systèmes sont les éléments publics des comptes. Si les vôtres sont privés, vous êtes parés… en revanche, si vous décidez de les passer en public dans le futur, mais que vous ne souhaitez pas voir vos données utilisées dans l’entraînement des IA de Meta, veillez bien à vous opposer au traitement de vos données.
Peut-on se protéger sur WhatsApp ?
Si WhatsApp appartient bien à Meta, il s’agit d’une application de messagerie, dans laquelle les publications n’ont pas vocation à être accessible publiquement. Elle n’est donc pas concernée par cette communication précise de Meta.
Comme vous l’avez peut-être remarqué, Meta y propose néanmoins un accès à son robot Llama, aussi intégré dans Messenger sous la forme d’un onglet similaire à celui d’une conversation. Meta indique que « vos interactions avec les fonctionnalités d’IA peuvent être utilisées pour entraîner des modèles d’IA. C’est notamment le cas des messages envoyées (sic) dans les discussions avec l’IA, des questions que vous posez et des images que vous demandez à Meta AI d’imaginer pour vous. »
Sur WhatsApp et Messenger, la meilleure manière d’éviter de voir des données utilisées dans l’entraînement du modèle Llama, c’est donc… d’éviter d’interagir avec.
Adyen, qui opère des services de paiement à destination des entreprises et des commerçants, a fait l’objet d’une vague d’attaques par déni de service distribué lundi dans la soirée. Sur sa page dédiée aux incidents, l’entreprise néerlandaise décrit une salve de trois attaques successives, lancées à l’encontre de ses infrastructures européennes.
Chaque attaque a entraîné une interruption de service temporaire de l’ordre d’une quinzaine de minutes. Le phénomène a été sensible dans les commerces et restaurants physiques faisant appel aux solutions de paiement d’Adyen, mais aussi sur tous les sites marchands qui utilisent sa brique logicielle dédiée.
Au-delà des clients finaux, les attaques ont aussi temporairement paralysé l’accès à l’espace client, les services d’intégration logicielle et les API dédiées aux transferts de fonds, commente l’entreprise. Adyen compte notamment Uber, eBay, Deezer, Booking, BackMarket, Spotify ou Easyjet parmi ses clients.
D’après les signalements opérés sur le service Status d’Adyen, les attaques se seraient déroulées par vagues, avec une première salve évoquée à partir de 18h51, puis une deuxième vers 20h35 et une troisième aux alentours de 23 heures.
Le premier incident a été signalé à 19h09, 18 minutes après le début de l’attaque
« L’attaque s’est déroulée en trois vagues distinctes, chacune présentant un schéma unique nécessitant des ajustements constants de nos stratégies d’atténuation. À mesure qu’une vague était atténuée, une nouvelle vague, avec une signature différente, émergeait. À son pic, l’attaque générait des millions de requêtes par minute, provenant d’un ensemble d’adresses IP réparties dans le monde entier et en constante évolution. Cela a entraîné la saturation de composants clés de l’infrastructure, entraînant une disponibilité intermittente de certains de nos services », précise Tom Adams, CTO d’Adyen, dans un rapport d’incident.
L’entreprise, qui réalise près de 2 milliards d’euros de chiffre d’affaires annuel, n’avance aucune piste quant à la provenance éventuelle de cette attaque.
Les cinq ans de support classique pour la version LTS 20.04 d’Ubuntu se termineront le 31 mai prochain. Les utilisateurs auront alors plusieurs choix, dont la mise à jour vers une LTS plus récente. Il est également possible de garder le système cinq années supplémentaires.
Les versions LTS d’Ubuntu disposent d’un support technique de cinq ans, contrairement aux versions ordinaires, qui n’ont que six mois. Ces moutures spécifiques sortent tous les deux ans (les années paires) et sont généralement très attendues. En plus du grand public et des entreprises qui peuvent en avoir besoin, elles sont en effet utilisées comme base pour d’autres distributions, dont Linux Mint.
Le mois prochain, Ubuntu 20.04, alias Focal Fossa, arrivera à la fin du compte à rebours. Les utilisateurs ont le choix entre plusieurs solutions. Idéalement, il faudrait faire une mise à niveau vers une LTS plus récente, 22.04 ou 24.04. À ce stade, votre installation d’Ubuntu 20.04 a d’ailleurs peut-être commencé à vous prévenir via une notification, ouvrant Ubuntu Software pour vous proposer une telle mise à jour.
Si l’on parle de solution idéale, c’est parce qu’il s’écoule deux ans entre chaque version LTS. L’installation d’une mouture plus récente apporte souvent des bénéfices visibles, dont un noyau Linux plus moderne et donc plus à l’aise avec le matériel en général.
Gardez en mémoire cependant que l’on ne peut pas sauter deux versions LTS d’un coup. Si Ubuntu 24.04 vous intéresse, il faudra d’abord passer par la version 22.04. L’installation de cette dernière vous offrira cependant deux ans de tranquillité, avant la fin de son support en mai 2027.
Si vous n’avez pas reçu de notification vous proposant la mise à niveau, la commande à utiliser est la suivante :
sudo do-release-upgrade
Comme toujours en pareil contexte, il faut soigneusement sauvegarder ses données avant de se lancer dans cette opération. Passer d’un système d’exploitation à un autre, même quand le processus parait simple, n’est jamais anodin.
Cinq ans supplémentaires ? C’est gratuit pour vous
Toutefois, on peut refuser les LTS plus récentes et se tourner vers une autre option : garder Ubuntu 20.04. Une situation « à la Windows 10 » ? Non, car il y a deux différences majeures. D’abord, aucune barrière technique ne vous empêche de mettre à niveau vers Ubuntu 22.04 ou 24.04. Ensuite, Canonical propose cinq années supplémentaires de correctifs de sécurité via son offre Ubuntu Pro, débloquant alors une période nommée Expanded Security Maintenance (ESM). Ce qui explique par exemple que le vieil Ubuntu 16.04 reçoit encore des correctifs.
Ubuntu Pro est un abonnement. Son tarif dépend du statut de l’utilisateur : gratuit pour les personnes seules et les petites structures jusqu’à cinq postes, 25 dollars par an et par poste dans les organisations plus importantes, ou encore 500 dollars par an pour chaque serveur de virtualisation (nombre de machines illimité).
Pourquoi se tourner vers Ubuntu Pro ? Parce que vous avez peut-être une configuration spécifique, que vous avez besoin de plus de temps pour analyser les changements d’une Ubuntu plus récente, que vous envisagez peut-être de transiter vers une autre distribution, ou encore parce que vous n’avez pas envie, tout simplement. Qu’importe la raison, la possibilité existe.
Si vous êtes la seule personne à décider, il suffit de souscrire à Ubuntu Pro. Ce dernier, une fois renseigné dans le système, vous ouvrira l’Expanded Security Maintenance pour un maximum de cinq machines. Précision importante, Canonical ne fait pas de différence entre des machines personnelles et professionnelles, tant que l’on reste dans la limite des cinq ordinateurs. Pour obtenir un compte, on se rend sur la page dédiée et on choisit « Myself ». On peut voir qu’en bas de la page, le prix total passe à « Free ».
Une commande ou quelques clics
Si vous n’avez pas encore de compte Ubuntu, ce sera le moment de le créer. Il est obligatoire comme « agent de liaison » pour contrôler le nombre de machines inscrites au programme. La validation est ensuite très rapide. On arrive directement sur une page du compte, la partie de gauche indiquant qu’un jeton personnel a été créé, que cinq machines peuvent en bénéficier et qu’il n’expirera jamais. C’est l’un des bénéfices de cette approche : le jeton s’applique à toute version LTS que vous avez.
Une fois que vous avez ce jeton, il faut le renseigner dans le système via la commande suivante :
sudo pro attach [VOTRE_JETON]
La commande affiche ensuite le statut de plusieurs services liés. Ubuntu Pro ne permet en effet pas seulement de prolonger les correctifs de sécurité. Il fournit par exemple Livepatch, qui autorise certains correctifs à être appliqués sur le noyau sans nécessiter de redémarrage. Vous aurez d’ailleurs peut-être la surprise de recevoir peu après une notification du système vous informant qu’une telle mise à jour a été effectuée.
Pour activer Ubuntu Pro, on peut également passer par l’interface graphique. Ouvrez « Logiciels et mises à jour » et rendez-vous dans le dernier onglet. Là, on pourra cliquer sur le bouton dédié et coller le jeton lorsqu’il sera demandé. On peut voir plus facilement que les correctifs ESM sont distribués par défaut pour deux lots de paquets : « Infra » pour les 2 300 paquets du dépôt Ubuntu Main et « Apps » pour les 23 000 paquets du dépôt Ubuntu Universe. Livepatch, activé par défaut, peut être coupé aisément depuis ce panneau.
Attention, ESM n’est pas une panacée
ESM est capable de dépanner les personnes embêtées par une date de fin de support trop proche. Cette période supplémentaire peut être une vraie chance dans de nombreux cas. Toutefois, comme avec n’importe quel outil, il y a certaines précautions à prendre.
Techniquement, cette maintenance ne couvre pas la totalité des failles de sécurité, mais uniquement celles de sévérité modérée au moins. Les brèches de sévérité faible sont laissées telles quelles. Ce n’est pas forcément crucial, mais l’information peut avoir son importance.
Surtout, ESM ne couvre que les correctifs du système et des applications présentes dans le dépôt principal d’Ubuntu. Les paquets provenant d’autres sources ne sont pas concernés et leur entretien demandera donc un examen. Rien n’empêche en effet une application d’être abandonnée, avec les mêmes problèmes qu’une fin de support. D’anciennes branches de développement ainsi souvent abandonnées, avec nécessité de passer sur une version plus récente. Or, il peut arriver que cette dernière réclame une version plus récente aussi du système d’exploitation. Il faut donc faire attention à ne pas se retrouver coincé(e).
Rappelons enfin que même si vous activez Ubuntu Pro, rien ne vous empêche de migrer vers un système plus récent par la suite. Si vous décidez de mettre à niveau vers Ubuntu 22.04 dans un an, l’opération se déroulera de la même façon. Le compte Ubuntu Pro vous suivra dans la procédure et appliquera les mêmes effets. Situation identique pour une migration vers Ubuntu 24.04, actuellement la LTS la plus récente.
Bien sûr, si vous n’utilisez une version d’Ubuntu que pendant deux ou trois ans avant de basculer vers la nouvelle version, ESM perd une bonne partie de son intérêt. Reste quand même Livepatch qui, selon le scénario, peut se révéler utile, par exemple pour une machine faisant office de serveur domestique (stockage, jeu…).
« Ton estomac ne gargouille pas, il t’applaudit. » Alors que la tendance #SkinnyTok, qui promeut la maigreur extrême, rencontre un grand succès sur TikTok (plus de 55 000 vidéos ce 22 avril au matin), la ministre en charge du Numérique Clara Chappaz a annoncé le 18 avril avoir saisi l’Arcom, régulation des médias et la Commission européenne pour faire face au phénomène.
À l’AFP, l’Arcom a déclaré s’être « d’ores et déjà saisie du sujet compte tenu du risque de santé publique que ce phénomène peut représenter ».
TikTok affirme de son côté avoir mis en place « des règles strictes contre le body shaming (dénigrement du corps) et les comportements dangereux liés à la perte du poids. »
Lorsque les termes « skinny tok » sont recherchés, l’application affiche en effet un message d’alerte (mais celui-ci n’est plus visible dès que l’internaute commence à regarder des vidéos).
capture d’écran du message affiché par TikTok
Le message mène les utilisatrices et utilisateurs vers des ressources liées aux troubles de l’alimentation. Début mars, l’Assemblée nationale a créé une commission d’enquête sur les effets psychologique de l’application chinoise sur les enfants et les adolescents.
Depuis les skyblogs jusqu’à TikTok aujourd’hui, la promotion de l’anorexie est une problématique récurrente en ligne, devenue visible il y a une vingtaine d’années avec l’émergence des contenus « pro-ana ».
Sur la page consacrée à ses obligations au nom du DSA européen, OpenAI a publié aujourd’hui le nombre mensuel d’utilisateurs actifs de son outil de recherche en ligne.
Selon les décomptes de l’entreprise repérés par TechCrunch, environ 41,3 millions de personnes situées dans l’Union européenne par mois ont utilisé ChatGPT search ces 6 derniers mois.
Mojahid Mottakin – Unsplash
L’outil de l’entreprise de Sam Altman se rapproche à grands pas du critère des 45 millions d’utilisateurs mensuels qui permet à la Commission européenne de classer les moteurs de recherche dans la catégorie des très grands moteurs de recherche en ligne (VLOSE).
Le DSA oblige ces très grands moteurs de recherche à une plus grande transparence et à mettre en place un certain nombre d’outils, dont le refus de système de recommandation ou de profilage, le partage de données avec les chercheurs et les autorités européennes et de procéder à des audits réguliers.
Bluesky a déployé lundi un nouvel outil dédié à la certification des comptes de ses utilisateurs. Il s’incarne au travers d’un badge bleu, similaire à celui qu’avait popularisé Twitter avant son rachat par Elon Musk.
Le réseau social indique travailler de façon proactive à l’identification et à la certification des comptes « authentiques et notables ». À ce stade, c’est donc Bluesky qui va sélectionner et vérifier les utilisateurs concernés par ce nouveau badge bleu.
L’entreprise prévoit toutefois de conférer la possibilité à certaines entreprises ou organisations de devenir, à leur tour, des « vérificateurs de confiance » au sein de son programme. Elle prend l’exemple d’un journal comme le New York Times qui, avec ce nouveau système, va lui-même pouvoir vérifier puis certifier les comptes de ses journalistes.
Bluesky prévoit de ce fait deux badges bleus : le premier, destiné aux utilisateurs individuels, prend la forme d’un cercle plein. Le second, dédié aux vérificateurs, adopte des contours festonnés.
« Durant cette phase initiale, Bluesky n’accepte pas les demandes directes de vérification. Une fois cette fonctionnalité stabilisée, nous lancerons un formulaire de demande pour les comptes notables et authentiques souhaitant être vérifiés ou devenir des vérificateurs de confiance », prévient le réseau social.
Destiné à limiter les risques d’usurpation d’identité sur le réseau social (un anonyme qui crée un compte au nom d’une personnalité célèbre par exemple), cette brique de certification s’ajoute au système d’auto-certification via un nom de domaine personnalisé déjà implémenté sur Bluesky.
Plusieurs lecteurs nous ont alerté au sujet d’une notification d’incident « concernant la sécurité des données » émises par le groupe Indigo, qui gère les parkings et stationnements du même nom. Ce dernier a en effet informé vendredi, par mail, ses clients et abonnés au sujet d’une intrusion au sein de son système d’information.
« Aucune donnée bancaire, aucun mot de passe, ni aucun moyen d’accès à votre compte INDIGO Neo n’est concerné », rassure d’emblée le gestionnaire de parkings, qui prévient tout de même que des informations personnelles ont pu fuiter.
« Les données potentiellement exposées concernent et se limitent à : votre adresse mail, votre numéro de plaque d’immatriculation si vous l’avez renseignée, votre nom, votre numéro de téléphone et votre adresse postale, associés à votre compte », alerte Indigo.
Le groupe indique avoir déposé plainte et notifié l’incident à la CNIL. « À ce jour, aucune utilisation frauduleusede ces données n’a été constatée. Toutefois, nous vous encourageons à faire preuve de vigilance vis-à-vis de tout message suspect ou inhabituel, notamment ceux vous demandant des informations personnelles », prévient-il encore, avant d’inviter les utilisateurs à tout de même changer de mot de passe par précaution.
Le groupe a par ailleurs relayé cette alerte sur son site Web. Indigo rejoint ainsi Alain Afflelou, Hertz ou la Mutuelle des motards dans la longue liste des sociétés victimes d’une cyberattaque ayant entraîné la compromission de données personnelles.