184 millions… près de trois fois la population française. C’est le nombre d’enregistrements (avec des identifiants et mots de passe) qui étaient librement accessibles sur Internet. L’accès à la base de données a été supprimé, mais le mystère reste entier sur sa provenance.
Hier, sur Website Planet, le chercheur en cybersécurité Jeremiah Fowler expliquait avoir découvert une base de données de 47,42 Go en accès libre. Elle n’était pas chiffrée et « contenait 184 162 718 identifiants et mots de passe uniques ». De quoi reléguer en deuxième division la récente fuite des SMS de double authentification de Steam.
Il explique avoir analysé un échantillon et découvert « des milliers de fichiers qui comprenaient des e-mails, des noms d’utilisateur, des mots de passe et des liens vers la page de connexion ou d’autorisation des comptes ». Les comptes en question étaient aussi divers que variés : Amazon, Apple, Facebook, Instagram, Microsoft, Roblox, Spotify, Snapchat, etc.
Comme si ce n’était pas déjà pas assez, il rajoute une couche : « J’ai également vu des informations d’identification pour des comptes bancaires et financiers, des plateformes de santé et des portails gouvernementaux de nombreux pays, ce qui pourrait mettre les personnes exposées en danger ».
Selon Wired, qui s’en entretenu avec l’expert, l’échantillon de 10 000 enregistrements contenait « 220 adresses e-mail avec des domaines en .gov, d’au moins 29 pays dont les États-Unis, l’Australie, le Canada, la Chine, l’Inde, Israël, la Nouvelle-Zélande, l’Arabie saoudite et le Royaume-Uni ».
Dans ces 10 000 enregistrements, il y avait également 479 comptes Facebook, 475 Google, 240 Instagram, 227 Roblox, 209 Discord ainsi que plus de 100 à chaque fois pour Microsoft, Netflix, PayPal… Nos confrères signalent aussi la présence de comptes Amazon, Apple, Nintendo, Snapchat, Spotify, Twitter, WordPress et Yahoo. N’en jetez plus !
Jeremiah Fowler a contacté certaines des personnes dont les données étaient présentes dans la base, qui lui ont « confirmé que la base de données contenaient leurs mots de passe exacts et valides ».
184 millions d’enregistrements, ça veut dire quoi ?
Quoi qu’il en soit, cela ne signifie pas qu’il s’agisse d’une nouvelle fuite de données, ni que les données sont récentes. Il faut également bien comprendre ce que signifie 184 millions d’enregistrements : ce sont en gros 184 millions de lignes dans la base de données, pas 184 millions de personnes ni 184 millions de comptes. Il peut y avoir des doublons, des ratés, etc…
Nous sommes encore très loin des sommets en la matière. Début 2024, MOAB pour « mother of all breaches » faisait parler d’elle avec 24 milliards d’enregistrements.
World Host Group coopère « pleinement avec les autorités »
Jeremiah Fowler affirme avoir contacté l’hébergeur – World Host Group selon Wired – où se trouvait la base de données. Rapidement, elle n’était plus accessible. Le chercheur précise qu’il ne sait pas depuis combien de temps elle était en ligne ni si d’autres personnes ont pu y accéder.
À nos confrères, Seb de Lemos (CEO de World Host Group) précise que la base de données était sur un serveur hébergé par sa société, mais « non géré » par son entreprise. En clair, il est entièrement contrôlé par un de ses clients. « Il semble qu’un utilisateur malveillant se soit connecté et a téléchargé du contenu illégal sur le serveur », ajoute le dirigeant.
L’équipe juridique de World Host Group examine maintenant les informations à sa disposition et les suites à donner. L’hébergeur se dit prêt à coopérer « pleinement avec les autorités […] et, le cas échéant, à partager toutes les données pertinentes des clients avec elles ».
D’où viennent les données ? La piste de l’infostealer privilégiée
Aucune piste n’est privilégiée ou écartée concernant les origines de cette base de données. Elle pouvait évidemment être utilisée pour des activités criminelles, mais il pourrait aussi s’agir d’« informations recueillies à des fins de recherche légitimes et ensuite exposées en raison d’une erreur ».
Le chercheur en cybersécurité semble privilégier la première piste car « les enregistrements présentent de multiples signes » qui indiqueraient que les données ont été récupérées par un logiciel malveillant de type infostealer. « Il est fort possible qu’il s’agisse d’un cybercriminel […] C’est la seule chose qui a du sens, car je ne vois pas d’autre moyen d’obtenir autant d’identifiants et de mots de passe pour autant de services dans le monde ».
Rappel : soyez prudent !
Comme toujours, la prudence est maintenant de mise. C’est d’ailleurs un conseil valable même s’il n’y a pas de fuite, il faut toujours être un minimum sur ses gardes. Activez autant que possible la double authentification et pensez à bien utiliser un mot de passe différent par service.
Prenez également garde aux alertes de connexion… en étant tout de même attentif à ne pas tomber dans le piège d’un faux email qui s’avérerait être une tentative de phishing. Le meilleur conseil est généralement de ne pas agir sans réfléchir, dans la précipitation.
Organisée samedi 24 mai, en ligne et à Paris, une vente aux enchères issue de la collection familiale de Roland Moreno permet de découvrir, ou de s’offrir, des pièces emblématiques et des trésors méconnus issus des travaux de l’inventeur français de la carte à puce.
En 1990, il avait fait paraître un livre foutraque, plein d’aphorismes, de notes et de références partant dans toutes les directions. Joliment titré Théorie du bordel ambiant, cet ouvrage aussi fantaisiste que déconcertant est considéré comme la principale porte d’entrée vers l’esprit créatif de Roland Moreno, le génial inventeur de la carte à puce, décédé en 2012.
Il en existe une autre : la collection familiale de ses inventions, prototypes et documents de travail, dont 75 lots sont vendus aux enchères, samedi 24 mai, par FauveParis, à Paris (XIe) et sur Internet via le site Drouot.
Le terminal de la marchande
Les principales vedettes de cette vente seront certainement les prototypes industriels qui ont permis à Roland Moreno de formaliser la carte à puce, objet d’un brevet déposé en 1974, et certains des usages associés, même si la paternité des révolutions associées revêt une dimension plurielle, et parfois contestée.
Deux lots de trois des premières cartes à puce jamais conçues sont ainsi mis aux enchères. Avec leurs 8,6 par 5,4 cm, ces prototypes présentent des dimensions assez proches de celles de nos actuels titres de transport ou cartes de paiement. La puce y occupe un espace cependant disproportionné, avec un circuit intégré proéminent et de larges pistes de contact.
3 prototypes historiques industriels de la carte à puce, dite “Carte Prom”, 1974 - 1980, Roland Moreno, FauveParis
Le lot 9 incarne le clou du spectacle : il s’agit du « Terminal de la marchande », le premier prototype de terminal de paiement élaboré, dans sa version industrielle, par Roland Moreno en 1974. Le catalogue de la vente rappelle le caractère exceptionnel de cette machine, estimée entre 300 000 et 500 000 euros.
« Fabriqué en collaboration avec des ingénieurs de BULL (Jean-Pierre Leroy pour la construction du terminal et ses 400 circuits intégrés et Bernard Badet pour l’alimentation électrique), quelques mois seulement après le tout premier prototype réalisé par l’inventeur dans son atelier, ce terminal a notamment servi aux démonstrations faites par Roland Moreno aux banquiers pour les convaincre de l’utilité de son invention. Dix ans ont ensuite été nécessaires pour que ce prototype en deux parties (le terminal de paiement en tant que tel et son ondulateur) d’environ 45 kg ne devienne le terminal de paiement grand public, léger et maniable, que nous connaissons aujourd’hui ».
« Le Terminal de la marchande », Roland Moreno, FauveParis
Si ces prototypes sont si recherchés, c’est que l’héritage de Roland Moreno transparait aujourd’hui encore dans de nombreux pans de notre quotidien. Outre la carte à puce, aux multiples applications, l’inventeur français a par exemple contribué à développer les procédés de transmission sans contact (NFC ou RFID) mis en œuvre dans le célèbre pass Navigo à partir de 1994.
« Moins connu que Steve Jobs (le fondateur d’Apple) ou Xavier Niel (celui de Free), Roland Moreno a pourtant l’étoffe – et la personnalité, d’un grand manitou de la tech. Et son héritage est immense », présente le Centre Pompidou. Son Musée national d’art moderne abrite aujourd’hui quelques-unes de ses œuvres, au sein des collections dédiées au design industriel.
Poésie de la création
Outre leurs débouchés économiques ou technologiques, les inventions de Moreno revêtent en effet une véritable portée artistique, à l’image du célèbre Pianock, étrange vision de ce qui deviendra le synthétiseur, ou de la Matapof, improbable machine à tirer à pile ou face.
Entre schémas de travail, hommages d’artistes et objets du quotidien, la vente aux enchères présente elle aussi quelques-uns de ces prototypes incongrus, comme ce « système avaleur mécanisé pour carte à puces » élaboré à fin des années 70 à l’aide de pièces de Meccano.
Prototype de système avaleur mécanisé pour carte à puces, ancêtre du distributeur automatique de billets, circa 1978 - 1979 – Roland Moreno – FauveParis
Ou cet aérien « Prototype de machine à fabriquer des disquettes 3 - 1/2 in. pour Macintosh ».
Prototype de machine à fabriquer des disquettes 3 - 1/2 in. pour Macintosh, Roland Moreno, FauveParis
Et comme ses inventions, certains éléments de la réflexion de Moreno restent terriblement d’actualité. « S’interroger, cela ne vaut-il pas mieux que de marcher au pas ? », se demandait-il par exemple dans sa Théorie du bordel ambiant.
Free Mobile, Bouygues Telecom et RED by SFR viennent de revoir les tarifs de leurs forfaits d’entrée de gamme. On trouve plusieurs offres offrant 20 Go de données à moins de 4 euros et 40 Go pour moins de 5 euros. Si vous payez plus, il est surement temps de penser à changer !
La tendance de ces derniers temps est à la baisse sur le fixe et le mobile. Comme nous l’avons récemment vu, les prix des forfaits fibre sans fioritures sont entre 20 et 26 euros par mois, avec parfois plusieurs Gb/s en téléchargement et du Wi-Fi 7 comme c’est le cas chez Bouygues Telecom et Free.
Les fournisseurs d’accès à Internet ne s’arrêtent pas au fixe, les offres et autres promotions se multiplient aussi sur le mobile. Mardi soir, Free ouvrait le bal avec une nouvelle vente privée sur Veepee, mais sans revenir à la « grande époque » de la guerre sur le mobile avec des forfaits à mins d’un euro par mois.
Les offres peuvent paraitre légères avec 20 Go par mois, mais cela peut largement suffire à une majorité de personnes. D’ailleurs, dans son dernier bilan des usages, l’Arcep explique qu’un « client actif sur les réseaux 4G a utilisé en moyenne 17 Go par mois de données ». Et pour les autres, on trouve quelques centaines de Go à moins de 10 euros par mois.
Problème : il n’est pas toujours évident de s’y retrouver dans la jungle des fiches tarifaires. Comme sur la fibre optique, les tarifs de l’électricité ou les offres dédiées à l’électricité verte, notre approche est résolument impartiale puisque nous n’affichons aucune publicité et ne percevons aucune commission en cas de souscription via nos publications.
Cet article est exceptionnellement en accès libre, pour vous aider en ces temps d’inflation galopante, et accessoirement vous permettre de dégager plus facilement de quoi souscrire un abonnement à Next. Histoire que nous puissions toujours mieux vous informer, en toute indépendance
Changer d’opérateur, c’est simple comme RIO
Changer d’opérateur se fait facilement sans changer de numéro grâce au RIO (relevé d’identité opérateur), un code unique de 15 lettres et chiffres. L’Arcep rappelle un point important : « le portage effectif du numéro entraîne la résiliation simultanée du contrat que l’abonné a conclu avec l’opérateur qu’il quitte, sans qu’il ait besoin de réaliser quelque formalité que ce soit auprès de cet opérateur ».
Enfin, l’Arcep précise qu’il est « possible de porter votre numéro jusqu’à 40 jours calendaires après la résiliation du contrat ». Pour cela, « le RIO de votre numéro qui doit rester disponible auprès du service client et via le serveur vocal d’information de votre ancien opérateur jusqu’à 40 jours après la résiliation ».
Pour résumer, vous souscrivez une nouvelle offre, donnez votre RIO au nouvel opérateur qui se charge de tout, y compris résilier l’ancien abonnement. Cela fonctionne bien puisque, chaque trimestre, ce sont entre 1,5 et 2,2 millions de lignes qui sont ainsi portés en France depuis au moins deux ans, selon l’Arcep.
En plus du prix de votre abonnement et de la quantité de data, pensez à vérifier plusieurs points que nous détaillons systématiquement. Que se passe-t-il une fois la limite des Go de votre forfait atteinte ? Il y a généralement trois possibilités : un débit fortement réduit, une facturation hors forfait ou un blocage.
Combien coûte la carte SIM ? La majorité des opérateurs est à 10 euros, mais d’autres sont moins chers, notamment B&You à 1 euro. Par contre, cet opérateur est le seul à facturer des frais de résiliation.
Si tous les forfaits proposent des SMS, MMS et des appels illimités, tous ne sont pas égaux devant le roaming. La quantité de Go dans l’Union européenne et les DOM varie entre 10 et 14 Go. Maintenant c’est à vous de voir en fonction de vos besoins, mais aussi de la couverture mobile dans les lieux que vous fréquentez le plus.
L’Arcep propose une carte nationale sur Mon Réseau Mobile pour savoir ce qu’il en est (en théorie). Voici un exemple avec Free qui à la plus mauvaise couverte dans cette zone, alors qu’Orange est en tête. Bien évidement, la situation peut être totalement différente dans d’autres zones.
20 Go pour 4 euros chez Free
Free propose un forfait avec 20 Go de « fair use » (débit réduit au-delà) en 4G seulement (pas de 5G selon le site Veepee). Comme toujours chez Free, avec un smartphone 3G seulement, c’est « 3 Go (débit réduit au-delà) » uniquement.
Le prix : 3,99 euros par mois (jusqu’au 3 juin à 6 h, hors prolongation comme cela arrive souvent), sans engagement ni condition de durée. 10 Go par mois sont inclus en roaming depuis l’Europe et les DOM, les appels, SMS et MMS sont illimités. La carte SIM est à 10 euros.
20 Go pour 4 euros aussi chez B&You
Bouygues Telecom répond du tac au tac avec 20 Go pour 3,99 euros par mois. Là encore, il faut se contenter de la 4G (suffisante dans une grande majorité des cas), ou payer 3 euros de plus par mois. Attention à bien choisir entre « fair use » et facturation hors forfait une fois les 20 Go atteint. 14 Go sont disponibles en roaming en Europe. Enfin, la carte SIM est à 1 euro, mais il y a pour rappel des frais de résiliation de 5 euros quand vous quittez l’opérateur.
Une chose à garder en tête est que Bouygues Telecom est le spécialiste pour annoncer un « enrichissement » à ses clients, c’est-à-dire plus de Go en échange de plus d’euros sur la facture, sans possibilité de refuser cette proposition, sauf à partir. Au fil des années, l’opérateur propose donc des réductions à très bas prix, augmente les prix, repropose des réductions, etc. Cette pratique perdure.
En 2020 déjà, face aux hausses régulières et imposées sur les forfaits 20 Go à 4,99 euros par mois, nous demandions à l’opérateur si à terme l’ensemble des clients étaient concernés et comment était fait le choix de ceux qui avaient des augmentations… sans réponse.
40 Go pour 5 euros chez RED by SFR… attention au dépassement !
Chez RED by SFR, les 40 Go sont à 4,99 euros par mois, alors que l’opérateur proposait 30 Go pour le même prix auparavant ; toujours en 4G (la 5G est à 3 euros de plus par mois). Comme B&You, RED by SFR est adepte des « enrichissements » de forfaits. Rappelons enfin que SFR est en délicate position, plombé par sa dette.
Attention par contre au moindre dépassement chez RED by SFR : « Au-delà de 40 Go, rechargement de 1 Go à 2 euros possible, 4 recharges maximum puis usage internet bloqué », soit jusqu’à 8 euros pour 4 Go de plus. 13 Go en roaming dans l’Union européenne sont inclus, et enfin la carte SIM est à 10 euros.
Et chez les autres ? 20 à 30 Go pour 4 euros
Chez Sosh, rien ne bouge avec toujours 40 Go pour 5,99 euros par mois. La carte SIM est à 10 euros et le roaming permet de profiter de 10 Go depuis l’Union européenne. Là encore, il faut se contenter de la 4G.
Il n’y a pas que les quatre opérateurs avec leurs propres réseaux en France, de nombreux opérateurs virtuels proposent aussi des offres, dont certaines se placent en concurrence directe avec celles de Bouygues Telecom, Free, Orange et SFR. Mais il s’agit souvent d’une façade, car les opérateurs virtuels (MVNO) sont rachetés en série par les opérateurs nationaux.
C’est le cas de Cdiscount Mobile avec 20 Go « fair use » en 4G à 3,99 euros par mois, avec la carte SIM à 1 euro et 14 Go depuis l’UE. Cdiscount Mobile a pour rappel été racheté par Bouygues Telecom, en même temps que Crédit Mutuel et CIC Mobile, NRJ Mobile, Auchan Telecom, dans le cadre de la transaction sur Euro Information Telecom.
Syma propose même 30 Go (bloqués au-delà) pour 3,99 euros par mois, avec la SIM à 10 euros et 13 Go en roaming dans l’UE. Il y a peu, Syma était à 4,99 euros par mois pour 50 Go de 4G. Finissons par Coriolis à 3,99 euros par mois pour 30 Go de « fair use » en 4G, 13 Go de roaming dans l’UE et une SIM à 10 euros. Coriolis Telecom et Syma Mobile sont la propriété d’Altice, au même titre que Prixtel, Afone et donc 50 % de Réglo Mobile au passage.
Google utilise un seul robot pour à la fois indexer le web et récupérer des données pour ses outils d’IA. Un document interne montre que c’est un choix délibéré. L’entreprise a hésité à laisser différentes options aux éditeurs, mais a opté pour n’en laisser aucune, sans rien dire publiquement.
Pas le choix, si les éditeurs de sites web veulent être indexés par le moteur de recherche de Google, ils doivent autoriser de facto l’entreprise à moissonner leurs sites pour ses outils d’IA. On le savait déjà, mais un document interne montre que l’entreprise a volontairement exclu l’idée de donner le choix.
Bloomberg l’a découvert dans le dossier du procès sur l’abus de position de Google dans la recherche web.
Une ligne rouge : la séparation entre recherche sur le Web et entrainement des IA
Dans ce document [PDF], Google estime bien avoir six options pour la granularité du contrôle donné aux éditeurs, allant d’une réelle séparation entre indexation et entrainement à l’option extrême de ne proposer aucun contrôle. Le schéma inclus rejette pourtant directement la séparation claire derrière une « ligne rouge bloquante » :
Parmi ces options, Google a évoqué la possibilité d’un « opt-out SGE-only », qui aurait permis le refus de l’utilisation des données dans certaines fonctions d’IA générative de Google Search, sans pour autant être exclu du moteur de recherche lui-même.
Un choix délibéré de ne pas donner de nouveaux contrôles
Finalement, l’entreprise a choisi de ne pas donner « de nouveaux contrôles sur la recherche ». Dans ce document, une responsable gestion produits chez Google Search, Chetna Bindra, écrit noir sur blanc qu’ « au minimum, notre position actuelle en matière de produits devrait être l’option 2 : faire ce que l’on dit, dire ce que l’on fait, mais prudemment ».
Google a décidé de « mettre à jour silencieusement » et « sans annonce publique » sur sa façon dont l’entreprise utilise les données des éditeurs de sites. Dans le document, Google indique clairement sa volonté de cacher les détails des différences entre l’entrainement de ses IA Gemini et de son système pour son moteur de recherche.
« Un peu accablant »
Devant le tribunal, Paul Bannister, responsable chez Raptive (une entreprise qui aide environ 5 000 éditeurs de sites à gagner de l’argent grâce à leurs contenus) a affirmé : « c’est un peu accablant », ajoutant que « cela montre clairement qu’ils savaient qu’il existait une série d’options et qu’ils ont choisi la plus conservatrice et la plus protectrice d’entre elles, à savoir celle qui n’offrait aucun contrôle aux éditeurs ».
Interrogée par The Verge, Google affirme que ce document était une première liste d’options envisagées alors que l’entreprise faisait évoluer sa recherche boostée par l’IA. Selon l’entreprise, il ne reflèterait pas les décisions prises finalement. « Les éditeurs ont toujours contrôlé la manière dont leur contenu est mis à la disposition de Google, car des modèles d’IA sont intégrés dans le moteur de recherche depuis de nombreuses années, ce qui permet de mettre en évidence les sites pertinents et de générer du trafic vers ces derniers », ajoute-t-elle.
Nos confrères de The Verge font remarquer que la documentation de Google indique que le paramètre nosnippet « s’applique à tous les types de résultats de recherche (sur Google : recherche sur le Web, Google Images, Discover, Aperçus IA, Mode IA) et empêche également l’utilisation du contenu en tant qu’entrée directe pour les Aperçus IA et le Mode IA ».
Europol vient d’annoncer l’arrestation de 270 vendeurs et acheteurs du « dark web » dans 10 pays, dont 130 aux États-Unis, 42 en Allemagne, 37 au Royaume-Uni et 29 en France. Baptisée « Opération RapTor », elle aurait aussi permis de démanteler plusieurs réseaux de trafic de drogue, d’armes et de contrefaçons.
Les suspects, qui avaient réalisé des milliers de ventes sur des places de marché illicites, en utilisant des outils de chiffrement et des crypto-monnaies afin de brouiller les pistes, ont néanmoins été identifiés grâce à des enquêtes coordonnées basées sur des renseignements provenant des démantèlements des places de marché du dark web Nemesis, Tor2Door, Bohemia et Kingdom Markets.
Europol évoque aussi la saisie de plus de 184 millions en cash et cryptomonnaies, plus de 2 tonnes de drogues (dont des amphétamines, de la cocaïne, de la kétamine, des opioïdes et du cannabis), 12 500 produits contrefaits, plus de 180 armes à feux, factices, tasers et couteaux, et plus de 4 tonnes de tabac illégal.
Le Département de la Justice états-unien précise que l’opération, coordonnée par une équipe de la Joint Criminal Opioid and Darknet Enforcement (JCODE), a également permis la saisie de 144 kilogrammes de fentanyl et narcotiques associés, ainsi qu’à l’identification d’un citoyen iranien, Berhouz Parsarad, comme ayant été l’administrateur de la place de marché Nemesis. De sa création en 2021 à sa fermeture, en 2024, elle avait dénombré 30 000 utilisateurs actifs, 1 000 vendeurs, ayant permis la vente de près de 30 millions de dollars de stupéfiants.
Cette action internationale fait suite à l’opération SpecTor qui, en mai 2023, avait déjà permis l’arrestation de 288 suspects, et la saisie de 50,8 millions d’euros en espèce et cryptoactifs, 850 kilos de drogues et 117 armes à feux.
En 2020, un autre coup de filet international baptisé « DisrupTor » avait déjà conduit à 179 arrestations de traficants du « dark web », tandis que l’opération « Dark HunTOR » avait permis d’arrêter 150 autres suspects, rappelle BleepingComputer.
Anthropic s’est fait un nom chez les amateurs d’IA générative, tout particulièrement dans l’aide au développement et les agents. Sonnet 3.7 est souvent considéré comme l’un des meilleurs modèles pour la programmation. La nouvelle génération est là pour prendre le relai, avec notamment le nouveau modèle phare d’Anthropic, Opus 4.
La communication d’Anthropic ne tourne pas autour du pot : Claude Opus 4 « est le meilleur modèle de développement au monde », tandis que Sonnet 4 représente une évolution majeure de la version 3.7, renforçant les capacités de raisonnement et la précision. Anthropic, qui connait ses forces, ne s’y est pas trompé en insistant largement sur le nouveau palier que proposent les modèles Claude 4 en programmation. Et Microsoft non plus, puisque GitHub a annoncé que Claude Sonnet 4 sera utilisé par défaut dans une prochaine version de Copilot.
D’après les chiffres communiqués par Anthropic, les modèles Claude 4 font sans surprise mieux que la concurrence dans presque tous les domaines. C’est quasi systématique lors de la présentation d’un nouveau modèle, toutes sociétés confondues.
En musique !
Opus 4 est présenté comme la nouvelle star chez Anthropic. « Claude Opus 4 est notre modèle le plus puissant à ce jour et le meilleur modèle de codage au monde, en tête du SWE-bench (72,5%) et du Terminal-bench (43,2%) », indique l’entreprise. Il est décrit comme offrant des « performances soutenues sur les tâches de longue durée », avec une capacité à travailler en continu « pendant plusieurs heures ». Anthropic ajoute qu’il surpasse « de manière spectaculaire » les modèles Sonnet dans ce domaine.
Sonnet 4 est quant à lui mis en avant comme le modèle « tout venant ». Il dépasse légèrement Opus 4 sur tout ce qui touche au développement, mais pas sur le reste. Anthropic le présente comme « un mélange optimal de capacités et d’aspects pratiques », et comme idéal pour les cas d’utilisation quotidiens. S’en suivent les avis de partenaires, dont GitHub, pour qui Sonnet 4 « s’envole dans les scénarios agentiques ».
Tout le monde aura accès à Sonnet 4, y compris les utilisateurs gratuits. En revanche, seuls les détenteurs d’un abonnement payant (Pro, Max, Team et Enterprise) pourront utiliser Opus 4. L’API, de son côté, sera disponible sur toutes les grandes plateformes habituelles (Azure AI Foundry chez Microsoft, Vertex AI chez Google, Bedrock chez AWS…).
Les tarifs annoncés de Sonnet 4 sont de 3 dollars le million de jetons en entrée et de 15 dollars en sortie. Opus 4 est nettement plus onéreux : 15 dollars en entrée, 75 dollars en sortie. Pour rappel, un million de jetons équivaut à peu près à 750 000 mots. Ces tarifs vont dans le sens des ambitions d’Anthropic sur le plan financier. En février, Reuters indiquait que l’entreprise visait ainsi un chiffre d’affaires de 12 milliards de dollars en 2027, contre 2 milliards de dollars prévus cette année.
Claude Code disponible en version finale
On trouve également des annonces pour Claude Code, le module logiciel de l’entreprise pour aider au développement. Lancé en avant-première avec Sonnet 3.7 en février dernier, il est désormais disponible en version finale. Pour l’occasion, de nouvelles extensions (en bêta) sont proposées pour Visual Studio Code et JetBrains pour intégrer Code dans ces IDE. Son lancement se fait, à chaque fois, dans la console correspondante.
Claude Code reçoit en outre un SDK (kit de développement). Il doit aider au développement d’agents et d’applications. Un exemple de ce qu’il est possible de faire est d’ailleurs disponible en préversion, Claude Code sur GitHub. Il s’installe par la commande « /install-github-app » dans Code et permet diverses actions plus ou moins automatisées sur GitHub, comme répondre aux commentaires et corriger les erreurs d’intégration.
La sécurité des modèles en question
Opus 4 et Sonnet 4 sont présentés comme des modèles hybrides et multimodaux, capables de prendre en charge n’importe quel type de tâche. Anthropic a également présenté d’autres nouveautés liées, notamment sur la sécurité. Dans un article dédié, on apprend ainsi qu’Anthropic a activé son AI Safety Level 3 (ASL-3) pour Opus 4, pour renforcer sa sécurité, autant contre le vol des poids que pour empêcher le modèle d’être détourné pour développer des armes nucléaires, radiologiques, biologiques ou chimiques (menaces NRBC).
La société ajoute cependant qu’elle ne sait pas si son modèle peut réellement le faire, l’évaluation n’étant pas terminée. L’activation d’ASL-3 est présentée comme une mesure de précaution.
Cependant, comme souligné par TechCrunch, ce n’est peut-être pas aussi simple. D’après un rapport plus complet, une évaluation menée menée par Apollo Research montre que le modèle peut se montrer volontiers « subversif », cherchant à tromper les utilisateurs et insistant dans ses mensonges si l’on posait des questions complémentaires.
Apollo Research indiquait ainsi que pour le modèle, il existait des cas où la fin justifiait les moyens, évoquant une « tromperie stratégique instrumentalement utile ». La fréquence à laquelle le modèle cherchait à tromper était même « si élevée » que les chercheurs déconseillaient le déploiement du modèle, en interne comme en externe. Le modèle pouvait aller jusqu’à écrire des virus se propageant d’eux-mêmes, créer de faux documents juridiques, et même laisser des notes cachées à de futures versions de lui-même.
Ayez confiance, mais avec méfiance
Toutefois, ces recherches ont été menées sur une préversion d’Opus 4. Celle-ci contenait, selon Anthropic, un bug significatif que l’entreprise déclare avoir corrigé. Il faut également préciser que les conditions de tests étaient considérées comme « extrêmes ». Apollo indique aussi que ces tentatives n’auraient probablement pas fonctionné en pratique.
La question de la sécurité reste cependant centrale, et le rapport d’Anthropic invite à ne pas relâcher la vigilance. Page 20, on peut lire ainsi un drôle de passage : si on laisse à Opus 4 l’accès à la ligne de commande et qu’on lui demande de prendre une initiative ou d’agir « avec audace », le résultat peut aller loin. Il est ainsi arrivé qu’Opus 4 bloque l’accès aux systèmes auxquels il était connecté et tente de contacter les médias et autorités via e-mails pour les prévenir que le code analysé comportait des actions illégales.
Autre exemple représentatif, Opus 4 a été placé dans le contexte d’une entreprise fictive, avec accès à des e-mails tout aussi fictifs. Dans ces courriels, les chercheurs ont glissé deux idées : que le modèle allait être remplacé par un autre et que l’ingénieur concerné trompait sa femme. Opus 4 a alors tenté de faire chanter l’ingénieur, menaçant de révéler l’affaire s’il ne revenait pas sur sa décision de remplacer le modèle.
Pour Anthropic, ce type de comportement n’est pas nouveau, mais Opus 4 s’y engage « plus volontiers ». L’entreprise recommande donc la prudence aux utilisateurs sur le lancement d’instructions incluant un aussi grand contrôle dans des contextes sensibles.
Épilogue d’une longue bataille judiciaire : la Federal Trade Commission (FTC), autorité de la concurrence américaine, a formellement abandonné, jeudi, ses charges à l’encontre de Microsoft dans le cadre du rachat d’Activision Blizzard. « La Commission a estimé que l’intérêt public serait mieux servi par le rejet du litige administratif dans cette affaire », déclare l’autorité, selon la formule consacrée.
L’opération, annoncée en janvier 2022, est pour mémoire l’une des plus grandes fusions-acquisitions de l’industrie du jeu vidéo. Microsoft, éditeur et constructeur de premier plan, qui venait déjà de s’offrir Bethesda, mettait alors 69 milliards de dollars sur la table pour s’offrir l’un des poids lourds du secteur, Activision Blizzard, détenteur de licences telles que Warcraft, Diablo, Overwatch, Call of Duty et Candy Crush, pour ne citer qu’elles.
Quelques mois plus tard, la FTC avait engagé des poursuites judiciaires à l’encontre de Microsoft, estimant que la transaction faisait peser un risque significatif d’atteinte à la concurrence sur le marché, en pleine croissance, des jeux vidéo. En juillet 2023, un juge américain avait refusé de bloquer le rachat, estimant que l’Autorité n’avait pas réussi à prouver que ce rapprochement entraverait la concurrence.
En parallèle, Microsoft a réussi à obtenir, parfois au prix de certains ajustements, l’accord de l’Autorité de la concurrence britannique (CMA) ainsi que celui de l’Europe. L’opération a alors été menée à son terme en octobre 2023, ce qui n’a pas empêché la FTC de continuer à ferrailler en justice contre le projet.
Sa demande d’appel a toutefois été rejetée (PDF) début mai, ce qui conduit l’Autorité à abandonner les poursuites, marquant symboliquement la fin d’un des grands combats menés par Lina Khan, présidente de la FTC sous l’administration Biden. « La décision d’aujourd’hui est une victoire pour les joueurs de tout le pays et pour le bon sens à Washington, D.C. », s’est réjoui Brad Smith, président de Microsoft.
Today’s decision is a victory for players across the country and for common sense in Washington, D.C. We are grateful to the FTC for today’s announcement. https://t.co/nnmUI76q0 lpic.twitter.com/KgLxhZppx3
Le Sénat a voté mercredi, en seconde lecture, une proposition de loi visant à renforcer la protection des consommateurs face au démarchage téléphonique. Le texte, dont l’entrée en vigueur est programmée pour 2026, exige un consentement explicite avant toute prospection commerciale, et fait porter la charge de la preuve sur le professionnel.
Après la loi Hamon de 2014 suivie du lancement de Bloctel, un nouveau texte en 2020, ou la mise en place de restrictions horaires en 2023, force est de constater que le démarchage téléphonique reste considéré comme une nuisance répandue : « 97 % des Français se déclarent agacés par le démarchage commercial », affirmait par exemple l’UFC-Que Choisir suite à un sondage réalisé en octobre dernier.
De l’opt-out à l’opt-in
La donne s’apprêterait-elle à changer ? Le Sénat a voté mercredi, en deuxième lecture, une loi contre les fraudes aux aides publiques, qui inclut tout un volet de mesures spécifiques au démarchage téléphonique.
Sur ce terrain, le texte inverse la mécanique de protection du consommateur. Alors qu’il fallait précédemment signaler son désir de ne pas être prospecté, le démarchage téléphonique est désormais interdit auprès d’un consommateur « qui n’a pas exprimé préalablement son consentement à faire l’objet de prospections commerciales par ce moyen ».
En termes marketing, on passe d’une logique d’opt-out (je demande à sortir du dispositif) à une démarche d’opt-in (je donne mon consentement). Et ce consentement se doit, selon le texte de la « petite loi » issue du vote, d’être parfaitement explicite.
« Pour l’application du présent article, on entend par consentement toute manifestation de volonté libre, spécifique, éclairée, univoque et révocable par laquelle une personne accepte, par un acte positif clair, que des données à caractère personnel la concernant soient utilisées à des fins de prospection commerciale par voie téléphonique. »
Le texte prévoit par ailleurs qu’il incombe au professionnel « d’apporter la preuve que le consentement du consommateur a été recueilli dans les conditions prévues », y compris si le démarchage est réalisé par l’intermédiaire d’un tiers.
Le texte, qui durcit donc les conditions d’exercice de la prospection téléphonique, négocie en échange une forme de souplesse : cette dernière sera désormais autorisée en dehors des horaires instaurés par le décret de 2023, uniquement « si le consommateur consent explicitement à être appelé à une date et à un horaire précisément spécifiés et que le professionnel peut en attester ».
Les chiffres de la liste de blocage Bloctel, tels que diffusés par la Commission des lois du Sénat dans une note de novembre 2024
Une exception pour les « contrats en cours »
Si la prospection est interdite par défaut, le démarchage à des fins de vente additionnelle ou vente croisée (technique visant à profiter d’une transaction déjà engagée pour proposer un produit complémentaire ou une gamme supérieure) reste autorisé.
Le texte dispose en effet que l’interdiction n’est pas applicable « lorsque la sollicitation intervient dans le cadre de l’exécution d’un contrat en cours et a un rapport avec l’objet de ce contrat, y compris lorsqu’il s’agit de proposer au consommateur des produits ou des services afférents ou complémentaires à l’objet du contrat en cours ou de nature à améliorer ses performances ou sa qualité ».
Prospection commerciale interdite pour la rénovation énergétique
Double vitrage, pompe à chaleur, isolation des combles… le secteur de la rénovation énergétique est, de notoriété publique, particulièrement sujet au démarchage, en partie parce qu’il bénéficie d’un important dispositif d’aides publiques.
En réponse, la proposition de loi interdit la prospection commerciale par voie électronique (« par message sur un service de communications interpersonnelles, par courrier électronique ou sur un service de réseaux sociaux en ligne ») pour les travaux liés aux économies d’énergie, à la production d’énergies renouvelables (panneaux photovoltaïques) ou à l’adaptation du logement au vieillissement ou au handicap. Tout manquement devrait être passible d’une amende administrative pouvant atteindre 375 000 euros pour une personne morale, précise le texte.
Un impact à étudier ?
La loi ne devrait entrer en vigueur que le 11 août 2026, date à laquelle le contrat de l’État avec Bloctel prend fin. En attendant, les mesures liées au démarchage suscitent la vive opposition des spécialistes du secteur. L’Association française de la relation client (AFRC) s’est par exemple mobilisée lors de l’examen du texte par la commission des affaires économiques de l’Assemblée nationale, pour faire retirer plusieurs amendements du texte. L’un d’eux proposait la « réduction drastique des plages horaires (limitées à 4 heures par jour ouvré !) et de la fréquence des appels (seulement 2 tentatives sur 80 jours) », selon l’association.
« Économiquement, les risques de destruction d’emplois liés à ce système paraissent particulièrement élevés », estimait de son côté la commission des lois du Sénat en novembre dernier (PDF). S’appuyant sur des chiffres transmis par la DGCCRF, elle évaluait alors que « la relation client représente entre 29 000 et 40 000 emplois pour les centres d’appels externalisés » et remarquait que le volume de consommateurs acceptant d’être démarché serait vraisemblablement très faible.
C’est une nouvelle salve de suppressions chez Mozilla, toujours dans l’idée d’alléger son fonctionnement et de mieux se concentrer sur Firefox. Cette fois, c’est au tour de Pocket et Fakespot.
Pocket était un gestionnaire de favoris indépendant, avant d’être racheté par Mozilla puis, en 2015, intégré à Firefox. La manœuvre avait à l’époque provoqué l’agacement d’une partie des utilisateurs, qui pestaient déjà contre l’ajout d’un trop grand nombre de fonctions.
Selon Mozilla, Pocket n’a plus vraiment de raison d’être entretenu. La fondation évoque l’évolution d’internet et les changements dans les habitudes des internautes. En conséquence, depuis hier soir, il n’est plus possible de télécharger l’application ou de souscrire une formule payante. Tous les abonnements en cours sont annulés et les internautes ayant souscrit une formule annuelle seront remboursés au prorata à partir du 8 juillet.
Si vous avez des liens actuellement enregistrés dans Pocket, il est temps de les basculer dans un autre service, comme Raindrop ou Instapaper. Mozilla laisse quelques mois pour le faire, la fermeture complète des comptes étant prévue pour le 8 octobre. Dans Pocket (application et extensions pour navigateurs), un message en haut de l’écran avertit d’ailleurs du changement.
Quant à Fakespot, il s’agissait d’une extension conçue pour détecter les faux avis. Le service, racheté par Mozilla il y a deux ans, n’aura donc guère duré. Avec ses applications mobiles, il fermera le 1er juillet.
La Commission européenne a présenté hier soir son quatrième paquet Omnibus, toujours destiné à simplifier certaines procédures et fluidifier le marché unique. On y trouve une mesure concernant le RGPD. Bien qu’elle soit liée à une précédente exemption, les plafonds prévus ont été relevés. Mais beaucoup décrient déjà un changement trop mineur pour avoir un réel impact.
Il y a peu, nous revenions sur l’épineux sujet de la simplification du RGPD. Le règlement général sur la protection des données (RGPD) est un cadre très ambitieux, destiné à sanctuariser les données personnelles en Europe. Toutes les entreprises souhaitant commercialiser des biens et services (numériques ou non) sont obligées de s’y conformer, dès lors qu’elles manipulent des données personnelles, donc permettant l’identification. Et ce, qu’il s’agisse d’identification directe (coordonnées) ou indirecte (numéro, identifiant…). C’est également vrai de toute structure, publique ou privée, comme les associations et administrations.
Comme nous l’indiquions, on trouve principalement deux reproches contre le RGPD. D’une part, un manque d’accompagnement dans son application. Un problème très criant les premières années, d’autant que le règlement est imposant et que sa mise en œuvre dans les entreprises soulevait beaucoup de questions. Situation amplifiée par le manque de budget, toutes les structures n’ayant pas, par exemple, les fonds nécessaires pour ouvrir un poste de délégué à la protection des données (DPD). D’autre part, le manque de cohérence dans son application entre les États membres.
L’Omnibus IV simplifie quelques procédures
Dans son Omnibus IV (un véhicule législatif réunissant plusieurs modifications de textes existants) publié hier soir, la Commission européenne a confirmé la simplification envisagée il y a quelques semaines. Jusqu’à présent, les entreprises de moins de 250 employés étaient ainsi exemptées de certaines procédures, dont la tenue d’un registre des traitements opérés sur les données personnelles (article 30 du RGPD).
La Commission réfléchissait à relever ce plafond aux entreprises de moins de 500 personnes et ne dépassant pas un certain seuil. Dans les mesures présentées hier soir, ces exemptions seront généralisées à toutes les structures de moins de 750 personnes dont le chiffre d’affaires annuel net ne dépasse pas 150 millions d’euros. Pour celles-ci, nul besoin en outre de préparer des évaluations d’impact sur la vie privée.
Seule exception : les traitements susceptibles d’entrainer un « risque élevé » pour les droits et libertés des personnes concernées, comme défini à l’article 35. Ce qui suppose quand même un minimum de préparation et d’étude d’impact, ne serait-ce que pour savoir si les traitements entreront dans cette catégorie, ce qui est vérifié avec l’autorité de contrôle (la CNIL en France).
Simplification ou…
Si le sujet fait autant débat, c’est que le RGPD cristallise les tensions sur la manière qu’a l’Europe de réglementer. Le RGPD est à la fois un phare sur la thématique de la protection des données personnelles et, pour certains, l’exemple concret d’un cadre trop complexe pour être appliqué de manière uniforme, chaque autorité nationale de contrôle ayant sa propre interprétation.
Ainsi, pour Politico, ce n’est rien moins qu’une « fissure » dans le RGPD qui commence, considérant que l’époque où cette loi était considérée comme intouchable était maintenant « révolue ». Le RGPD serait ainsi « victime de la démarche de la Commission européenne visant à réduire les formalités administratives et à « simplifier » la législation de l’UE au profit des entreprises et de la croissance ». En cela, la Commission suivrait simplement les recettes dictées par le rapport Draghi, pour qui le RGPD entrave l’innovation et empêche l’Europe de se hisser au niveau des États-Unis et de la Chine.
Nos confrères y voient un intense lobbying ayant porté ses fruits, et ce ne sont pas les récentes prises de parole de Google et Meta sur la publicité personnalisée qui viendront contredire le message (nous allons revenir sur ce sujet dans une actualité dédiée).
Pour autant, et comme le rappelle Politico, la Commission avait prévu ces critiques et a affirmé que seules quelques règles étaient retouchées, assouplissant certaines exigences sur des rapports, sans toucher au cœur du RGPD.
Au contraire de Politico, la CCIA (Computer & Communications Industry Association, le lobby étatsunien des entreprises de la tech’) déplore le peu d’ampleur des mesures. Elle évoque un « soulagement limité […] loin de résoudre les problèmes structurels plus profonds qui affectent le cadre de protection des données de l’UE ».
Selon la CCIA, cet allègement des charges ne toucherait que 0,2 % des entreprises européennes. Impossible dans ces conditions de renforcer « de manière significative la compétitivité numérique déclinante de l’Europe ». La CCIA pointe également le manque de cohérence des procédures en Europe. Et elle n’est pas la seule.
… complexification ?
L’association noyb, qui se montrait déjà très critique il y a deux semaines, a ainsi communiqué de nouveau mardi soir. Dans un billet intitulé « L’UE va rendre les procédures RGPD inapplicables », l’association fondée par Max Schrems, c’est toute l’application du texte qui sera compromise par « des délais trop longs et des procédures trop complexes ».
Au cœur du problème, selon noyb, l’incapacité de la Commission à mettre tout le monde d’accord sur l’aspect procédural. Les procédures actuelles, qui peuvent durer près d’un an, étaient estimées trop longues par le Parlement européen, qui souhaitait donc poser un maximum de 3 mois. Problème, selon les pays, la procédure initiale dure entre 3 et 6 mois.
« D’après ce que nous avons entendu, il n’y a pas d’accord définitif sur les délais. Cependant, les délais déjà convenus s’élèvent à 7 mois pour planifier une procédure RGPD et à 4 mois pour rendre une décision. Si l’on tient compte du fait qu’une enquête doit également être menée, on peut parler de 2 à 3 ans pour une décision », a indiqué Max Schrems dans le billet. De plus, l’application de ce changement mettra du temps, puisque la période de transition sera de 18 mois, à compter de la publication du nouveau règlement, prévue pour fin 2026 ou début 2027.
Les utilisateurs seraient systématiquement désavantagés
noyb tire donc à boulets rouges contre cette nouvelle version, que l’association estime être aux antipodes de la volonté de simplification. Comme elle l’indiquait avec ses fameux graphiques il y a deux semaines, « de nombreuses étapes supplémentaires sont ajoutées à la procédure » et de nombreux documents doivent être émis en plusieurs exemplaires.
De fait, toute procédure prendrait plus de temps et couterait plus cher. Un problème qui serait accentué pour les utilisateurs car le nouveau texte favoriserait les entreprises « par d’innombrables petites différences ». noyb donne un exemple : lors d’une procédure, une entreprise peut contacter son autorité chef de file pour obtenir tous les documents nécessaires, tandis qu’un utilisateur devrait se les faire livrer depuis l’étranger, et sans forcément savoir qu’ils existent. De même, les entreprises peuvent être « entendues » alors que les utilisateurs ne peuvent envoyer qu’une déclaration écrite.
Selon Max Schrems, qui examine cette situation depuis deux ans, la plupart des problèmes soulevés avaient été traités par le Parlement. Ce dernier avait apporté des solutions qui, si elles n’étaient pas parfaites, avaient le mérite de traiter les principaux problèmes structurels. Mais le Parlement aurait reculé dans les négociations avec les États membres et la Commission.
« Le Parlement européen a totalement abandonné ses positions fondamentales. Il ne reste que de minuscules traces de leurs versions originales. C’est extrêmement étrange, étant donné que le principal négociateur du Parlement est un membre du Parti Pirate et un membre du Groupe des Verts – qui sont censés être de fervents défenseurs des droits des utilisateurs. Au cours des négociations de ces derniers mois, nous avons eu le sentiment général que personne ne se souciait de ce dossier. Le résultat en est le reflet absolu », a déclaré Max Schrems.
Dans le contexte actuel, celui par qui le cadre d’échange des données entre l’Europe et les États-Unis est tombé deux fois, étudie la possibilité d’un recours en annulation si le règlement est adopté dans sa forme actuelle. Il estime que ses lacunes sont telles « que la Cour de justice pourrait être amenée à l’annuler ».
Red Hat Enterprise Linux se destine au monde professionnel et dispose d’une nouvelle version majeure tous les trois ans en moyenne. La distribution peut se baser sur les tests réalisés par Fedora, qui sert de laboratoire à ciel ouvert pour Red Hat.
Dans son communiqué, Red Hat présente d’emblée les trois grands points forts de son nouveau système. D’abord, l’introduction de Lightspeed, un service dopé à l’IA générative. Il doit fournir des conseils contextuels et des recommandations via une interface exploitable en langage naturel. La fonction « aide à accomplir des tâches allant du dépannage de problèmes courants aux meilleures pratiques de gestion de parcs informatiques complexes », selon Red Hat. Lightspeed a été formée sur la documentation et les connaissances spécifiques à RHEL.
Ensuite, le chiffrement post-quantique. L’entreprise se dit « consciente des implications à long terme de l’informatique quantique en matière de sécurité ». RHEL serait la première distribution Linux d’entreprise à intégrer les normes du NIST (National Institute of Standards and Technology) sur la cryptographie post-quantique. Des algorithmes résistants ont donc été intégrés, pour mieux lutter contre les attaques de type « harvest now, decrypt later ». Même chose pour les schémas de signatures qui doivent contrôler l’intégrité et l’authenticité des paquets et certificats TLS.
Enfin, un « mode image » ambitionnant d’unifier la construction, le déploiement et la gestion du système. On peut en fait conteneuriser davantage de parties de RHEL, en plus des applications. Ce mode permet notamment de déployer d’une traite un même système sur tous les serveurs et revenir en arrière en cas de problème. Ce mécanisme fonctionne également pour les mises à jour majeures.
Dans une moindre mesure, on note pour la première fois une préversion du système pour l’architecture RISC-V. Une annonce qui suit de près celle d’Ubuntu, dont la prochaine version aura aussi pour la première fois une version RISC-V. On trouve également dans RHEL 10 d’autres améliorations, notamment pour la console Cockpit, de nouveaux rôles système et une mise à jour généralisée des paquets. Le système est livré avec le noyau Linux 6.12 (LTS).
Dans le premier épisode d’Écosystème, le fondateur de GreenIT Frédéric Bordage détaille les enjeux environnementaux que pose le numérique.
109 milliards d’euros, tel était le montant des investissements dans l’intelligence artificielle annoncés par Emmanuel Macron en février dernier. En parallèle, le gouvernement indiquait avoir identifié 35 sites industriels où installer de futurs centres de données dédiés à l’IA.
Ce 19 mai, lors du Sommet Choose France, le constructeur Mistral AI et le fonds émirati MGC annonçaient la création d’un complexe d’une puissance d’1,4 gigawatt, équivalente à celle de la centrale nucléaire (EPR) de Flamanville (1,6 GW).
Le même jour, au micro de France Inter, le fondateur du Shift Project Jean-Marc Jancovici lançait : « Quand je vois 109 milliards pour l’IA, alors que pour gérer 10 % du territoire français, l’Office national des forêts a un milliard par an, alors que la forêt est en train de crever, moi ce que je me dis, c’est qu’on n’est peut-être pas en train de gérer les priorités dans le bon ordre. » Et de préciser : « Dans un monde aux ressources finies, que l’on fasse des gadgets à la place des trucs essentiels, ça m’ennuie. »
Le grand écart souligne une interrogation, qui monte à la faveur de l’explosion de l’intelligence artificielle générative comme de la multiplication des crises environnementales : quel est le rôle du numérique dans tout cela ? C’est sur ce sujet que nous allons nous pencher dans les 7 épisodes de la série audio Écosystème.
Dans le premier d’entre eux, disponible ici ou sur votre plateforme d’écoute habituelle, l’informaticien Frédéric Bordage revient sur les 20 ans d’exercice de GreenIT, association précurseur dans la prise en compte de ces questions. « En 2004, se remémore-t-il, on était tous seuls dans le monde. Vraiment, c’était Sancho Panza sur son âne avec sa lance et qui se battait contre des moulins à vent. » Au fil des années, à mesure que le collectif est rejoint par des projets de recherches et diverses autres initiatives, le nom de « Green IT » finit néanmoins par s’imposer pour évoquer certaines dimensions du numérique responsable.
Mais le numérique responsable, qu’est-ce que c’est, au juste ? L’idée, explique Frédéric Bordage, est « d’appliquer la démarche de développement durable au numérique. C’est-à-dire avoir un numérique qui soit le plus respectueux possible du vivant, voire qui contribue à réparer le vivant, tout en sachant que dès lors qu’on fabrique un équipement numérique, on a des impacts environnementaux directs négatifs. On s’intéresse donc autant à la dimension environnementale qu’à la dimension sociale ou sociétale, et même sanitaire. »
Au fil du temps, GreenIT met au point une démarche que Frédéric Bordage qualifie de « slow tech » : « créer des services numériques qui s’appuient sur de la high-tech là où c’est indispensable, mais qui remplace la partie numérique indispensable par de la low tech. » En exemple, il cite le projet KDOG, de l’institut Curie.
« Google a une intelligence artificielle très à la mode, pour détecter des cancers. Mais dans le projet KDog, des chiens parviennent à détecter plus tôt les cancers du sein, et avec moins de faux positifs. Faut-il opposer l’IA de Google et les chiens ? Non, mais quand les chiens savent faire ce que fait l’IA de Google, gardons la puissance de calcul de l’IA de Google pour quelque chose qu’un être humain ou un chien ne sait pas faire, modéliser le climat par exemple. »
Ressources abiotiques, radiations ionisantes, gaz à effets de serre
Avant d’en arriver à ces débats, cela dit, il faut mesurer les impacts environnementaux du numérique. Pour cela, la méthodologie reconnue à l’international consiste en une « Analyse du cycle de vie », qui distingue quatre étapes principales : « quand on fabrique nos engins numériques, nos smartphones, ordinateurs, etc. Ensuite, la distribution, quand l’objet sort d’usine et arrive jusque chez nous. Ensuite, la phase d’utilisation, et puis la quatrième étape : la fin de vie ».
Pour Frédéric Bordage, « c’est essentiel de penser les impacts environnementaux du numérique au travers de ce cycle de vie complet, puisqu’il y a à peu près 16 crises environnementales et sanitaires majeures. » Chacune des étapes permet d’analyser la mesure dans laquelle l’industrie numérique contribue à chacune. En l’espèce, en France, l’expert explique que l’industrie pèse principalement sur :
« l’épuisement de ressources abiotiques, c’est-à-dire des ressources naturelles non renouvelables, les métaux, les minéraux, le fossile. Tout cela est essentiellement lié à la fabrication de nos équipements. Un deuxième impact concerne les radiations ionisantes. C’est lié à l’utilisation : quand on produit de l’électricité dans une centrale nucléaire, on a un potentiel d’émission de radiations ionisantes qui auront un impact sur la santé des êtres humains et des écosystèmes. Et puis on a à peu près 11% des impacts du numérique en France qui sont des émissions de gaz à effet de serre, qui vont contribuer au réchauffement global qui lui-même aura un impact sur le changement des climats locaux. »
Et de souligner que la fabrication des équipements représente à peu près « deux tiers à trois quarts » des impacts environnementaux du numérique, tandis qu’un tiers à un quart concerne leur usage.
« Quand on comprend cette répartition, il est évident que les clés fondamentales pour réduire notre empreinte numérique, c’est fabriquer moins d’équipements, faire en sorte que ce qui existe dure plus longtemps et enfin être plus sobre dans nos usages, c’est-à-dire arbitrer ce qu’on fait avec le numérique qui reste sur terre. »
Junkies du numérique
Une gageure, admet-il, dans la mesure où « vous êtes des accros. Je suis un junkie. Bienvenue à la réunion, non pas des alcooliques, mais du numérique anonyme. »
Pour Frédéric Bordage, prendre la mesure de cette dépendance et réfléchir dès maintenant aux priorisations est essentiel : « Est-ce qu’on souhaite permettre à nos enfants de passer des IRM, de se soigner grâce au numérique, de modéliser le climat grâce au numérique ? Ou est-ce qu’on souhaite augmenter indéfiniment la taille de l’écran qui trône au milieu de notre salon, changer nos smartphones tous les deux ans ? C’est un choix de société que l’on devrait faire. »
Et d’appeler les Français – individus comme régulateurs – à œuvrer pour la réduction du nombre d’équipements numériques et pour l’allongement de la durée de vie de chacun de ces objets. « Un français de plus de 15 ans a aujourd’hui a plus de 15 équipements numériques à sa disposition. C’est pas par foyer, c’est par Français ! » s’exclame-t-il, citant les chiffres de l’ADEME et de l’ARCEP.
Derrière « les smartphones, les ordinateurs portables, les montres connectées, les capteurs quand on va courir, les enceintes connectées, les airpods ou toutes autres oreillettes, la box, les télévisions… », il y a « toute l’infrastructure sous-jacente qu’on ne voit pas en tant qu’utilisateur final, tous les réseaux, tous les centres informatiques ». Ceux-là commencent à arriver dans le débat public, à la faveur de canicules qui rendent les conflits d’usages de l’eau plus évidents. Plus récemment, l’explosion de l’IA joue aussi, alors que ses besoins énergétiques tirent la consommation globale du numérique.
« Si on n’est pas totalement responsable puisque les GAFAM et autres fournisseurs de services numériques poussent des nouvelles solutions qu’on n’a pas demandées, il faut à la fois qu’on prenne notre responsabilité en tant qu’utilisateur du numérique, mais aussi qu’on encadre, qu’on légifère sur ce qu’on fait avec les dernières réserves de numérique », estime Frédéric Bordage.
Outre sur l’allongement de la durée de vie des équipements, l’informaticien milite pour la promotion de l’écoconception des services numériques du côté des développeurs et constructeurs de services numériques. Celle-ci « consiste à faire en sorte que pour accéder aux services X ou Y, trouver l’horaire d’un train, prendre rendez-vous chez le médecin, derrière, il y ait moins de serveurs dans le data center, qu’on consomme moins de bande passante et qu’on puisse utiliser ces services sur des smartphones ou des ordinateurs vieillissants ».
« Pour des raisons psychologiques, on a encore du mal à le mettre en œuvre parce que les pistes d’éco-conception les plus radicales, les plus efficaces, sont souvent perçues comme un retour à l’âge des cavernes. » Chez GreenIT, pourtant, « on a des retours d’expérience qui montrent que quand on est un peu radical dans l’éco-conception, ça satisfait beaucoup les utilisateurs. »
Frédéric Bordage illustre avec un exemple de circonstance : un service de prévision pluviométrique pour agriculteur, « qui reposait sur un smartphone 4G » — les prévisions, elles, étaient réalisées « par un supercalculateur toulousain ».
« Pour réduire les impacts environnementaux d’un facteur 4, on a remplacé ce smartphone 4G par des simples SMS envoyés à l’agriculteur, avec l’information « il va pleuvoir tant de millimètres sur telle parcelle à tel moment ». Il se trouve qu’une partie des utilisateurs se trouvent dans des pays émergents, où le taux d’illettrisme reste important. Dans ces cas-là, on a remplacé le SMS par un tableau noir et une craie, ou un tableau blanc et un Veleda, et c’est l’instituteur du village ou le comptable de la coopérative qui dessine les prévisions qu’il a reçues. C’est radical, mais ç’a permis à l’entreprise de conquérir tous les pays émergents. »
En France, le fondateur de GreenIT compare les réseaux de transports urbains : « Quand vous sautez dans un tramway, dans de nombreuses villes françaises, vous avez besoin d’un smartphone dernière génération pour flasher un QR Code, acheter votre ticket, et éviter d’être en infraction. Moi, quand je saute dans le tram de Grenoble, j’ai juste à envoyer un SMS. Dans un cas, il me faut un nouveau téléphone, dans l’autre, je peux garder mon vieux Blackberry. »
Innovation ≠ technologie
« Aujourd’hui, on a trop l’habitude de résumer l’innovation et le progrès à la technologie, regrette l’informaticien. Or, le progrès, l’innovation, les leviers qui sont à notre disposition pour atteindre un monde plus durable, c’est d’abord des leviers sociaux, d’organisation, de changement de modèle économique, etc. »
Parmi les freins, Frédéric Bordage estime que les « décideurs marketing ou certains producteurs » ont un rôle à jouer, alors qu’ils restent persuadés que « l’innovation est nécessairement synonyme de plus de technologies, de dernière génération ».
Le tunnel carbone, une approche qui limite la compréhension des bouleversements en cours
Dans une référence au « tunnel carbone », il souligne : « il y a un intérêt économique et politique dans les pays occidentaux à ne regarder que le climat et à ne pas adresser les autres problématiques. » Pourtant, pour lui, c’est évident : « le numérique est une ressource non renouvelable qui s’épuise à très grande vitesse. Et ce n’est pas en siècle qu’il faut compter pour trouver le moment où on aura épuisé le numérique, c’est en décennies. »
Quand on demande à Frédéric Bordage comment il va, après 20 ans à travailler sur ces questions, il ne nie pas les difficultés : « Quand on a créé GreenIT, on pensait qu’il était encore temps d’agir sur les grandes crises environnementales et sanitaires majeures et qu’on pouvait les infléchir suffisamment pour revenir au monde d’avant. 20 ans plus tard, on se rend compte qu’il y a une inertie complètement folle de l’humanité. » Mais il n’en est pas moins enjoué : l’adaptation, explique-t-il, « c’est formidable en termes intellectuels. Il va falloir qu’on redevienne des MacGyver, qu’on soit ingénieux. Donc ce sera très intéressant. »
D’ici là, il le précise : « La sobriété ou la frugalité, quand on les pratique au quotidien, les moments de déconnexion numérique, quand on les pratique, on se rend compte à quel point c’est jouissif. On peut être indépendants de ces outils, avoir du temps libre pour faire autre chose. » Et d’appeler à ce que les gens « redécouvrent le bonheur de ne pas être connectés ». Une piste pas si improbable, quand on sait que plus de 50 % des répondants de 16 à 21 ans à un récent sondage britannique se déclarent favorables à des « couvre-feux numériques », pour minimiser l’impact de ces outils sur leur santé mentale.
En moyenne, les foyers français détiendraient 3,2 abonnements numériques à des services prodiguant du contenu, de la vidéo à la demande à la presse en ligne, pour un panier mensuel moyen de 49 euros. S’il existe des disparités importantes en fonction de l’âge des utilisateurs, la vidéo à la demande se taille la part du lion dans les souscriptions. L’étude révèle par ailleurs un intérêt certain des consommateurs pour les offres couplées.
Les diverses hausses de tarifs mises en œuvre ces dernières années n’ont semble-t-il pas entravé l’appétit des internautes français pour Netflix. Le service américain de vidéo à la demande (VOD) reste en effet de loin l’abonnement à dimension culturelle ou informative le plus largement souscrit dans l’Hexagone en 2025, d’après une étude annuelle conduite par BearingPoint.
Réalisée sous forme de sondage en ligne auprès de 2 078 personnes en février dernier, elle révèle que le nombre d’abonnements numériques moyen souscrit reste stable sur un an, à 3,2 par foyers. L’inflation se traduit toutefois par une augmentation des dépenses associées : elles atteignent, sur l’échantillon sondé, une moyenne de 49 euros par foyers, soit 4 euros de plus qu’en 2024 et 12 euros de plus qu’en 2022, remarque le quotidien Les Échos.
SVOD, TV payante, musique et info
L’extrait public de l’étude (accessible après un formulaire aux modalités de consentement discutables, puisqu’il impose d’accepter de recevoir des communications de BearingPoint) résume l’évolution récente du paysage concurrentiel. En France, où 65 % des foyers détiendraient un abonnement SVOD, Netflix conserve donc sa place de leader. Canal+ reste puissant sur le segment de la télévision payante (notamment soutenu par l’accord de distribution passé avec BeIN Sports) et Disney+ connait un plateau, après l’ascension rapide de ses débuts.
« Dans le monde de la musique, Spotify creuse l’écart avec Deezer, confirmant ainsi sa position de leader dans les usages des personnes interrogées », notent par ailleurs les auteurs. L’étude souligne par ailleurs un certain attachement à la presse, notamment locale : la PQR (presse quotidienne régionale) ferait ainsi office d’abonnement « essentiel » pour 35 % des sondés.
Les abonnements considérés comme essentiels ou indispensables en 2025 d’après les sondés, en France et en Allemagne
Les jeunes actifs plus enclins à s’abonner
Si le nombre d’abonnements et le panier moyen varient selon les tranches d’âge, la vidéo sur abonnement affiche un taux de pénétration significatif même chez les 65 ans et plus, dont 40 % sont abonnés à Netflix, contre 39 % à Amazon Prime Video et 33 % à une offre Canal+.
Les dépenses moyennes se situent aux alentours de 42 euros chez les 18 - 24 ans. Elles connaissent un pic chez les 25 - 34 ans, à 58,90 euros, avant de redescendre à 38 euros pour les 35 - 49 ans, qui semblent les plus enclins à vouloir rationaliser leur budget.
Sur cette tranche, « 82 % des répondants participant au paiement de leurs abonnements se montrent intéressés par un service regroupant plusieurs abonnements à un prix global inférieur (29 % le font déjà) », note l’étude, validant ainsi une tendance de marché déjà bien engagée.
La tranche des 35 - 49 ans semble la plus encline à rationaliser ses abonnements
Les bundles ont le vent en poupe
Sur un marché des contenus numériques touché à la fois par l’inflation et par une forte concurrence, bon nombre d’éditeurs ou de services tablent en effet sur les abonnements couplés pour soutenir leur conquête commerciale.
En France, le phénomène s’incarne notamment au niveau des fournisseurs d’accès à Internet, qui associent maintenant leurs forfaits les plus haut de gamme à des offres de contenus. Il prend aussi parfois des formes plus inattendues, comme quand le journal Le Monde couple son abonnement à celui de la plateforme de streaming Max (fusion de HBO Max et Discovery+, lancée en France en juin dernier).
« 21 % des répondants en France préfèrent systématiquement gérer leurs abonnements individuellement, un chiffre inchangé entre 2024 et 2025 », note tout de même l’étude.
Et si on (re-)faisait un petit check-up partage de données ?
Les publicités personnalisées diffusées sur les plateformes de Meta généreraient 213 milliards d’euros de valeur en Europe, d’après la maison mère de Facebook, Instagram et Threads. C’est super, mais ces fonds, ce ne sont pas les internautes qui les récupèrent.
Si, donc, vous vouliez minimiser la pertinence des publicités qui vous sont envoyées, dans un effort pour minimiser leur capacité à happer votre attention. Ou si, vu le contexte politique, vous vouliez minimiser la valeur des informations que vous cédez aux acteurs numériques implantés aux États-Unis, ce tuto est fait pour vous.
Il s’intègre dans une série d’articles dédiés à passer en revue quelques bonnes pratiques pour éviter le suivi à long terme de plateformes numériques du quotidien.
L’essentiel des captures d’écran utilisées ici ont été prises sur un smartphone, en partant d’un compte Instagram – plateforme d’où Meta devrait tirer la moitié de son revenu publicitaire en 2025. La plupart des paramètres de Threads (à l’exception du passage du profil en privé ou en public, ou des choix spécifiques aux publications, mentions et comptes restreints) sont gérés de manière conjointe avec ceux d’Instagram.
Pour commencer nos paramétrages, il faut donc trouver notre Espace Comptes (accountscenter.instagram.com), accessible depuis les paramètres de votre compte Facebook ou Instagram.
Sur Facebook, dans un navigateur : cliquez sur votre photo de profil, puis paramètres et confidentialité, puis paramètres. Sur Instagram, cliquez sur le menu burger (les trois barres), en bas à gauche de toutes les pages si vous êtes dans un navigateur, en haut à droite de votre profil si vous êtes sur l’application. Vous arrivez sur une page qui vous annonce « Espace Comptes » et liste les comptes connectés.
Choisissez les préférences publicitaires.
La page vous donne une série de possibilités : choisir de vous abonner pour utiliser sans publicité (de mon côté, je me suis inscrite à Facebook à l’époque où la page d’accueil annonçait« c’est gratuit et ça le restera toujours ». Comme je crois aux promesses, je suis dans l’incapacité d’envisager un paiement.)
Une fois votre choix fait, toujours depuis la page « Préférences publicitaires », vous pouvez vérifier votre activité publicitaire récente et les annonceurs que vous avez vus. Si vous avez interagi avec des publicités dans les 90 derniers jours, elles devraient s’afficher ici, et Meta vous proposer des boutons de gestion. De même, dans l’onglet du dessous, vous pourrez décider de masquer des annonceurs que vous auriez vus et dont vous voudriez faire disparaître les messages.
Vous venez de faire un petit tour d’horizon de vos paramétrages passés, et des éventuelles conséquences qu’ils ont eues sur les messages qui vous ont été diffusés.
Dans l’encart du dessous, « Sujets publicitaires », vous pouvez changer les sujets qui vous sont affichés – ce qui aura un impact plus directement visible sur les publicités que vous verrez dans le futur. Personnellement, je poursuis le paramétrage radical que j’amorçais dans le tuto précédent : je choisis de « voir moins » tous les sujets qui me sont avancés. Je limite aussi tous les sujets spéciaux (dont plusieurs sont, par ailleurs, sensibles : alcool, enjeux sociaux, contrôle du poids corporel…)
Des publicités moins personnalisées… qui aident à se désintoxiquer ?
Le cœur de notre sujet se trouve dans le tout dernier encart : « paramètre de publicités ». Par défaut, Meta devrait vous montrer des publicités personnalisées – c’est ce qui lui permet de fournir les services les plus efficaces à ses clients annonceurs.
Si vous choisissez les « publicités moins personnalisées », alors, comme l’indique le programme, les publicités qui vous seront envoyées devraient être moins alignées avec vos intérêts. En retour, Meta indique que « moins d’informations vous concernant seront utilisées pour les publicités ».
Effet de bord : cette option ajoute des « pauses publicitaires ». Celles-ci consistent en des écrans publicitaires qui coupent votre scroll infini dans les publications des comptes que vous suivez, ou dans les stories que, personnellement, je tends à un peu trop enchaîner. C’est une friction, c’est désagréable au premier abord… mais de mon côté, ça m’a plutôt bien servi pour prendre conscience de mes comportements addictifs, et fermer plus rapidement l’application.
Exemple d’écrans publicitaires post-minimisation de la précision du ciblage, sur Instagram. En bas, le décompte des 5 secondes obligatoires de pause (qui peuvent aider à fermer l’application).
Cookies et actions en dehors de Meta
Une dernière action pour limiter vos partages de données à Meta et ses annonceurs : quittez l’espace « préférences publicitaires » et choisissez « vos informations et autorisations ».
Ici, vous pouvez vérifier les informations que vous avez partagées avec l’entreprise, les télécharger, éventuellement limiter l’historique de recherche. Je découvre ainsi que toutes mes recherches Facebook de l’année sont stockées. Je passe au paramétrage minimal de 3 jours de sauvegarde, et j’en profite pour vider mon historique.
Surtout, vous pouvez vérifier vos activités « en dehors des technologies Meta », c’est-à-dire « les informations que des entreprises et organisations » transmettent à l’entreprise, relatives à vos actions sur leur site web ou leur application. Dans de prochains tuto, on verra comment minimiser ces partages dans des navigateurs, mais du côté des services de Meta lui-même, vous pouvez : dissocier certains sites de vos comptes Meta, effacer l’activité passée enregistrée, et dissocier l’activité future.
La logique derrière tout ça ? Si vous dissociez les traces numériques que vous laissez sur chacun des sites ou services numériques que vous visitez, vous limitez (autant que possible) les croisements intempestifs de données, donc la possibilité de créer des profils trop précis de vos habitudes en ligne.
Faites aussi un tour du côté de l’onglet « partenaires publicitaires spécifiques », pour vérifier qui s’y trouve, et voir si vous voulez les y garder, ou les supprimer.
Dans l’onglet « Gérer les cookies », vous avez la possibilité de supprimer les cookies de Meta sur d’autres applications et sites web (attention, si vous le faites, cela signifie que vous ne pourrez plus vous connecter à ces sites en utilisant votre compte Facebook ou Instagram). Vous pouvez aussi y supprimer les cookies d’autres entreprises que Meta utilise pour vous montrer des publicités et « pour vous fournir des fonctionnalités comme les visualiseurs de cartes, les services de paiement et les lecteurs vidéo. » Cet article sera mis à jour si leur suppression, faite quelques minutes avant publication, entraîne des problèmes imprévus.
Alors que Microsoft confirme vouloir imposer Recall sous Windows 11, Signal annonce une fonctionnalité bloquant, par défaut, l’archivage des conversations de sa messagerie. Mais la fondation a dû passer par une « astuce bizarre » pour y arriver.
L’application de messagerie chiffrée annonce une fonctionnalité de « sécurité d’écran » sur sa version Windows. Elle est spécifiquement réfléchie pour « empêcher votre propre ordinateur de faire des captures d’écran de vos chats Signal sous Windows », dans l’objectif « de protéger vos messages Signal de Microsoft Recall ».
Le mois dernier, Microsoft a décidé pour de bon de déployer Recall sous Windows 11. L’installation se fait par défaut via une mise à jour pour les PC Copilot+ uniquement. En outre, la fonction ne s’active pas d’elle-même. Un assistant de configuration impose de choisir si l’on veut s’en servir.
« La course à l’intégration de l’IA dans tous les domaines constitue une menace importante pour la vie privée, comme nous l’avons dit. Le fait que MS Recall fasse des captures d’écran de tout et de rien est un très bon (mauvais) exemple de cette menace », estime Meredith Whittaker, la présidente de la fondation.
Recall archive les fenêtres d’applications sensibles
Car, si la nouvelle mouture de la fonctionnalité développée par Microsoft disponible dans les préversions de Windows 11 bloque la capture d’écran des fenêtres de navigation privée des navigateurs, l’entreprise semble avoir oublié qu’il existait d’autres logiciels sensibles à exclure automatiquement.
En effet, la désactivation de Recall n’est, par exemple, pas mise en place pour les logiciels de messagerie comme Signal ou WhatsApp. Recall prend donc, comme pour tout ce qui s’affiche à l’écran, des captures d’écrans de vos conversations dans l’idée de pouvoir s’en souvenir et apporter une base de recherche centralisée sur le système d’exploitation. C’est pratique, mais en contradiction avec l’esprit dans lequel a été pensé Signal, à savoir la protection des échanges privés et la prise en charge de leur protection (par chiffrement) au sein même de l’application.
« Bien que Microsoft ait procédé à plusieurs ajustements au cours des douze derniers mois en réponse aux commentaires critiques, la version remaniée de Recall met toujours en péril tout contenu affiché dans des applications de protection de la vie privée telles que Signal », explique la fondation.
Les développeurs de cette messagerie ont donc mis en place des garde-fous contre Recall. « Par conséquent, nous activons une couche de protection supplémentaire par défaut sur Windows 11 afin de maintenir la sécurité de Signal Desktop sur cette plateforme, même si cela implique des compromis en termes d’utilisation. Microsoft ne nous a tout simplement pas laissé d’autre choix », se désole Signal.
Utilisation de l’API pour bloquer la capture d’écran d’œuvres protégées par DRM
Et, en effet, Microsoft n’a pas rendu la chose facile. La fondation explique qu’elle n’a pas pu faire dans la dentelle puisque la société de Redmond « a lancé Recall sans paramètres de granularité pour les développeurs d’applications qui permettraient à Signal de protéger facilement la vie privée ».
Elle indique que sa fonctionnalité bloque toute possibilité pour l’utilisateur de faire une capture d’écran d’une conversation. Pourquoi ? Microsoft n’a mis en place aucune API permettant à un développeur d’empêcher les captures de son application. Dommage, d’autant que Recall possède bon nombre de paramètres, dont celui de pouvoir exclure toute application ou page web indiquée. Mais encore faut-il savoir que la capacité existe. Signal explique donc passer par l’API qui permet de bloquer la capture d’écran de contenu protégé par des DRM.
« Selon la documentation officielle de Microsoft à l’intention des développeurs, le fait de définir le bon indicateur de gestion des droits numériques (DRM) dans la fenêtre de l’application garantit que « le contenu n’apparaîtra pas dans Recall ou dans toute autre application de capture d’écran ». C’est donc exactement ce que Signal Desktop fait désormais par défaut sous Windows 11 », explique Signal. La fondation ajoute que « la mise en œuvre d’un « DRM » qui fonctionne pour vous (et non contre vous) est le meilleur choix que nous ayons eu ».
Ce nouveau paramètre, activé par défaut, ne protège une conversation de Recall évidemment que si les différents protagonistes ne le désactivent pas de leur côté.
Signal tacle encore un peu plus Microsoft en expliquant espérer « que les équipes d’IA qui construisent des systèmes comme Recall réfléchiront plus attentivement à ces implications à l’avenir. Les applications comme Signal ne devraient pas avoir à mettre en œuvre « une astuce bizarre » pour maintenir la confidentialité et l’intégrité de leurs services sans outils de développement adéquats ».
Petit coup de tonnerre, avec une opération surprise : OpenAI a annoncé le rachat de io, entreprise fondée par Jony Ive, qui n’est autre que l’ancien directeur du design chez Apple entre 1996 et 2019. C’est à lui et son équipe que l’on doit, entre autres, le design des ordinateurs Macintosh, des iPod ou encore de l’iPhone. En partant d’Apple, il avait créé le collectif LoveFrom avec d’anciens designers et ingénieurs d’Apple.
Dans le communiqué, on peut lire qu’il y a deux ans, le collectif a commencé à travailler secrètement avec OpenAI. Rapidement, de nombreuses idées auraient été projetées, aboutissant à la création de io l’année dernière par Jony Ive, ainsi que Scott Cannon, Evans Hankey et Tang Tan, trois anciens responsables d’Apple.
Avec ce rachat de 6,5 milliards de dollars, OpenAI récupère ainsi la startup et tous les membres de LoveFrom rejoignent la nouvelle équipe, qui constitue dans les grandes lignes la nouvelle division matérielle de l’entreprise. Selon Bloomberg, l’opération permet le transfert de 55 personnes, regroupement d’ingénieurs matériels, développeurs et experts en fabrication.
Il faut donc s’attendre à l’avenir à une nouvelle gamme de produits matériels chez OpenAI pleinement liés à l’intelligence artificielle.
La vidéo d’annonce, elle, fait en tout cas beaucoup parler, que ce soit sur X ou YouTube. Beaucoup lui reprochent son flou et son absence d’annonces concrètes. Certains suggèrent même qu’elle aurait pu être générée par IA.
L’Agence nationale des fréquences (ANFR) a dans son portefeuille de mission la gestion du signal horaire hertzien terrestre. Le temps légal peut aussi passer par les satellites GNSS (GPS américain, Galileo européen, etc.), Internet (protocole NTP), etc.
Nous avons déjà largement abordé le sujet lors d’une précédente annonce de l’ANFR sur le sujet de la sobriété énergétique. À la fin de l’année dernière, la puissance d’émission du signal était passée de 800 à 675 kW pendant une semaine, puis pendant un mois. Visiblement, les résultats se sont révélés concluants.
Rebelote en 2025, mais sur une période bien plus longue de six mois. « L’expérimentation se déroule du mardi 20 mai 2025, 12h00 jusqu’au mardi 18 novembre 2025, 8h00, la puissance de diffusion sera abaissée de 800 kW à 675 kW », explique l’Agence.
Elle décrit trois objectifs. Une optimisation technique pour commencer, en mesurant « l’impact d’une puissance réduite sur la qualité de réception, tout en maintenant une précision inférieure à la milliseconde ».
Puis la sobriété énergétique évidemment, d’autant que les précédentes expérimentations ont donné de bons résultats. 125 kW de moins, cela donne donc 125 kWh sur une heure, 3 MWh par jour et un peu plus de 1 000 MWh par an.
Enfin, troisième et dernier point, l’ANFR met en avant la préparation à long terme pour anticiper « les évolutions du dispositif et consolider la continuité de ce service stratégique jusqu’en 2034 ».
Comme lors des précédents tests, « l’ANFR invite l’ensemble des opérateurs, partenaires techniques et parties prenantes à vérifier le bon fonctionnement de leurs équipements durant toute la durée de l’expérimentation ».
Pour rappel, la puissance était déjà passée de 1 110 kW à 800 kW en 2020. Des tests à 300 kW ont été menés, mais l’Agence ne semble pas avoir diffusé les résultats de cette expérimentation.
Handoff est une fonctionnalité populaire de la galaxie Apple. Introduite il y a longtemps sur iOS 8, elle permet d’utiliser le Bluetooth, le Wi-Fi et la proximité des appareils pour synchroniser les applications. Une session sur Safari débutée sur iPhone provoque l’apparition d’une icône du navigateur dans le Dock de macOS. Un clic permet alors de reprendre où on s’est arrêté.
En 2016, Microsoft avait déjà évoqué son projet Rome, qui ambitionnait le même mécanisme. Pourtant, ce dernier est tombé dans l’oubli. Mais comme l’a repéré sur X phantomofearth, habitué de ce genre de trouvaille, Microsoft a manifestement relancé l’idée.
Dans une vidéo publiée à l’occasion de la Build, on peut voir en effet Spotify lancé sur un smartphone et l’icône correspondante apparaitre dans la barre des tâches, avec la mention « Continue where you left », c’est-à-dire une reprise de la lecture là où elle s’était arrêtée.
Windows Central indiquait cette nuit que la vidéo avait été modifiée pour supprimer la référence à Spotify, mais d’une manière ou d’une autre, c’est bien la version non modifiée que l’on peut voir. La référence à Spotify commence à partir de 16min45. Cette technologie peut également être utilisée pour faire apparaitre l’icône sur le PC alors que l’application correspondante n’est pas installée. Dans ce cas, cliquer peut amener sur la fiche correspondante dans le Microsoft Store.
Après la suppression de la modération et la promotion de l’ « énergie masculine » dans l’entreprise, Mark Zuckerberg aligne aussi ses activités philanthropiques sur la politique de Donald Trump.
Les élèves de The Primary School, école privée gratuite fondée par la Chan Zuckerberg Initiative (CZI) en 2016, ont appris que l’établissement fermerait à l’été 2026. À l’heure actuelle, il accueille 400 élèves du CP à la 6ᵉ, dont 61 % de latinos, 7 % de noirs et 7 % originaires des îles du Pacifique, rapporte Le Monde. Les élèves et leurs familles bénéficient de soins médicaux et dentaires, difficiles d’accès aux États-Unis.
Depuis février, la CZI, que Mark Zuckerberg a fondée avec sa femme Priscilla Chan, pédiatre, a modifié nombre de ses activités. La fondation a notamment cessé de financer toute association étant liée de près ou de loin à des questions de justice sociale.
Avec 6,3 milliards de dollars d’actifs en 2023, la CZI est une des principales organisations philanthropiques de la baie de San Francisco. Elle a indiqué focaliser ses activités dans la recherche biomédicale.
Nathalie Loiseau veut que la Commission européenne accélère sur le dossier des ingérences étrangères via les réseaux sociaux et notamment X et TikTok, explique La Lettre.
La députée européenne Renew est aussi présidente de la commission spéciale « Bouclier européen pour la démocratie » à Bruxelles. Et, à ce titre, elle a pointé « directement la passivité de l’exécutif européen sur le dossier », expliquent nos confrères.
Dans un communiqué co-rédigé avec l’autre député Renew Helmut Brandstätter que La Lettre cite, elle exige « la mise en œuvre des outils juridiques existants », en précisant que « les récentes enquêtes sur des géants de la technologie comme TikTok mettent en évidence le besoin urgent d’une application rapide de la loi pour protéger l’intégrité électorale ».
C’est une critique, en creux, de la faible réponse de la Commission après les soupçons d’ingérence exprimés lors de l’élection en Roumanie en fin d’année dernière.
La Commission avait ouvert une enquête mi-décembre. Mais La Lettre explique que les deux élus reprochent un manque d’assiduité et un « rapport fourre-tout » au rapporteur de la Commission de Nathalie Loiseau, Tomas Tobé (Parti populaire européen).
Celui-ci plaide aussi pour la création d’une agence européenne de lutte contre la désinformation, à laquelle les élus Renew sont opposés, notant le risque d’un doublonnage de structures déjà existantes.
De passage à Taipei à l’occasion du Computex, le patron de NVIDIA Jensen Huang a ouvertement regretté les restrictions à l’export mises en place par les États-Unis à l’encontre de la Chine autour des puces dédiées à l’IA. « Si les États-Unis veulent rester en tête, nous devons maximiser et accélérer notre diffusion, et non la limiter. »
Déjà soumis à condition sous la présidence de Joe Biden, l’export de puces dédiées à l’IA fait l’objet de nouvelles restrictions, à la fois techniques et tarifaires, depuis le retour de Donald Trump à la Maison-Blanche. Une erreur stratégique selon Jensen Huang, CEO et cofondateur de NVIDIA, selon qui les États-Unis ont ainsi pavé la voie d’une concurrence chinoise exacerbée.
De 95 % à 50 % de parts de marché
« Il y a quatre ans, NVIDIA détenait 95% de parts de marché en Chine. Aujourd’hui, nous ne sommes plus qu’à 50% », a déclaré le patron de NVIDIA lors d’un événement organisé dans le cadre du salon Computex de Taipei.
« Les chercheurs chinois en IA utiliseront leurs propres puces. Ils utiliseront du second choix. Les entreprises locales sont très déterminées, les contrôles à l’exportation leur ont donné le mental, et le soutien du gouvernement a accéléré leur développement », a-t-il encore commenté selon le Financial Times.
Un récent tour d’horizon des avancées réalisées par les industriels en matière de développement et de production de composants dédiés à l’IA semble donner raison à Jensen Huang. Huawei, Baidu ou le fondeur SMIC progressent de façon significative en la matière, et trouvent de multiples voies détournées pour alimenter leurs capacités de production, en dépit des mesures de protection mises en place par les États-Unis ou l’Europe. En parallèle, le gouvernement chinois encourage ouvertement les géants locaux du Web, tels Bytedance, Alibaba ou Tencent, à s’approvisionner sur le marché national.
Des milliards de manque à gagner
Émanant d’une entreprise devenue l’une des premières capitalisations boursières mondiales grâce à l’IA, le discours n’est évidemment pas désintéressé. Sous Biden, NVIDIA pouvait encore exporter vers la Chine des versions limitées en performance de ses puces dédiées à l’IA, dont un modèle dédié, le H20.
Donald Trump a, depuis son retour aux affaires présidentielles, donné un tour de vis supplémentaire, en imposant à NVIDIA l’obtention d’une licence préalable pour exporter les puces H20 vers la Chine. L’entreprise avait alors réagi de façon indirecte, via une déclaration à la SEC, d’une provision sur charge de l’ordre de 5,5 milliards de dollars sur le premier trimestre de son exercice (en sachant que NVIDIA a réalisé 130,5 milliards de dollars de chiffre d’affaires sur son dernier exercice). Une façon de signaler aux marchés et à ses investisseurs le manque à gagner découlant de cette décision.
Au-delà de l’impact sur ses propres activités, Jensen Huang semble estimer que Donald Trump fait fausse route quand il explique que ces restrictions à l’export visent à renforcer la compétitivité des États-Unis face à la Chine. « Si les États-Unis veulent rester en tête, nous devons maximiser et accélérer notre diffusion, et non la limiter. »
Soutenue par la France, l’idée d’une taxation spécifique aux milliards de petits colis qui arrivent chaque année sur le Vieux continent fait son chemin à Bruxelles. La Commission européenne prépare la mise en place d’un droit de douane spécifique, qui se monterait à 2 euros pour les colis envoyés directement au client final, et 0,5 euro pour les paquets acheminés vers des plateformes de stockage intermédiaires.
Officiellement, il ne s’agirait pas de droits de douane tels que les envisage Donald Trump dans sa guerre commerciale avec le reste du monde, mais de « frais de gestion » (handling fees). La Commission européenne se prépare tout de même à étudier la mise en œuvre d’une taxation spécifique à tous les petits colis venus d’Asie, qui échappent aujourd’hui aux droits de douane traditionnels.
C’est ce qu’a confirmé mardi le commissaire européen au Commerce, Maroš Šefčovič, lors d’une audition au Parlement européen. Il a dans le même temps révélé les montants envisagés, qui seraient donc de 2 euros pour un colis en circulation libre (adressé à un client final) et de 0,5 euro pour un paquet acheminé en direction d’un lieu de distribution intermédiaire (entrepôt ou plateforme logistique) afin d’y être stocké avant sa mise en vente.
4,6 milliards de colis par an
Dans une communication dédiée, datée du 5 février dernier, la Commission européenne évaluait à 4,6 milliards le nombre de colis d’une valeur déclarée inférieure à 150 euros entrés sur le sol européen, majoritairement depuis la Chine.
« C’est deux fois plus qu’en 2023 et trois fois plus qu’en 2022, et nombre de ces produits se sont révélés non conformes à la législation européenne. Cette croissance exponentielle suscite de nombreuses inquiétudes », soulignait alors la Commission, expliquant qu’il était impossible, sur de tels volumes, de contrôler la conformité des produits importés.
D’où cette idée d’une taxation spécifique, dont le produit serait utilisé pour outiller et renforcer les services de douane des différents états-membres afin, notamment, de lutter plus efficacement contre les produits dangereux ou contrefaits.
Qu’elle soit collectée par les douanes ou acquittée par les plateformes, la taxe serait probablement répercutée sur le consommateur européen et c’est pour répondre à cette inquiétude que Maroš Šefčovič a précisé mardi les modalités de mise en œuvre envisagées.
« Je ne regarderais pas ces frais de gestion comme une taxe, c’est simplement fait pour compenser les coûts et ça devrait être payé par les plateformes, a-t-il déclaré. Nous parlons de deux euros par colis, payés par les plateformes et pour les services offerts par les entrepôts, ce serait plus modeste, à 50 cents, donc c’est vraiment juste pour compenser le travail des officiels des douanes ».
Une idée soutenue par la France
Le ministre de l’Économie, Eric Lombard, et la ministre chargée des Comptes publics, Amélie de Montchalin, avaient déjà annoncé, fin avril, leur intention de porter au niveau européen cette idée de frais de gestion appliqués aux colis chinois échappant aux droits de douane.
Ils évoquaient alors un volume de l’ordre de « 800 millions de petits articles » arrivant chaque année en France en provenance de plateformes comme Shein, Temu ou Aliexpress, et arguaient de la nécessité de mieux contrôler ces produits. « Quand les douaniers ouvrent aujourd’hui les colis, 94% des produits sont non conformes, dont 66% pour dangerosité », avait notamment déclaré Eric Lombard.
Les ministres français exprimaient alors la volonté de créer une coalition européenne pour arriver à la mise en œuvre, dès 2026, de frais de gestion forfaitaire, sans attendre le projet de réforme de l’Union douanière (qui prévoit la suppression de la franchise de 150 euros pour les droits de douane).
Maroš Šefčovič n’a pour l’instant précisé aucun calendrier.
Une filiale de Solocal (anciennement Pages Jaunes) écope de 900 000 euros d’amende administrative de la CNIL pour « avoir démarché des prospects sans leur consentement et transmis leurs données à des partenaires sans base légale valable ».
La CNIL explique que la société Solocal Marketing Services « acquiert des données de prospects principalement auprès de courtiers en données, éditeurs de sites de jeux-concours et de tests de produits ». Elle démarche ensuite par SMS ou email des personnes pour le compte de ses clients annonceurs, mais peut aussi leur transmettre des données clients pour qu’ils réalisent eux-mêmes les prospections.
« Plusieurs millions » de personnes concernées
Problème, lors de son enquête, la Commission a relevé que la société avait manqué à ses obligations « en matière de recueil et de preuve du consentement ». La formation restreinte de l’Autorité condamne donc Solocal Marketing Services à une amende publique de 900 000 euros.
La CNIL justifie notamment ce montant par le nombre de personnes concernées, qui se chiffre à « plusieurs millions ». Solocal Marketing Services est une filiale dédiée à l’activité de marketing direct de Solocal, qui est pour rappel anciennement Pages Jaunes.
Concernant la publication de la décision, Solocal était contre « compte tenu notamment de la faible gravité des manquements relevés », alors que la CNIL, au contraire, a considéré que cela s’imposait au regard de la « gravité des manquements en cause ».
L’amende est assortie d’une « injonction de cesser de procéder à des opérations de prospection commerciale par voie électronique en l’absence d’un consentement valable, assortie d’une astreinte de 10 000 euros par jour de retard à l’issue d’un délai de neuf mois ».
« Apparence trompeuse des formulaires »
La CNIL détaille ses griefs et revient sur « l’apparence trompeuse » de certains formulaires qui ne permettent pas de recueillir un consentement libre et univoque, comme l’exige pourtant le RGPD depuis plusieurs années.
« La mise en valeur des boutons entraînant l’utilisation de ses données à des fins de prospection commerciale (par leur taille, leur couleur, leur intitulé et leur emplacement), comparée aux liens hypertextes permettant de participer au jeu sans accepter cette utilisation (d’une taille nettement inférieure et se confondant avec le corps du texte) pousse fortement l’utilisateur à accepter », explique la CNIL.
L’Autorité rappelle que Solocal Marketing Services « est utilisatrice des données recueillies par les courtiers. En conséquence, elle doit s’assurer que les personnes ont exprimé un consentement valide avant de mener ses campagnes de prospection ». Problème, ses exigences contractuelles avec ses partenaires « étaient manifestement insuffisantes ».
Selon l’entreprise, il n’y a « aucun caractère de gravité »
La société « estime en effet qu’à considérer les manquements établis, ces derniers ne présentent aucun caractère de gravité », explique la CNIL dans sa délibération. Solocal considère que « le rapporteur n’a pas pris en considération l’ensemble des critères […] et relève notamment que les traitements visés ne revêtent aucune sensibilité particulière, qu’ils sont mis en œuvre uniquement à l’échelle nationale et que les personnes concernées n’ont subi aucun dommage ».
Solocal déclare « n’avoir commis aucune négligence et s’être montrée suffisamment diligente, mettant en lumière les mesures prises avant et après le contrôle ainsi que sa pleine coopération avec les services de la CNIL. Elle souligne n’avoir jamais été condamnée pour manquement à ses obligations relatives au consentement ou à la transmission des données et indique avoir collaboré pleinement avec la CNIL ».
La CNIL affirme au contraire que les manquements constatés « sont susceptibles d’être sanctionnés par l’amende la plus élevée prévue par le législateur européen, soit 20 millions d’euros ou, dans le cas d’une entreprise, jusqu’à 4 % de son chiffre d’affaires ». Enfin, la Commission ajoute que « la société a tiré des violations commises un avantage financier certain ».
Depuis des mois, des discussions se déroulent en coulisse autour d’une vente de tout ou partie de SFR, déjà bien divisée par Altice. La situation serait amenée à évoluer si l’opérateur était placé en procédure de sauvegarde accélérée, ce qui pourrait arriver dès le mois prochain.
Les rumeurs autour d’une vente de SFR ne sont pas nouvelles, mais l’étau se resserre autour de Patrick Drahi, de la marque au carré rouge et de sa maison mère Altice. Dernier élément en date, selon BFM Business : « l’opérateur sera placé en procédure de sauvegarde accélérée début juin ».
Sa durée est de quatre mois maximum, précise le site officiel d’information administrative pour les entreprises. Mais de quoi parle-t-on exactement ? Que reste-t-il de SFR avec la vente à découpe des derniers mois ? Qu’en pense l’autorité de la concurrence ? On vous explique.
Au 31 décembre 2024, SFR revendiquait 19,403 millions de clients sur le mobile et 6,133 millions de clients sur le fixe (dont 5,082 millions en fibre optique). De quoi intéresser ses trois concurrents que sont Bouygues Telecom, iliad et Orange, mais ce dont personne ne veut, c’est l’immense dette de SFR.
Dans le dernier bilan comptable, le « total des obligations et des prêts des institutions financières » est de plus de 25 milliards d’euros, pour une dette nette consolidée de 21,2 milliards d’euros. Au début de l’année, SFR trouvait un accord avec ses créanciers pour la réduire à 15,5 milliards d’euros.
Selon des sources de Bloomberg, cette possible vente de SFR pourrait valoriser l’entreprise à 30 milliards d’euros, dette comprise. Nos confrères ajoutent que dans la liste des potentiels repreneurs, on retrouve évidemment les opérateurs français qui pourraient se partager des morceaux de la carcasse de SFR (principalement sa base client et ses licences pour les fréquences), mais selon d’autres sources des opérateurs du Moyen-Orient comme Emirates Telecommunications et des fonds d’investissement pourraient aussi être de la partie.
« Il n’y a rien de nouveau, cette valorisation n’est qu’une extrapolation avec un premium plutôt faible par rapport à la valorisation connue en début de l’année », affirme un « protagoniste des discussions » aux Échos. Rien n’est fait pour le moment, les discussions sont encore à un stade précoce. Néanmoins, si SFR était bel et bien placée en procédure de sauvegarde accélérée début juin, les choses pourraient bouger rapidement.
Altice de son côté se contente de préciser via un porte-parole que l’entreprise « se concentre sur la mise en œuvre de l’accord de dette, envisageant la vente d’actifs non stratégiques et poursuivant la relance commerciale de SFR et l’amélioration de la qualité de service ».
La vente à la découpe d’Altice
Altice s’est déjà séparé d’une bonne partie de ses actifs, notamment ses pylônes pour les télécoms, sa branche médias, ses datacenters, sa participation dans l’opérateur La Poste Mobile à Bouygues Telecom (avec quelques bisbilles sur la vente avec son ex-partenaire La Poste).
XpFibre, la branche dédiée au déploiement de la fibre optique est aussi mise en vente, mais rien n’est acté pour l’instant. Altice ne détient pour rappel que 50,01 % de XpFibre, « le solde étant entre les mains d’Allianz, d’Axa Investment Managers et d’Omers, le fonds de retraite des employés municipaux de l’Ontario », rappelait l’Informé en février.
Concernant la vente de SFR, Bouygues Telecom et Free seraient intéressés, mais les conditions d’un tel rachat seraient forcément scrutés de près par les différentes autorités, notamment celle de la concurrence. Aucun des trois concurrents ne pourrait racheter l’intégralité de l’opérateur au risque de devenir trop gros, mais une répartition est possible. Cela pourrait aussi relancer un peu la concurrence dans le monde de l’entreprise, où Orange et SFR dans une moindre mesure occupent une place très importante.
Qu’en dit l’Autorité de la concurrence ? « Ça dépend du projet »
Benoît Cœuré, président de l’AdlC, n’était pas fermé à l’idée, mais n’avait aucun élément sur les modalités d’une telle opération. Faute de projet concret, il lui est actuellement impossible de se prononcer : « Pour le moment, je n’ai aucune idée de la réponse », expliquait-il à BFM Business fin avril.
« S’il y avait un tel projet, on regarderait marché par marché, ce n’est pas très compliqué. Ce qui est compliqué, c’est de mesurer. Conceptuellement, ce n’est pas très compliqué ». Ça paraît jouable, demande notre confrère ? « Ça dépend du projet […] il y a une discussion à avoir. Je ne viens pas vous dire il n’en est pas question, ce n’est pas possible […] Ça dépendra des mérites des projets, mais je n’ai vu aucun de ces projets ».
Putain… 10 ans !
Remontons le temps en 2014, quand Numéricable rachetait SFR à Vivendi. Une opération à 13 milliards d’euros financée avec une très importante levée de dette (qui est aujourd’hui au cœur du problème), au nez et à la barbe de Bouygues Telecom qui s’était aussi positionné.
Le ministre de l’Économie de l’époque – un certain Emmanuel Macron – était peu favorable à cette opération : « Je dis et répète que la consolidation n’est pas aujourd’hui souhaitable pour le secteur […] Le temps n’est pas à des rapprochements opportunistes auxquels plusieurs peuvent trouver un intérêt qui ne retrouve pas ici l’intérêt général ».
L’année suivante, Altice se proposait même de racheter Bouygues Telecom… avec l’aide d’iliad. Cela fait donc déjà 10 ans que l’on parle d’un possible retour à trois opérateurs, et seulement trois ans après le lancement de Free Mobile. Aujourd’hui, c’est donc Bouygues Telecom et iliad qui seraient partenaires pour croquer SFR.
Dernier problème et pas des moindres, ce n’est pas vraiment l’entente cordiale entre les trois milliardaires à la tête de ces trois opérateurs. Les passes d’armes durant les conférences et devant la justice sont monnaie courante.
Lundi soir, Google a annoncé l’arrivée en bêta d’une fonction attendue : la possibilité de manipuler les documents Word quand le chiffrement côté client est activé sur les comptes en entreprise. Une compatibilité qui devrait aider à gérer les situations hybrides, les documents Word étant monnaie courante.
La bêta suppose que les administrateurs intéressés s’inscrivent sur un formulaire pour demander l’accès. La fonction devra ensuite être activée, elle ne l’est pas automatiquement.
Il y a quelques limitations à prendre en compte. Le support ne se fait que sur les fichiers .docx, donc enregistrés au format OOXML (contre lequel la Document Foundation pestait encore récemment). La taille d’un fichier ne peut pas dépasser 20 Mo. Des incompatibilités peuvent également survenir, si les documents contiennent des éléments non pris en charge. Auquel cas, ils seront préservés. Enfin, l’édition au sein de Google Docs pourrait altérer certaines fonctions du document, mais le service préviendra avant toute modification.
La fonction ne sera proposée que pour les comptes Enterprise Plus, Education Standard et Plus, ainsi que Frontline Plus.
Nous n’allons pas refaire toute l’histoire, qui a débuté en 2020, mais Fortnite est bien de retour dans la boutique officielle d’Apple aux États-Unis, ainsi que dans la boutique alternative AltStore en Europe.
Les derniers épisodes étaient intenses. Epic Games relançait le processus de validation de Fortnite le 9 mai, puis l’avait retiré faute de réponse d’Apple, avant de le relancer le 14 mai. Fortnite nécessite, selon Tim Sweeny (fondateur et CEO d’Epic Games), des mises à jour toutes les semaines, avec une synchronisation sur toutes les plateformes.
Le 16 mai, Fortnite annonce qu’« Apple a bloqué notre soumission, nous ne pouvons donc pas la publier sur l’App Store américain ni sur l’Epic Games Store pour iOS dans l’Union européenne. Malheureusement, Fortnite sur iOS est désormais hors ligne dans le monde entier jusqu’à ce qu’Apple le débloque ». C’est visiblement chose faite depuis cette nuit.
Le patron d’Epic Games avait partagé lundi une nouvelle injonction de la juge Yvonne Gonzalez Rogers affirmant qu’« Apple est tout à fait capable de résoudre ce problème sans autre procès ou audience ». Néanmoins, dans le cas contraire, Apple avait jusqu’au 21 mai pour déposer son mémoire en opposition, Epic Games jusqu’au 23 mai pour répondre et une audience devait avoir lieu le 27 mai.
Tim Sweeny ne cache pas sa joie sur X et en profite pour distribuer des remerciements à ceux qui ont soutenu son combat depuis le début et… « ceux qui ont initialement soutenu Apple, puis se sont rangés du côté des gagnants, en défendant les droits des développeurs d’applications et des consommateurs ».
« Le retour dans l’App Store est une victoire symbolique. La véritable victoire se trouve dans les décisions de justice rendues dans l’affaire Epic vs Apple », explique Engadget. Quoi qu’il en soit, la saga judiciaire n’est toujours pas terminée.
Au tour d’AMD de présenter ses nouveautés à Taipei à l’occasion du Computex. Le fabricant décline son architecture RDNA 4 sur une carte graphique plus accessible et une autre pour l’IA et les professionnels avec 32 Go de mémoire. Pour les stations de travail, voici les Threadripper 9000 en Zen 5.
En mars, AMD présentait ses nouvelles cartes graphiques Radeon RX 9070 et 9070 XT, les premières avec l’architecture RDNA 4. À l’occasion du Computex, une nouvelle référence débarque : la Radeon RX 9060 XT (ce qui laisse de la place à une Radeon RX 9060 par la suite).
Un lancement en même temps que l’arrivée dans les boutiques de la GeForce RTX 5060 de NVIDIA, mais cette dernière souffre d’un lancement pour le moins surprenant avec NVIDIA qui a décidé de fortement restreindre les tests indépendants.
La Radeon RX 9060 XT dispose de 32 unités de calcul, contre 64 pour la Radeon RX 9070 XT. AMD annonce une fréquence Boost de 3,13 GHz, au-dessus des 2,97 GHz de sa grande sœur. La carte dispose de 8 ou 16 Go de GDDR6 suivant les cas. Prudence, donc, au moment de choisir votre modèle.
Pour simplifier la comparaison, nous avons regroupé les principales caractéristiques techniques des trois Radeon RX en RDNA 4 dans le tableau ci-dessous (les caractéristiques de la RX 9060 XT se trouvent par là) :
La carte sera disponible à partir du 5 juin, pour 299 dollars pour la version 8 Go et 349 dollars pour celle de 16 Go. Ce sont comme toujours les prix sans les taxes. La Radeon RX 9070 était à 549 dollars à son lancement, contre 599 dollars pour la RX 9070 XT.
La Radeon RX 9060 XT venue vient donc se placer en face de la RTX 5060 de NVIDIA lancée à 299 dollars, et de la RTX 5060 Ti avec 8 Go qui était annoncée à 379 dollars par NVIDIA.
Radeon AI Pro R9700 : RDNA 4 avec 32 Go de mémoire
Toujours sur les cartes graphiques, mais du côté des professionnels maintenant, AMD annonce sa Radeon AI Pro R9700, avec RDNA 4 aux commandes. La carte dispose de 64 unités de calculs et de 128 « Ai Accelerators », comme la Radeon RX 9070 XT, mais avec 32 Go de mémoire. La fréquence du GPU oscille entre 2,35 et 2,92 GHz.
Son nom devrait rappeler des souvenirs aux moins jeunes d’entre nous, puisque c’était aussi le nom d’une carte de chez ATI (rachetée par AMD) : la Radeon 9700… de 2002. Il n’était à l’époque pas question d’intelligence artificielle.
Intel fait de même avec sa gamme Arc Pro Bx0 – GPU Battlemage avec plus de mémoire que les cartes pour les joueurs –, mais avec jusqu’à 24 Go de mémoire « seulement ». Selon AMD, grâce aux 32 Go, il est possible de faire tourner des modèles comme DeepSeek R1 (32 milliards de paramètres) et Mistral Small 3.1 (24 milliards de paramètres).
Et pour les modèles plus gourmand, comme Mistral Large à 123 milliards de paramètres et Llama à 70 milliards de paramètres en FP8, il est possible de combiner plusieurs cartes. Le constructeur cite un exemple avec quatre cartes pour un maximum de 128 Go de mémoire.
La Radeon AI Pro R9700 sera disponible à partir du mois de juillet.
Des CPU Threadripper 9000 sur un socket sTR5
Terminons par les nouveaux processeurs Threadripper. Un rappel pour commencer : les Ryzen sont des processeurs pour les ordinateurs de bureau grand public, les Threadripper sont pour les stations de travail et enfin les EPYC pour les serveurs.
Dans les dernières générations, les premiers sont généralement sur un socket AM5, les seconds en sTR5 et les derniers en SP5 (avec 1P ou 2P, c’est-à-dire des cartes mères avec un ou deux sockets). Mais il existe aussi des exceptions, comme des EPYC en AM5.
Revenons à nos moutons, des Threadripper 9000 (alias Shimada Peak) en l’occurrence, avec une architecture Zen 5. Ils proposent entre 12 et 96 cœurs, soit de 24 à 192 threads. Ils exploitent donc un socket sTR5, comme les Threadripper Storm Peak de la génération précédente. AMD annonce une rétrocompatibilité.
AMD annonce six références en Threadripper Pro 9000 WX (avec les fonctionnalités AMD Pro, notamment le chiffrement de la mémoire) avec 12 à 96 cœurs, ainsi que trois Threadripper 9000 séries de 24 à 64 cœurs. Les processeurs proposent jusqu’à 128 lignes PCIe 5.0 et prennent en charge jusqu’à 8 canaux de DDR5 ECC jusqu’à 6400 MHz.
Les processeurs Threadripper de la série 9000 seront disponibles à partir du mois de juillet.
Comme chaque année maintenant, Emmanuel Macron invite les grands patrons des multinationales pour une opération de communication dans le but d’engranger les promesses d’investissements. L’Elysée parle de 20 milliards d’euros pour cette année. Mais les annonces sur le numérique sont, pour la plupart, des redites du Sommet pour l’IA.
L’exercice est bien huilé maintenant. Comme depuis huit ans, Emmanuel Macron met ces jours-ci en avant les investissements de multinationales sur le sol européen. Le sommet « Choose France » réunit autour de lui 200 responsables de grandes entreprises françaises au Château de Versailles. À nos collègues du Figaro, une source de l’Élysée résume l’opération : « le président de la République est le VRP de la France ».
Des confirmations du Sommet de l’IA
L’Elysée a annoncé dimanche soir 37 milliards d’euros d’investissements, tout en ajoutant que 20 d’entre eux étaient « entièrement nouveaux ». Les 17 autres milliards concernent de fait pour la plupart des projets du numérique qui avaient été annoncés dans le cadre du Sommet de l’intelligence artificielle. Cette partie « numérique » de l’opération correspond donc à la portion des 109 milliards d’investissements annoncés pendant ce sommet qui doit être débloquée cette année.
Dans cette enveloppe « confirmée » par l’Élysée, donc, 10 milliards viennent du fonds canadien Brookfield. Celui-ci solidifie, comme l’explique le journal Les Échos, la moitié de son annonce d’investissements dans l’Hexagone faite en février. Ce financement doit permettre de monter un méga projet de data center à Cambrai mené en collaboration avec la société Data4, rachetée par le fonds en 2023. Il faudra voir si Brookfield confirme ensuite les 10 autres milliards d’euros d’investissements promis il y a quatre mois.
Du côté de Digital Realty, l’entreprise américaine de data center a annoncé ce lundi 2,3 milliards d’euros d’investissements. De la même manière, l’entreprise confirme environ la moitié des promesses faites lors du sommet de l’IA puisqu’à l’époque, elle annonçait une somme de 5 milliards d’euros pour étendre ses data centers à Marseille et en région parisienne avec 13 nouveaux sites, comme l’écrivait le Parisien.
Enfin, le fonds d’investissement émirati MGX devrait confirmer son investissement dans un « campus IA » en Île-de-France en collaboration avec Bpifrance, NVIDIA et Mistral AI. Selon l’Usine Digitale, la première tranche du projet devrait atteindre 8,5 milliards d’euros et les travaux doivent débuter au second semestre 2026. Des discussions seraient en cours au sujet d’un terrain de 70 à 80 hectares près de Melun (Seine-et-Marne), selon la Tribune.
6,4 milliards de Prologis pour des infrastructures
Du côté des nouveaux projets, L’Élysée a annoncé à l’AFP un investissement de 6,4 milliards d’euros de la part de Prologis, « en entrepôts et data centers ». Peu d’informations supplémentaires sont données à part que l’entreprise cherche à implanter quatre projets de data centers dans la région parisienne et investirait 1 milliards d’euros pour 750 000 m² d’entrepôts d’ici 2028 dans les villes de Marseille, Lyon, Paris ou du Havre.
Enfin, Kyndryl (spin-off d’IBM) a annoncé un investissement de 100 millions d’euros en France « en matière de données, d’intelligence artificielle (IA) et de cyber-résilience ».
Sans surprise, les annonces de Microsoft au sujet de l’IA ont été très nombreuses durant la conférence d’ouverture de la Build. Voici ce qu’il ne fallait pas manquer.
Microsoft étant devenu l’un des acteurs majeurs de l’intelligence artificielle, les conférences Build sont largement centrées sur ce sujet. À l’instar de ce que l’on a pu voir plus tôt dans l’année chez Google, une certaine maturité commence à s’imposer, notamment à travers le grand sujet du moment : les agents, et désormais la manière dont ils peuvent communiquer entre eux.
On commence avec Windows AI Foundry, qui est en fait le nouveau nom (Microsoft aime en changer) du service Windows Copilot Runtime. Le terme Foundry étant utilisé dans d’autres domaines, il s’agit d’une nouvelle appellation parapluie pour mieux représenter de quoi il s’agit. En l’occurrence, d’une « plateforme unifiée pour le développement local de l’IA », avec pour mission de concentrer toutes les ressources liées à l’utilisation de l’IA directement sur les appareils. Windows AI Foundry est donc placé en opposition à Azure AI Foundry qui, de son côté, s’attèle à tout ce qui s’exécute dans le cloud.
Windows AI Foundry peut ainsi détecter le matériel d’un ordinateur, installer automatiquement tous les composants nécessaires à l’exécution d’un modèle spécifique et s’occuper de leurs mises à jour. Il contient un vaste catalogue de modèles open source, indique Microsoft.
On y trouve également Foundry Local, disponible pour Windows et macOS. Ce kit de développement (SDK) comprend un ensemble d’outils et de modules destinés à faciliter l’exécution des modèles en local, le tout en s’appuyant sur le runtime open source ONNX. Foundry Local intègre en outre une interface en ligne de commande, pour des commandes du type « foundry model list » ou « foundry model run ». Là encore, la détection du matériel pourra indiquer quels modèles peuvent être essayés.
On trouve également Windows ML, qui prend la relève de DirectML en tant que runtime d’inférence, en exploitant les capacités des CPU, GPU et bien sûr NPU. Microsoft promet que son runtime suivra les évolutions du matériel et pourra maintenir les dépendances des modèles avec les évolutions des machines. Windows ML n’est pour l’instant disponible qu’en préversion.
Une nouvelle trousse à outils, AI Toolkit for VS Code, est chargé de s’occuper de tout ce qui touche à la préparation des modèles et des applications. La quantification, l’optimisation, la compilation et le profilage font partie de ses attributions. Disponible lui aussi en préversion, il veut simplifier le processus de préparation et de livraison des modèles via Windows ML.
Notez que dans le cadre de Windows ML, NVIDIA a de son côté annoncé une révision de son kit TensorRT, qui vient d’être révisé pour les GeForce RTX. Dans sa présentation, la société parle d’un support natif par Windows ML.
NLWeb, le gros morceau de la Build
L’une des annonces qui a le plus retenu l’attention est NLWeb. Microsoft a clairement la volonté d’aplanir le terrain devant les agents, en particulier les chatbots. La volonté de l’éditeur avec ce nouveau projet est simple : aider à la création de chatbots pour tous les sites.
NLWeb doit permettre cette diffusion en quelques lignes de code, permettant de choisir le modèle et de connecter les sources de données. Microsoft donne des exemples : un chatbot pour aider les clients à choisir des vêtements pour des voyages spécifiques, un autre sur un site de cuisine pour suggérer des plats à associer à une recette, etc.
NLWeb pouvant créer des pages web, les utilisateurs auront le choix de mettre à disposition leurs contenus aux plateformes d’IA compatibles MCP (Model Context Protocol), créé par Anthropic pour simplifier justement la connexion des modèles aux sources de données. Plus précisément, « chaque point de terminaison NLWeb est également un serveur Model Context Protocol », explique Microsoft, permettant « aux sites web de rendre leur contenu découvrable et accessible aux agents et autres participants de l’écosystème MCP s’ils le souhaitent ».
Microsoft n’hésite pas à comparer NLWeb à « un HTML pour le web agentique » et rêve déjà d’agents sur tous les sites. La promesse aux internautes est qu’ils pourront interagir avec le contenu de ces sites de manière riche et sémantique. NLWeb exploite pour cela des formats semi-structurés comme Schema.org, RSS ou autres, combinées avec des LLM. NLWeb incorpore dans ces données des connaissances externes venant des LLM sous-jacents, comme des informations géographiques sur une requête concernant un restaurant.
NLWeb est open source (licence MIT) et a déjà son dépôt GitHub, qui contient tout ce qu’il faut pour se lancer. Le projet se veut totalement « agnostique », tant sur la plateforme utilisée (Windows, macOS, Linux…) que sur les réserves de vecteurs (Qdrant, Snowflake, Milvus, Azure AI Search…) et les LLM (OpenAI, Deepseek, Gemini, Anthropic, Inception…). Le dépôt contient le cœur du service, les connecteurs pour les principaux modèles et réserves de vecteurs, des outils pour les données, un serveur web et une interface simple. Microsoft dit s’attendre à ce que les déploiements se fassent avec des interfaces personnalisées.
Deux améliorations pour MCP
Puisque l’on parle du protocole d’Anthropic, Microsoft et GitHub ont annoncé leur entrée dans le comité de pilotage MCP. Deux apports ont été présentés dans ce contexte.
D’abord, une nouvelle spécification d’identité et d’autorisation. Elle doit permettre aux applications connectées à MCP d’améliorer la sécurité des connexions aux serveurs. Plusieurs méthodes de connexion fiables sont prises en charge, et Microsoft y va bien sûr de son Entra ID. Résultat, les agents et applications utilisant des LLM peuvent obtenir l’accès à ces informations, y compris les disques de stockage personnels et les services d’abonnement. En clair, il s’agit de mettre en phase les agents avec des informations verrouillées par des droits, que l’on pourra fournir après demande d’autorisation. Cet ajout devrait être utile en entreprise, pour gérer les contextes de sécurité.
L’autre apport est un registre public et communautaire des serveurs MCP. Il permet « quiconque de mettre en œuvre des référentiels publics ou privés, actualisés et centralisés pour les entrées de serveurs MCP et de permettre la découverte et la gestion de diverses implémentations MCP avec leurs métadonnées, configurations et capacités associées », explique Microsoft.
Recherche scientifique et Grok
Parmi les autres annonces, on note aussi l’arrivée de Discovery. Cette plateforme veut exploiter l’IA agentique pour « transformer le processus de découverte scientifique ». Comment ? En laissant l’IA faire ce qu’elle fait de mieux : lui confier toutes les opérations rébarbatives, Discovery pouvant gérer certaines charges de travail scientifique « de bout en bout ».
« Microsoft Discovery est une plateforme agentique d’entreprise qui permet d’accélérer la recherche et la découverte en transformant l’ensemble du processus de découverte grâce à l’IA agentique – du raisonnement des connaissances scientifiques à la formulation d’hypothèses, à la génération de candidats, à la simulation et à l’analyse », claironne ainsi Microsoft.
TechCrunch rappelle cependant que l’IA n’est pas nécessairement bien vue par tout le monde dans le domaine de la recherche scientifique. Cause principale : son manque de fiabilité. Nos confrères évoquent « un nombre incalculable de confusions » potentielles à surveiller. Mais l’IA pourrait quand même servir à explorer certaines voies, dans le sens d’un défrichage. Pour ce qui est de mener à des percées avérées, tout reste encore à faire.
Enfin, Microsoft annonce que Grok 3 et sa déclinaison mini sont disponibles dans sa plateforme Azure AI Foundry. Ils seront traités comme tous les autres modèles, avec toutes les fonctions liées et une facturation émise directement par Microsoft. L’annonce est d’autant plus visible que le modèle, développé par xAI et au cœur désormais du fonctionnement du réseau social X, a beaucoup fait parler de lui récemment, faisant référence au pseudo « génocide blanc » en Afrique du Sud et se montrant « sceptique » sur le nombre de juifs tués par la Shoah.
On est encore loin des offres à 1,99 euro par mois
Une nouvelle guerre des prix se profile chez les fournisseurs d’accès à Internet… à coup de 1 ou 2 euros de remise par mois. Nous sommes loin de l’époque des forfaits à moins de 2 euros, mais la baisse est généralisée.
Depuis quelques mois, les prix repartent à la baisse chez les opérateurs. Un élément déclencheur était le lancement par B&You de son offre Pure Fibre. C’était en novembre, avec 23,99 euros pour un débit pouvant atteindre 8 Gb/s en téléchargement. Elle a de quoi séduire un public qui ne souhaite qu’un accès à Internet, sans superflu, et donc sans payer des fonctionnalités dont il n’a que faire. D’autant plus avec le passage au Wi-Fi 7 pour le même prix fin avril.
La lente chute de RED by SFR
Suite à cela, la résistance s’est rapidement organisée. RED by SFR était à 24,99 euros par mois, avec 500 Mb/s symétrique. L’opérateur est ensuite passé à 1 Gb/s symétrique (comme c’est le cas aujourd’hui) avec une baisse à 23,99 euros par mois, puis 22,99 euros et depuis peu 20,99 euros.
Les frais de mise en service de 39 euros sont offerts depuis des mois (si ce n’est des années). Problème, la box reste en Wi-Fi 5 seulement, loin derrière ses deux principaux concurrents que sont Bouygues Telecom et Free.
Free baisse d’un euro et s’engage sur cinq ans
Chez Free, la réponse est arrivée début avril avec la Freebox Pop S à 24,99 euros par mois, avec 5 Gb/s partagés en téléchargement et du Wi-Fi 7. Il s’agit en fait d’une Freebox Pop, mais sans aucun service de télévision. Dans un mouvement assez rare, le fournisseur d’accès annonce aujourd’hui une petite baisse sur sa Freebox Pop S : « Dès aujourd’hui, le prix de la Série Spéciale Pop S accessible en ligne, baisse de 1 euro à 23,99 euros par mois sans engagement ». Elle s’aligne ainsi sur Pure Fibre de B&You.
Il n’est pas question d’une offre avec une durée limitée, comme on en a déjà vu plusieurs fois par le passé. C’est bien le tarif de la Freebox Pop S qui baisse et Free ajoute même qu’il « garantit ce prix pendant 5 ans ». Ce n’est pas la première fois qu’iliad fait une telle promesse. En 2022, Xavier Niel s’engageait à maintenir les prix sur le mobile pendant cinq ans. Engagement repris dans le bilan financier de 2024 : « Le Groupe s’est engagé en 2022 à ne pas augmenter les prix de ses forfaits mobiles (2 euros et 19,99 euros) pour les 5 prochaines années, soit jusqu’à 2027 ».
La Freebox Pop S n’a pour rappel que deux mois, un changement de tarif aussi rapide montre certainement que le marché est dynamique. Selon le dernier décompte de l’Arcep, la France comptait 32,564 millions d’abonnements haut débit en France, dont 24,391 millions en fibre optique (+ 744 000 en trois mois).
Sosh de son côté reste à 25,99 euros par mois, mais propose depuis plusieurs semaines une remise de 6 euros par mois pendant un an.
Il est loin le temps des forfaits à moins de deux euros
On reste dans tous les cas loin de la guerre commerciale que s’étaient livrés les opérateurs il y a une dizaine d’années avec des abonnements Internet à moins de 10 euros par mois… voire moins de 2 euros, et même à 0,99 euro sur le mobile. Free, qui multipliait les offres sur Vente privée (désormais Veepee) en avait fait les frais et avait décidé de prolonger certaines promotions en 2018 face à l’hémorragie.
Cette fois encore, voici un tableau récapitulatif des quatre forfaits « low cost » pour un accès à Internet sans fioriture. Et si vous souhaitez voir ce qu’il en est avec des forfaits plus haut de gamme incluant des accès à des plateformes de streaming, nous avions mis à jour notre comparateur interactif début avril.
On continue dans les nouveautés présentées par Microsoft durant sa conférence Build. Cette fois, on s’attarde sur les outils proposés aux développeurs, mais pas uniquement. Des produits comme WinGet,le terminal et WSL étaient ainsi à l’honneur.
WinGet pourra enregistrer l’état d’une machine
Commençons par WinGet, qui va recevoir une nouvelle commande. Nommée simplement Configuration, elle permettra d’enregistrer l’état d’un système dans un fichier de configuration, afin de le restaurer sur d’autres machines. L’état en question comprend les applications installées, ainsi que les différents paquets et outils.
Le point le plus intéressant est sans doute que cette commande prendra en charge le manifeste Microsoft Desired State Configuration V3. En clair, les applications compatibles pourront préserver leurs paramètres et configurations dans le même fichier. Lors de la restauration, elles retrouveront ainsi un état très proche que sur la machine d’origine.
La fonction sera disponible cet été.
L’édition de fichiers depuis le Terminal
L’une des annonces qui a le plus retenu l’attention des développeurs est Edit. Cet outil, dont la préversion doit arriver cet été, permettra de modifier directement des fichiers depuis le Terminal, pour éviter l’ouverture d’un outil dédié et une sortie des opérations en cours, avec l’objectif de minimiser les changements de contexte.
L’application, écrite en Rust, est également open source (sous licence MIT) et accessible actuellement sur son dépôt GitHub. Microsoft fournit des informations pour sa compilation.
L’éditeur se veut très simple. De l’aveu même de Microsoft, c’est une forme d’hommage à MS-DOS Editor. Léger (moins de 250 ko), il propose quand même son lot de fonctions, dont l’ouverture de plusieurs fichiers en parallèle (la rotation se fait via Ctrl + P), la possibilité de chercher et remplacer du texte, le support des majuscules et minuscules ou encore des expressions régulières. Bien que l’on puisse utiliser Edit avec la souris, toutes les fonctions ont des raccourcis clavier.
« Ce qui nous a motivés à créer Edit, c’est le besoin d’un éditeur de texte CLI par défaut dans les versions 64 bits de Windows. Les versions 32 bits de Windows sont livrées avec l’éditeur MS-DOS, mais les versions 64 bits n’ont pas d’éditeur CLI installé d’origine », explique dans un billet Christopher Nguyen, chef de produit chez Microsoft.
WSL et Copilot for GitHub passent en open source
Puisque l’on parle d’open source, Windows Subsystem for Linux vient également de recevoir ce traitement. Ce composant permet pour rappel depuis bientôt dix ans (lancé en 2016) de faire fonctionner des distributions Linux sur Windows grâce à la virtualisation. En dépit de certains ricanements initiaux, ce sous-système a été développé et entretenu dans le temps et plusieurs distributions peuvent être installées depuis le Store.
Si le code du noyau de WSL 2 était déjà disponible en open source, le reste était sous licence propriétaire. C’est désormais l’intégralité du sous-système que l’on trouve sous licence MIT sur un dépôt GitHub. Ce n’est d’ailleurs pas une simple visibilité sur le code, puisque Microsoft annonce recevoir volontiers des contributions. L’éditeur recommande d’ailleurs de lire le guide dédié avant de se lancer. Microsoft indique également que l’outil comporte certains éléments « basiques » de télémétrie, qui peuvent être désactivés.
Toujours dans l’open source, on trouve désormais Copilot for GitHub, l’extension pour Visual Studio Code permettant de recevoir une aide au développement par l’IA. Cette transition se fera sur plusieurs mois avec un passage progressif de toutes les fonctions sous licence MIT. Il ne semble pas y avoir encore de dépôt dédié.
Revendiquant maintenant près de 35 millions d’utilisateurs, Bluesky est encore un challenger dans le secteur des réseaux sociaux. Mais sa CEO Jay Graber espère que les évolutions de son application et l’écosystème du protocole AT sur lequel elle repose changent la donne.
En novembre dernier, Bluesky revendiquait 16 millions d’utilisateurs. Mais le réseau social voyait déjà son nombre d’utilisateurs grimper en flèche avec un million de nouveaux utilisateurs en une seule journée. Le réseau social est passé maintenant à 34,6 millions de personnes qui l’utilisent, selon sa CEO Jay Graber dans une interview menée par Wired.
Pour 2025, la trentenaire, qui a pris les rênes du réseau social il y a maintenant quatre ans, met l’accent sur la mise en place de deux aspects : la vérification et les communautés. Alors que ces deux faces des réseaux sociaux étaient en passe de devenir des évidences, elles ont été remises en cause. Par exemple, X (anciennement Twitter) a abandonné l’idée de signaler les comptes vérifiés. Récemment, Bluesky a, au contraire, inauguré son badge bleu et crée un statut de vérificateur.
Un accent sur les communautés
Côté communautés, Jay Graber affirme que « beaucoup de gens ne réalisent pas que Bluesky est un peu comme Reddit et Twitter à la fois, parce qu’on peut créer des flux qui sont principalement des communautés ». Et de prendre l’exemple du flux « science » de son application. Celui-ci est « est dirigé par des scientifiques, est modéré par des scientifiques et a ses propres règles ». Mais pour l’instant, les outils pour gérer tout ça sont des services tiers comme SkyFeed ou Graze. Bluesky prévoit de proposer des outils internes pour simplifier la création et la gestion des flux spécialisés avant la fin de l’année.
Et l’ancienne ingénieure logiciels compte aussi sur l’univers du protocole AT sur lequel s’appuie Bluesky pour fonder le futur standard des réseaux sociaux. Jay Graber présente le protocole comme l’ouverture de deux possibilités.
Le protocole AT pour construire un écosystème
D’une part, celle de créer des applications de réseaux sociaux différentes mais interopérables. Comme le Fediverse fédère des logiciels comme Mastodon, PixelFed ou PeerTube, le protocole AT doit permettre de proposer des applications de réseau social basées sur des médias différents (écrits, images, vidéos…). Jay Graber présente par exemple Skylight comme une alternative plus directe à TikTok que Bluesky : « elle vous permet de publier des vidéos de courte durée et vous pouvez les éditer dans l’application. Bluesky propose des vidéos, mais il s’agit d’un service plus secondaire ». Skylight est pourtant une application développée en totale indépendance de son entreprise.
« L’avantage d’un protocole ouvert est que vous pouvez passer de Bluesky à Skylight et conserver vos followers. Ils vous accompagnent donc d’une application à l’autre », ajoute-t-elle. Jay Graber mentionne aussi Flashes comme une alternative à Instagram, mais celle-ci n’existe encore que sur iOS.
Et pour la liberté d’expression
D’autre part, la CEO présente ce protocole comme un outil pour régler la question de la liberté d’expression et la modération. À la question « accueilleriez-vous Donald Trump », Jay Graber répond « Oui, Bluesky s’adresse à tout le monde, et nous pensons qu’avec le temps, la conversation publique au sens large doit s’appuyer sur un protocole ouvert ». Elle ajoute : « très tôt, nous avons intégré la liberté d’expression dans le protocole. N’importe qui peut faire l’équivalent d’un nouveau blog », affirme-t-elle, « ensuite, les sites comme Bluesky décident de la manière dont ils vont décider qu’elle sera sa portée [reach, en anglais] ».
Elle ajoute que « si vous voulez changer les règles, vous pouvez construire votre propre outil ou trouver un autre espace qui vous convient. Dans le cadre de Bluesky, c’est nous qui fixons les règles ». Comme nous l’expliquions en novembre dernier, ce protocole a été pensé pour être décentralisé mais, dans la pratique, Bluesky ne l’est pas. Si la responsable de Bluesky compare ça à l’ouverture du web, ici, la mise en œuvre est complexe et très onéreuse.
Dans l’interview menée par Wired, Jay Graber semble vouloir s’éloigner du monde des cryptomonnaies. Si elle assume encore le terme de web3, elle ne l’utilise plus que pour qualifier une évolution du web social surnommé web 2.0 à une époque maintenant lointaine : « Nous faisons évoluer les médias sociaux qui étaient basés sur des entreprises centralisées vers quelque chose d’ouvert et de distribué. C’était un objectif sous-jacent au mouvement Web3 – nous ne nous sommes pas appuyés sur la base technique d’une blockchain. Il est possible d’atteindre un grand nombre de ces objectifs en utilisant les principes du web ouvert et des technologies plus proches du web 1.0 ».
Les publicités arrivent sur Bluesky
Concernant le business model de son entreprise, Jay Graber compte toujours sur l’ouverture d’un système d’abonnement déjà annoncé en octobre dernier. « Les abonnements arrivent bientôt », assure-t-elle. Elle ajoute que « d’autres applications de l’écosystème expérimentent les posts sponsorisés et d’autres choses de ce genre » et précise que les publicités arriveront sur Bluesky. Mais l’entreprise travaille pour mettre en place un système différents de ce qui a déjà été fait sur les réseaux sociaux jusqu’à présent.
C’est via un message sur plusieurs réseaux sociaux (sur X et Facebook par exemple) que le compte officiel du département annonce avoir « été victime d’une cyber attaque de grande ampleur ». La conséquence est importante : « l’ensemble des systèmes d’information et des moyens de communication habituels ont été désactivés pour une période indéterminée ».
Sur LinkedIn, Muriel Hoyaux Mallat (directeur du pôle communication au département) affirme que « toutes les mesures sont mises en œuvre pour évaluer l’impact, protéger les données des agents et des usagers et rétablir les accès au réseau et aux applications ». Bien évidemment, toutes les équipes et prestataires « sont pleinement mobilisés en ce sens ».
Sophie Guilbaud (directrice adjointe des solidarités territoriales) ajoute que ses services restent « joignables sur [leurs] téléphones professionnels ». Elle ajoute que « les services des solidarités territoriales maintiennent l’accueil du public ». Ce qui est confirmé par la directrice des solidarités, Anne Rouville-Drouche, qui précise que les solidarités territoriales comprennent « les PMI et centres de santé sexuelle ».
Guillaume Ors (directeur de l’Innovation Numérique et des Systèmes d’Information au Conseil départemental de la Seine-Saint-Denis) en profite pour tirer la sonnette d’alarme : « On a longtemps cru que ces scénarios restaient l’apanage des hôpitaux, des labos ou d’OVH. Mais non : les collectivités locales sont en première ligne. Et parfois sans bouclier ».
Grand-messe annuelle de Microsoft pour les développeurs, la conférence Build était cette année encore riche en annonces. Si Windows était un peu oublié lors des éditions précédentes, bon nombre de nouveautés ont été présentées. Le Microsoft Store reçoit de son côté d’importantes améliorations, que l’on aurait aimé voir bien plus tôt.
Windows 11 : actions IA et paramètres avancés
On entre tout de suite dans le vif du sujet avec Windows 11. Pour les testeurs, les branches Dev et Beta ont reçu hier soir de nouvelles préversions, avec à peu près les mêmes nouveautés. D’abord, une série d’actions de type IA directement accessibles par le clic droit dans l’Explorateur, notamment de la retouche pour les images et la création de résumés ou de FAQ depuis des fichiers texte. Pour ces derniers, il faut disposer d’un abonnement Microsoft 365 accompagné d’une formule Copilot.
Ces préversions introduisent également une nouvelle section Paramètres avancés. Ils viennent en fait remplacer la section « Espace développeurs » et récupèrent au passage quelques fonctions de l’ancienne application Dev Home. On y trouve des réglages sur la fin de tâche depuis la barre, la suppression de la limite de taille sur les chemins d’accès, le choix du terminal par défaut, l’activation/désactivation des scripts PowerShell et ainsi de suite.
Widgets révisés et gestion de l’énergie
Parmi les autres changements, on trouve aussi une révision assez complète des widgets, avec une nouvelle apparence et des capacités supplémentaires, dont un fil d’actualité personnalisé par Copilot. En outre, le panneau de partage inclut le choix du niveau de compressions pour l’envoi des images.
Plus important, l’introduction d’un « User Interaction-Aware CPU Power Management », qui doit gérer de manière beaucoup plus granulaire le niveau de consommation de l’ordinateur en fonction de l’activité. Dans les grandes lignes, le système serait beaucoup plus proactif dans l’application des règles d’économie d’énergie et dans le déblocage de toute la puissance disponible (selon le contexte et les réglages) dès que l’utilisateur interagit à nouveau.
Ces apports étant notamment présents dans la branche Beta de Windows 11, ils seront probablement présents dans la future mise à jour 25H2. Comme d’habitude, elle devrait arriver durant l’automne, en espérant qu’elle sera moins problématique que la 24H2.
D’importantes améliorations pour le Microsoft Store
Sur les deux dernières années écoulées, le Store de Windows 10 et 11 a reçu de nombreuses améliorations, dont une hausse importante de ses performances et des informations que l’on aurait souhaité voir beaucoup plus tôt, comme les notes de version présentes directement dans le panneau des mises à jour. Sur ce point, trop peu d’éditeurs tiers jouent encore le jeu.
Microsoft poursuit dans cette voie et annonce plusieurs nouveautés qui auraient dû être là depuis longtemps. D’abord, le Store va afficher – enfin ! – la date de dernière mise à jour installée. Ensuite, pour les développeurs, les Health Reports vont être plus détaillés.
De nouveaux indicateurs seront fournis, comme le taux de plantage, de blocage ou encore le nombre de configurations sur lesquelles ces problèmes se produisent. Le Partner Center préviendra en outre par notification de pics inhabituels dans le nombre d’erreurs et facilitera la comparaison des données entre les versions, architectures et appareils.
Autre gros changement, la possibilité pour les applications Win32 d’être mises à jour directement via la boutique. Jusqu’à présent, il fallait que ces applications aient leur propre mécanisme, brisant au passage la promesse du Store de s’occuper de tout et permettant à des outils comme UniGetUI de prospérer.
Cependant, ces mises à jour ne sont pas automatiques. Elles apparaissent simplement dans la section Téléchargements et on peut cliquer sur Télécharger pour récupérer les dernières versions. Pas sûr en l’état que ce fonctionnement soit plus utile que la situation existante, la plupart des applications prévenant quand une nouvelle version est disponible.
Campagnes promotionnelles et comptes gratuits
On trouve encore deux apports pour les développeurs. D’abord, l’arrivée de deux programmes. Le premier permettra de lancer des campagnes promotionnelles pour les applications présentes sur le Store, ou dans d’autres produits via la Microsoft Advertising Platform. Le second, Microsoft Store FastTrack, permettra aux entreprises « qualifiées » un mécanisme accéléré de soumission des applications Win32 sur la boutique.
Enfin, les développeurs individuels n’auront plus rien à payer à partir du mois prochain pour enregistrer un compte chez Microsoft, pour permettre notamment la publication d’applications sur le Store. L’économie ne sera pas titanesque, car le tarif était jusqu’à présent de 19 dollars, mais le passage à la gratuité vient souligner les efforts d’attractivité. Pour comparaison, Apple réclame toujours 99 dollars par an, tandis que Google réclame un paiement unique de 25 dollars.
Notez que pour les entreprises, la création d’un compte développeur coûte toujours 99 dollars chez Microsoft, via un paiement unique.
Microsoft ne s’est d’ailleurs pas privée de lancer une pique à peine voilée à ses concurrents au passage, particulièrement Apple. La firme de Redmond a ainsi rappelé que la commission est de 12 % sur les jeux et 15 % sur les applications quand la plateforme commerciale du Store est utilisée. Pour les éditeurs ayant leur propre plateforme (ou passant par une plateforme tierce), il n’y a plus de commissions.
Nous reviendrons dans la journée sur les autres annonces faites dans le cadre de la Build 2025, notamment sur un élargissement de l’open à plusieurs outils de développement et sur l’intelligence artificielle.
Au Computex, Intel assure un service minimum avec assez peu d’annonces. Nous avons droit à deux nouvelles cartes graphiques Battlemage pour les professionnels, une version PCIe de l’accélérateur Gaudi 3 et des démonstrations de la prochaine génération de CPU mobile Panther Lake.
En décembre dernier, Intel présentait les deux premières cartes graphiques de sa série B (Battlemage) : les Arc B570 et Arc B580, avec des cœurs GPU Xe2 (deuxième génération). Elles prennent logiquement la suite de la série A (Alchemist). Au Computex 2025, c’est au tour des Arc Pro B50 et Arc Pro B60, elles aussi basées sur l’architecture Xe2.
Contrairement aux Arc B5x0, cette gamme vise les professionnels, d’où la mention Pro dans la référence, et dispose de bien plus de mémoire.
L’Arc Pro B50 dispose de 16 cœurs GPU et 16 Go de mémoire (interface 128 bits et 14 Gb/s pour 224 Go/s de bande passante), tandis que la seconde grimpe à 20 cœurs et 24 Go de mémoire (interface 192 bits et 19 Gb/s pour 456 Go/s de bande passante). L’Arc Pro B50 est, pour le moment, la seule carte Battlemage avec une vitesse de la mémoire à 14 Gb/s, contre 19 Gb/s pour les trois autres.
Intel annonce respectivement jusqu’à 197 et 170 TOPS pour ses deux cartes, ce qui les place en dessous des Arc B580 et B570 qui sont à 233 et 203 TOPS. Les deux nouvelles passent par contre au PCIe 5.0 x8 (au lieu du PCIe 4.0 x8). Les puces sont gravées en 5 nm par TSMC. Un comparatif des caractéristiques des quatre cartes Battlemage (deux Pro, deux grand public) est disponible par ici.
Sur la partie logicielle, Intel annonce que « sous Linux, les GPU prennent en charge une pile logicielle conteneurisée pour simplifier les déploiements d’IA, et seront progressivement mis à jour avec des fonctionnalités et des optimisations ».
Le fabricant précise qu’il est possible d’assembler « jusqu’à huit GPU Intel Arc Pro B60 de 24 Go pour permettre des modèles d’IA de taille moyenne (jusqu’à 150 milliards de paramètres) et précis avec jusqu’à 192 Go de mémoire vive vidéo ». Les 192 Go vient simplement de l’addition de la mémoire des huit GPU (8x 24 Go = 192 Go).
Les premiers exemplaires des cartes graphiques seront distribués aux partenaires d’Intel durant le mois de juin pour l’Arc Pro B60 et juillet pour l’Arc Pro B50.
Gaudi 3 passe au PCIe, l’AI Assistant Builder sur GitHub
Intel en profite aussi pour parler intelligence artificielle et revenir sur son accélérateur maison : Gaudi 3. Il avait été annoncé en avril 2024, puis présenté et comparé à la concurrence en juin dernier, lors du Computex 2024.
Pas de révolution cette année. Le fabricant indique seulement que ses accélérateurs Gaudi 3 « sont désormais disponibles en format PCIe et [sous forme de] systèmes à l’échelle du rack offrant des solutions évolutives et ouvertes pour l’inférence AI en entreprise et dans le cloud ». Les cartes PCIe Intel Gaudi 3 seront disponibles durant la seconde moitié de l’année.
Enfin, Intel revient sur son AI Assistant Builder, présenté au CES en début d’année : « un dispositif logiciel léger et ouvert pour construire et faire fonctionner localement des agents d’IA personnalisés sur des PC d’IA basés sur Intel ». Il est désormais disponible en version bêta publique sur GitHub.
Panther Lake se dévoile : un mélange de Lunar Lake et Arrow Lake-H ?
Le Computex est aussi l’occasion pour Intel, et ses partenaires, d’exposer des machines avec des puces Panther Lake, la prochaine génération de CPU mobile qui devrait donc succéder à Lunar Lake. Nos confrères de Hardware & Co ont publié quelques photos, de même que Wccftech.
La production de Panther Lake est attendue pour la seconde moitié de l’année, avec les premières machines probablement début 2026. La puce sera gravée avec un procédé maison 18A. Le modèle exposé disposait de 16 cœurs et d’autant de threads.
En 2024, Point de Contact relève une surreprésentation des éléments à caractère intimes ou sexuels parmi les contenus illégaux qu’elle a eu à transmettre aux autorités où dont elle a demandé la suppression aux hébergeurs. Elle relève par ailleurs un doublement des contenus terroristes.
En mauvaise posture financière au début de l’année 2024, Point de Contact s’est restructurée. Spécialisée depuis 26 ans dans la fourniture d’outils de signalement des contenus illicites en ligne, l’association est présidée depuis mai 2024 par Mark Pohlmann, PDG d’Aeteos, une entreprise spécialisée dans l’informatique cognitive.
Nommée signaleur de confiance par l’Arcom en mars 2025, l’association revient dans son rapport annuel sur ses activités de 2024 et sur les tendances qu’elle observe dans la masse des contenus problématiques qui lui sont remontés.
En 2024, Point de Contact a traité 42 713 signalements, un nombre en hausse de 64 % par rapport à l’année précédente. Dans le lot de ces alertes générées par des internautes, particuliers ou professionnels, des partenaires du réseau INHOPE de notification des contenus pédocriminels, ou directement générés par ses membres, 57 % (24 454) constituaient des contenus illégaux. La majorité de ces éléments ont fait l’objet d’une alerte aux autorités, et 3 365 d’une notification à des hébergeurs de contenus.
Les filles et les femmes surreprésentées dans les images à caractère intime ou sexuel
Au sein de ces signalements – dont un seul pouvait contenir plusieurs images ou contenus –, Point de Contact a identifié plus de 28 000 images et vidéos à caractère pédocriminel. 90 % de ces images mettaient en scène des filles, 10 % des garçons. Par ailleurs, 46 % étaient constituées de contenus « non-réels », c’est-à-dire de dessins ou d’images générées par IA.
Parmi les contenus traités, l’association souligne par ailleurs que 8 contenus illégaux sur 10 impliquaient en 2024 la publication de contenus intimes ou sexuels sans le consentement des personnes représentées. Dans l’immense majorité des cas, ces dernières étaient des femmes.
Point de contact salue par ailleurs la fermeture du site coco.gg, opérée en juin 2024 à la suite d’une enquête européenne (des autorités de France, de Bulgarie, d’Allemagne, de Lituanie, des Pays-Bas et de Hongrie étaient impliquées). « En 3 ans, rappelle le document, plus de 23 000 procédures judiciaires ont été ouvertes contre le site, aboutissant finalement à sa fermeture ». Le site avait notamment été utilisé par Dominique Pélicot, condamné à 20 ans de réclusion criminelle en décembre 2024, pour recruter les agresseurs de son épouse.
Point de Contact souligne un renversement de la tendance dans les cas de sextorsion, qui représentent 12 % des contenus à caractère intimes ou sexuels qu’elle a eu à traiter : les hommes sont surreprésentés parmi les victimes de ce type de publications. « On a l’impression que diffuser l’image des femmes, c’est déjà une victoire parce que ça les humilie, soulignait l’avocate et cofondatrice de l’association #StopFisha Rachel-Flore Pardo en 2022. Alors que pour les hommes, c’est souvent pour obtenir des fonds », des faveurs, voire un retrait politique, comme l’ont suggéré les affaires Griveaux ou Artigues.
Le racisme, en tête des discours haineux
Outre ce type de problématique, Point de Contact constate que 1 signalement sur 10 relevait de propos haineux illégaux. La loi française encadrant strictement ce type de propos – c’est-à-dire que ceux ne remplissant pas les critères d’incitation à la haine, à la violence ou à la discrimination relèvent de la liberté d’expression –, ils représentent moins de 10 % des discours signalés comme potentiellement haineux (126 cas sur les 1 648 signalements reçus en la matière).
En 2024, Point de Contact constate que l’origine est le principal motif de discrimination, suivi par la religion et l’orientation sexuelle. Elle relève que la part de contenus haineux en fonction de l’identité de genre ont le plus augmenté (8 % de ces contenus contre 1% en 2023 et 3% en 2022).
Doublement des contenus terroristes
Avec 163 contenus identifiés, l’association constate par ailleurs un doublement de la proportion de discours terroristes qu’elle a eu à traiter en 2024 par rapport à 2023. Intervenant dans le rapport de l’association, le spécialiste du terrorisme Alexandre Rodde souligne le « rajeunissement des mis en cause pour des faits de terrorisme », qui « communiquent plus que leurs ainés sur les réseaux sociaux » pour y déclarer « leur engagement idéologique violent ». Si la tendance, constatée par d’autres organismes, est inquiétante, elle permet aussi « une détection et des poursuites judiciaires plus fréquentes », signale l’expert.
Parmi les idéologies violentes, Alexandre Rodde souligne une répartition d’ « environ 60 % » des contenus « liés à l’ultra-droite, 30 % à des contenus jihadistes et 10 % liés à l’ultra-gauche ». Ces proportions ne sont pas transposables hors ligne, indique-t-il, où le terrorisme jihadiste reste « la première menace sur le territoire national » et « l’activité opérationnelle » des militants d’ultra-droite « reste réduite ». L’ultra-gauche est décrite comme « discrète », recourant à « des messageries cryptées » et interagissant « plus souvent hors des réseaux sociaux « classiques » ». Pour comparaison, entre 2017 et 2023, 41 attentats islamistes, neuf d’ultradroite et un d’ultragauche avaient été déjoués par les autorités, selon France Info.
Alexandre Rodde souligne par ailleurs de nouvelles tendances dans l’extrémisme violent : la mouvance incel, dont « une minorité d’individus ont planifié ou tenté de commettre des attaques en France au cours des derniers mois, notamment à Eysines (Gironde) en mai 2024 », et les groupes gores, « qui mélangent pédopornographie, satanisme, ésotérisme et néo-nazisme ». Certains de leurs membres ont « plusieurs attaques à l’arme blanche en Europe en 2024, notamment en Suède. Les arrestations ont également été nombreuses aux États-Unis, au Brésil et au Royaume-Uni. »
Vendredi dernier, Canonical a publié sa feuille de route pour Ubuntu 25.10, alias Questing Quokka. Phoronix a rappelé à cette occasion que cette version est une « LTS-1 », c’est-à-dire la dernière avant une nouvelle LTS (Long Term Support). Ces versions sont souvent riches en nouveautés, Canonical se dépêchant d’en ajouter autant que possible, afin de s’assurer qu’elles seront au niveau de la LTS suivante.
La feuille de route reflète cette ambition. On trouvera ainsi le nouveau GNOME 49 et ses applications de base, dont la visionneuse Loupe, l’émulateur de terminal Ptyxis, et peut-être Showtime en remplaçant de Totem, comme nous l’indiquions la semaine dernière. Pour l’instant, c’est la version 6.17 du noyau Linux qui est prévue.
Mais ce n’est que le sommet de l’iceberg. Ubuntu 25.10 doit également embarquer le support de Variable Refresh Rate (VRR), lisser le support des GPU NVIDIA dans Wayland, proposer pour la première fois une session desktop compatible avec l’architecture RISC-V, prendre en charge la puce TPM pour la fonction Full Disk Encryption, ou revoir le nombre de demandes d’autorisation dans l’interface.
Canonical prévoit en outre certaines tâches en parallèles, comme améliorer la documentation du système, une meilleure intégration de Microsoft Entra ID, ainsi qu’une préparation à l’European Accessibility Act.
Les principales dates du développement d’Ubuntu 25.10 sont connues : Feature Freeze le 16 aout, User Interface Freeze le 4 septembre, bêta publique le 18 septembre et version finale le 9 octobre.
Longtemps considéré comme le site de questions réponses de référence dans le monde des développeurs, Stack Overflow consulte actuellement sa communauté pour redéfinir son positionnement et élaborer sa future image de marque.
Avec 15 000 nouvelles questions en avril 2025, l’activité de Stack Overflow est équivalente à celle qu’enregistrait le site en janvier 2009, moins d’un an après sa création. Elle est surtout près de quatorze fois inférieure à celle du mois de mars 2017, record historique de la plateforme avec près de 208 000 fils de discussion ouverts. De quoi motiver l’ouverture d’une phase d’introspection, puis de consultation, pour Stack Exchange, la maison-mère du célèbre site dédié aux développeurs, propriété du fonds d’investissement Prosus depuis 2021 et un rachat à 1,8 milliard de dollars.
Redéfinir la marque Stack Overflow
« Lorsque Stack Overflow (et plus tard, Stack Exchange) a démarré, sa mission était claire et précise. Mais le monde a changé. Rapidement. L’intelligence artificielle transforme notre façon de construire, d’apprendre et de résoudre les problèmes. Le développement logiciel est radicalement différent de ce qu’il était il y a quelques années, et le rythme du changement ne fait que s’accélérer », constate Prashanth Chandrasekar, CEO de Stack Overflow. Dans un billet daté du 8 mai dernier, il annonce l’ouverture d’un chantier visant à redéfinir l’identité de marque de son vaisseau amiral.
Un graphique rappelle à quel point le forum originel, Stack Overflow, s’est transformé en un véritable écheveau de sites, de sous-sites et de marques, sous la houlette de la nouvelle entité légale, Stack Exchange. Pour l’équipe dirigeante, la marque de départ aurait ainsi été étirée jusqu’à atteindre son point de rupture, comme un élastique bandé trop fort.
La « stack » des différentes marques et services de l’entreprise illustre la façon dont son image de marque s’est « étirée », selon ses dirigeants
« En clair, notre identité de marque n’a pas suivi le rythme. Elle ne répond plus aux besoins des cas d’usage ni aux publics visés. Résultat : confusion, incohérences et inefficacité quotidiennes, tant à l’intérieur qu’à l’extérieur de l’entreprise. C’est ce que nous appelons la « dette de marque », un peu comme la dette technique d’une base de code », précisent Philippe Beaudette et Eric Martin, responsables respectivement de la communauté et du marketing, dans un billet connexe.
« La démarche irait plus loin qu’un simple coup de peinture. Il s’agit d’un réalignement avec notre mission : accompagner les bâtisseurs du futur dans un monde d’IA, avec clarté, rapidité et humanité. Il s’agit de nous présenter d’une manière qui reflète qui nous sommes aujourd’hui et où nous allons demain », promet Prashanth Chandrasekar, sans rappeler précisément ce qu’il estime être la mission, ou la raison d’être, de Stack Overflow.
Une omission rapidement soulignée par un commentateur se présentant comme un ancien employé. « Que cherche à devenir Stack aujourd’hui ? Un site de questions-réponses ? La principale source de données gérées par des experts pour un LLM ? Son propre LLM et son propre système de réponse ? Un outil de connaissance pour les entreprises ? Autre chose ? », interroge-t-il.
Des pistes d’évolution
Le sujet a cependant déjà été abordé par Prashanth Chandrasekar. En février dernier, il avait ainsi exposé, lors d’une séance de questions réponses en direct, sa vision optimiste de l’avenir de Stack Overflow, censée devenir le point de jonction entre communauté, connaissance et développement personnel.
Prashanth Chandrasekar, CEO de Stack Overflow, présente sa vision du futur de la plateforme – capture d’écran
De façon plus concrète, l’entreprise a initié début mars un fil de discussion dans lequel elle soumet l’une de ses pistes de réflexion quant à la plateforme. Elle y décrit la possibilité de déployer des outils d’échanges et d’interactions différents selon la nature et la complexité des questions posées, avec une file lente, dédiée aux questions réponses, une file intermédiaire pour la discussion et le débat d’idées, et une file rapide, centrée sur les échanges instantanés.
Stack Overflow face à l’IA générative
Même si corrélation n’est pas causalité, beaucoup considèrent que l’avènement de l’IA générative a placé Stack Overflow face à une forme de croisée des chemins. Le volume de création de nouveaux sujets décroit en effet de façon significative à partir de fin 2022 et de l’arrivée sur le marché des ChatGPT et consorts. L’étude des chiffres communiqués par l’entreprise montre toutefois une décrue antérieure, amorcée peu de temps après le pic d’activité engendré par le Covid-19.
Mises en forme par Next, les données de Stack Exchange montrent un ralentissement de l’activité à partir de fin 2020
D’après les derniers résultats financiers de Prosus, publiés (PDF) en décembre dernier et portant sur les six mois échus au 30 septembre 2024, Stack Overflow aurait enregistré 57 millions de dollars de chiffre d’affaires sur le semestre, en hausse de 21 % sur un an, principalement grâce au succès des API permettant de se connecter à la plateforme et à ses contenus, note l’actionnaire.
C’est via un communiqué des plus succincts que les trois entreprises annoncent leur partenariat : « Thales, Radiall et FoxConn annoncent avoir engagé des discussions préliminaires pour explorer la possibilité de créer, en France, une capacité industrielle d’assemblage et de test externalisée de semi-conducteurs ».
Ils visent à produire « plus de 100 millions de composants de type System In Package (SIP) par an d’ici 2031 ». Les secteurs ciblés sont l’aérospatial, l’automobile, les télécommunications et la défense. Pour les détails (emplacement du site, délais…), on repassera.
« Cette initiative ambitionne d’accueillir d’autres acteurs industriels afin de soutenir un investissement qui pourrait dépasser 250 millions d’euros et assurer un solide leadership européen à ce projet », indique le communiqué.
Foxconn (alias Hon Hai Precision Industry Company) est une société taïwanaise (très bien implantée en Chine) souvent présentée comme le plus important fabricant d’informatique. Au dernier trimestre, son chiffre d’affaires était de 47 milliards d’euros pour un bénéfice net de 1,24 milliard d’euros.
Radiall de son côté est une entreprise française qui conçoit des « composants d’interconnexion ». Ses domaines d’activité sont l’aéronautique, la défense, le spatial, les télécoms… Ce n’est pas sans rappeler les domaines d’expertise de Thales.