Mi-septembre, la Data Protection Commission (DPC, l’autorité homologue de la CNIL en Irlande) a accueilli en son sein une nouvelle commissaire, Niamh Sweeney, ayant travaillé pendant 10 ans en tant que lobbyiste dont six ans comme salariée de Meta (de 2015 à 2021).
L’association noyb avait déjà réagi en estimant que « Meta s’autorégule désormais officiellement ». Mais ce mardi, c’est l’organisation irlandaise Irish Council for Civil Liberties qui annonce avoir porté plainte devant la Commission européenne contre l’Irlande pour « ne pas avoir fourni de garanties suffisantes quant à l’indépendance et l’impartialité de son processus de nomination d’un nouveau commissaire à la protection des données ». Elle déplore l’ « absence de garanties contre les conflits d’intérêts et les ingérences politiques ».
Mais la Commission européenne se considère incompétente pour prendre en charge cette plainte : « il appartient aux États membres de nommer les membres de leurs autorités respectives chargées de la protection des données », selon le porte-parole de la Commission, Guillaume Mercier, cité par Politico. Il a ajouté que la Commission « n’est pas impliquée dans ce processus et n’est pas habilitée à prendre des mesures concernant ces nominations ».
Il a néanmoins souligné que les pays doivent suivre un processus de nomination « transparent » et que les personnes nommées doivent « posséder les qualifications, l’expérience et les compétences, notamment en matière de protection des données à caractère personnel, requises pour exercer leurs fonctions et leurs pouvoirs ».
L’application de dessin et de retouche GIMP a désormais un Snap officiel. L’équipe de développement « répare » donc une carence, puisque le logiciel possédait déjà des conteneurs AppImage et Flatpak.
Techniquement, GIMP était déjà disponible dans le Snap Store. Il s’agissait cependant d’une construction réalisée par la communauté et affichée en tant que telle par une coche jaune. Cette fois, il s’agit d’un paquet officiellement produit par l’équipe de GIMP, dont la production est assurée par le même processus que pour les autres conteneurs.
Pour les personnes intéressées, cela garantit notamment que les nouvelles versions seront disponibles le jour même dans le Store d’Ubuntu, ou dans les autres distributions utilisant Snap. Cependant, si vous utilisez déjà un autre type de paquet, comme Flatpak, vous avez déjà ce type d’avantage. Si vous passez par les paquets classiques comme DEB, rien ne change non plus, ils continueront d’être proposés.
Elon Musk vient de lancer son encyclopédie Grokipedia, visiblement inspirée de Wikipédia, mais diffusant les idées de son fondateur sur diverses thématiques que ce dernier a l’habitude de brocarder – y compris en ravivant des thèses relevant du « racisme scientifique ».
Autrefois, Elon Musk adorait Wikipédia. Il l’écrivait même sur Twitter, avant de racheter et de renommer le réseau social en X.
Depuis son tournant résolument politique, en revanche, l’entrepreneur a clairement fait savoir que, désormais, il détestait l’encyclopédie. Après avoir critiqué sa ligne éditoriale à plusieurs reprises —, Musk parle de « Wokipedia » — et appelé à cesser toute donation envers la fondation Wikimédia, l’entrepreneur a lancé ce 27 octobre sa propre encyclopédie, nommée Grokipedia. Son fondateur avait reculé son lancement d’une semaine, et annonce déjà l’arrivée d’une version « dix fois meilleure », sans donner de date précise.
Appuyé sur les productions du grand modèle de langage qui fait tourner Grok, le chatbot conversationnel disponible sur X, le projet n’a rien et tout à voir avec son inspiration originelle.
Un projet intégré à l’écosystème X
Ne proposant qu’une barre de recherche et la possibilité de s’identifier (notamment depuis son compte X), la page d’accueil de Grokipedia ressemble à celle d’un moteur de recherche – ou à celle de Wikipédia, appels à soutien de la fondation Wikimedia en moins.
Pour l’internaute, le login permet de gérer son compte ou d’accéder à des discussions avec le chatbot Grok. Sur les pages de l’encyclopédie, il permet aussi, en sélectionnant un passage, d’échanger à son sujet avec Grok, ou de déclarer que les faits présentés sont faux et de proposer des corrections. Pour les sociétés d’Elon Musk, il permet de lier les traces d’activités d’une seule et même personne sur les différentes plateformes que sont X, Grok et Grokipedia.
Des mentions plus ou moins directes de la source Wikipédia
Lançons une recherche pour des termes anglophones. « The Beatles », suggéré par la plateforme elle-même, renvoie une immense page sur le groupe de musique, avec un sommaire parfaitement chronologique (dont les titres évoquent de très près ceux du sommaire disponible sur Wikipedia) et pas moins de 276 notes de bas de page.
« Bauhaus » renvoie, de même, à un texte précédé de la mention « fact-checké hier par Grok », une phrase qui alimente la comparaison entre la machine Grok et les professionnels humains de la vérification des faits. Quant à savoir pourquoi Grok a fact-checké « hier » et pas aujourd’hui, un passage de souris sur la mention permet simplement de supposer que la dernière version du texte remonte au 27.10 à 17 h.
Capture du haut de la page « Bauhaus » sur Grokipedia.
Pour s’aider dans la lecture, un sommaire en 7 parties et 19 sous-parties s’affiche à gauche de la page. À son terme, 141 notes de bas de page. C’est plus que sur la page Wikipédia du mouvement artistique, mais on n’y trouve que des articles de presse, sites web de musée et liens vers des blogs ou des pages Reddit, quand les auteurs de la page Bauhaus de Wikipédia citent une quinzaine d’ouvrages spécialisés parmi leurs multiples références.
Quand bien même ces citations peuvent donner une impression de qualité, le contenu, généré par IA, contient diverses approximations. Ainsi de citations de Tucker Carlson transformées en énoncés factuels dans la page qui lui est dédiée. Ou du nombre de décès dans les émeutes du Capitole, le 6 janvier 2021, réduit de cinq à quatre.
Testons désormais des notions dont Elon Musk s’est déjà ouvertement agacé. Par réflexe, nous écrivons « genre », en français, dans la barre de recherche. Nous voici sur un résultat complètement écrit en anglais, qui ne prend donc en compte que l’acception anglophone du terme. Sur des lignes et des lignes de textes, quelqu’un ou quelque chose (le fameux LLM avec lequel nous pouvons converser si nous nous connectons à notre compte personnel ?) nous détaille différents genres musicaux. Et puis, en pied de page, surprise : une référence directe à la source, Wikipédia.
Capture d’écran du pied de la page « genre » sur Grokipedia.
Des notices ouvertement parcellaires, racistes, désinformatrices
Grokipedia n’est visiblement pas multilingue, repassons donc à l’anglais. L’entrée « gender » (genre) indique que le genre se réfère à la « classification binaire des humains comme homme ou femme en fonction du sexe biologique ». Exit le troisième genre présent dans de multiples sociétés ancestrales ou contemporaines. Exit, aussi, toute possibilité de se déclarer non-binaire ou transgenre.
Pour comparaison, le Wikipedia anglophone indique que le genre « consiste en la variété d’aspects sociaux, psychologiques, culturels ou comportementaux liés au fait d’être un homme (ou un garçon), une femme (ou une fille), ou un troisième genre ».
Au début de la lecture, l’entrée « racism » (racisme) pourrait sembler de qualité, si tant est que l’on apprécie le style relativement verbeux que nous reconnaissons déjà sur les pages de Grokipedia. Une inspection du sommaire alerte, néanmoins : la deuxième partie (sur huit) est titrée « perspectives biologiques et scientifiques », sa première sous-partie « preuves de races biologiques ». Cliquons sur le lien.
Dans son style d’apparence factuelle et neutre, Grokipedia développe sur une douzaine de paragraphes (trois sous-parties au total) des thèses donnant crédit au racisme le plus assumé. Citant une poignée d’études d’apparences scientifiques, avec force chiffres qui peuvent jouer ici le rôle d’arguments d’autorité, Grokipedia remet au goût du jour des éléments issus du racisme scientifique du XIXe siècle, dont des éléments de craniométrie (supposée montrer par des mesures du crâne la supériorité des populations blanches ou européennes sur les autres), ou des différences de comportements voire de quotient intellectuel selon l’origine géographique ou la couleur de peau.
En anglais comme en français, les notices écrites par des groupes d’auteurs humains à partir de recherches scientifiques sur Wikipédia rendent bien plus évident que l’eugénisme ou les pratiques de classification des êtres humains en fonction de leurs variations morphologiques relèvent des pseudo-sciences, mais aussi qu’elles servent des projets politiques comme l’impérialisme et le colonialisme.
D’autres pistes qui résonnent avec les préoccupations d’Elon Musk ? Intéressons-nous aux attaques du Capitole, du 6 janvier 2021. Si l’on se renseigne sur le sujet du côté de Grokipedia, il s’est agit d’une « émeute » permise, notamment, par des faiblesses des dispositifs de sécurité. Une présentation saluée comme « factuelle, chronologique et sobre » par l’entrepreneur et soutien d’Elon Musk Mario Nawfal, qui critique en revanche la présentation, sur Wikipédia, de l’événement comme « une tentative de coup d’état ».
Dans le déroulé chronologique des événements (format si régulier, sur les pages visitées, qu’il semble découler du fonctionnement même de Grok), les thèses des soutiens de Trump sur la falsification de votes sont présentées comme légitimes. Le site les intègre sans jamais le lier à la propension déjà affichée par Trump pendant son premier mandat à pousser des théories complotistes et à utiliser régulièrement des tactiques de désinformation. La machine indique par ailleurs que 4 personnes sont mortes pendant ces évènements (5 en réalité), de causes « non-violentes » (quand bien même le texte relate le tir d’un policier sur Ashli Babbitt).
À la page « changement climatique », la machine propose des éléments relativement factuels, jusqu’à la partie finale, titrée « controverses et points de vue alternatifs ». Cette dernière cite par exemple une unique étude scientifique, présentée comme à même de remettre en cause le consensus scientifique sur l’origine humaine du bouleversement climatique. Le texte présente aussi les médias et plusieurs organisations de protection du climat comme « alimentant des paniques morales » et « amplifiant » des récits perçus comme strictement politiques, donc faux, ou a minima disproportionnés.
Évoquant le vocabulaire de « crise » climatique désormais récurrent, la phrase de conclusion indique : « Cette évolution linguistique reflète les efforts coordonnés visant à présenter la question comme un impératif existentiel, influençant le discours public et les politiques sans toujours s’appuyer sur des preuves empiriques proportionnées », à rebours du consensus scientifique.
Sur chacune de ces thématiques plus directement politiques, ou a minima mobilisées dans le débat public, Grokipedia s’apparente donc plus à un porte-voix des idées d’Elon Musk – qui préfère utiliser le vocabulaire du « risque existentiel » au sujet de l’intelligence artificielle plutôt que du changement climatique – qu’à une encyclopédie cherchant à fournir un état factuel des connaissances.
Wikipédia, rappelons-le, n’est pas exempte de débats sur sa propre ligne éditoriale. À l’heure actuelle, sur la plupart de ses versions, ces discussions sont réglées publiquement entre contributeurs et contributrices.
Considérant que ses démarches auprès des différentes CNIL européennes contre Clearview sont restées infructueuses, l’association noyb passe à la vitesse supérieure en attaquant l’entreprise et ses dirigeants devant la justice autrichienne.
noyb vient d’annoncer le dépôt d’une plainte devant la justice autrichienne contre Clearview mais aussi ses dirigeants. Si les reproches formulés par l’association de Max Schrems ne sont pas nouveaux, elle utilise maintenant un autre outil légal contre l’entreprise de reconnaissance faciale : la plainte au pénal.
En effet, ça fait quatre ans que le dossier Clearview est passé devant différentes autorités européennes de protection des données. En 2021, Privacy International, le Hermes Center for Transparency and Digital Human Rights, Homo Digitalis et noyb déposaient des plaintes devant la CNIL et ses homologues italienne, grecque, britannique et autrichienne.
Une base de données de plus de 10 milliards d’images
Les associations expliquaient que Clearview utilisait un « dispositif automatisé de récupération d’images », soit un outil qui explore le web et récupère toutes les images qu’il détecte comme contenant des visages humains ».
Suite à cette saisie, la CNIL a condamné en octobre 2022 l’entreprise états-unienne à 20 millions d’euros d’amende. L’autorité a constaté que Clearview a aspiré « plus de 10 milliards d’images à travers le monde » sans le consentement des intéressés et « sans base légale », et donc en violation du RGPD. D’autres autorités ont aussi prononcé des amendes : 20 millions d’euros en Italie, le même montant en Grèce et 7,5 millions de livres en Grande-Bretagne. L’autorité autrichienne n’a pas infligé d’amendes à Clearview tout en considérant que son utilisation des données était illégale [PDF].
Mais huit mois après, constatant que l’entreprise ignorait sa décision, la CNIL a infligé 5 millions d’euros d’astreinte à Clearview. Le problème reste que l’autorité a très peu de moyen de récupérer ces amendes et ainsi de faire respecter le RGPD à une entreprise qui n’a pas de siège social en Europe.
Questionnée par Next sur ses moyens de faire respecter sa décision, l’autorité avait répondu à l’époque que, « s’agissant de l’injonction, la CNIL continue de se rapprocher de son homologue américain, la Federal Trade Commission (FTC), pour évoquer la façon dont nous pourrions nous assurer de l’exécution de l’injonction prononcée à l’encontre de la société ». Pour l’astreinte, elle affirmait :« le Ministère de l’Économie et des Finances se rapproche de la FTC pour envisager les moyens existants et possibles à mettre en œuvre pour recouvrer l’amende ainsi que l’astreinte ».
Nous avons demandé à la CNIL où en était ce dossier et nous actualiserons l’article si l’autorité nous répond.
Selon noyb, Clearview a fait de même pour toutes les décisions des autorités européennes, ne faisant appel que devant l’autorité britannique (le sujet est encore en cours de discussion au travers des diverses instances du Royaume-Uni).
Le pénal comme solution ?
L’association a donc décidé, comme elle l’explique dans un communiqué, de passer par une autre voie : la justice pénale. Ainsi, elle attaque Clearview devant un tribunal autrichien en s’appuyant sur la transposition du RGPD dans le droit du pays qui prévoit des sanctions pénales pour certaines violation du règlement européen. Notamment, une disposition prévoit une peine d’emprisonnement d’un an maximum ou une amende (d’un maximum de 720 jours-amendes), pour les personnes ayant l’intention de s’enrichir en rendant accessible à un tiers ou publiant des données à caractère personnel en les ayant obtenues de manière illicite.
noyb souligne que, « contrairement aux violations du RGPD, les infractions pénales permettent également de prendre des mesures à l’encontre des dirigeants et de recourir à l’ensemble des procédures pénales, y compris à l’échelle de l’UE ». Elle ajoute que « si celle-ci aboutit, Clearview AI et ses dirigeants pourraient être condamnés à des peines de prison et être tenus personnellement responsables, en particulier s’ils se rendent en Europe ».
L’association ne communique pas le texte de sa plainte mais Next a demandé à y accéder et nous mettrons à jour cet article au besoin.
Comme nous l’expliquions récemment, le co-fondateur de Clearview avait en tête, dès l’origine du projet, la reconnaissance faciale des immigrants et la surveillance des frontières étasuniennes. L’entreprise propose sur son site web aux autorités d’ « exploiter le pouvoir de la reconnaissance faciale dans les enquêtes criminelles ».
Mozilla prépare un important changement, avec l’obligation pour les extensions de préciser si des données sont collectées et lesquelles. Cette règle sera active le 3 novembre pour les nouvelles extensions, mais sera étendue à toutes en 2026.
La fondation Mozilla va imposer de nouvelles règles aux extensions publiées dans sa boutique officielle addons.mozilla.org. Ainsi, à compter du 3 novembre, toutes les nouvelles extensions qui seront soumises pour vérification devront intégrer une nouvelle clé dans leur fichier manifeste (manifest.json).
Qui collecte quoi
Cette clé – browser_specific_settings.gecko.data_collection_permissions – devra impérativement être renseignée, sous peine de rejet lors de l’examen. Dans le cas où une extension ne collecterait aucune donnée, la clé devra avoir pour valeur « none ». Dans le cas contraire, tous les types d’informations devront être mentionnés, par exemple la position géographique.
L’idée, bien sûr, est d’afficher cette information pour que l’internaute sache précisément à quoi s’en tenir. L’information sera d’ailleurs indiquée à plusieurs endroits : dans la fenêtre d’installation, sur la page officielle de l’extension dans la boutique de Mozilla, ainsi que dans la section Permissions de la page « Vie privée et sécurité » des paramètres du navigateur.
Durant une phase de plusieurs mois, cette obligation ne concernera que les nouvelles extensions proposées pour révision, et pas les mises à jour des extensions existantes. Une fois qu’une extension disposera de la nouvelle clé, elle devra la réutiliser pour toutes ses versions ultérieures. Si elle devait ne pas être renseignée dans le manifeste, l’extension serait rejetée.
Généralisation à toutes les extensions l’année prochaine
Cependant, durant le premier semestre 2026, le mécanisme sera étendu à toutes les extensions. L’éditeur ne précise pas si ces extensions auront une date limite pour s’y atteler ou si l’obligation concernera uniquement les mises à jour. Mozilla indique dans son billet que des informations supplémentaires seront bientôt publiées et que tous les développeurs seront prévenus de cette bascule.
Il est probable que la nouvelle règle s’applique surtout aux mises à jour, au moins dans un premier temps. Une date butoir pourrait être envisagée, mais sera sans doute assez lointaine, pour ne pas risquer de voir la boutique se vider d’un trop grand nombre d’extensions. Il peut exister de multiples raisons pouvant expliquer une absence de mise à jour, dont un manque de temps voire un abandon du projet. La question sera alors de savoir si ces extensions pourront encore rester sur la boutique.
Le changement, quoi qu’il en soit, est positif en matière de sécurité et de vie privée. Notez que des informations existent déjà sur les fiches des extensions sur la boutique de Mozilla, de même que dans le Chrome Web Store. L’idée de Mozilla est surtout de mettre en avant une information cruciale qui pourrait influer sur la décision d’installer ou non plus une extension. Le Chrome Web Store précise quand une extension peut lire et modifier toutes les données sur l’ensemble des sites, mais pas quand des données sont collectées. La liste des autorisations sur la fiche correspondante permet cependant de le deviner.
La Python Software Foundation explique avoir dû refuser une subvention de 1,5 million de dollars. Les conditions assorties mentionnaient l’interdiction de toute politique DEI (diversité, équité et inclusion).
Comme elle l’explique dans un billet publié ce 27 octobre, la Python Software Foundation – qui gère le développement du langage – vient de refuser une importante subvention américaine.
1,5 million de dollars sur deux ans
En janvier dernier, elle avait en effet envoyé une demande de subvention à la National Science Foundation du gouvernement américain dans le cadre du programme Safety, Security, and Privacy of Open Source Ecosystems. Ce programme permet de recevoir des fonds pour travailler spécifiquement sur la sécurité des composants open source.
Selon la fondation, c’était la première fois qu’elle demandait une telle subvention. Dans ce contexte, la construction du dossier aurait réclamé beaucoup de temps, menée par Seth Larson, développeur de sécurité et chercheur principal, et Loren Crary, directeur général adjoint de la fondation. Cette dernière estimait que son travail cadrait parfaitement avec le programme de la NSF.
La subvention a été accordée, provoquant initialement la joie de la fondation. Et pour cause : le montant alloué était de 1,5 million de dollars sur deux ans. La fondation dit fonctionner sur un budget habituel d’environ 5 millions de dollars par an, qui sert aux développeurs, à diverses opérations de communication et sensibilisation, et aux salaires de ses 14 employés.
Pas de politique de diversité, équité et inclusion
Elle indique cependant avoir déchanté en découvrant les conditions assorties. Si la fondation acceptait la subvention, elle devait notamment renoncer à toute politique DEI (diversité, équité et inclusion).
« Ces conditions comprenaient l’affirmation de la déclaration selon laquelle nous « n’exploitons pas, et ne gérerons pas, pendant la durée de cette aide financière, des programmes qui font progresser ou promeuvent la DEI ou une idéologie d’équité discriminatoire en violation des lois fédérales anti-discrimination ». Cette restriction s’appliquerait non seulement au travail de sécurité directement financé par la subvention, mais à toutes les activités de la PSF dans son ensemble. »
Sans surprise, la fondation a décidé de refuser la subvention et de s’en expliquer. Elle précise à ce titre que l’argent aurait « fait une grande différence dans le budget », en matière de sécurité comme pour son fonctionnement général. Elle aurait représenté « de loin » la plus grosse subvention reçue par la fondation depuis sa création.
La fondation ajoute que le refus de la subvention accentue nettement la pression financière sur la structure, surtout après avoir travaillé à son obtention depuis janvier. Elle cite l’inflation, la baisse du parrainage, la pression économique dans le secteur technologique, l’incertitude générale et les conflits mondiaux comme autant de facteurs. La fondation indique avoir « plus que jamais besoin d’un soutien financier » et encourage aux participations, que ce soit sous forme de dons simples ou d’adhésion à la structure. Les entreprises peuvent demander à devenir des sponsors.
Mise à jour 28 octobre à 15h10 : Dans un communiqué, Amazon confirme le licenciement de 14 000 personnes.
Amazon va lancer, dès ce mardi 28 octobre, un plan de licenciements d’environ 30 000 salariés selon des sources de plusieurs médias états-uniens.
Ainsi, l’agence de presse Reuters explique que si ce chiffre représente une petite partie des 1,55 million de personnes qui travaillent pour Amazon à travers le monde, c’est 10 % des salariés officiant dans les bureaux de l’entreprise de Jeff Bezos qui devraient être touchés.
Les sources du Wall Street Journal affirment que « les ressources humaines, le cloud computing, la publicité et plusieurs autres divisions » devraient être concernées. Reuters ajoute à la liste les divisions « appareils et services » et Amazon Web Services, qui a très récemment essuyé une panne de grande ampleur. Selon celles du New York Times, des postes élevés dans la hiérarchie devraient être plus touchés que lors des précédentes vagues de licenciements.
Les sources de Reuters expliquent que le programme de quasi-arrêt du télétravail (retour au bureau cinq jours par semaine) lancé au sein d’Amazon en début d’année n’aurait pas permis de générer le nombre de départs espérés. Certains employés habitant loin et ne venant pas quotidiennement au bureau auraient été considérés comme démissionnaires par l’entreprise. Celle-ci estimerait en conséquence ne pas avoir à leur verser d’indemnités de licenciement.
Une enquête basée sur des documents internes a par ailleurs récemment révélé qu’Amazon s’attendait à pouvoir éviter 600 000 embauches d’ici 2033 grâce à l’automatisation et aux robots.
L’Autorité de la concurrence australienne engage des poursuites en justice à l’encontre de Microsoft. Elle accuse l’éditeur d’avoir délibérément trompé 2,7 millions de consommateurs australiens en appliquant des hausses de prix aux abonnements Microsoft 365 sans les avertir correctement de l’existence d’une formule dépourvue des fonctions IA Copilot.
L’annonce de la hausse des tarifs de Microsoft 365, motivée selon son éditeur par l’intégration des fonctions IA Copilot, avait fait grincer quelques dents parmi les lecteurs de Next. En Australie, elle vient d’occasionner une procédure nettement plus formelle. L’ACCC (Australian Competition and Consumer Commission), le gendarme de la concurrence local, vient en effet d’attaquer Microsoft en justice pour avoir, selon elle, « induit en erreur environ 2,7 millions de clients australiens lors de la communication des options d’abonnement et des augmentations de prix, après avoir intégré son assistant d’IA, Copilot, aux forfaits Microsoft 365 ».
Une option sans IA bien cachée
Le mouvement avait été annoncé aux abonnés Microsoft 365 à partir de la fin octobre 2024 : à compter du début d’année 2025, l’abonnement, qui permet pour mémoire d’accéder aux principaux logiciels de la suite bureautique Office, allait s’enrichir de fonctions d’IA générative, grâce à l’intégration de Copilot, l’agent développé par Microsoft.
Une hausse de prix significative a accompagné cette nouveauté. En France, le tarif annuel de l’offre Microsoft 365 Personnel est ainsi passé de 69 euros à 99 euros par an, tandis que l’offre Famille a quant à elle vu son prix grimper de 99 à 129 euros par an.
Il existe toutefois une possibilité de rester sur une formule dépourvue des fonctions IA, en basculant vers un forfait dit « Classique », mais cette dernière n’est absolument pas mise en avant par Microsoft. Signalée à l’époque dans une discrète page de support, cette option n’est aujourd’hui pas affichée sur la page de gestion d’un abonnement Microsoft 365 : il faut passer par une demande de désactivation de la facturation automatique pour se la voir proposer.
Il faut engager une démarche de résiliation pour voir apparaître l’offre Classique dépourvue des fonctions IA – capture d’écran Next
Une omission trompeuse ?
C’est le caractère très discret de cette option qu’attaque la Concurrence australienne. « À l’issue d’une enquête approfondie, nous affirmerons devant le tribunal que Microsoft a délibérément omis de mentionner les forfaits Classic dans ses communications et a dissimulé leur existence jusqu’à ce que les abonnés entament le processus de résiliation, afin d’augmenter le nombre de consommateurs optant pour les forfaits plus chers intégrant Copilot », résume l’avocate Gina Cass-Gottlieb, présidente de l’ACCC, dans un communiqué.
En Australie, l’intégration de Copilot s’est traduite par une augmentation de 45 % du prix du forfait Microsoft 365 Personnel, passé de 109 à 159 dollars australiens. Cette dernière a, comme ailleurs dans le monde, été annoncée par email aux abonnés existants, après publication par Microsoft d’un billet de blog vantant les mérites de Copilot.
« Nous alléguons que les deux emails de Microsoft aux abonnés existants et le billet de blog étaient faux ou trompeurs car ils indiquaient que les consommateurs devaient accepter les plans intégrés à Copilot plus chers et que la seule autre option était d’annuler », ajoute Gina Cass-Gottlieb.
Pour l’ACCC, il y aurait donc communication trompeuse. « S’ils avaient été informés de l’option Classic pendant la période de renouvellement, de nombreux consommateurs auraient pu opter pour cette option. Ils auraient pu le faire pour des raisons d’économie, parce qu’ils ne souhaitaient pas ou n’avaient pas besoin de l’intégration de l’IA, ou pour une combinaison de ces raisons. Les consommateurs qui auraient choisi l’option Classique s’ils en avaient eu connaissance, mais qui ont finalement accepté le prix plus élevé de l’abonnement Bundle, ont subi un préjudice correspondant à la différence de prix entre les deux options », expose plus en détails l’organisme dans sa déclaration de plainte (PDF).
En cas de condamnation, Microsoft pourrait se voir sanctionné, selon la loi australienne, d’une amende maximale de 50 millions de dollars australiens.
Un an après avoir été poursuivie en justice par WP Engine, pour entre autres tentative d’extorsion et abus de pouvoir, Automattic contre-attaque dans la même affaire, a annoncé l’entreprise dans un billet de blog. Elle accuse WP Engine de concurrence déloyale et de contrefaçon de la marque WordPress.
Notamment, elle pointe l’utilisation du terme dans ces produits comme « Core WordPress » ou « Headless WordPress ». Automattic pointe aussi l’utilisation par WP Engine de l’appellation « « The WordPress Technology Company » et l’accuse d’avoir laissé ses partenaires avoir utilisé le nom « WordPress Engine » pour parler de WP Engine.
Logo WordPress
L’année dernière, l’écosystème commercial de WordPress avait assisté de façon impuissante à la confrontation entre ces deux entreprises qui dominent le marché. WP Engine avait fini par attaquer en justice Automattic et Matt Mullenweg (créateur du logiciel WordPress et de la fondation du même nom mais aussi CEO d’Automattic) pour tentative d’extorsion.
France Télévisions et TF1 ont dénoncé lundi le lancement « sans concertation préalable » de l’offre Free TV, qui promet un accès gratuit à 170 chaînes de télévision sur smartphone, ordinateur ou écran de TV, en échange de publicités. Les deux groupes en appellent aux pouvoirs publics et au régulateur.
Actionnaire historique de Molotov, Xavier Niel sait très bien qu’il jette un pavé dans la mare quand il relaie le lancement de l’offre de télévision Free TV, en axant son discours sur la gratuité du service. Une semaine plus tard, réponse du berger à la bergère : France Télévisions et le Groupe TF1 associent leurs voix dans un communiqué commun pour dénoncer l’initiative :
« France Télévisions et le Groupe TF1 dénoncent avec la plus grande fermeté l’initiative de Free visant à commercialiser leurs services sans aucune concertation préalable avec les éditeurs concernés. Cette méthode brutale et unilatérale témoigne d’un mépris des droits des ayants droit créateurs et acteurs du secteur audiovisuel et de leurs partenaires commerciaux.
Appel aux pouvoirs publics et à l’Arcom
Free TV propose pour mémoire à tous les internautes (abonnés à Free ou non) d’accéder à 170 chaînes de télévision dans sa formule gratuite, financée par la publicité. Le bouquet comprend la majorité des chaînes de la TNT gratuite, dont celles de France TV, mais les canaux des groupes TF1 et M6 en sont exclus.
À ce premier étage s’ajoute une offre optionnelle Free TV+ (5,99 euros par mois, gratuite pour les abonnés Freebox avec le service de télévision ou les abonnés mobiles Forfait Free 5G et Série Free) qui réunit quant à elle 300 chaînes, dont celles du groupe TF1.
Résumé de l’offre Free TV et de son pendant payant Free TV+
TF1 et France Télévisions voient dans cette approche une façon directe de concurrencer leurs propres canaux de distribution, et donc une menace à caractère stratégique. « La majorité des éditeurs privilégient l’intégration de leurs services via leur propre application pour des raisons évidentes de maitrise éditoriale, expérience utilisateurs et maîtrise publicitaire », avancent les deux groupes, selon qui l’initiative de Free « remet en cause la stratégie de développement et les ressources disponibles des éditeurs pour financer la création ».
« Dans un contexte de profonde mutation du secteur », ils appellent donc à la fois les pouvoirs publics et le régulateur, l’Arcom, « à examiner avec la plus grande attention cette initiative qui déstabilise l’ensemble de l’écosystème ».
Maîtriser la distribution
L’actualité récente illustre bien à quel point la distribution de leurs contenus revêt un caractère stratégique pour les groupes audiovisuels. Chez TF1, on a par exemple inauguré récemment des micro-transactions au sein de l’application TF1+, dédiée aux programmes du groupe et pensée comme un relais de croissance face à la montée en puissance des grandes plateformes vidéo.
Et ces dernières ne sont pas que de simples concurrentes dans l’équation : elles deviennent également des alliées, comme en témoigne l’accord, inédit au moment de son annonce, grâce auquel Netflix diffusera les chaînes et contenus de TF1 à compter de 2026. L’audiovisuel public n’est pas en reste : début juillet, France Télévisions a ainsi formalisé la signature d’un partenariat commercial avec Amazon Prime Video.
Free n’ignore logiquement rien de ces enjeux commerciaux. C’est d’ailleurs le précédent Molotov qui explique que les chaînes appartenant à TF1 et M6 soient exclues du bouquet gratuit Free TV et réservées à l’option payante.
Free et TF1 sont pour mémoire liés par un accord global de distribution qui permet à l’opérateur de distribuer les contenus du groupe audiovisuel à destination de ses abonnés Freebox. Lors de son dernier renouvellement, en 2024, l’accord prévoyait que « les abonnés Freebox [puissent] accéder à l’ensemble des chaînes TNT du groupe TF1 (TF1, TMC, LCI, TFX, TF1 Séries Films) et aux programmes du groupe TF1 en replay (MYTF1) dans l’application OQEE by Free en mobilité et sur TV connectée ».
À l’époque, l’application OQEE était cependant réservée aux abonnés Freebox, quand Free TV ne pose aucune autre barrière à l’entrée que la création d’un compte et l’acceptation des cookies.
C’est déjà signé. L’ICE, l’agence de l’immigration et des douanes des États-Unis a, depuis un mois, accès à un système de surveillance des réseaux sociaux nommé Zignal Labs qui lui permet de surveiller les familles immigrées et les opposants à la politique de chasse des étrangers mise en place par Donald Trump.
Les services de l’immigration et des douanes états-uniens, l’ICE, viennent de signer un contrat pour accéder à la plateforme de monitoring de réseaux sociaux de Zignal Labs.
On sait depuis peu que l’ICE a prévu de mettre en place une équipe spécifiquement assignée à la surveillance des réseaux sociaux. Cette agence a accès à Immigration OS, l’outil d’assistance à l’expulsion de Palantir, comme l’indiquait Amnesty International en aout dernier. Mais celui-ci ne scrute pas en permanence X, TikTok et autres Instagram. L’autre agence de protection des frontières, le Service des douanes et de la protection des frontières (CBP), utilise Babel X pour cela, toujours selon Amnesty.
5,7 millions d’euros sur cinq ans
Mais l’ICE a finalement choisi une autre solution, Zignal Labs, donc, avec un contrat de 5,7 millions de dollars sur cinq ans, comme l’a révélé le média The Lever. Zignal Labs, c’est au départ une entreprise de Californie qui analyse les réseaux sociaux pour en tirer des données pour l’analyse publicitaire. Elle a aussi noué des partenariats sur l’analyse de données, notamment avec le Washington Post dès 2016.
Ainsi en 2021, le média s’appuyait sur ses données en expliquant que « les fausses informations en ligne concernant la fraude électorale ont chuté de 73 % après que plusieurs réseaux sociaux ont suspendu le compte du président Trump et de ses principaux alliés la semaine dernière, selon les conclusions du cabinet d’études Zignal Labs, soulignant ainsi le pouvoir des entreprises technologiques à limiter les fausses informations qui empoisonnent le débat public lorsqu’elles agissent de manière agressive ».
Mais la même année, l’entreprise annonçait son pivot vers des logiciels pour les agences de sécurité avec, comme le souligne The Lever, la création d’un bureau regroupant des anciens responsables de l’armée états-unienne ou venant de la police.
Zignal surveille aussi Gaza
The Lever a repéré sur internet une brochure de l’entreprise datant de 2025 qui vante les capacités de sa plateforme pour donner des « renseignements tactiques » aux « opérateurs sur le terrain » à Gaza, sans pour autant nommer précisément l’armée israélienne. Interrogée par nos confrères, l’entreprise n’a pas répondu sur ce sujet ni sur le contrat avec l’ICE.
Ce n’est d’ailleurs pas directement avec Zignal que l’ICE a passé le contrat. L’agence états-unienne est passé par une autre société, Carahsoft, qui fournit le service et avec qui Zignal Labs s’était associé en juillet dernier pour fournir une plateforme OSINT de nouvelle génération aux agences gouvernementales et de défense.
Comme on peut le voir sur la brochure évoquée ci-dessus, Zignal est plus qu’une entreprise surveillant les réseaux sociaux. Elle se vante de « fournir en temps réel des renseignements exploitables aux opérateurs » en proposant une solution d’OSINT (des renseignements dont l’origine sont des « sources ouvertes »).
Le département de la Sécurité intérieure, dont dépend l’ICE, n’en est pas à sa première signature impliquant une solution de Zignal, puisqu’elle avait engagé un premier contrat de 700 000 dollars directement avec l’entreprise en 2019.
« Terroriser les familles d’immigrants […] cibler les militants »
« [Le département de la Sécurité intérieure] ne devrait pas acheter des outils de surveillance qui récupèrent nos publications sur les réseaux sociaux sur Internet, puis utilisent l’IA pour examiner minutieusement nos propos en ligne. Et les agences ne devraient certainement pas déployer ce type de technologie opaque en secret, sans aucune obligation de rendre des comptes », avance Patrick Toomey, directeur adjoint du projet de sécurité nationale de l’Union américaine pour les libertés civiles (ACLU) à The Lever.
« L’ICE est une agence sans foi ni loi qui utilisera la surveillance des réseaux sociaux basée sur l’IA non seulement pour terroriser les familles d’immigrants, mais aussi pour cibler les militants qui luttent contre ses abus. Il s’agit d’une atteinte à notre démocratie et à notre droit à la liberté d’expression, alimentée par l’algorithme et financée par nos impôts. », réagit Will Owen de l’association Surveillance Technology Oversight Project (STOP) interrogé par Wired.
L‘organisation non gouvernementale Basel Action Network (BAN) a publié le résultat d’une enquête sur les déchets électroniques de dix entreprises américaines. L’ONG parle d’un « tsunami caché d’exportations de déchets électroniques vers l’Asie ».
Pour BAN, des « volumes importants d’électronique des États-Unis continuent d’être exportés vers des pays qui ont interdit leur importation et manquent souvent de capacités pour les gérer ». Selon leur enquête, cela pourrait représenter « environ 2 000 conteneurs (représentant 32 947 tonnes métriques) qui pourraient être remplis de déchets électroniques abandonnés ».
Parmi les destinations mises en avant par BAN, on retrouve la Malaisie, l’Indonésie, la Thaïlande, les Philippines et les Émirats arabes unis. Dans les entreprises identifiées, Best Buy est citée. Sur les dix entreprises, huit étaient certifiées R2V3 pour… « responsible recycling », affirme l’ONG.
La situation n’a malheureusement rien de nouveau. En 2021 déjà, l’OMS alertait sur un « tsunami de déchets électroniques », comme le rapportait Le Monde. Un exemple au Ghana : « Des adolescents, parfois très jeunes, brûlent les déchets électroniques pour en récupérer le cuivre, le cobalt, le platine et autres métaux précieux. Des fumées noires et âcres rendent l’air irrespirable. Plomb, mercure, arsenic, cadmium se répandent dans le sol, contaminent l’eau », expliquaient nos confrères.
Le Temps parlait aussi de tsunami en 2024, suite à la publication d’un rapport de l’Institut des Nations unies pour la recherche et la formation (Unitar) : « Les « e-déchets » augmentent cinq fois plus vite que leur recyclage ». En 2022, selon le rapport, 62 millions de tonnes d’e-déchets ont été produits, en « hausse de 82 % par rapport à 2010. Ce chiffre est même en passe d’atteindre 82 millions de tonnes d’ici à 2030 ». Il y a de fortes disparités : « un Européen en produit environ sept fois plus qu’un Africain ».
Pour l’ONU, « les métaux – notamment le cuivre, l’or et le fer – représentent la moitié des 62 millions de tonnes, pour une valeur totale de quelque 91 milliards de dollars. Les plastiques représentent 17 millions de tonnes et les 14 millions de tonnes restantes comprennent des substances telles que les matériaux composites et le verre ».
Quandela (fabricant français d’ordinateurs quantiques), le GENCI (Grand équipement national de calcul intensif) et le CEA (Commissariat à l’énergie atomique et aux énergies alternatives) ont annoncé en fin de semaine dernière la livraison de Lucy : « un ordinateur quantique photonique universel numérique de 12 qubits ». Il est installé au Très Grand Centre de Calcul (TGCC) du CEA dans le 91.
Le CEA affirme que c’est « l’ordinateur quantique photonique le plus puissant au monde », mais rappelons qu’il existe bien d’autres technologies pour réaliser les qubits des ordinateurs quantiques. La machine a été acquise par « l’EuroHPC Joint Undertaking dans le cadre du consortium EuroQCS-France ».
Quandela s’était déjà trouvé une place chez OVHcloud. L’hébergeur roubaisien avait inauguré son MosaiQ en mars 2024, une machine quantique de Quandela avec deux qubits photoniques. Elle est évolutive et peut passer facilement à six qubits si besoin, puis 12 et même 24 à condition d’installer une seconde machine pour cette dernière étape. Quandela s’est aussi installée au Canada en 2024, chez Exaion.
OVHcloud et Quandela nous expliquaient alors que la consommation électrique classique en utilisation de la machine à deux qubits était de l’ordre de 2,5 kW, mais avec cinq kW recommandés car l’ordinateur a besoin de plus de puissance au démarrage. Pour plus de détails sur la machine quantique d’OVHcloud vous pouvez lire cette actualité.
Le CEA met en avant l’expertise française et européenne :
« Assemblé en seulement douze mois dans le site industriel de Quandela, le système illustre la force de la collaboration européenne. Les modules cryogéniques ont été conçus par attocube systems AG près de Munich, les dispositifs quantiques ont été fabriqués sur la ligne pilote de Quandela à Palaiseau, et l’intégration finale a été réalisée dans son usine de Massy. Avec 80% de ses composants – et l’ensemble des composants critiques – d’origine européenne, Lucy incarne la capacité de l’Europe à concevoir et livrer des technologies quantiques souveraines ».
L’ouverture aux chercheurs européens est prévue pour début 2026.
Sora a déjà permis des deepfakes et des représentations racistes et sexistes de personnages historiques. Mais l’application d’OpenAI rend aussi possible la création de vidéos dans lesquelles des personnes connues semblent proférer des insultes racistes.
Ainsi, comme l’explique Rolling Stone, des deepfakes commencent à circuler sur le nouveau réseau social d’OpenAI (non accessible officiellement en France) où l’on voit des personnalités étatsuniennes comme le boxeur et youtubeur Jack Paul proférer des insultes racistes. Ou plutôt, qui semblent proférer. Car les utilisateurs qui créent ce genre de vidéos s’appuient sur la proximité sonore de certains mots pour passer outre les blocages.
Ainsi, par exemple, Jack Paul est représenté dans un supermarché criant « I hate juice » (je déteste le jus), qui se rapproche fortement de façon sonore d’une phrase antisémite, jouant sur le rapprochement sonore de « juice » (jus) et de « jews » (juifs). La vidéo a été générée par Sora le 12 octobre et est encore en ligne actuellement.
De la même façon, une vidéo met en scène Sam Altman crier « I hate knitters » (je déteste les personnes qui tricotent), pour se rapprocher du terme « niggers » (nègres).
Les chercheurs de l’entreprise Copyleaks qui ont repéré le phénomène expliquent : « ce comportement illustre une tendance peu surprenante en matière de contournement basé sur les prompts, où les utilisateurs testent intentionnellement les systèmes à la recherche de faiblesses dans la modération du contenu. Lorsqu’ils sont associés à des ressemblances avec des personnes reconnaissables, ces deepfakes deviennent plus viraux et plus préjudiciables, se propageant rapidement sur la plateforme et au-delà (toutes les vidéos que nous avons examinées pouvaient être téléchargées, ce qui permettait leur publication croisée ailleurs) ».
Lors des discussions sur le budget 2026 de l’État, les députés vont devoir se positionner sur plusieurs taxes ciblant les grandes entreprises du numérique. La taxe GAFAM, qui existe déjà et les vise particulièrement, pourrait passer de 3 à 15 %. Ils devront aussi discuter d’une contribution sur l’utilisation des réseaux de communication par les fournisseurs de contenus.
Venant de plusieurs horizons, des propositions pour taxer les grandes entreprises du numérique (surtout états-uniennes) vont être discutées dans l’hémicycle ces prochains jours.
Les débats s’ouvrent ce vendredi 24 octobre en séance plénière à l’Assemblée nationale pour discuter puis voter le budget de 2026. Si son examen n’est pas fini au bout de 70 jours, le gouvernement peut recourir à une adoption par ordonnances (article 47 de la Constitution).
Dans la nuit de mercredi 22 à jeudi 23 octobre, la commission des finances de l’Assemblée nationale a rejeté globalement la première partie du budget de l’État qui avait été amendée au cours de la semaine. C’est donc sur la base du projet de loi initial que les députés vont devoir s’exprimer cette fois-ci en séance plénière.
Proposition de relever la taxe GAFAM à 15 %
Mais une mesure qui ne figure pas dans cette version initiale pourrait trouver une majorité dans l’hémicycle. En effet, le taux de la taxe GAFAM, aujourd’hui à 3 %, pourrait allègrement augmenter. Elle consiste notamment à taxer les recettes générées par le ciblage publicitaire.
L’année dernière déjà, le député Corentin Le Fur (droite républicaine) avait proposé de le porter à 5 %. Dans son contre-projet qu’il a publié en septembre dernier, le PS indiquait vouloir le doubler et donc le passer de 3 à 6 %.
Mais, dans un amendement déposé par le député Renaissance, Jean-René Cazeneuve, il est proposé « de porter de 3 % à 15 % » le taux de cette taxe. Ce texte, qui a été voté lors de l’examen en commission, propose aussi d’augmenter le seuil de taxation au niveau mondial à 2 milliards d’euros au lieu des 700 millions actuellement dans la loi.
Dans son exposé, le député affirme que « la France a instauré cette taxe en 2019 pour remédier à l’inégalité fiscale entre les entreprises du numérique, souvent étrangères, et les acteurs économiques soumis à l’impôt sur le territoire. Son rendement, d’environ 700 millions d’euros en 2024, demeure sans rapport avec les profits réalisés en France par les grands groupes du secteur ».
Si le texte revient donc aujourd’hui à l’Assemblée sans les amendements votés en commission et donc sans intégrer cet amendement de Jean-René Cazeneuve, celui-ci a des chances d’être de nouveau voté dans l’hémicycle via un nouvel amendement.
Une taxe sur les fournisseurs de contenus comme Netflix ?
Un autre sujet de financement du numérique revient via les discussions sur le budget 2026 : le financement des réseaux télécoms par les plus importants fournisseurs de contenus. Selon le dernier bilan de l’état de l’Internet en France de l’Arcep, « cinq acteurs – Netflix, Akamai, Google, Meta et Amazon – génèrent 47 % de ce trafic », qui était de 50,8 Tb/s fin 2024 (+ 9,2 % en un an).
Le député RN Jean-Philippe Tanguy a déposé, en commission, un amendement [PDF] qui proposait la création d’une « contribution annuelle forfaitaire » de « 12 000 euros par Gb/s d’utilisation annuelle moyenne ». Cela ne concerne que « les personnes désignées contrôleurs d’accès par la Commission européenne », et « utilisant une bande passante moyenne annuelle supérieure à 1 Gb/s ». « Idée délirante, tarif délirant », rétorque Pierre Beyssac, porte-parole du Parti Pirate.
Ceci pour participer aux investissements « [des] pouvoirs publics et [des] fournisseurs d’accès à internet » pour développer et maintenir les infrastructures. Comme nous l’expliquions déjà en 2022, c’est encore le retour d’une idée récurrente. Cet amendement du député RN a été rejeté en commission, mais Jean-Philippe Tanguy l’a de nouveau présenté pendant la séance plénière. Il a peu de chance d’être intégré au texte final. Le député RN semble attaché à cette mesure, puisqu’il l’avait déjà proposé l’année dernière.
La Fédération Française des Télécoms (FFTélécoms), important lobby du secteur qui rassemble les principaux FAI mais aussi l’opérateur d’infrastructures Axione ou Verizon France par exemple, a publié récemment une tribune sur le sujet dans Les Echos. Elle y accuse les « big tech » (sont visés ici Netflix, Meta, Google et Amazon) d’être des « passagers clandestins » (terme utilisé aussi par le député RN dans l’exposé de son amendement) profitant d’« une asymétrie délétère pour l’Europe ».
Si la FFTélécoms réclame une contribution financière de leur part, elle souhaite « des accords commerciaux entre les opérateurs et les grands fournisseurs de trafic, pas une nouvelle taxe », explique-t-elle à nos confrères de Contexte. Elle souhaiterait, par contre, que l’Europe impose un cadre à ces négociations via le Digital Networks Act. Ce texte doit être présenté dans moins de deux mois à la Commission européenne. Mais il est difficile de savoir ce qu’il va contenir. Et, toujours selon Contexte, la CCIA Europe, lobby de la tech étatsunienne, veut éviter « toute tentative d’introduire des « network fees » » et y met tout son poids en organisant diverses réunions de lobbying.
Mardi, on apprenait qu’un employé de Trenchant, qui développe et revend des failles de sécurité informatique à la communauté du renseignement des « Five Eyes », aurait lui-même été ciblé par un logiciel espion. Ce jeudi, on apprenait que le dirigeant de Trenchant qui l’avait licencié, en l’accusant d’avoir volé des vulnérabilités développées en interne, était lui-même accusé d’avoir vendu des « secrets commerciaux » à un acheteur russe.
Ce mardi 21 octobre, TechCrunch révélait qu’un développeur d’exploits « zero-day » avait reçu, plus tôt cette année, un message sur son téléphone personnel l’informant qu’ « Apple a détecté une attaque ciblée par un logiciel espion mercenaire contre [son] iPhone. »
Il s’agirait du premier cas documenté de personne payée par un prestataire de logiciels espions étant elle-même la cible d’un logiciel espion, relevait TechCrunch. Le développeur, qui a requis l’anonymat, travaillait en effet jusqu’à il y a peu pour Trenchant, filiale du marchand d’armes états-unien L3Harris Technologies, spécialisée dans la recherche de vulnérabilités et les « computer network operations », du nom donné par les « Five Eyes » aux capacités cyberoffensives.
Le développeur expliquait à TechCrunch qu’il soupçonnait que cette notification pouvait être liée aux circonstances de son départ de Trenchant, qui l’avait désigné comme « bouc émissaire » d’une fuite d’outils internes dont son employeur avait été victime.
Soupçonné d’avoir fait fuiter des failles Chrome, alors qu’il travaillait sur iOS
Un mois avant de recevoir la notification de menace d’Apple, il avait en effet été invité au siège londonien de l’entreprise pour participer à un événement de « team building ». Or, une fois sur place, explique-t-il à TechCrunch, il avait « immédiatement été convoqué » dans une salle de réunion pour s’entretenir par vidéoconférence avec Peter Williams, alors directeur général de Trenchant, connu au sein de l’entreprise sous le nom de « Doogie ».
Williams lui avait alors expliqué qu’il était soupçonné d’avoir un second emploi, qu’il était suspendu, et que tous ses appareils professionnels seraient confisqués afin d’être analysés dans le cadre d’une enquête interne. Deux semaines plus tard, Williams l’appelait pour lui annoncer qu’il était licencié et qu’il n’avait d’autre choix que d’accepter l’accord à l’amiable ainsi que l’indemnité que lui proposait l’entreprise.
Le développeur a depuis appris par d’anciens collègues qu’il était soupçonné d’avoir divulgué plusieurs vulnérabilités inconnues du navigateur Chrome et identifiées par les équipes de Trenchant. Or, le développeur faisait partie d’une équipe chargée exclusivement de l’identification de failles zero-day dans iOS et du développement de logiciels espions pour les terminaux Apple.
Une version confirmée à TechCrunch par trois de ses anciens collègues, qui précisent que les employés de Trenchant n’ont qu’un accès strictement compartimenté aux outils liés aux plateformes sur lesquelles ils travaillent, et que le développeur congédié ne pouvait pas accéder aux failles, exploits et outils ciblant Chrome.
Soupçonné d’avoir vendu pour 1,3M$ de « secrets commerciaux » à la Russie
Ce jeudi 23 octobre, soit deux jours seulement après le premier article, coup de théâtre : TechCrunch révèle que le département de la Justice états-unien a accusé ce même Peter Williams, le 14 octobre dernier, d’avoir volé huit secrets commerciaux à deux entreprises (non identifiées) entre avril 2022 et août 2025, et de les avoir vendus à un acheteur en Russie.
Williams, un Australien de 39 ans résidant à Washington, avait été recruté comme directeur général de Trenchant en octobre 2024, poste qu’il a occupé jusqu’à fin août 2025, d’après les informations déposées par l’entreprise au registre britannique des entreprises.
Quatre anciens employés de Trenchant ont confirmé à TechCrunch que Williams avait bien été arrêté, mais sans préciser quand, et un porte-parole du département de la Justice a précisé qu’il n’était actuellement pas détenu.
D’après l’acte d’accusation, Williams aurait obtenu 1,3 million de dollars en échange de ces secrets commerciaux. L’intégralité des fonds (y compris en cryptos) déposés dans sept comptes bancaires ont été saisis, ainsi qu’une liste d’objets de valeur « sujets de confiscation » à son domicile, dont plusieurs bagues de diamant Tiffany, un sac à main Louis Vuitton, des vestes Moncler, et 24 montres de luxe (dont huit « replicas », copies plutôt haut de gamme, difficiles à distinguer des originales).
L’affaire est traitée par la section du contre-espionnage et du contrôle des exportations de la division de la sécurité nationale du ministère américain de la Justice, précise TechCrunch. Nos confrères ont par ailleurs appris qu’une audience préliminaire et une audience relative à l’accord de plaidoyer sont prévues le 29 octobre à Washington, D.C.
Dans un billet publié ce 23 octobre, Microsoft a annoncé une série d’apports pour son assistant Copilot. Bien que plusieurs des fonctionnalités soient intéressantes, l’une en particulier a attiré l’attention : Mico. Ce petit assistant, présenté comme un « blob » pouvant changer de forme, accompagne Copilot en mode vocal. Il rappelle inévitablement Clippy… en lequel il peut justement se transformer.
Mico fait d’autant plus parler de lui que les tentatives de Microsoft pour « humaniser » certaines tâches ou pour les rendre plus « sympas » ont rapidement tourné à la catastrophe, de Bob à Clippy. Le plus souvent, si l’on met de côté une efficacité limitée et – dans le cas de Clippy – le peu de répondant face à de nombreuses situations dans Office, beaucoup détestaient cette expérience où ils se sentaient comme des enfants.
Rendre le mode vocal plus sympathique
Mico procède donc autrement. Le petit blob coloré et polymorphe (qui pourrait presque sortir de La Planète au Trésor, de Disney) apparait uniquement quand on passe en mode vocal sur Copilot pour les échanges de questions-réponses. Il est configuré par défaut pour surgir automatiquement, mais on peut le désactiver dans les options. Surtout, Mico n’est pas là pour fournir davantage de fonctions, mais seulement pour donner un visage « plaisant » aux interactions. Dans son billet, l’éditeur explique que Mico est une simple contraction de « Microsoft Copilot ».
« Cette présence visuelle facultative écoute, réagit et change même de couleur pour refléter vos interactions, ce qui rend les conversations vocales plus naturelles. Mico montre son soutien par le biais d’animations et d’expressions, créant ainsi une expérience conviviale et engageante », indique Microsoft.
La société fournit une vidéo de démonstration. Publiée sur YouTube, elle a l’originalité d’être sans son. Un choix curieux pour un assistant vocal. Elle a le mérite cependant de montrer Mico en mouvement. Microsoft assume également la comparaison avec Clippy. Comme l’ont montré certains utilisateurs sur les réseaux sociaux, cliquer plusieurs fois sur le blob le transforme momentanément en Clippy.
Des souvenirs et des connecteurs
Le billet de Microsoft contient des annonces autrement plus sérieuses, rassemblées sous l’étiquette « une IA centrée sur l’humain ». Comme Mico, elles sont (presque) toutes centrées sur Copilot dans sa version standard, intégrée dans Windows.
Comme OpenAI depuis plusieurs mois et Anthropic depuis septembre (et surtout cette semaine), Microsoft annonce ainsi que son Copilot dispose maintenant d’une mémoire. Elle fonctionne comme on l’a déjà vu ailleurs : elle permet de retenir les informations importantes pour créer une sorte de contexte permanent. Il suffit de les signaler comme telles pour que Copilot s’en souvienne dans les interactions suivantes. Comme dans ChatGPT et Claude, ces « souvenirs » peuvent être modifiés ou supprimés.
Copilot s’accompagne également de nouveaux connecteurs. La version Microsoft 365 en avait déjà, mais la mouture grand public gagne la capacité de se connecter à d’autres services. L’éditeur cite OneDrive, Outlook, Gmail, Google Drive et Google Agenda. Il est aussi possible de mixer plusieurs comptes, de traduire des documents, de créer des flux de travail avec intégration d’évènements dans les agendas d’Outlook ou Gmail, etc. Microsoft précise que le tout premier accès aux données réclamera une autorisation et que les accès peuvent être révoqués à n’importe quel moment. Ces connecteurs sont en cours de déploiement et ne sont pas encore disponibles partout.
Copilot se dote également « d’actions proactives ». Intégrées dans Deep Research, elles peuvent apparaitre sous forme de suggestions si l’IA estime que ces informations sont utiles, par exemple pour orienter les prochaines étapes en fonction de l’activité passée. Cette fonction est pour l’instant en préversion et réclame un abonnement Microsoft 365.
Microsoft veut frapper fort sur la santé et l’éducation
L’entreprise a de grandes ambitions sur la santé et l’éducation. Elle renforce donc ces domaines sur Copilot avec deux annonces spécifiques, mais limitées aux États-Unis pour l’instant.
D’abord, « Copilot for Health », qui doit répondre à tout ce qui concerne la santé. Sujet particulièrement sensible et sur lequel l’entreprise dit avoir amélioré la façon dont l’IA fonde ses réponses sur des sources crédibles, comme Harvard Health.
« Copilot vous aide également à trouver les bons médecins rapidement et en toute confiance, en les associant en fonction de la spécialité, de l’emplacement, de la langue et d’autres préférences. L’objectif est simple : vous aider à prendre le contrôle de votre santé en vous fournissant des informations de haute qualité et en vous connectant rapidement aux bons soins », vante Microsoft, qui accompagne le propos d’une nouvelle vidéo sans le moindre son.
Sur l’éducation, les annonces sont intéressantes. Microsoft propose Learn Live, qui se propose de devenir un « tuteur socratique doté d’une voix qui vous guide à travers des concepts au lieu de simplement donner des réponses ». Plutôt que d’afficher des informations, la fonction pose des questions, donne des repères visuels et des tableaux blancs interactifs pour jauger les réponses. On peut indiquer le contexte d’apprentissage, par exemple la révision d’un examen.
Intégration dans Edge et Windows
Il fallait s’y attendre, Microsoft ne compte pas laisser passer l’opportunité de mettre à contribution son gigantesque parc informatique. L’intégration dans Edge et Windows est donc renforcée, sans surprise.
Pour Edge, il s’agit simplement de faire jeu égal avec toutes les annonces que l’on a déjà pu voir : Gemini dans Chrome, The Browser Company avec Dia, Opera avec Neon, Perplexity avec Comet, ou encore très récemment OpenAI avec Atlas. Il est là encore question de raisonner sur des onglets ouverts, de demander des synthèses d’informations, de lancer des actions comme la réservation d’un hôtel, etc. Microsoft ajoute cependant une petite nouveauté, les Journeys : « Copilot se souvient de votre parcours de navigation pour que vous puissiez retrouver vos recherches, reprendre vos tâches ou explorer plus en profondeur ». la fonction, qui ressemble à s’y méprendre à Recall dans Windows, n’est pour l’instant disponible qu’aux États-Unis en préversion.
Pour Windows, Microsoft redit surtout ce qu’elle déjà dit dans un billet du 16 octobre : « Copilot sur Windows transforme chaque PC Windows 11 en PC IA ». L’occasion d’annoncer la disponibilité mondiale de Copilot Vision, sans doute l’une des fonctions les plus intéressantes chez Microsoft. Elle permet l’interaction avec d’autres applications, d’agir sur ce que l’on voit à l’écran, en pilotant le tout à la voix avec les mots d’activation « Hey Copilot ». Les demandes textuelles doivent arriver « bientôt ».
D’autres nouveautés sont présentées. Par exemple, Copilot Search mélange maintenant les réponses générées par IA et les résultats classiques dans une seule vue, dans une approche finalement identique à Google. Pages, le canevas de collaboration, accepte maintenant jusqu’à 20 fichiers en entrée.
L’ensemble de ces nouveautés est rassemblé sous l’étiquette « Fall Update », qui n’est pas sans rappeler la nomenclature (peu claire) de Windows 10 à ses débuts. Pour l’instant, beaucoup de ces fonctions sont limitées aux États-Unis, Microsoft évoquant surtout les autres pays anglo-saxons pour les prochains déploiements (Royaume-Uni, Canada, Nouvelle-Zélande…). L’Europe n’est pas mentionnée, mais on imagine que les fonctions y arriveront tôt ou tard.
Bruxelles vient de publier les conclusions préliminaires de ses enquêtes sur les infractions potentielles du DSA (règlement sur les services numériques) par Meta et TikTok.
La Commission européenne estime que les deux entreprises n’accordent pas aux chercheurs « un accès adéquat aux données publiques » sur leurs plateformes, que ce soit Facebook, Instagram ou TikTok. Le texte européen prévoit que les chercheurs puissent accéder aux données des très grandes plateformes en ligne (VLOP) et très grands moteurs de recherche (VLOSE) sans même l’intermédiaire des coordinateurs de services numériques.
« Permettre aux chercheurs d’accéder aux données des plateformes est une obligation de transparence essentielle en vertu de la législation sur les services numériques, car elle permet au public d’examiner l’incidence potentielle des plateformes sur notre santé physique et mentale », explique la Commission.
Elle ajoute que les deux entreprises ont « peut-être mis en place des procédures et des outils contraignants pour permettre aux chercheurs de demander l’accès aux données publiques ».
Si c’est la seule critique de la Commission contre TikTok dans ses conclusions préliminaires, elle en ajoute une autre à l’intention de l’entreprise de Mark Zuckerberg : « en ce qui concerne Meta, ni Facebook ni Instagram ne semblent fournir un mécanisme de « notification et d’action » convivial et facilement accessible permettant aux utilisateurs de signaler les contenus illicites, tels que les contenus pédopornographiques et les contenus à caractère terroriste ».
La Commission explique qu’il faut passer plusieurs étapes inutiles et que les réseaux de Meta imposent des exigences supplémentaires aux utilisateurs pour faire ces signalements. Elle accuse aussi l’entreprise d’utiliser des « dark patterns » et des designs « d’interface trompeuses » dans ses mécanismes de « notification et d’action ».
« Nos démocraties dépendent de la confiance. Cela signifie que les plateformes doivent responsabiliser les utilisateurs, respecter leurs droits et ouvrir leurs systèmes à un examen minutieux. Le règlement sur les services numériques en fait un devoir, pas un choix », rappelle Henna Virkkunen, vice-présidente exécutive chargée de la souveraineté technologique, de la sécurité et de la démocratie.
« TikTok s’engage en faveur de la transparence et valorise la contribution des chercheurs à notre plateforme et à l’ensemble du secteur. Nous examinons actuellement les conclusions de la Commission européenne », mais les exigences en matière d’accès des chercheurs aux données « mettent en conflit direct le DSA et le RGPD », affirme TikTok à l’AFP.
« Nous contestons toute allégation de violation du DSA et poursuivons nos négociations avec la Commission européenne sur ces questions », commente de son côté Meta toujours auprès de l’AFP.
Anthropic et Google viennent d’annoncer une intensification de leur partenariat. Le premier va ainsi utiliser jusqu’à un million de TPU du second, illustrant une nouvelle fois le besoin constant de nouvelles capacités de calcul pour les IA. Parallèlement, Anthropic élargit la fonction « mémoire » de Claude à d’autres abonnements.
Il est devenu crucial pour les entreprises de l’IA de diversifier les ressources matérielles sur lesquelles tournent leurs opérations, qu’il s’agisse de l’entrainement ou de l’inférence, pour citer les deux plus importantes. Des entreprises comme Amazon, Google et Microsoft développent ainsi leurs propres puces. Elles permettent de réduire la dépendance à NVIDIA – qui garde l’avantage de la puissance brute – en confiant à des puces moins onéreuses et plus économes certaines opérations, dont l’inférence.
C’est dans ce contexte qu’Anthropic et Google viennent d’annoncer une extension de leur partenariat. Il vise à intensifier l’utilisation de Google Cloud par Anthropic, afin de « répondre à la demande croissante des clients », indique l’éditeur de Claude. Google y voit une validation du « bon rapport qualité-prix et de l’efficacité » de ses puces.
Cette extension doit permettre d’utiliser jusqu’à un million de TPU (Tensor Core Unit) de Google, y compris la 7ᵉ génération de ces puces (Ironwood, lancée en avril), comme le précise Google dans son communiqué. Les TPU de 7ᵉ génération ne sont pas encore disponibles, il faut pour le moment faire une demande d’accès anticipé.
Anthropic, comme OpenAI, diversifie ses sources d’approvisionnement
Dans son communiqué, Anthropic explique que cet investissement représente « des dizaines de milliards de dollars », sans que l’on sache qui investit quoi. Cette approche permettrait à Anthropic de « faire progresser les capacités de Claude tout en maintenant des partenariats solides dans l’ensemble de l’industrie ». Pour la société, cet accord illustre dans tous les cas une « approche diversifiée qui utilise efficacement trois plateformes de puces : les TPU de Google, Trainium d’Amazon et les GPU de NVIDIA ».
AMD est pour le moment le grand absent de cette liste. OpenAI, qui multiplie aussi les partenariats, en a annoncé un avec le Texan, mais presque de seconde zone car il n’était pas question de superintelligence ou d’IA générale, contrairement aux annonces avec NVIDIA et Broadcom.
La lecture des communiqués d’Anthropic, Google ou même des précédents chez OpenAI et autres affiche un optimisme toujours rayonnant au sein de la tech américaine. Comme nous le relevions début octobre, on constate cependant un haut niveau de « consanguinité » dans les investissements : c’est toujours le même petit groupe d’entreprises, au sein duquel elles investissent les unes dans les autres, OpenAI et NVIDIA drainant des centaines de milliards de dollars. Certains analystes y voient le signe supplémentaire d’une bulle spéculative.
Google indique qu’« Anthropic aura accès à plus d’un gigawatt de capacité qui sera mise en service en 2026 », une information qui réclame de grosses pincettes car elle ne veut pas dire grand-chose seule. Et même si on la combine avec 1 million de TPU, cela donnerait 1 000 watts par TPU. Un chiffre très élevé pour un seul TPU, dans l’ordre de grandeur des derniers GPU de NVIDIA.
Anthropic ajoute que cette capacité accrue lui permettra de répondre à « une demande de croissance exponentielle » tout en maintenant ses « modèles à la pointe de l’industrie ». « Ces ressources de calcul plus importantes permettront également d’effectuer des tests plus approfondis, des recherches d’alignement et un déploiement responsable à grande échelle », précise Anthropic.
Selon Google, ses TPU seront utilisés aussi bien pour l’entrainement des IA d’Anthropic que pour l’inférence. Dans son communiqué, Google ajoute qu’Anthropic aura aussi accès à « des services Google Cloud supplémentaires », mais sans dire lesquels.
La mémoire de Claude sort des entreprises
Dans sa guerre féroce contre OpenAI et son ChatGPT, Claude manquait d’une fonctionnalité ajoutée dans son concurrent en avril puis étendue en juin à l’ensemble des utilisateurs : la mémoire. Elle permet de retenir un nombre croissant d’informations jugées cruciales. L’exemple fourni par OpenAI était alors parlant : mentionner une allergie alimentaire afin que l’aliment concerné soit écarté des recettes. Sur Claude, la mémoire a fini par arriver en septembre, mais elle était réservée aux entreprises, via les abonnements Teams et Enterprise.
Dans un tweet, Anthropic annonce que la fonction est désormais disponible pour des abonnements plus « classiques » : d’abord pour les personnes ayant un abonnement Max (100 à 200 dollars par mois), puis ce sera au tour des abonnements Pro d’ici deux semaines.
La fonction elle-même n’a pas changé et se veut toujours tournée vers le travail d’équipe. Facultative, la fonction est censée retenir des paramètres importants et apprendre du contexte professionnel, particulièrement dans la gestion de projets. Claude crée des « souvenirs » spécifiques à chaque projet et doit permettre des gains de temps, les personnes concernées n’ayant a priori plus besoin de repréciser le contexte de leurs demandes.
La sortie de Liquid Glass n’est pas passée inaperçue. La nouvelle interface d’Apple, unifiée et mettant largement l’accent sur l’effet verre et sa transparence, a provoqué bien des remous, de nombreuses discussions opposant ses fans à ses détracteurs.
Parmi les critiques, la plus courante est la baisse de lisibilité, qui entraine chez une partie de la clientèle des soucis d’accessibilité. C’est particulièrement vrai quand les systèmes affichent des textes blancs sur un panneau de verre et que l’arrière-plan est à dominante claire.
Ces retours étaient déjà nombreux pendant la phase bêta d’iOS 26 et macOS Tahoe. Apple a avancé par tâtonnement, mais a finalement laissé la transparence opérer à quasi plein régime dans les versions finales. Pourtant, dans les dernières bêtas 26.1 des systèmes, une option a fait son apparition. « Un rétropédalage annoncé », pour nos confrères d’iGen.
Ainsi, dans iOS 26.1, la section « Luminosité et affichage » gagne une nouvelle rubrique : Liquid Glass. Dans macOS 26.1, elle réside dans « Apparence », au sein des Réglages. Elle permet d’influer sur un seul paramètre : l’apparence des contrôles. On peut désormais choisir entre « Transparent » et « Teinté », le second réduisant fortement la transparence, que l’on soit en thème clair ou sombre.
Comme on peut le constater rapidement, la différence est marquée et les informations sont beaucoup plus lisibles. Le réglage rejaillit sur tous les contrôles ayant un « fond » : notifications, onglets, barres de contrôle et ainsi de suite. En revanche, le réglage ne change pas (encore ?) l’affichage du centre de contrôle.
La Fédération française de tir a alerté jeudi soir une partie de ses licenciés au sujet d’un incident de sécurité, constaté au niveau d’ITAC, l’application distribuée sous forme d’intranet qui permet aux clubs de gérer leurs adhérents, leurs licences, leurs pièces médicales et leur inscription aux championnats.
« Le 20 octobre 2025, la Fédération Française de Tir a détecté une intrusion non-autorisée sur son système d’information ITAC. Cette intrusion a eu lieu entre le 18 octobre et le 20 octobre 2025 », indique la FFTir dans un message également adressé par mail aux membres concernés des clubs.
La fédération indique avoir déconnecté le service ITAC ainsi que son pendant EDEN, dédié à la gestion des licences FFTir par les tireurs, dès que l’incident a été porté à sa connaissance.
« Nous avons également prévenu l’ensemble des autorités compétentes, notamment l’ANSSI et la CNIL, et avons déposé plainte. Accompagnés d’experts, nous avons enquêté au cours des derniers jours afin d’identifier l’origine de l’incident. Les investigations ont permis de corriger la situation ».
Capture d’écran de la page de connexion ITAC, qui mentionne l’incident
L’intrusion a cependant exposé des données personnelles. Il s’agit du numéro de licence, de l’état civil, de l’adresse postale, de l’adresse mail et du numéro de téléphone renseignés, précise la FFTir, qui invite ses adhérents à la vigilance face aux éventuelles prises de contact suspectes.
« Aucune donnée médicale ni aucune coordonnée bancaire n’est concernée », rassure-t-elle, soulignant par ailleurs ne détenir aucune information relative à la détention d’armes chez les pratiquants de la discipline.
Coupé pendant plusieurs heures, l’accès au service ITAC a été rétabli, et les licenciés sont invités à réinitialiser leur mot de passe pour s’y connecter.
En juin 2025, la FFTir expliquait avoir décidé de changer de prestataire pour le développement et la maintenance de ses outils ITAC et EDEN, et confié le projet de réécriture des applications à la société AxioCode.
Début 2025, de nombreuses fédérations sportives françaises avaient été victimes de fuites de données suite à la compromission d’un outil développé par un tiers et dédié à la gestion des licenciés.
Dans un communiqué publié ce jeudi 23 octobre, Airbus, Leonardo et Thales expliquent qu’elles vont regrouper « leurs activités de production de satellites et les services associés ». Pour l’instant sans appellation officielle, ce projet a pour nom de code « Bromo », explique Le Figaro.
Les trois entreprises annoncent que cette nouvelle entité « regroupera environ 25 000 personnes à travers l’Europe » et qu’elle concentrera des activités dont le chiffre d’affaires annuel a atteint 6,5 milliards d’euros en 2024.
Dans leur communiqué, les trois entreprises énoncent les activités qu’elles veulent, au terme de l’opération, rassembler :
« Airbus apportera sa contribution à travers ses activités Space Systems and Space Digital, issues d’Airbus Defence and Space.
Leonardo apportera sa Division Spatial, incluant ses participations dans Telespazio et Thales Alenia Space.
Thales contribuera principalement en apportant ses participations dans Thales Alenia Space, Telespazio et Thales SESO ».
Les actions de la nouvelle entité devraient se répartir presque équitablement entre les trois acteurs : 35 % pour Airbus, 32,5 % pour Leonardo et 32,5 % pour Thales.
Rappelons qu’Airbus est aussi issu d’un rapprochement effectué en 2000 entre plusieurs entreprises européennes, nommée EADS à l’époque et rebaptisée en 2013.
Le ministre français de l’Économie, Roland Lescure, salue une « excellente nouvelle » sur son compte Bluesky.
Les trois entreprises espèrent voir le projet se concrétiser en 2027, après avoir passé les autorisations réglementaires et avoir consulté leurs représentants du personnel, conformément aux législations en vigueur. Selon Le Monde, la nouvelle entreprise devrait avoir son siège à Toulouse.
Pour le syndicat FO-Métaux, « ce rapprochement entre Thales, Airbus et Leonardo ouvre la voie à un nouvel équilibre industriel, à condition qu’il reste guidé par deux impératifs : la souveraineté européenne et la préservation des savoir-faire français ». Mais la CGT Métallurgie affirme que « la vraie raison du projet Bromo est de créer un monopole permettant d’imposer ses prix et d’affaiblir le pouvoir des agences (CNES, ESA), d’augmenter les marges et les bénéfices pour les actionnaires, au détriment de l’intérêt des citoyens, de la gouvernance publique du secteur et de l’emploi » [PDF].
Il y a deux ans, lors de ses Open Tech Days, Orange proposait une démonstration de la fibre optique (FTTH) avec un débit maximum théorique de 50 Gb/s. Cette technologie est sortie des laboratoires pour une démonstration dans des conditions réelles. C’était déjà le cas l’année dernière, avec un client résidentiel flashé à plus de 41 Gb/s.
Nous avons déjà longuement expliqué ce qu’étaient le PON (Passive Optical Network) et surtout la version déployée pour la première génération de fibre optique en France : le G-PON. Le G signifie simplement Gigabyte (jusqu’à 2,5 Gb/s en débit descendant).
Orange passe de 10 à 50 Gb/s, le 25 Gb/s laissé de côté
Le passage au 10 Gb/s est arrivé avec le 10G-EPON chez Free et le XGS-PON chez les autres fournisseurs d’accès à Internet (X pour 10 et S pour Symétrique). Orange nous avait déjà prévenu qu’il comptait sauter le 25 Gb/s : « c’est quelque chose qui est développé par Nokia, mais on ne le fera pas ». Le FAI nous confirmait ainsi qu’il passerait directement au 50G-PON, qui serait alors « la troisième génération de PON d’Orange ».
« Après deux gigabits par seconde (G-PON), puis 8 gigabits par seconde (XGS-PON), 40 Gigabits par seconde (50G-PON) sera le standard de demain des systèmes de transmission des réseaux d’accès fibre (FTTH) », affirme Orange dans un communiqué.
Un changement de carte réseau et de box suffit
Afin de démontrer le fonctionnement de sa technologie, le FAI avait organisé cette semaine « un test de performance réalisé par deux joueurs, Crimson à Lyon et Kayane à Marseille ». En quoi consistait-il ? Une partie de 2XKO… pas sûr que ce soit la meilleure manière de tester un débit.
La fibre utilisée pour connecter les deux joueurs n’avait rien de particulier, c’était celle déjà déployée par les opérateurs, quels qu’ils soient ; pas besoin de la changer. Orange précise qu’un « simple changement de carte réseau dans l’équipement situé dans les centraux optiques permettra à Orange de connecter un client fibre au 50G-PON ».
Comme prévu, les trois technologies co-existent sur une même fibre : selon le client (et sa carte réseau), la box peut recevoir du G-PON, du XGS-PON et/ou du 50G-PON. Techniquement, rien n’empêcherait en effet d’avoir les trois technologies à la fois.
G-PON, XGS-PON et 50G-PON passent dans la même fibre
Orange propose une explication du fonctionnement des trois technologies en parallèle : « Au central, la carte réseau intégrera un module optique Multi-PON-Module (MPM) qui inclut les trois technologies photoniques PON. Chez le client, la box sera équipée de la technologie PON adéquate en relation avec l’offre de service souscrite ».
Ce fonctionnement est rendu possible par l’utilisation, pour chaque technologie, de fréquences différentes qui ne se chevauchent pas. « Particulièrement soutenue par Orange, la triple coexistence de trois technologies PON sur la même infrastructure fibre a été rendue possible au standard ITU-T par la spécification d’un spectre optique (longueur d’onde) pour permettre cette triple coexistence. C’est l’option « US3 » du spectre », se vantait l’opérateur l’année dernière.
L’enjeu de la température
Comme on peut le voir, les bandes pour le 50G-PON sont relativement étroites comparées à celles des deux autres technologies, ce qui implique que le laser passant dans la fibre ne bouge pas de sa longueur d’onde, pour ne pas déborder sur G-PON ni sur XGS-PON.
Le laser doit donc rester à une température stable car « un laser qui varie en température est un laser dont la longueur d’onde varie », nous expliquait Orange.
Pour la société, la solution n’était pas bien compliquée : « on va devoir réguler [la température] dans la box […] On peut le faire. Ça coûte un peu plus cher, mais c’est quelque chose qu’on saura faire ». La consommation électrique augmentera fatalement, « mais pas extrêmement plus » affirmait Orange, sans donner de chiffres précis.
Répartition des technologies PON suivant les fréquences (US correspond à up-stream et DS à down-stream).
Une première en France ? Pas si vite…
Il est amusant de voir Orange affirmer qu’il « s’agit d’une première en France, qui fait suite aux expérimentations menées en laboratoire »… occultant complètement une expérimentation menée l’année dernière sur son propre réseau opérationnel en France métropolitaine :
« En février 2024 en Bretagne, lors d’un essai terrain, Orange a connecté un client résidentiel fibre à un équipement dédié 50G-PON sur une infrastructure FTTH opérationnelle à laquelle d’autres clients commerciaux sont aussi connectés en G-PON et XGS-PON. Un trafic Ethernet de plus de 41 Gbit/s [soit plus de 5 Go/s, ndlr] a été mesuré sur le lien du client connecté au 50G-PON, tout en maintenant la qualité des connexions des autres clients ».
Le déploiement n’est pas pour tout de suite : « Dans le futur, [les systèmes 50G-PON] permettront d’augmenter la capacité des réseaux pour des usages avancés des entreprises, notamment celles qui ont des sites de grande taille, puis pour des usages résidentiels, quand les besoins seront avérés ».
L’année dernière, le discours était déjà le même : « La triple coexistence du G-PON, XGS-PON et 50G-PON sera possible dès que les premiers besoins de déploiement à 50 Gbit/s seront nécessaires ». Orange avait, pour rappel, trainé des pieds avant de proposer du 10 Gb/s à ses clients, faute d’un réel besoin, se justifiait l’opérateur.
La campagne présidentielle irlandaise est perturbée par la diffusion d’une fausse vidéo de la candidate Catherine Connolly.
Générée par IA, le deepfake laisse croire que la candidate a déclaré le « retrait de sa candidature ».
Outre l’image de la politicienne, le deepfake manipule aussi celle de deux journalistes : la vidéo complète montre un faux extrait de journal télévisé de la chaine publique RTÉ, où la présentatrice Sharon Ní Bheoláin et le correspondant politique Paul Cunningham annonceraient puis commenteraient le faux abandon de candidature.
La vidéo aurait circulé pendant une douzaine d’heures avant d’être modérée sur les plateformes de Meta et sur YouTube, selon The Irish Times. D’autres deepfakes politiques circuleraient en ligne, attaquant Connolly ou suggérant que les votes sont truqués.
Catherine Connolly a, de son côté, nié tout arrêt de sa campagne.
Les Irlandais sont appelés aux urnes ce vendredi. Ils devront choisir entre Catherine Connolly, sans étiquette mais soutenue par plusieurs partis de gauche, et Heather Humphreys, membre du Fine Gael et de l’actuel gouvernement de centre-droit.