Avec ses homologues allemands, belges et danois, Que-Choisir s’est lancé dans des achats de chargeurs et autres produits sur Shein et Temu pour en analyser le respect des normes européennes. Et le moins que l’on puisse dire, c’est qu’ils sont loin du compte.
Sur les 54 chargeurs achetés (27 sur chaque plateforme), seuls 2 (un de chaque plateforme) respectaient les normes européennes. 21 ne possédaient pas certains marquages obligatoires comme le logo CE ou l’unité de tension. Surtout, 51 n’ont pas résisté aux contraintes mécaniques imposées, avec des résultats variés : broches tordues ou tournées trop facilement, boitier cassé après une chute…
Pour 4 des chargeurs, « les circuits à haute et basse tension étaient trop proches l’un de l’autre, risquant de provoquer des arcs électriques ». La température s’est envolée sur 14 chargeurs, au point de dépasser les températures maximales autorisées de 77 et 87° C. Un modèle a même atteint 102° C.
« Nos tests ont mis en évidence le fait que ces produits d’entrée de gamme étaient souvent mal conçus et fabriqués avec des matériaux de mauvaise qualité, et que beaucoup d’entre eux faisaient courir de réels risques de brûlure, de choc électrique et d’incendie à leurs utilisateurs »
Crédits : Que-Choisir
Les tests réalisés sur des jouets pour enfants et des bijoux renvoient vers le même type de résultats. Pour les premiers, Que-Choisir note, en fonction des modèles, une qualité de fabrication « catastrophique », un niveau de bruit bien trop puissant, des substances dangereuses, une ouverture trop facile du compartiment des piles, etc. Côté bijoux, la plupart de ceux achetés étaient conformes. Mais dans le cas contraire, ils représentaient de vrais dangers pour la santé. « L’un des bijoux achetés sur Shein était même composé à 87 % de cadmium, soit 8 700 fois la norme autorisée de 100 mg/kg », indique Que-Choisir.
Le magazine ajoute avoir contacté les deux plateformes pour expliquer ses trouvailles. Tous les produits ont rapidement été retirés et Shein a lancé une campagne de rappel auprès de la clientèle. « Malgré tout, des produits similaires sont toujours en ligne et rien ne dit que ceux qui ont été retirés ne réapparaîtront pas chez d’autres vendeurs », conclut Que-Choisir.
Un chercheur en sécurité, Jose Pino, a trouvé un important problème dans Chrome, qui peut rejaillir dans tous les navigateurs basés sur Chromium. Il ne peut pas en l’état être utilisé pour pirater une machine, mais il peut occasionner un plantage complet du navigateur, voire de la machine selon la configuration utilisée.
Le chercheur expose ses travaux sur une page dédiée d’un dépôt GitHub et n’a révélé sa trouvaille dans un premier temps qu’à The Register. Il indique avoir prévenu Google le 28 aout puis à nouveau le 30, sans réponse jusqu’à très récemment. Il a donc décidé de dévoiler les détails de sa découverte, jusqu’à publier la manière d’exploiter le bug ainsi qu’un proof of concept (PoC) sous forme d’un site qui fera immanquablement planter le navigateur en 15 à 60 secondes.
Une API sans limitation de ressources
Le problème réside dans l’API document.title. Le chercheur a découvert qu’elle ne possède aucune limitation de débit sur les mises à jour, ce qui « permet d’injecter des millions de mutations DOM par seconde, et lors de cette tentative d’injection, cela sature le thread principal, perturbant la boucle d’événements et provoquant l’effondrement de l’interface ».
The Register dit avoir testé le PoC sur Edge sur un PC Windows 11. Résultat ? 18 Go de mémoire aspirés par l’onglet, un plantage du navigateur puis celui de la machine.
Jose Pino a nommé cette vulnérabilité Brash et elle n’affecte que le moteur Blink, principalement utilisé par Chrome. Gecko (Mozilla) et WebKit (Apple) ne sont pas concernés. Comme on peut le voir dans les explications sur GitHub, le temps nécessaire pour faire planter le navigateur varie légèrement, mais le résultat est toujours le même.
Chronologie d’un plantage
Le chercheur donne même la méthode pour aboutir au proof of concept, ainsi que le code qui va avec. Le processus se fait en trois étapes, dont la première consiste à préparer et à charger en mémoire 100 chaines hexadécimales uniques de 512 caractères. Vient ensuite la phase de burst (rafale) qui, dans une configuration par défaut, aboutit à 24 millions de mises à jour par seconde à faire ingérer à l’API document.title. Puisque celle-ci ne limite pas sa consommation de ressources, le navigateur puise autant qu’il peut dans le CPU et la mémoire. Les mises à jour sont si fréquentes que le processus principal du navigateur devient saturé, empêchant le fonctionnement de l’interface et entrainant finalement le plantage.
Jose Pino donne les temps moyens pour chaque étape : entre 5 et 10 secondes pour que les onglets se bloquent, entre 10 et 15 secondes pour provoquer un blocage complet ou l’apparition d’une boite de dialogue « Page sans réponse », et entre 15 et 60 secondes. Bien qu’il ne s’agisse pas directement d’un problème de sécurité, il peut donner lieu à des plantages et donc à des pertes de travail selon le contexte.
The Register indique de son côté avoir contacté les entreprises derrière Chrome, Edge, Vivaldi, Arc, Dia, Opera, Perplexity Comet, ChatGPT Atlas et Brave. Sept n’ont pas répondu, Google a indiqué qu’elle se penchait sur le problème et Brave qu’elle attendrait que le souci soit corrigé dans Chromium.
La variante Unity d’Ubuntu est dans la panade. Le manque de développeurs dans l’équipe met la distribution en danger, au point qu’elle pourrait disparaitre.
Maik Adamietz, modérateur et administrateur de la communauté, fait partie du projet depuis 2020. Dans un message publié sur Discourse, il rend compte d’une situation devenue très compliquée. Il indique notamment que Rudra, chef du projet, est accaparé par ses études universitaires et les examens qui en découlent.
Le ralentissement a commencé à se faire sentir à la publication d’Ubuntu 25.04 en avril dernier. Maik ajoute qu’il a dû lui aussi s’éloigner, citant des raisons personnelles. Circonstance aggravante, les deux développeurs ont fortement ralenti leur participation à peu près au même moment, amplifiant le problème.
Même si les commits ont amplement diminué, l’infrastructure du projet a continué de produire des builds journalières, via un processus automatique. Sans réelles corrections, révisions du code et tests en mains propres, les défaillances ont prospéré au point d’aboutir à nombre de bugs considérés comme critiques.
Résultat : aucune version Unity n’est apparue pour Ubuntu 25.10, alors que le système est disponible depuis plusieurs semaines et que toutes les autres variantes (Kubuntu, Xubuntu…) ont suivi dans la foulée.
Maik dit s’être entretenu de la situation avec Tobiyo Kuujikai, un autre développeur et modérateur du projet. La conclusion de la discussion était cependant qu’aucun des deux n’estimait avoir les connaissances techniques suffisantes pour la maintenance d’une distribution entière ou même pour résoudre les bugs critiques qui émaillent la mouture actuelle.
Il lance donc un appel aux bonnes volontés, cherchant en priorité des personnes ayant assez de bagages techniques pour s’atteler à la tâche et ramener Ubuntu Unity dans l’état de fiabilité que la distribution avait à la version 24.04. Il espère au moins pouvoir résoudre les problèmes les plus importants d’ici la version 26.04.
Rappelons qu’Unity était un environnement développé par Canonical, quand l’entreprise rêvait de proposer une interface unique pour toutes les plateformes. En avril 2017, elle avait cependant annoncé l’abandon d’Unity au profit d’un retour sur GNOME. Ubuntu 17.10 avait inauguré cette bascule. Unity a fini par être repris par la communauté. Cet environnement ne manquait pas d’intérêt et avait la préférence d’une partie des utilisateurs.
Amazon a confirmé ce 28 octobre 14 000 suppressions de postes dans plusieurs domaines et pays. L’entreprise indiquait dans son communiqué qu’elle offrirait « à la plupart des employés 90 jours pour chercher un nouveau poste en interne ».
On apprend sans grande surprise que certaines divisions de la société sont plus touchées que d’autres. C’est notamment le cas des jeux vidéo, comme noté par The Verge. Amazon a ainsi confirmé qu’elle allait drastiquement réduire la voilure sur le développement en interne de jeux AAA, tout particulièrement les MMO.
Parmi ces derniers, New World Aeternum est le principal touché. Les développeurs du jeu ont ainsi publié hier un billet dans lequel ils annoncent ce que les joueurs craignaient : « La saison 10 et la mise à jour de Nighthaven, récemment lancées, serviront de dernière sortie de contenu pour New World sur PC et consoles ». Des détails supplémentaires seront fournis au cours des prochains mois et les serveurs devraient rester actifs jusqu’en 2026, sans plus de précisions. Les développeurs donneront un préavis « d’au moins six mois » avant la coupure.
Le destin des autres MMO varie. Pour Throne and Liberty, développé par NCSoft et FirstSpark Games, et Lost Ark, développé par Smilegate RPG, le développement continuera et les mises à jour continueront d’affluer. Le destin du MMO Lord of the Rings est en revanche plus incertain.
YouTube vient d’annoncer plusieurs améliorations à venir pour les créateurs de contenus. La plus visible sera une fonction baptisée « Super Resolution », chargée de proposer des versions HD de contenus en basse résolution, dont la définition et la qualité seront augmentées par l’IA.
Ce traitement sera automatiquement appliqué sur tous les contenus concernés. Cependant, les créateurs pourront désactiver la fonction pour qu’elle ne soit pas proposée aux internautes. Ces derniers verront les définitions ajoutées car elles seront étiquetées comme telles dans la liste du réglage Qualité. En outre, les originaux restent en place, les versions « améliorées » étant créées à part.
Difficile d’imaginer la quantité de calculs que cela représente, tant les vidéos sont nombreuses sous les 1080p. Le travail sera d’autant plus grand que YouTube compte proposer à terme une qualité allant jusqu’à la 4K.
D’autres améliorations doivent arriver très prochainement, dont la possibilité d’utiliser des fichiers allant jusqu’à 50 Mo pour les miniatures des vidéos, contre 2 Mo aujourd’hui. YouTube a également « commencé à tester des vidéos plus volumineuses avec certains créateurs afin de permettre des mises en ligne originales de qualité encore supérieure », mais sans plus de détails. On note aussi l’arrivée d’un code QR dans les vidéos promotionnelles pour se rendre directement vers une page d’achat.
Mais au milieu des améliorations portées par l’IA, il y a aussi un plan de départs volontaires pour le personnel américain de l’entreprise. Dans une note interne révélée ce mercredi par Sources, le patron de YouTube, Neal Mohan, indique que l’intelligence artificielle représente l’avenir de la plateforme.
En conséquence, toute la structure est désormais divisée en trois sections : « Subscription Products » pour tout ce qui touche aux abonnements (Premium, Music et streaming), « Viewer Products » qui se concentrera sur l’expérience de visionnage, et « Creator & Community Products » pour les créateurs de contenus et le renforcement de la communauté. Aucun licenciement n’est prévu, mais les personnes qui partiraient à la suite de ces changements ne seraient pas remplacées.
Après plusieurs heures de service dégradé, Microsoft a signalé dans la nuit de mercredi à jeudi la fin de la panne liée à son infrastructure cloud, Azure. L’éditeur évoque une erreur de configuration, dont les effets en cascade auraient progressivement fait tomber les principaux nœuds de son réseau.
Quelques joueurs ont eu l’occasion de râler sur leur Xbox mercredi soir, à juste titre : le cloud Microsoft Azure, qui sous-tend les services connectés de la console, a en effet été victime d’une panne de quelques heures, sensible à l’échelle mondiale.
L’incident s’est produit aux alentours de 16h45 mercredi 29 octobre (heure de Paris), d’après le rapport d’incident préliminaire publié cette nuit par Microsoft.
Les principaux services Azure inaccessibles
« Entre 16h45 le 29 octobre et 01h05 le 30 octobre 2025, les clients et les services Microsoft qui s’appuient sur Azure Front Door (AFD) ont pu rencontrer des latences, des expirations de délai et des erreurs », résume l’éditeur.
Azure Front Door est l’un des services en charge de la diffusion des contenus et applications hébergés par l’infrastructure cloud de Microsoft. « Il utilise l’équilibrage de charge de couche 7 [du modèle OSI, ndlr] pour répartir le trafic entre plusieurs régions et points de terminaison. Il offre également une accélération de site dynamique (DSA) pour optimiser les performances Web et un basculement en temps quasi réel pour garantir une haute disponibilité. Azure Front Door est un service entièrement managé, vous n’avez donc pas à vous soucier de la mise à l’échelle ou de la maintenance. », explique l’éditeur.
AFD joue un rôle d’intermédiaire entre l’utilisateur final et bon nombre des services distribués par Azure, dont les bases de données, les API, les outils de sécurité etc. Son dysfonctionnement a de ce fait eu des répercussions sur les principaux services grand public de Microsoft, mais aussi sur ceux de grands comptes tels que Costco, Starbucks ou Alaska Airlines, dont les passagers ont été privés pendant quelques heures des fonctions d’enregistrement en ligne, rapporte le Seattle Times.
Raison de la panne ? Microsoft invoque un « changement de configuration involontaire », qui aurait invalidé le paramètre concerné, et « empêché un nombre important de nœuds AFD de se charger correctement, entraînant une augmentation des latences, des délais d’attente et des erreurs de connexion pour les services en aval ».
Effet domino
Alors qu’AFD est précisément conçu pour répartir la charge entre les différents nœuds de l’infrastructure, la panne semble avoir déclenché un effet domino. « À mesure que les nœuds défectueux étaient retirés du réseau mondial, la répartition du trafic entre les nœuds fonctionnels devenait déséquilibrée, ce qui amplifiait l’impact et provoquait des interruptions de service, même dans les régions partiellement opérationnelles ».
Microsoft indique avoir immédiatement bloqué tout nouveau changement de configuration et déclenché une procédure de retour à la dernière configuration fonctionnelle connue, mais admet dans le même temps que cette procédure souffre d’une certaine inertie.
« La reprise a nécessité le rechargement des configurations sur un grand nombre de nœuds et le rééquilibrage progressif du trafic afin d’éviter les situations de surcharge au fur et à mesure que les nœuds étaient remis en service. Cette reprise délibérée et progressive était nécessaire pour stabiliser le système tout en rétablissant sa capacité et en garantissant l’absence de récidive du problème ».
Reste à comprendre comment et pourquoi l’architecture Azure a laissé ce paramètre invalidant se propager à grande échelle. Sur ce point, Microsoft parle d’un « défaut logiciel », sans donner plus de précision, mais promet, comme toujours, que les mesures de sécurité concernées ont depuis été réexaminées et que « des contrôles de validation et d’annulation supplémentaires ont été immédiatement mis en place afin de prévenir des problèmes similaires à l’avenir ».
Ironie du sort, cette panne est intervenue à peu près au moment où Microsoft présentait aux marchés les résultats financiers du premier trimestre de son exercice fiscal 2026, clos au 30 septembre 2025. L’éditeur a fait état d’un chiffre d’affaires de 77,7 milliards de dollars sur le trimestre, en hausse de 18 % sur un an et doublé d’un bénéfice net de 27,7 milliards de dollars. « La croissance continue de Microsoft Cloud témoigne de la demande croissante des clients pour notre plateforme différenciée », s’est félicitée à cette occasion Amy Hood, la directrice financière de l’entreprise.
Cet incident survient moins de deux semaines après qu’une panne de très grande ampleur a touché le cloud AWS à l’échelle mondiale, provoquée par une situation de compétition autour d’enregistrements DNS. Chez Microsoft, on ne précise pas la nature exacte du composant défectueux, mais les esprits taquins noteront que les premiers messages d’alerte diffusés par les comptes de l’éditeur sur les réseaux sociaux mentionnaient l’éventualité d’un problème lié aux DNS, même si ces mentions ont depuis disparu.
En juin dernier, nous rapportions que Grammarly avait levé un milliard de dollars. La société, spécialisée dans la détection des fautes et l’aide à l’écriture, prévoyait alors d’investir largement dans l’IA générative, notamment pour ne pas se faire dépasser dans son domaine de prédilection par ChatGPT, Claude et autre Gemini. Le mois suivant, elle annonçait le rachat de Superhuman, un client e-mail, pour se renforcer sur le terrain de la productivité.
Et voilà que Grammarly se renomme désormais Superhuman. Les produits présents dans le portefeuille, dont surtout l’assistant d’écriture, restent en place sous les mêmes appellations.
La société en profite pour lancer un assistant dopé à l’IA générative et nommé Superhuman Go. Intégré dans l’extension Grammarly, il se propose de fournir des suggestions d’écriture, de faire des commentaires sur des e-mails, etc. Il est bien sûr utilisable dans Superhuman (le client e-mail) mais on peut le connecter à d’autres sources comme Jira, Gmail, Google Drive et Google Agenda pour lui fournir plus de contexte. D’autres sources seront ajoutées prochainement pour élargir ce contexte, notamment des CRM.
Superhuman Go est désactivé par défaut, mais les utilisateurs de l’extension peuvent l’activer par un bouton. L’assistant est pour l’instant fourni sans frais supplémentaires dans toutes les formules payantes. Selon l’entreprise, d’autres fonctions de ce type seront ajoutées bientôt à ses produits, dont Coda, un concurrent de Notion.
Grammarly reste en revanche centré sur la langue anglaise.
Les dernières statistiques publiées par Boiling Steam sont étonnantes : 90 % des jeux conçus pour Windows sont compatibles avec Linux. Bien que le chiffre soit impressionnant et témoigne d’une activité intense autour du sujet, il recouvre plusieurs réalités.
Le jeu vidéo sur Linux est devenu un vrai sujet depuis plusieurs années, avec une accélération notable du nombre de titres pouvant bien fonctionner sur la plateforme. Près de 90 % des jeux conçus pour Windows peuvent être lancés sur Linux, relève le site Boiling Steam en s’appuyant sur les chiffres de ProtonDB (qui permet de suivre l’état de compatibilité de chaque titre avec Proton).
Des jeux qui se lancent, mais dans quelles conditions ?
Cette statistique de 90 % représente le pourcentage de jeux qui se lancent sur Linux. Mais se lancent comment ? Le tableau fourni par Boiling Steam analyse la qualité de la prise en charge. De manière générale, l’évolution est plus que positive puisque les jeux en vert foncé (niveau Platine) représentent ceux pouvant être lancés sur Linux sans modification et avec de très bonnes performances, grâce à la couche Proton (basée sur Wine), créée par Valve.
Crédits : Boiling Steam
Viennent ensuite le vert clair (Or) pour ceux ayant besoin de quelques ajustements mineurs, le jaune (Argent) pour les titres jouables mais avec des imperfections, le rouge clair (Bronze) pour les jeux dont le fonctionnement n’est pas garanti, et enfin le rouge sombre pour ceux qui ne fonctionnent tout simplement pas. Les 90 % tiennent compte de toutes les couleurs à l’exception du rouge sombre.
Dans le billet lié, Boiling Steam indique que ces statistiques ne reflètent pas non plus la part des jeux pris officiellement en charge par le Steam Deck de Valve, car la qualification qui va avec prend en compte les performances. Le site considère cependant que le niveau Platine correspondrait aux statuts Verifié ou Jouable du Steam Deck, en fonction seulement du niveau de performances.
Toujours plus vert
Le graphique montre quoi qu’il en soit une accélération notable en 2022 et 2023 dans le support des jeux, que le site attribue principalement à l’arrivée du Steam Deck et à l’effervescence qui a entouré la console portable de Valve.
Peut-on espérer que tous les jeux finissent par fonctionner un jour sur Linux ? Possible, mais il faudra que les éditeurs envisagent la plateforme comme une véritable cible, car la couche Proton ne peut pas tout faire. Le problème des logiciels anti-triche est toujours présent : avec des mécanismes pensés pour être en espace noyau sur Windows, ils n’ont aucune chance de fonctionner sur Linux. Or, ces titres sont souvent ceux qui tractent un très grand nombre de joueurs, car très compétitifs : Valorant, Fortnite, Overwatch 2, Apex Legends, la série des Call of Duty…
Mais les conséquences de la couche Proton continuent et pourraient à terme engendrer un effet de masse suffisamment important pour que les studios envisagent cette possibilité. Le jeu vidéo est l’un des grands bastions de Windows, mais la fin de support de Windows 10 entraine une interrogation chez une partie des utilisateurs sur la possibilité d’une migration, d’autant que des distributions spécialisées existent, comme GLF OS. Selon les jeux utilisés, un passage à Linux n’a donc plus rien d’un problème.
Le ministère fédéral autrichien de l’Économie, de l’Énergie et du Tourisme (BMWET) a migré une grande partie de son infrastructure sur Nextcloud pour gérer la collaboration interne et le stockage des données. Interrogé sur les raisons de cette transition, le ministère a notamment cité des craintes de non-conformité au RGPD et à la directive NIS2.
La nouvelle a été annoncée le 23 octobre pendant la conférence Nextcloud Enterprise Day, qui se tenait à Copenhague et dont elle constituait l’un des points d’orgue. On a ainsi appris que le BMWET (ministère fédéral autrichien de l’Économie, de l’Énergie et du Tourisme) avait fini une migration concernant 1 200 fonctionnaires et visant à réduire considérablement la dépendance à Microsoft, améliorer la collaboration interne et assurer le stockage sécurisé des données.
L’annonce a été faite par Martin Ollrom, CIO (Chief Information Officer) du ministère, et Florian Zinnagl CISO (Chef Information Security Officer). Dans une vidéo publiée par Nextcloud, les deux responsables indiquent que le projet est parti d’une réflexion sur la modernisation de l’infrastructure, ainsi que d’un travail sur la réduction des risques juridiques et de sécurité, notamment en regard du RGPD et de la directive NIS2.
Le projet de l’Autriche n’était pas une coupure nette. Comme le ministère l’explique, une partie du BMWET était en train d’adopter Microsoft 365 et Teams au moment où la question d’un remplacement a été abordée. Pas question donc d’arrêter en plein milieu. Le ministère a donc choisi une approche hybride : garder Teams comme outil de communication externe et partiellement Outlook, puis confier le reste à Nextcloud.
Le ministère a travaillé avec deux entreprises pour la mise en œuvre : Atos Autriche et Sendent, partenaire de Nextcloud, qui s’est notamment occupé d’une intégration dans Outlook pour préserver certains flux de travail, particulièrement les e-mails et agendas. L’équipe de Nextcloud a également participé au projet.
Selon les deux responsables, tout s’est passé étonnamment vite. Il n’aurait ainsi fallu que quatre mois entre la preuve de concept au déploiement complet, un temps très court quand on considère l’ampleur de la migration et les défis d’un tel projet.
Les deux responsables ont ajouté qu’un montant significatif avait été investi dans la formation des fonctionnaires. « Une vaste campagne d’information, une communication claire, des sessions de formation et une transition progressive ont permis d’assurer une forte acceptation et un processus sans heurts. Grâce à l’intégration avec les systèmes existants, nous avons été en mesure de moderniser considérablement notre portefeuille de services numériques et, en fin de compte, la collaboration, sans perturber les flux de travail établis des employés », a assuré Martin Ollrom.
Souveraineté et approche en douceur
Comme d’autres projets avec celui-ci, la migration du BMWET est intéressante dans les problématiques qu’elle soulève, mais qui ne sont pas neuves : souveraineté, refus d’une dépendance à une société américaine, etc. En revanche, l’expression claire de doutes sur la conformité au RGPD et surtout à la directive NIS2 n’est pas courante.
L’approche plus en douceur de la migration est en outre mise en avant par Nextcloud dans sa propre communication. Une manière de dire qu’une transition peut se faire progressivement et encourager d’autres institutions et émanations diverses d’États à tenter l’aventure. Nextcloud prêche bien sûr pour sa paroisse, mais ce n’est pas la première fois que l’Autriche adopte cette approche.
Il y a quelques semaines, on apprenait ainsi que l’armée autrichienne avait abandonné la suite Office de Microsoft pour LibreOffice (pdf). 16 000 ordinateurs étaient concernés et il s’agissait alors de l’aboutissement d’une longue réflexion, car la planification avait commencé en 2020. L’armée avait indiqué s’être notamment inquiétée d’une dépendance toujours croissante d’Office à des services distants. La migration s’était faite par étapes : utilisation volontaire de LibreOffice en 2022, obligation de l’utiliser dans certains départements en 2023, puis obligation générale et suppression d’Office en septembre dernier. L’armée autrichienne a également contribué au code de LibreOffice.
Ces migrations partielles sont autant de portes ouvertes vers des migrations complètes vers l’open source. Si l’applicatif peut se passer de Microsoft, Windows finit par ne plus être nécessaire. Un mouvement lent mais assez général en Europe, avec d’autres cas de migrations comme en Allemagne et au Danemark.
Le réseau social de Donald Trump, Truth Social, lance un service de pronostics en ligne avec la plateforme de cryptoactifs Crypto.com.
Nommé Truth Predict, le service permettra de parier sur les résultats d’événements variés, allant de compétitions sportives à des élections en passant par les variations de l’économie.
Avec ce projet, le groupe Trump Media and Technology Group (TMTG) joue sur le succès des services de pronostics (predictions en anglais), qui ne sont pas considérés comme des acteurs du pari en ligne par les autorités locales.
En l’occurrence, Truth Predict cherche à concurrencer Polymarket, le leader du domaine.
En amont des élections présidentielles de 2024, note Wired, ce type de services de pronostics était présenté par leurs promoteurs comme une meilleure manière de mesurer l’opinion publique que les sondages.
Certains acteurs du monde financier les décrivaient même comme une meilleure « source de vérité » (truth en anglais, qui est aussi le nom des plateformes de Trump), quand bien même la validité de paris et leur représentativité de l’opinion générale peuvent être débattus.
Les députés ont voté mardi 28 octobre en soirée un amendement de LFI pour un impôt sur les multinationales et un passage de 3 à 6 % de la taxe GAFAM proposé par le député Renaissance Jean-René Cazeneuve, qui avait envisagé d’aller jusqu’à 15 %.
En première lecture du projet de loi du budget 2026, les députés ont approuvé à 207 voix contre 89 « un impôt universel sur les sociétés transnationales qui échappent au Fisc » proposé par LFI. Ils ont aussi approuvé à 296 voix pour et 58 contre le doublement de la taxe GAFAM, proposé cette fois par le député Jean-René Cazeneuve.
Votées ce 28 octobre contre l’avis du gouvernement, ces deux mesures pourraient rapporter 26 milliards d’euros en tout, selon leurs auteurs. Mais elles ont peu de chances de passer l’étape du Sénat. Selon notre consœur de Médiapart Pauline Graulle, elles seraient « peut-être même un coup de grâce porté aux discussions budgétaires à l’Assemblée nationale ».
Taxer les bénéfices des multinationales en proportion de leur activité en France
Inspiré par une proposition de l’association ATTAC et par les travaux de l’économiste Gabriel Zucman, l’amendement de LFI veut « taxer les bénéfices des multinationales proportionnellement à leur activité réellement réalisée en France ». Il prévoit que « toute personne morale ayant une activité en France est imposable à hauteur du ratio de son chiffre d’affaires réalisé sur le territoire national ramené à son chiffre d’affaires mondial ».
Le texte s’appuie sur une définition très élargie de celui-ci, puisque ce CA serait calculé en « incluant également le chiffre d’affaires des entités juridiques dont [l’entreprise] détient plus de 50 % des actions, parts, droits financiers ou droits de vote ». De quoi faire réagir des multinationales du numérique comme Google ou Amazon.
« Je crains que cet amendement soit contraire à une directive européenne fixant [le taux d’imposition] à 15 % et non 25 % », a réagi le rapporteur du budget et député Républicain, Philippe Juvin, en s’y opposant. De son côté, le député LFI, Manuel Bompard, considère que « c’est compatible avec la législation française et internationale ». Le ministre de l’Économie, Roland Lescure, s’y est aussi opposé, arguant que le vote de cet amendement apporterait « 20 milliards d’ennuis » à la France et rappelant les diverses conventions fiscales signées par la France en bilatéral avec 125 pays.
Un doublement de la taxe Gafam
L’autre amendement voté hier soir de manière un peu surprenante est celui augmentant la taxe Gafam. Comme nous l’expliquions la semaine dernière, un amendement déposé par le député Renaissance, Jean-René Cazeneuve, proposait « de porter de 3 % à 15 % » le taux de cette taxe. Le contre-projet du PS publié en septembre dernier projetait une augmentation à 6 %. C’est finalement ce doublement de la taxe qui a été adopté, le député Renaissance ayant accepté un tel taux en affirmant « je ne suis pas là pour rouvrir une guerre commerciale entre la France et les États-Unis », comme le rapporte Le Monde.
Roland Lescure a déclaré prendre « acte de la volonté du Parlement de renforcer la taxe sur les géants du numérique » tout en ajoutant qu’il aurait préféré que ce sujet soit traité « à l’échelle européenne et par la discussion internationale ».
Rappelons que si ces deux sources de financement ont obtenu une majorité à l’Assemblée nationale, elles ont peu de chances d’être acceptées par le Sénat à majorité de droite. Le texte global du budget, avec ces dispositions, pourrait ne même pas recueillir de majorité à l’Assemblée : certains députés Renaissance opposés notamment à l’impôt universel sur les multinationales pourraient refuser de le voter.
Au tribunal, les internautes ayant fait circuler la thèse de la transidentité de Brigitte Macron plaident l’« esprit Charlie » et la liberté d’expression. Ce type de théorie est régulièrement utilisé pour attaquer des femmes proches du pouvoir.
Dix personnes étaient jugées ces 27 et 28 octobre pour avoir cyberharcelé Brigitte Macron, l’accusant, entre autres, de mentir sur son genre et assimilant son écart d’âge avec celui d’Emmanuel Macron à de la pédophilie. Âgés de 41 à 60 ans, les prévenus étaient huit hommes et deux femmes.
Des peines allant de 3 à 12 mois, avec des amendes susceptibles de monter jusqu’à 8 000 euros ont été requises contre eux, les plus lourdes visant Aurélien Poirson-Atlan, publicitaire de 41 ans, connu sur les réseaux sociaux sous le pseudonyme de Zoé Sagan, ainsi que la médium connue sous le pseudo d’Amandine Roy et le galeriste Bertrand Scholler (plus de 100 000 abonnés sur X), décrits comme « instigateurs » de la thèse de la transidentité de Brigitte Macron.
Le délibéré sera rendu le 5 janvier 2026.
Les accusés plaident l’« esprit Charlie »
Ce procès est le résultat d’une série de plaintes déposées le 27 août 2024 par l’épouse du président de la République. Celles-ci avaient mené à une série d’interpellations en décembre 2024 et février 2025 par la brigade de la répression de la délinquance contre la personne (BRDP) – celle des profils les plus « virulents », selon un rapport de police consulté par Le Monde.
Au tribunal, tous les accusés ont minimisé les faits. Informaticien, Jérôme A. plaide n’avoir qu’un « petit compte Twitter de 90 abonnés ». Jean-Christophe D. évoque des publications « parodiques ». On cite l’ « humour » et l’ « esprit Charlie »,relate Franceinfo.
Autrice d’une vidéo virale selon laquelle Brigitte Macron n’aurait jamais existé et son frère Jean-Michel Trogneux aurait pris son identité, la médium Delphine J., connue sous le pseudonyme d’Amandine Roy, se déclare même harcelée en tant que « femme anatomique », par opposition aux femmes trans.
Habitué des thèses complotistes, visé par plusieurs plaintes, Aurélien Poirson-Atlan a de son côté donné une conférence de presse improvisée dans laquelle il a nié avoir participé à toute forme de cyberharcèlement et qualifié le procès d’attaque contre la liberté d’expression. Il avait diffusé la thèse de la transidentité de l’épouse du président alors que son compte X était suivi par plus de 200 000 personnes (le compte a depuis été suspendu).
À la barre, Tiphaine Auzière, l’une des filles de Brigitte Macron, témoigne de son côté de la « dégradation des conditions de vie » de sa mère. Dénonçant la « haine » qui vise l’épouse du Président, elle précise que cette dernière est désormais sur le « qui-vive » en permanence.
Attaque récurrente contre les femmes proches du pouvoir
Jouant à la fois sur des ressorts transphobes et misogynes, la suspicion de transidentité est un récit utilisé de manière récurrente dans les campagnes de désinformation. Michelle Obama, Kamala Harris ou encore Kate Middleton ont été visées par le même type de campagnes de « transvestigation », comme les nomment leurs auteurs, c’est-à-dire des mobilisations collectives autour d’une même thèse fausse, qui se traduit ici par du cyberharcèlement.
En juillet 2025, le couple Macron a déposé plainte devant un tribunal du Delaware, aux États-Unis, contre l’influenceuse d’extrême droite Candace Owens, qui a donné un écho international aux fausses allégations concernant Brigitte Macron.
En février, un couple de quadragénaires qui avait affublé cette dernière d’un prénom masculin dans leur déclaration d’impôts a été relaxé. Le fait que ce prénom se retrouve visible dans l’espace personnel de l’épouse du chef de l’État était le résultat d’un bug du système informatique de la Direction générale des Finances publiques dont le couple ne pouvait avoir connaissance, a tranché le tribunal correctionnel.
Nouvelle version majeure pour le navigateur centré sur la sécurité et la protection de la vie privée, qui exploite le réseau Tor. L’occasion de récupérer la dernière version ESR de Firefox (140) et donc de moderniser sa base.
Tor Browser 15.0 introduit également bon nombre de nouveautés apparues dans Firefox au cours de l’année écoulée. On retrouve ainsi les onglets verticaux, les groupes d’onglets ou encore le bouton de recherche unifiée pour passer rapidement d’un moteur à un autre.
L’équipe indique dans son communiqué que ces fonctions sont pour les personnes sachant ce qu’elles font, car le fonctionnement par défaut du navigateur est une session vierge à chaque démarrage, alors que ces outils vont clairement dans le sens d’une préservation des informations entre les sessions.
La version Android se dote pour sa part d’un écran de verrouillage imposant la saisie d’un code pour continuer, pour ajouter une couche de protection. L’équipe prévient que la prochaine version majeure du navigateur abandonnera les versions 5.0, 6.0 et 7.0 d’Android, âgées mais toujours prises en charge par Mozilla pour le moment. Mais Firefox va s’en débarrasser et les ressources à investir seraient trop conséquentes pour faire perdurer cette prise en charge dans Tor Browser.
Enfin, Tor Browser adopte une approche hybride pour WebAssembly (Wasm). La désactivation générale n’est plus possible, car Mozilla s’en sert dans certaines parties de son Firefox, dont le lecteur PDF intégré. « Par conséquent, nous avons décidé de transférer le contrôle de Wasm à NoScript, qui est fourni avec le navigateur Tor et gère déjà JavaScript et d’autres fonctionnalités de sécurité. Cela signifie que Wasm fonctionne désormais sur les pages de navigateur privilégiées telles que le moteur de rendu PDF, mais que NoScript continuera à bloquer la technologie sur les sites Web réguliers aux niveaux de sécurité Safer et Safest », explique l’équipe.
Fedora 43 est disponible en version finale. Comme toujours avec cette distribution, on peut compter sur les dernières versions des paquets et des choix avant-gardistes. Mais si cette version se présente comme solide, elle propose peu de nouveautés visibles.
Article original du 17 septembre : Les nouvelles versions de Fedora sont toujours attendues. Par une partie des utilisateurs bien sûr, ceux en quête de nouveautés. Mais aussi par les personnes qui observent l’évolution des distributions Linux en général. Fedora est le laboratoire à ciel ouvert de Red Hat et l’entreprise y teste en avance des choix et technologies, parfois de manière radicale, avant de les inclure dans sa propre distribution commerciale RHEL.
Côté utilisateurs cependant, Fedora 43 est assez calme. Ses changements les plus significatifs sont sous le capot.
L’habituelle modernisation généralisée
Contrairement à la plupart des distributions et à l’opposé d’une Debian, la philosophie de Fedora est de toujours proposer les dernières versions des paquets. Puisqu’il s’agit de la bêta, ces versions ne sont d’ailleurs pas toutes finalisées. On trouve par exemple le noyau Linux 6.17, qui est actuellement en RC6. Dans ce dernier, on peut trouver notamment des améliorations de performances pour le système de fichiers Btrfs, le support des processeurs Wildcat Lake d’Intel, la prise en charge de la Branch Record Buffer Extension pour ARM ou encore une amélioration du support des CPU et GPU.
Dans son édition classique Workstation, on retrouve bien sûr GNOME 49, dont la version finale est intégrée dans la bêta de Fedora et qui doit être annoncée aujourd’hui. Nous reviendrons donc très bientôt sur ses nouveautés. Cette version devait en tout cas désactiver X11 pour ne laisser que Wayland, mais l’équipe de développement a finalement repoussé cette bascule. La transition vers Wayland reste complexe, comme nous l’avons vu en détail récemment. Ce qui n’effraie pas Fedora, puisque la version 43 supprime les paquets liés à X11 et ne laisse que Wayland (et XWayland pour la compatibilité).
Côté KDE, c’est Plasma 6.4 qui est aux commandes. Rappelons que Fedora, depuis sa version 42, dispose d’une variante officielle KDE, qui n’est donc plus seulement un Spin.
De manière générale, on retrouve les dernières versions de Firefox, LibreOffice et des quelques applications livrées avec le système. Côté développement, c’est le même traitement : GCC 15.2, GNU Binutils 2.45, GNU C Library 2.42, GDB 17.1, LLVM 21, Golang 1.25, Perl 5.42, RPM 6.0, Python 3.14, PostgreSQL 18, Ruby on Rails 8.0, Dovecot 2.4, MySQL 8.4, Tomcat 10.1, etc.
Sous le capot, c’est beaucoup plus intéressant
Pour cette version en particulier, les évolutions les plus significatives sont sous le capot, loin du « simple » choix des versions pour les paquets les plus courants. Par exemple, l’installeur Anaconda, utilisé dans sa nouvelle mouture Web UI depuis Fedora 42, est désormais utilisé pour l’ensemble des Spins de la distribution et pour Fedora KDE. Pour la future version 44, Fedora compte s’en servir pour l’ensemble des éditions atomiques (dont Silverblue), tandis que Fedora 45 s’en servirait pour son édition Server. Après, les anciens composants GTK d’Anaconda seraient dépréciés.
Dans la même « veine », l’installeur se sert maintenant de DNF5 pour toutes les applications basées sur des paquets. Pour l’équipe de développement, c’est un pas supplémentaire vers la dépréciation de DNF4, qui est d’ailleurs entré en mode maintenance. En clair, plus aucune nouveauté ne lui sera ajoutée et les modifications ne concerneront que les corrections de bugs. Le passage à DNF5 est une réponse aux demandes de la communauté, car il doit simplifier les déploiements et rendre les installations plus rapides.
Citons également l’installation automatique des mises à jour dans Fedora Kinoite (version immuable sous KDE), la construction de Fedora CoreOS en utilisant Containerfile, la compression d’initrd avec zstd par défaut dans toutes les variantes du système, la réécriture complète de Greenboot (pour les systèmes basés sur bootc et rpm-ostree) en Rust, le retrait de python-nose (déprécié depuis cinq ans et incompatible avec Python 3.14), ou encore la prise en charge de la virtualisation confidentielle basée sur la plateforme TDX d’Intel.
On note aussi l’utilisation de RPM 6.0 dans Fedora 43. Comme la fiche du changement le précise cependant, cette adoption n’est réalisée que pour des questions de sécurité. Cette nouvelle version majeure améliore notamment plusieurs aspects dans la gestion des clés cryptographiques, en plus de la possibilité pour un paquet de supporter désormais plusieurs signatures. En revanche, Fedora n’adopte pas le nouveau format de paquet de RPM 6.0 par défaut. La génération se fait toujours sur la v4. L’équipe indique en outre que la vérification forcée des signatures était prévue pour Fedora 43, mais qu’elle n’a pas eu le temps de finir le travail.
La suite des opérations
Pour l’instant, la date prévue pour la version finale de Fedora 43 est fixée au 11 novembre. Il est souvent arrivé que l’équipe rate ses fenêtres de sortie, mais ce type de problème semble avoir été relégué au passé sur les dernières versions. On note que la période de test est donc assez longue, notamment face à une Ubuntu qui ne laisse le plus souvent que deux ou trois semaines entre la bêta et la version finale. Canonical devrait d’ailleurs sortir sous peu la bêta d’Ubuntu 25.10.
Sur l’installation proprement dite, elle ne réserve aucune surprise. Le passage à Anaconda dans Fedora 42 se confirme, l’assistant étant particulièrement simple : il n’y a que quatre panneaux avant que l’installation commence. Le reste, dont la création du compte principal, se fait après le redémarrage.
On conseillera comme toujours de ne pas utiliser le système sur une machine de production ou au moins utilisée quotidiennement. La bêta est surtout proposée aux développeurs pour vérifier la compatibilité de leurs applications.
Pour télécharger cette nouvelle Fedora, il suffit de suivre les liens de téléchargement affichés en tête du billet d’annonce, selon l’édition que vous souhaitez installer. Pour les Spins (Cinnamon, Xfce, MATE, Budgie…), il faut se rendre sur leur page dédiée, cliquer sur la variante voulue et activer le bouton « Show Beta downloads » à droite.
TrueNAS 25.10, alias Goldeye, passe une étape majeure. Quelques semaines après la bêta, la release candidate est en ligne, tandis que la version finale est attendue pour la fin du mois. Les nouveautés sont nombreuses, de l’installation du système à la gestion des fichiers en passant par le réseau.
Article original du 2 octobre à 9h10 : La précédente version de TrueNAS, la 25.04 alias « Fangtooth » était synonyme de réunification pour les versions Core et Scale, afin de former TrueNAS Community Edition (CE). Nous avons déjà expliqué les tenants et aboutissants de ce rapprochement dans cette actualité. Ce système d’exploitation permet pour rappel de transformer un ordinateur en NAS.
L’équipe vient de publier la première release candidate de la 25.10 (25.10-RC1), c’est donc la dernière ligne droite. Elle apporte « un mélange de nouvelles fonctionnalités et de correctifs aux problèmes repérés » dans la version 25.10-BETA publiée en aout.
OpenZFS se met à jour, zfs rewrite et Terabit Ethernet
L’une des principales nouveautés mises en avant est la possibilité « d’importer et d’exporter des images dans le système de virtualisation ». Les formats supportés sont VMDK, VDI, et QCOW2. Il suffit de copier une image dans un dossier de TrueNAS pour que le système de virtualisation le récupère automatiquement et le transforme au format brut ZVOL.
Autre changement important, le passage à OpenZFS 2.3.4. iXsystems, qui développe TrueNAS, prévient que, malgré le petit changement de numéro par rapport à la version 2.3.3 de la bêta, OpenZFS 2.3.4 « introduit un large éventail d’améliorations ». Une vidéo a été publiée à ce sujet sur la chaine TrueNAS Tech Talk.
L’équipe explique aussi poursuivre le déploiement de zfs rewrite, une fonction qui permet « un rééquilibrage des données lors de l’ajout ou de l’extension de disques, éliminant ainsi le besoin de scripts pour copier les fichiers. Étant donné que zfs rewrite fonctionne entièrement dans ZFS, il garantit l’intégrité des données en évitant d’avoir à verrouiller les fichiers pendant le processus de copie, et fonctionne même avec des fichiers ouverts en cours de modification ».
Le nouveau service NVMe over Fabrics (NVMe-oF) a reçu plusieurs correctifs afin d’améliorer la stabilité du système. Pour le moment, NVMe/TCP et NVMe/RDMA ne sont pas disponibles pour les utilisateurs de VMware.
Dans un billet de blog publié cet été, l’équipe présentait les changements sous le capot de TrueNAS 25.10. Un des points mis en avant était la prise en charge de « Terabit Ethernet ». Contrairement à ce que son nom laisse penser, ce n’est pas du Tb/s, mais « simplement » un débit supérieur à 100 Gb/s. TrueNAS vise ainsi les cartes réseau à 400 Gb/s.
Plusieurs autres bugs ont été corrigés, notamment le bouton pour envoyer des informations (il fallait passer par des tickets manuels) et un bug plutôt surprenant empêchant la création d’un pool si un lecteur de carte SD vide était présent sur la machine. Ce dernier « était à l’origine de problèmes liés à la transmission de la température ».
TrueNAS Connect pour simplifier l’installation
Introduit en septembre, TrueNAS Connect permet de simplifier l’installation du système d’exploitation. C’est « une plateforme de gestion en ligne qui centralise l’administration de TrueNAS via une interface unifiée. Gérez plusieurs systèmes, surveillez l’intégrité, configurez les alertes, visualisez le matériel et effectuez des installations Web, le tout avec une simple authentification OAuth et sans matériel supplémentaire », expliquent les développeurs sur le site dédié. Une page d’aide est disponible par ici.
Vous pouvez ainsi créer une clé USB à brancher sur votre machine. « TrueNAS Connect utilise le DNS multicast (mDNS) sur votre réseau local pour découvrir automatiquement votre système TrueNAS exécutant le programme d’installation ». Vous pouvez alors terminer l’installation depuis votre navigateur, comme expliqué dans ce billet de blog. L’installation web est une fonctionnalité proposée depuis longtemps par des fabricants comme Synology et QNAP.
La version finale est attendue d’ici à la fin du mois. Pour télécharger TrueNAS, c’est par ici.
Mi-septembre, l’Albanie introduisait sa « ministre-IA », un système construit grâce à Microsoft auquel le choix des marchés publics est délégué. Ce 25 octobre, le Premier ministre albanais l’a décrite « enceinte » de « 83 enfants », pour évoquer de futurs programmes automatisés.
Depuis la mi-septembre, l’Albanie est le premier pays au monde à compter dans son gouvernement une intelligence artificielle officiant comme ministre. Nommée Diella, c’est-à-dire « soleil » en albanais, la machine anthropomorphisée par le gouvernement local doit gérer les marchés publics.
Quelques semaines après cette décision en elle-même surprenante, le Premier ministre albanais Edi Rama continue sur sa lancée.
Interrogé à Berlin sur ce nouveau système intégré à son gouvernement, le responsable politique a décrit Diella comme une femme enceinte. La machine, a-t-il affirmé, serait « enceinte de 83 enfants ». En pratique, une variété de programmes supposés remplir diverses tâches administratives et gouvernementales.
Déplacer les marchés publics des ministères vers un système technique
Le projet Diella a été introduit au public dès janvier 2025, sous la forme d’un assistant conversationnel disponible sur le portail national eAlbanie. Alors qu’à l’été, Edi Rama annonçait déjà la probable arrivée d’une « ministre-IA » au sein de son gouvernement, le projet s’est accéléré à la rentrée, avec le déploiement de Diella 2.0.
D’un simple robot textuel, le projet avait été étoffé d’un avatar animé, une femme habillée en Zadrima, l’habit traditionnel albanais, aux traits et au visage proches de ceux de l’actrice Anika Bisha. D’après Tirana Post, cette dernière a passé un contrat valide jusqu’à fin décembre 2025 pour permettre au gouvernement albanais d’utiliser son image et sa voix.
Lors du congrès du Parti socialiste, tenu à Tirana en septembre, Edi Rama indiquait que les décisions relatives aux marchés publics seraient « sorties des ministères » pour être confiées à la machine. Mené par étape, le processus aurait pour but de faire de l’Albanie un pays où ces marchés seraient « 100 % incorruptibles et où chaque fonds public passant par la procédure d’appel d’offres serait 100 % lisible ». Un postulat étonnant, quand on connaît l’opacité des grands modèles de langage généralement utilisés pour faciliter l’interaction textuelle ou vocale avec des robots conversationnels.
En pratique, relève Balkan Insight, la partie gestion de langage naturel de Diella, assurée par Microsoft, ne prend pas les décisions. Derrière le discours et l’avatar du robot reste l’organisme gouvernemental en charge de la transformation numérique de l’Albanie, qui répond directement au Premier ministre. C’est cette entité qui a consolidé l’essentiel de l’infrastructure numérique publique local, et elle aussi qui est derrière le portail eAlbanie.
Des assistants virtuels pour les parlementaires socialistes
Le postulat avancé par Edi Rama s’inscrit par ailleurs dans un contexte de lutte contre la corruption, souligne Politico, la situation albanaise ayant été pointée à de multiples reprises par l’Union européenne. Sa déclaration sur la « grossesse » du programme et ses « 83 enfants » à naître, elle, s’inscrit dans la droite ligne de l’anthropomorphisation utilisée depuis plusieurs mois dans sa communication.
Derrière ce lien bizarrement tracé entre une femme en passe de devenir mère et un système informatique, il faut en fait comprendre le développement de 83 assistants virtuels qui, à terme, devraient être assignés aux 83 parlementaires du Parti socialiste, transcrire les échanges pris en réunion, suggérer d’autres membres du Parlement avec lesquels collaborer.
« Ces enfants auront les connaissances de leur mère », indique Rama, ce qui suggère que les nouveaux programmes seront construits à partir des données de Diella.
L’Albanie n’est pas la seule à tester le déploiement d’outils d’IA dans ses institutions. En termes de personnification, un député britannique a créé un double IA de sa personne. Interrogée par le média Metro, la machine a fait preuve d’une compréhension tout à fait relative des questions qui lui étaient posées. D’un point de vue gestion des affaires courantes, les États-Unis y ont aussi recours, de manière particulièrement fracassante (c’est-à-dire pas toujours sécurisée, pour les systèmes eux-mêmes ou pour les citoyens concernés par les traitements de données) depuis la création de son « ministère de l’efficacité gouvernementale » (DOGE).
Plus de dix ans après la plainte initiale, Apple a finalement été condamnée à 48 millions d’euros pour ses contrats abusifs avec les opérateurs français. La société américaine a déjà annoncé qu’elle fera appel de la décision.
Pour comprendre le jugement rendu par le Tribunal des activités économiques de Paris, il faut se replonger loin dans le passé. En 2013, les quatre opérateurs français signaient tous des contrats avec Apple pour la distribution de l’iPhone. Cette année, c’était au tour des modèles 5 s et 5c.
Des contrats singuliers
Ces contrats étaient particuliers, car ils forçaient les opérateurs à participer eux-mêmes aux campagnes marketing, comme le révèle l’Informé. La facture était salée : 10 millions d’euros par an pour Orange, 8 millions pour SFR, 7 millions pour Bouygues et 7 millions pour Free.
En outre, les quatre opérateurs devaient acheter des volumes fixes d’iPhone (jusqu’à 5,35 millions d’iPhone sur trois ans pour Orange, 4 millions chez SFR et 350 000 chez Free), respecter les prix de vente fixés par Apple, l’obligation de transmettre à l’entreprise les rapports d’inventaire et les chiffres de ventes unitaires, ou encore possibilité pour Apple d’utiliser librement les marques des opérateurs dans ses communications.
Toutes ces pratiques ont été épinglées par le tribunal comme autant de violations du Code du commerce, plus particulièrement son article L. 442 - 1, I, 2° qui interdit de soumettre un partenaire commercial à des obligations créant un déséquilibre significatif.
Contexte unique et dédommagements
Ces contrats étaient à l’image de l’aura de l’iPhone à l’époque. Le tribunal a ainsi noté « le caractère révolutionnaire de l’iPhone, qui était en train de bouleverser la téléphonie mobile dans le monde, faisait pencher le rapport de force très nettement en faveur d’Apple, et rendait obligatoire pour les opérateurs mobiles de conclure un accord ».
Or, comme le souligne notamment MacG, le contexte de vente était très différent à l’époque. L’iPhone s’écoulait à 90 % par les opérateurs en France, qui pouvaient subventionner les appareils et donc étaler les paiements. Sur l’Apple Store, il n’était question que de paiement cash et Amazon n’était pas encore autorisée à vendre le précieux appareil.
Apple a donc été condamnée à payer 48 millions d’euros, qui se décomposent comme suit :
8 millions d’euros d’amende
950 000 euros de frais de procédure
16 millions d’euros pour Bouygues
15 millions d’euros pour Free
7,7 millions d’euros pour SFR
Orange n’a rien obtenu. L’opérateur réclamait pourtant 108 millions d’euros, mais les juges ont déclaré que l’entreprise avait « engagé sa responsabilité dans la situation qu’elle déplore et a concouru au préjudice qu’elle allègue ». Le tribunal se montre d’ailleurs sévère avec les opérateurs, qui « ont accepté pendant plusieurs années des dispositions qu’ils qualifient aujourd’hui de défavorables, et qu’ils se sont abstenus de contester lors du renouvellement du contrat ». Bouygues et SFR ont ainsi vu leurs dédommagements réduits pour la même raison.
Apple a confirmé qu’elle fera appel de la décision : « Nous contestons cette décision, qui concerne une affaire remontant à plus de dix ans, et nous faisons appel. Comme toujours, notre priorité est d’offrir des expériences exceptionnelles à nos clients en France et dans le monde entier ».
Derrière la destruction de l’aile est de la Maison-Blanche, construite en 1902 pendant la présidence de Theodore Roosevelt et définitivement détruite vendredi 24 octobre, il y a le projet de création de salle de bal de Donald Trump. Et derrière ce projet de salle de bal à 300 millions de dollars, il y a des financements issus de multiples industries, dans lesquelles celle des technologies est la mieux représentée.
Apple, Amazon, Coinbase, Google, HP, Meta, Micron Technology, Microsoft, Palantir, Ripple, Tether sont au nombre des financeurs.
À leurs côtés, en leurs noms propres, citons encore Charles et Marissa Cascarilla (Charles Cascarilla est le fondateur de la société Paxos, active dans le milieu des cryptoactifs), Konstantin Sokolov (investisseur spécialisé dans les technologies et les télécoms), et les frères Winklevoss (très investis dans le monde des cryptomonnaies).
YouTube a récemment signé un accord avec Trump à propos de la suspension de son compte suite à l’assaut du Capitole. L’entreprise y acceptait de reverser 22 millions de dollars à une organisation sans but lucratif dédiée à la construction de la salle de bal.
Inquiets de voir ces différents noms financer un projet pour lequel ils n’auront pas de gains évidents, des sénateurs démocrates ont demandé à chacun d’expliquer comment ils avaient été sollicités pour ces donations, et ce qu’ils espéraient concrètement recevoir en échange, rapporte le Washington Post.
Beaucoup des entreprises citées dans la liste de donateurs fournie par la Maison Blanche avaient déjà versé des fonds pour l’investiture de Donald Trump ou pour d’autres initiatives en faveur de son retour à la tête des États-Unis.
Microsoft et OpenAI ont annoncé la refonte et la consolidation de l’accord qui les unit depuis 2019. Selon les nouveaux termes, Microsoft détiendra une participation de 27 % dans OpenAI, valorisée 135 milliards de dollars, et l’exclusivité sur certains pans de la propriété intellectuelle de l’entreprise de Sam Altman, qui s’engage de son côté à consommer 250 milliards de dollars de services Azure supplémentaires.
Alors que s’annonce le troisième anniversaire du lancement grand public de ChatGPT, OpenAI et Microsoft ont renouvelé leurs vœux mardi 28 octobre, et détaillé les nouvelles modalités du partenariat stratégique qui unit leurs deux sociétés depuis 2019.
Cette évolution intervient dans un contexte particulier pour OpenAI, puisque l’entreprise de Sam Altman prépare depuis le printemps le transfert de ses activités vers une nouvelle structure répondant au statut Public Benefit Corporation (PBC), soit littéralement entreprise d’intérêt public, ou société à mission dans la terminologie française.
Microsoft détient 27 % de la structure commerciale OpenAI
Pour établir cette nouvelle gouvernance, à plus forte raison dans un contexte de recapitalisation de l’entreprise, OpenAI devait logiquement obtenir le feu vert de Microsoft, qui compte parmi ses premiers actionnaires. C’est désormais chose faite, grâce au nouveau périmètre de l’accord unissant les deux entreprises.
À l’issue de cette opération, il est prévu que Microsoft détienne 27 % de la structure OpenAI Group PBC, indiquent les deux intéressées dans un communiqué. Cette participation est estimée à 135 milliards de dollars, ce qui confirme que les accords se font sur la base d’une valorisation d’OpenAI à 500 milliards de dollars.
« Cet accord préserve les éléments clés qui ont alimenté ce partenariat fructueux, ce qui signifie qu’OpenAI reste le partenaire de Microsoft en matière de modèles de pointe et que Microsoft continue de bénéficier de droits de propriété intellectuelle exclusifs et de l’exclusivité de l’API Azure jusqu’à l’avènement de l’intelligence artificielle générale (AGI). », résument les deux associés.
Cette allusion à l’AGI n’est pas anecdotique : il est en effet prévu que les droits de Microsoft sur les technologies d’OpenAI cessent lorsque l’éditeur de ChatGPT aura atteint ce seuil, sans révéler publiquement les modalités d’évaluation associées. Désormais, les deux entreprises conviennent que cette AGI, si elle devait être atteinte, serait annoncée par OpenAI et vérifiée par un panel d’experts indépendants.
L’importance de ce jalon a de toute façon été revue à la baisse. Le nouvel accord prévoit en effet que les droits de Microsoft en matière de propriété intellectuelle sur les modèles et produits d’OpenAI courent jusqu’en 2032 et englobent aussi les modèles « post-AGI », sous certaines conditions de sécurité. Les droits associés aux projets de recherche sont quant à eux limités soit à 2030, soit à l’accomplissement de l’AGI. En revanche, ces droits excluent maintenant les produits matériels que pourrait commercialiser OpenAI.
Azure partenaire principal, mais pas exclusif
Le nouvel accord assouplit également l’exclusivité qui lie OpenAI à Azure, l’infrastructure cloud de Microsoft, en matière de services délivrés sous forme d’interfaces de programmation (API). « OpenAI peut désormais développer conjointement certains produits avec des tiers. Les produits basés sur des API développés avec des tiers seront exclusivement disponibles sur Azure. Les produits non basés sur des API pourront être déployés sur n’importe quel fournisseur de services cloud ». OpenAI gagne par ailleurs la possibilité de fournir un accès par API indépendant d’Azure aux services publics liés à la sécurité nationale aux États-Unis.
De son côté, l’entreprise de Sam Altman renforce son engagement financier lié à la consommation de services Azure, avec 250 milliards de dollars supplémentaires attendus (sur un laps de temps non rendu public). En échange, Microsoft perd son droit de préemption pour être le fournisseur de services informatiques d’OpenAI, ce qui donne à cette dernière les coudées franches pour avancer avec les partenaires de son choix dans la construction de ses différents projets Stargate (en Norvège, aux Émirats arabes unis, en Argentine…).
Qualcomm ne veut pas rester sur le bord de l’autoroute des puces dédiées à l’IA pour les datacenters. L’entreprise annonce ses AI200 et AI250 pour redéfinir les « performances d’inférence à l’échelle du rack pour l’ère de l’IA ». De belles promesses, mais avec quasiment aucun chiffre, histoire probablement d’occuper le terrain…
Qualcomm annonce deux nouveaux produits pour l’intelligence artificielle, qui sont basés sur ses NPU (Neural Processing Unit) Hexagon, ceux que l’on retrouve dans ses SoC. Le géant des semi-conducteurs ne vise pas les opérations lourdes liées à l’entrainement des grands modèles de langage, mais celles liées à la phase d’inférence, c’est-à-dire lorsqu’il faut répondre aux utilisateurs.
Qualcomm AI200 et AI250 : où sont les caractéristiques techniques ?
Il est question de « cartes accélératrices basées sur puces Qualcomm AI200 et AI250, ainsi que des racks », c’est-à-dire des baies complètes à installer dans les datacenters. La première solution, AI200, « prend en charge 768 Go de LPDDR par carte pour une capacité mémoire accrue et un coût réduit ». Une quantité relativement importante pour de l’inférence, mais comme Qualcomm ne donne aucun détail supplémentaire, difficile d’en savoir plus…
Si on regarde la dernière génération de SoC avec un NPU Hexagon, le Snapdragon 8 Elite Gen 5, il est question de « 12 scalar + 8 vector + 1 accelerator configuration », avec la prise en charge des niveaux de précision INT2, INT4, INT8 et INT16 pour les entiers, ainsi que FP8 et FP16 pour les nombres à virgule.
Qu’en est-il pour les « cartes » qui composeront les racks de Qualcomm ? Mystère et boule de gomme… L’annonce intervient dans une période chargée sur les accélérateurs dédiés à l’intelligence artificielle générative, avec notamment OpenAI qui multiplie les promesses avec des milliards de dollars et des GW de puissance électrique comme s’il en pleuvait. Il y a eu NVIDIA, puis AMD et Broadcom plus récemment.
Concernant l’AI250, c’est encore plus vague : elle « fera ses débuts avec une architecture mémoire innovante basée sur du calcul proche de la mémoire (near-memory computing), apportant un saut générationnel d’efficacité et de performances pour les workloads d’inférence IA en offrant une bande passante mémoire effective supérieure de plus de 10x et une consommation énergétique nettement inférieure ». Le bingo bullshit fait ensuite un carton plein : « Cela permet une inférence IA désagrégée pour une utilisation efficiente du matériel ».
Qualcomm ajoute que ses racks (ou baies) utilisent un refroidissement liquide direct (DLC) qui est désormais standardisé dans les datacenters, proposent du PCIe et du réseau Ethernet ; le tout avec « une consommation électrique par rack de 160 kW ». Cette puissance est, pour le moment, plutôt dans la moyenne haute actuelle pour ce genre d’usage. Pour rappel, OVHcloud prévoit même des baies de 240 kW par la suite.
C’est aussi un moyen de faire comme ses petits camarades : parler de puissance électrique pour l’intelligence artificielle, mais sans annoncer la moindre puissance de calcul.
Les Qualcomm AI200 et AI250 ne sont pas disponibles tout de suite, loin de là. La première n’arrivera pas avant l’année prochaine et la seconde qu’en 2027. Qualcomm s’engage à tenir une « cadence annuelle à l’avenir, axée sur des performances d’inférence pour l’IA de pointe, l’efficacité énergétique et le TCO (Total Cost of Ownership) ».
Sur sa page dédiée aux datacenters, Qualcomm référence déjà une solution pour l’inférence : la Cloud AI 100 Ultra. Il s’agit d’une carte PCIe x16 (gen 4) avec une puissance de 870 TOPS en INT8, 128 Go de mémoire et un TDP de 150 W.
Qualcomm annonce aussi une « collaboration majeure visant à déployer une infrastructure d’intelligence artificielle avancée en Arabie saoudite ». HUMAIN, une société du Fonds public d’investissement d’Arabie saoudite, « prévoit de déployer 200 mégawatts dès 2026, en s’appuyant sur les solutions d’accélération en rack Qualcomm AI200 et AI250 ». Ces annonces ont fait grimper de près de 20 % l’action de Qualcomm à l’ouverture lundi, avant qu’elle ne se stabilise sur une hausse de l’ordre de 10 %.
Mi-septembre, la Data Protection Commission (DPC, l’autorité homologue de la CNIL en Irlande) a accueilli en son sein une nouvelle commissaire, Niamh Sweeney, ayant travaillé pendant 10 ans en tant que lobbyiste dont six ans comme salariée de Meta (de 2015 à 2021).
L’association noyb avait déjà réagi en estimant que « Meta s’autorégule désormais officiellement ». Mais ce mardi, c’est l’organisation irlandaise Irish Council for Civil Liberties qui annonce avoir porté plainte devant la Commission européenne contre l’Irlande pour « ne pas avoir fourni de garanties suffisantes quant à l’indépendance et l’impartialité de son processus de nomination d’un nouveau commissaire à la protection des données ». Elle déplore l’ « absence de garanties contre les conflits d’intérêts et les ingérences politiques ».
Mais la Commission européenne se considère incompétente pour prendre en charge cette plainte : « il appartient aux États membres de nommer les membres de leurs autorités respectives chargées de la protection des données », selon le porte-parole de la Commission, Guillaume Mercier, cité par Politico. Il a ajouté que la Commission « n’est pas impliquée dans ce processus et n’est pas habilitée à prendre des mesures concernant ces nominations ».
Il a néanmoins souligné que les pays doivent suivre un processus de nomination « transparent » et que les personnes nommées doivent « posséder les qualifications, l’expérience et les compétences, notamment en matière de protection des données à caractère personnel, requises pour exercer leurs fonctions et leurs pouvoirs ».
L’application de dessin et de retouche GIMP a désormais un Snap officiel. L’équipe de développement « répare » donc une carence, puisque le logiciel possédait déjà des conteneurs AppImage et Flatpak.
Techniquement, GIMP était déjà disponible dans le Snap Store. Il s’agissait cependant d’une construction réalisée par la communauté et affichée en tant que telle par une coche jaune. Cette fois, il s’agit d’un paquet officiellement produit par l’équipe de GIMP, dont la production est assurée par le même processus que pour les autres conteneurs.
Pour les personnes intéressées, cela garantit notamment que les nouvelles versions seront disponibles le jour même dans le Store d’Ubuntu, ou dans les autres distributions utilisant Snap. Cependant, si vous utilisez déjà un autre type de paquet, comme Flatpak, vous avez déjà ce type d’avantage. Si vous passez par les paquets classiques comme DEB, rien ne change non plus, ils continueront d’être proposés.
Elon Musk vient de lancer son encyclopédie Grokipedia, visiblement inspirée de Wikipédia, mais diffusant les idées de son fondateur sur diverses thématiques que ce dernier a l’habitude de brocarder – y compris en ravivant des thèses relevant du « racisme scientifique ».
Autrefois, Elon Musk adorait Wikipédia. Il l’écrivait même sur Twitter, avant de racheter et de renommer le réseau social en X.
Depuis son tournant résolument politique, en revanche, l’entrepreneur a clairement fait savoir que, désormais, il détestait l’encyclopédie. Après avoir critiqué sa ligne éditoriale à plusieurs reprises —, Musk parle de « Wokipedia » — et appelé à cesser toute donation envers la fondation Wikimédia, l’entrepreneur a lancé ce 27 octobre sa propre encyclopédie, nommée Grokipedia. Son fondateur avait reculé son lancement d’une semaine, et annonce déjà l’arrivée d’une version « dix fois meilleure », sans donner de date précise.
Appuyé sur les productions du grand modèle de langage qui fait tourner Grok, le chatbot conversationnel disponible sur X, le projet n’a rien et tout à voir avec son inspiration originelle.
Un projet intégré à l’écosystème X
Ne proposant qu’une barre de recherche et la possibilité de s’identifier (notamment depuis son compte X), la page d’accueil de Grokipedia ressemble à celle d’un moteur de recherche – ou à celle de Wikipédia, appels à soutien de la fondation Wikimedia en moins.
Pour l’internaute, le login permet de gérer son compte ou d’accéder à des discussions avec le chatbot Grok. Sur les pages de l’encyclopédie, il permet aussi, en sélectionnant un passage, d’échanger à son sujet avec Grok, ou de déclarer que les faits présentés sont faux et de proposer des corrections. Pour les sociétés d’Elon Musk, il permet de lier les traces d’activités d’une seule et même personne sur les différentes plateformes que sont X, Grok et Grokipedia.
Des mentions plus ou moins directes de la source Wikipédia
Lançons une recherche pour des termes anglophones. « The Beatles », suggéré par la plateforme elle-même, renvoie une immense page sur le groupe de musique, avec un sommaire parfaitement chronologique (dont les titres évoquent de très près ceux du sommaire disponible sur Wikipedia) et pas moins de 276 notes de bas de page.
« Bauhaus » renvoie, de même, à un texte précédé de la mention « fact-checké hier par Grok », une phrase qui alimente la comparaison entre la machine Grok et les professionnels humains de la vérification des faits. Quant à savoir pourquoi Grok a fact-checké « hier » et pas aujourd’hui, difficile de répondre. Un passage de souris sur la mention permet simplement de supposer que la dernière version du texte remonte au 27.10 à 17 h.
Capture du haut de la page « Bauhaus » sur Grokipedia.
Pour s’aider dans la lecture, un sommaire en 7 parties et 19 sous-parties s’affiche à gauche de la page. À son terme, 141 notes de bas de page. C’est plus que sur la page Wikipédia du mouvement artistique, mais on n’y trouve que des articles de presse, sites web de musée et liens vers des blogs ou des pages Reddit, quand les auteurs de la page Bauhaus de Wikipédia citent une quinzaine d’ouvrages spécialisés parmi leurs multiples références.
Quand bien même ces citations peuvent donner une impression de qualité, le contenu, généré par IA, contient diverses approximations. Ainsi de citations de Tucker Carlson transformées en énoncés factuels dans la page qui lui est dédiée. Ou du nombre de décès dans les émeutes du Capitole, le 6 janvier 2021, réduit de cinq à quatre.
Testons désormais des notions dont Elon Musk s’est déjà ouvertement agacé. Par réflexe, nous écrivons « genre », en français, dans la barre de recherche. Nous voici sur un résultat complètement écrit en anglais, qui ne prend donc en compte que l’acception anglophone du terme. Sur des lignes et des lignes de textes, quelqu’un ou quelque chose (le fameux LLM avec lequel nous pouvons converser si nous nous connectons à notre compte personnel ?) nous détaille différents genres musicaux. Et puis, en pied de page, surprise : une référence directe à la source, Wikipédia.
Capture d’écran du pied de la page « genre » sur Grokipedia.
Des notices ouvertement parcellaires, racistes, désinformatrices
Grokipedia n’est visiblement pas multilingue, repassons donc à l’anglais. L’entrée « gender » (genre) indique que le genre se réfère à la « classification binaire des humains comme homme ou femme en fonction du sexe biologique ». Exit le troisième genre présent dans de multiples sociétés ancestrales ou contemporaines. Exit, aussi, toute possibilité de se déclarer non-binaire ou transgenre.
Pour comparaison, le Wikipedia anglophone indique que le genre « consiste en la variété d’aspects sociaux, psychologiques, culturels ou comportementaux liés au fait d’être un homme (ou un garçon), une femme (ou une fille), ou un troisième genre ».
Au début de la lecture, l’entrée « racism » (racisme) pourrait sembler de qualité, si tant est que l’on apprécie le style relativement verbeux que nous reconnaissons déjà sur les pages de Grokipedia. Une inspection du sommaire alerte, néanmoins : la deuxième partie (sur huit) est titrée « perspectives biologiques et scientifiques », sa première sous-partie « preuves de races biologiques ». Cliquons sur le lien.
Dans son style d’apparence factuelle et neutre, Grokipedia développe sur une douzaine de paragraphes (trois sous-parties au total) des thèses donnant crédit au racisme le plus assumé. Citant une poignée d’études d’apparences scientifiques, avec force chiffres qui peuvent jouer ici le rôle d’arguments d’autorité, Grokipedia remet au goût du jour des éléments issus du racisme scientifique du XIXe siècle, dont des éléments de craniométrie (supposée montrer par des mesures du crâne la supériorité des populations blanches ou européennes sur les autres), ou des différences de comportements voire de quotient intellectuel selon l’origine géographique ou la couleur de peau.
En anglais comme en français, les notices écrites par des groupes d’auteurs humains à partir de recherches scientifiques sur Wikipédia rendent bien plus évident que l’eugénisme ou les pratiques de classification des êtres humains en fonction de leurs variations morphologiques relèvent des pseudo-sciences, mais aussi qu’elles servent des projets politiques comme l’impérialisme et le colonialisme.
D’autres pistes qui résonnent avec les préoccupations d’Elon Musk ? Intéressons-nous aux attaques du Capitole, du 6 janvier 2021. Si l’on se renseigne sur le sujet du côté de Grokipedia, il s’est agit d’une « émeute » permise, notamment, par des faiblesses des dispositifs de sécurité. Une présentation saluée comme « factuelle, chronologique et sobre » par l’entrepreneur et soutien d’Elon Musk Mario Nawfal, qui critique en revanche la présentation, sur Wikipédia, de l’événement comme « une tentative de coup d’état ».
Dans le déroulé chronologique des événements (format si régulier, sur les pages visitées, qu’il semble découler du fonctionnement même de Grok), les thèses des soutiens de Trump sur la falsification de votes sont présentées comme légitimes. Le site les intègre sans jamais le lier à la propension déjà affichée par Trump pendant son premier mandat à pousser des théories complotistes et à utiliser régulièrement des tactiques de désinformation. La machine indique par ailleurs que 4 personnes sont mortes pendant ces évènements (5 en réalité), de causes « non-violentes » (quand bien même le texte relate le tir d’un policier sur Ashli Babbitt).
À la page « changement climatique », la machine propose des éléments relativement factuels, jusqu’à la partie finale, titrée « controverses et points de vue alternatifs ». Cette dernière cite par exemple une unique étude scientifique, présentée comme à même de remettre en cause le consensus scientifique sur l’origine humaine du bouleversement climatique. Le texte présente aussi les médias et plusieurs organisations de protection du climat comme « alimentant des paniques morales » et « amplifiant » des récits perçus comme strictement politiques, donc faux, ou a minima disproportionnés.
Évoquant le vocabulaire de « crise » climatique désormais récurrent, la phrase de conclusion indique : « Cette évolution linguistique reflète les efforts coordonnés visant à présenter la question comme un impératif existentiel, influençant le discours public et les politiques sans toujours s’appuyer sur des preuves empiriques proportionnées », à rebours du consensus scientifique.
Sur chacune de ces thématiques plus directement politiques, ou a minima mobilisées dans le débat public, Grokipedia s’apparente donc plus à un porte-voix des idées d’Elon Musk – qui préfère utiliser le vocabulaire du « risque existentiel » au sujet de l’intelligence artificielle plutôt que du changement climatique – qu’à une encyclopédie cherchant à fournir un état factuel des connaissances.
Wikipédia, rappelons-le, n’est pas exempte de débats sur sa propre ligne éditoriale. À l’heure actuelle, sur la plupart de ses versions, ces discussions sont réglées publiquement entre contributeurs et contributrices.
Considérant que ses démarches auprès des différentes CNIL européennes contre Clearview sont restées infructueuses, l’association noyb passe à la vitesse supérieure en attaquant l’entreprise et ses dirigeants devant la justice autrichienne.
Mise à jour 29 octobre : ajout de la réponse de la CNIL sur la clôture du dossier Clearview.
Article original du 28 octobre :
noyb vient d’annoncer le dépôt d’une plainte devant la justice autrichienne contre Clearview mais aussi ses dirigeants. Si les reproches formulés par l’association de Max Schrems ne sont pas nouveaux, elle utilise maintenant un autre outil légal contre l’entreprise de reconnaissance faciale : la plainte au pénal.
En effet, cela fait quatre ans que le dossier Clearview est passé devant différentes autorités européennes de protection des données. En 2021, Privacy International, le Hermes Center for Transparency and Digital Human Rights, Homo Digitalis et noyb déposaient des plaintes devant la CNIL et ses homologues italienne, grecque, britannique et autrichienne.
Une base de données de plus de 10 milliards d’images
Les associations expliquaient que Clearview utilisait un « dispositif automatisé de récupération d’images », soit un outil qui explore le web et récupère toutes les images qu’il détecte comme contenant des visages humains ».
Suite à cette saisie, la CNIL a condamné en octobre 2022 l’entreprise états-unienne à 20 millions d’euros d’amende. L’autorité a constaté que Clearview a aspiré « plus de 10 milliards d’images à travers le monde » sans le consentement des intéressés et « sans base légale », et donc en violation du RGPD. D’autres autorités ont aussi prononcé des amendes : 20 millions d’euros en Italie, le même montant en Grèce et 7,5 millions de livres en Grande-Bretagne. L’autorité autrichienne n’a pas infligé d’amendes à Clearview tout en considérant que son utilisation des données était illégale [PDF].
Mais huit mois après, constatant que l’entreprise ignorait sa décision, la CNIL a infligé 5 millions d’euros d’astreinte à Clearview. Le problème reste que l’autorité a très peu de moyen de récupérer ces amendes et ainsi de faire respecter le RGPD à une entreprise qui n’a pas de siège social en Europe.
Questionnée par Next sur ses moyens de faire respecter sa décision, l’autorité avait répondu à l’époque que, « s’agissant de l’injonction, la CNIL continue de se rapprocher de son homologue américain, la Federal Trade Commission (FTC), pour évoquer la façon dont nous pourrions nous assurer de l’exécution de l’injonction prononcée à l’encontre de la société ». Pour l’astreinte, elle affirmait :« le Ministère de l’Économie et des Finances se rapproche de la FTC pour envisager les moyens existants et possibles à mettre en œuvre pour recouvrer l’amende ainsi que l’astreinte ».
Selon noyb, Clearview a fait de même pour toutes les décisions des autorités européennes, ne faisant appel que devant l’autorité britannique (le sujet est encore en cours de discussion au travers des diverses instances du Royaume-Uni).
Pour la CNIL, sa sanction permet de bloquer l’installation de Clearview dans l’UE
Ce 29 octobre, la CNIL a répondu à Next qu’ « en 2023, en l’absence d’éléments attestant de la mise en conformité, la CNIL a liquidé l’astreinte via l’adoption d’une sanction de 5,2 millions d’euros supplémentaires. Du côté de la CNIL, à ce jour, le dossier est donc clos ».
Elle ajoute qu’elle « ne perçoit pas le montant des amendes, il est versé au budget général de l’État. Le montant de l’amende est recouvré par les services du Trésor public. Lorsque le débiteur est en dehors de l’Union européenne, des procédures de coopération internationales existent mais relèvent de la voie diplomatique et elles sont sous la responsabilité du ministère de l’Économie et des Finances. Contrairement à la majorité des dossiers, à ce jour, le Trésor public n’a pas perçu le montant des amendes émises ».
L’autorité explique qu’ « un des effets de la sanction est d’empêcher que cette société ne développe son activité au sein de l’Union européenne et que des organismes français ou européens aient recours à ses services ».
Enfin, elle « alerte les personnes sur les dangers liés au fait de mettre en ligne des photos d’eux ou de leurs proches ». « En rendant ces photographies accessibles à tous, ils risquent d’alimenter les bases de données de reconnaissance faciale comme celle de Clearview », conclut-elle.
Le pénal comme solution ?
L’association a donc décidé, comme elle l’explique dans un communiqué, de passer par une autre voie : la justice pénale. Ainsi, elle attaque Clearview devant un tribunal autrichien en s’appuyant sur la transposition du RGPD dans le droit du pays qui prévoit des sanctions pénales pour certaines violation du règlement européen. Notamment, une disposition prévoit une peine d’emprisonnement d’un an maximum ou une amende (d’un maximum de 720 jours-amendes), pour les personnes ayant l’intention de s’enrichir en rendant accessible à un tiers ou publiant des données à caractère personnel en les ayant obtenues de manière illicite.
noyb souligne que, « contrairement aux violations du RGPD, les infractions pénales permettent également de prendre des mesures à l’encontre des dirigeants et de recourir à l’ensemble des procédures pénales, y compris à l’échelle de l’UE ». Elle ajoute que « si celle-ci aboutit, Clearview AI et ses dirigeants pourraient être condamnés à des peines de prison et être tenus personnellement responsables, en particulier s’ils se rendent en Europe ».
L’association ne communique pas le texte de sa plainte mais Next a demandé à y accéder et nous mettrons à jour cet article au besoin.
Comme nous l’expliquions récemment, le co-fondateur de Clearview avait en tête, dès l’origine du projet, la reconnaissance faciale des immigrants et la surveillance des frontières étasuniennes. L’entreprise propose sur son site web aux autorités d’ « exploiter le pouvoir de la reconnaissance faciale dans les enquêtes criminelles ».