↩ Accueil

Vue lecture

☕️ Firefox aura un « kill switch » pour ses fonctions IA

L’arrivée du nouveau CEO de Mozilla, Anthony Enzor-DeMeo, ne s’est pas faite dans le calme. Les premières déclarations du nouveau patron ont confirmé que Firefox allait se plonger dans l’IA. Il a insisté également sur la confiance, affirmant que Mozilla devait devenir une référence dans ce domaine. Ce qui impliquait un travail sur l’IA en accord avec le Manifeste de la fondation.

Rapidement, des conversations enflammées sont apparues : Firefox allait-il perdre son âme ? La concentration sur l’IA allait-elle la rendre inévitable ? Dans quelle mesure le navigateur allait-il changer ? Des débats parfois houleux, avec de nombreuses déclarations d’intentions : il allait falloir se débarrasser de Firefox, qui avait succombé à la nouvelle mode.

La situation a assez chauffé pour que Mozilla prenne la parole, via Jake Archibald, l’un des développeurs du navigateur. Sur Mastodon, il pointe « quelque chose qui n’a pas été clairement expliqué : Firefox aura une option pour désactiver complètement toutes les fonctionnalités d’IA. Nous l’appelons en interne le kill switch de l’IA. Je suis sûr qu’il sortira avec un nom moins meurtrier, mais c’est dire à quel point nous prenons cela au sérieux ».

Pour rappel, un « kill switch » est un dispositif d’arrêt d’urgence permettant de couper sans délai une fonction ou un service. Le terme renvoie souvent au caractère absolu et arbitraire de l’action. Apple et Google disposent par exemple d’un « kill switch » pour leurs boutiques respectives. Il permet de couper rapidement la distribution d’une application et d’exécuter un ordre de suppression sur les terminaux.

Jack Archibald a également précisé que les fonctions IA seraient en « opt-in ». Il estime que le terme tombe parfois dans des « zones grises » car il peut revêtir un sens différent selon les personnes. « Par exemple, un nouveau bouton sur une barre d’outils est-il opt-in ? », demande-t-il.

Bien que le message se soit voulu rassurant, il a été immédiatement suivi de nouveaux débats.

  •  

S3NS obtient la qualification SecNumCloud par l’ANSSI

First !
S3NS obtient la qualification SecNumCloud par l’ANSSI

C’est fait : la coentreprise S3NS, créée par Thales et Google, vient d’obtenir la qualification SecNumCloud 3.2 pour l’ensemble de son offre PREMI3NS, dédiée au cloud de confiance. Une étape marquante, que le concurrent Bleu devrait atteindre très bientôt aussi.

S3NS est une coentreprise créée en 2022 par Thales et Google. Son objectif est simple : proposer du cloud Google dans une offre « cloud de confiance » avec des arguments forts de souveraineté. La question de l’extraterritorialité revenait régulièrement sur la table : si S3NS utilise les technologies de Google, les produits proposés par la coentreprise seront-ils soumis au Cloud Act ?

La réponse vient d’arriver sous la forme d’une qualification SecNumCloud 3.2 par l’ANSSI. Une annonce majeure, qui fait de S3NS la première structure hybride de ce type à recevoir le précieux label, presque 18 mois après la validation du premier jalon du processus. Ce n’est pas une surprise puisque Vincent Strubel avait quasiment vendu la mèche en juin dernier lors d’une audition au Sénat.

« Nouvelles perspectives »

L’ANSSI a validé l’intégralité de la plateforme de l’offre PREMI3NS, dédiée au cloud de confiance. Celle-ci est disponible depuis plusieurs mois via un programme « early adopters ». Selon S3NS, une trentaine de clients l’utilisent déjà. Elle dit également accompagner des entreprises dans leur migration vers le « cloud de confiance », dont les assurances MGEN, Matmut et AGPM, ainsi que des sociétés comme le Club Med, Qonto ou même Thales elle-même. S3NS ajoute qu’EDF a choisi aussi ses services, mais la coentreprise n’est pas la seule : Bleu a également été sélectionnée.

Crédits : S3NS

L’arrivée de la qualification SecNumCloud est dans tous les cas une étape majeure, dûment célébrée par S3NS. « L’obtention du Visa de sécurité ANSSI pour la qualification SecNumCloud 3.2 marque l’aboutissement d’une collaboration unique entre deux leaders du cloud et de la cyber, et ouvre de nouvelles perspectives pour l’ensemble du marché français et européen. Ce cloud qualifié SecNumCloud 3.2 propose une offre de services équivalente à celle des clouds publics les plus avancés. PREMI3NS permettra ainsi à ses clients d’innover, d’optimiser, de se transformer en toute confiance et sécurité sur leurs périmètres sensibles. Le groupe Thales a d’ailleurs choisi S3NS pour son informatique interne et pour son ingénierie sensible », a déclaré Christophe Salomon, directeur général adjoint de Thales.

S3NS se retrouve ainsi dans une position unique (pour l’instant) : c’est la première coentreprise hybride de ce type à recevoir cette qualification. Celle-ci est lourde de sens, puisque parmi son millier de points de contrôle, l’imperméabilité à l’extraterritorialité des lois étrangères (au sens extra-européen) est un prérequis. Conséquence, l’ANSSI valide ce point pour PREMI3NS : l’offre n’est pas concernée par le Cloud Act, entre autres lois étrangères problématiques pour l’Europe. En outre, la qualification s’applique à l’ensemble du périmètre fonctionnel de l’offre, donc ses composantes IaaS (Infrastructure-as-a-Service), CaaS (Containers as a Service) et PaaS (Platform-as-a-Service).

S3NS rappelle fièrement que le « référentiel SecNumCloud est le standard le plus exigeant en Europe en matière de sécurité du cloud ». La version 3.2 du référentiel servait d’ailleurs de base au niveau High+ d’EUCS, la directive qui devait aboutir au classement des offres cloud par niveaux de sécurité. Cette version a été abandonnée, sous l’influence notamment de l’Allemagne, au grand dam de la France.

Une offre plus large en 2026

À l’Usine Digitale, plusieurs responsables ont confirmé un plan de bataille pour 2026, largement tourné vers l’ajout de fonctions. L’offre PREMI3NS propose en effet une bonne partie des services disponibles sur Google Cloud Platform, mais pas tous. Il manque en outre de nombreux produits liés à l’IA.

La coentreprise a ainsi déclaré à nos confrères qu’elle comptait doubler son catalogue de fonctions l’année prochaine. Vertex AI est décrit comme une priorité. Avec les mêmes capacités que sur GCP ? « Je ne peux pas encore vous dire si nous offrirons plus de 200 modèles de langage comme sur GCP public, mais nous en aurons beaucoup », a déclaré Cyprien Falque, directeur général de S3NS, à l’Usine Digitale. Devrait suivre tout ce qui touche aux agents et à la sécurité.

Les équipes, en revanche, ne grandiront pas beaucoup plus, a indiqué Hélène Bringer, présidente de S3NS. Elle a évoqué « quelques personnes de plus » pour compléter les 200 personnes actuellement employées par l’entreprise, qui a « vocation à rester agile et de petite taille ».

Vincent Strubel, directeur général de l’ANSSI, a réagi avec enthousiasme à la nouvelle. « Une qualification de l’ANSSI, ce n’est jamais une promenade de santé, mais là c’est plus vrai que jamais, vu l’ampleur du périmètre », a-t-il ajouté.

Il en a profité pour lancer une pique aux détracteurs : « Je ne doute pas que cela déclenchera des réactions passionnées, mais il est peu probable que les auteurs de ces réactions aient passé autant de temps que nous à tester votre solution sous tous les angles avant d’émettre leur avis péremptoire. Ce sera néanmoins utile dans les prochains mois de poursuivre l’effort de pédagogie pour expliquer que vous faites beaucoup, beaucoup plus que revendre en marque blanche la technologie d’un autre ».

Une question de souveraineté

De manière intéressante, le communiqué de S3NS cite la localisation française de ses centres de données, l’exigence de qualification SecNumCloud, ou encore l’intérêt croissant d’autres structures européennes pour ce type d’offre. Le mot « souveraineté » n’apparait pourtant nulle part, alors que le sujet est central et particulièrement actif depuis plusieurs mois. C’est d’autant plus le cas qu’un rapport salé de la Cour des comptes a mis en avant les défaillances françaises et un manque flagrant de cohérence.

Si la qualification SecNumCloud vient valider l’approche de S3NS (Bleu devrait suivre rapidement), sa complexité n’a pas changé. La structure hybride suppose en effet que les produits de Google sont acquis (Microsoft dans le cas de Bleu) sur une base de logiciels installés séparément des serveurs de Google. L’éditeur américain fournit le code, mais n’héberge rien. Ce qui signifie aussi un retard dans le déploiement des fonctions, car S3NS doit analyser toutes les mises à jour avant de les répercuter. La problématique est la même pour Bleu, comme l’entreprise nous l’avait expliqué en octobre dernier.

S3NS rejoint néanmoins une très courte liste d’acteurs français ayant obtenu une qualification SecNumCloud. Bleu devrait annoncer la sienne prochainement. L’entreprise a d’ailleurs annoncé il y a quelques jours que son « cloud de confiance » avait été choisi par Dassault Aviation.

  •  

☕️ TikTok US : accord bouclé

Un mémo interne à TikTok, qu’Axios a pu consulter, confirme que ByteDance et le gouvernement états-unien sont bien arrivés à un accord, comme l’avait annoncé la publication d’un executive order de Donald Trump en septembre dernier.

Selon ce texte envoyé par le CEO Shou Chew aux salariés, l’accord sera signé le 22 janvier et une coentreprise basée aux États-Unis sera créée.

TikTok

Les entreprises américaines Oracle et Silver Lake et l’émiratie MGX auront chacune 15 % de cette coentreprise.

De son côté, ByteDance devrait détenir 19,9 % de la nouvelle entité et 30,1 % seraient possédés par diverses filiales de l’entreprise chinoise.

Ainsi, comme l’explique le Financial Times, cela laisserait à ByteDance le contrôle direct de ses activités commerciales principales aux États-Unis. Selon le journal économique britannique, le mémo interne indique, par contre, que le « conseil d’administration [sera] composé de sept membres, majoritairement américains ».

D’après le mémo, la coentreprise « fonctionnera comme une entité indépendante ayant autorité sur la protection des données, la sécurité des algorithmes, la modération des contenus et l’intégrité logicielle aux États-Unis, tandis que les entités américaines de TikTok Global géreront l’interopérabilité des produits à l’échelle mondiale et certaines activités commerciales, notamment le commerce électronique, la publicité et le marketing ».

L’accord devrait valoriser TikTok US aux alentours de 14 milliards de dollars, selon une source d’Axios.

  •  

☕️ Étoile montante du vibe coding, Lovable lève 330 millions de dollars

La startup suédoise Lovable vient d’annoncer avoir réuni 330 millions de dollars auprès d’investisseurs, sur la base d’une capitalisation fixée à 6,6 milliards de dollars. L’opération intervient seulement cinq mois après la première grande levée de fonds de l’entreprise (série A), bouclée en juillet. Elle avait alors réuni 200 millions de dollars en se valorisant 1,8 milliard de dollars. Lovable a donc plus que triplé sa valeur aux yeux des investisseurs en à peine cinq mois.

L’opération annoncée jeudi est menée majoritairement par des fonds très présents dans la tech et dans la Silicon Valley, parmi lesquels Menlo Ventures (investisseur historique d’Anthropic ou d’Uber), CapitalG (Alphabet / Google) et d’autres véhicules financiers représentant des groupes tels que NVIDIA, Atlassian ou Databricks.

Le tour de table réunit des acteurs historiques de la Silicon Valley

Pourquoi une telle traction ? Lovable, fondée en 2023 et basée à Stockholm, est l’étoile montante de ce qu’on appelle le vibe coding, c’est-à-dire le développement d’applications (web ou métiers) par l’intermédiaire d’interactions avec un agent conversationnel IA. La startup, qui vise des publics non techniques, se positionne comme un intermédiaire entre les solutions telles que Claude Code, Mistral Code ou les récents Devstral 2 et Antigravity, qui restent encore l’apanage des développeurs, et les outils issus de la tendance no-code, moins évolués au niveau fonctionnel.

« Nous avons lancé Lovable pour donner les moyens aux 99 %ceux qui ont des idées mais qui n’ont pas les compétences techniques pour les concrétiser », vante l’entreprise. Elle revendique 100 000 nouveaux projets lancés sur sa plateforme chaque jour, 25 millions de projets créés au cours de sa première année d’activité, et affirme que les sites Web ou applications lancés par l’intermédiaire de ses services représentent une audience de plus de 200 millions de visites mensuelles. Lovable se targue par ailleurs de compter quelques clients de premier plan comme Zendesk, Uber, ou Deutsche Telekom.

La startup indique que les fonds levés lui serviront à développer les connecteurs nécessaires à son intégration dans les applications courantes des équipes produit (Jira, Notion, Miro, etc.), ainsi qu’à renforcer ses infrastructures, notamment pour accompagner les projets passés en production.

Lovable facture ses services sur la base d’un abonnement, auquel peut s’ajouter l’achat de crédits pour augmenter le nombre d’interactions permises avec ses outils. Le coût d’une action est estimé en fonction de sa complexité, explique l’entreprise. Elle revendiquait en novembre dernier un revenu annuel récurrent (ARR) supérieur à 200 millions de dollars, et attribuait une partie de son succès à son refus de délocaliser ses activités vers la Silicon Valley. Les capitaux de cette dernière semblent en revanche tout à fait bienvenus.

  •  

☕️ Linux Mint 22.3 (avec Cinnamon 6.6) a sa bêta publique

La distribution Linux Mint, très appréciée, aura bientôt une version 22.3 intermédiaire (nommée Zena), avec à son bord quelques nouveautés importantes. La bêta est disponible depuis ce 18 décembre, mais la phase de test sera assez courte, puisque la version finale est attendue pour la toute fin d’année ou les premiers jours de 2026.

Le changement le plus significatif est l’arrivée de Cinnamon 6.6, dont nous avons parlé il y a peu. On y retrouve un nouveau menu d’applications plus personnalisable, la possibilité d’utiliser des icônes pleines ou symboliques, un meilleur support de Wayland, l’affichage des dossiers usuels ou encore une réorganisation générale, dans l’idée de rendre le menu plus efficace. Cette version 6.6 introduit de multiples autres changements, notamment dans les paramètres, avec l’apparition d’un module dédié au Thunderbolt par exemple.

Outre le nouveau Cinnamon, Zena introduit des améliorations bienvenues comme la possibilité de mettre en pause une opération de fichier dans Nemo, l’arrivée de nouveaux outils Information Système et Administration Système, un classement des notifications par applications, une option permettant de mettre en pause la création d’instantanés (snapshots) dans Timeshift, ou encore une fonction Night Light toujours active.

Rappelons que les versions de Linux Mint sont toujours basées sur les dernières révisions LTS d’Ubuntu. Zena est ainsi basée sur Ubuntu 24.04.03 et embarque un noyau Linux 6.14. L’arrivée d’Ubuntu 26.04, « Resolute Raccoon », servira de fondation à la future version 23 de Linux Mint.

  •  

Un quart des Français visitent les sites d’infos générées par IA recommandés par Google

KO Boomers
Un quart des Français visitent les sites d’infos générées par IA recommandés par Google

14 à 16 millions d’internautes français consultent chaque mois l’un des 251 sites d’infos GenAI les plus recommandés par Google et identifiés par Next, selon une étude de Médiamétrie pour le Groupement des éditeurs de services en ligne. Près des trois quarts (74 %) de ces internautes ont plus de 50 ans, au point que ces derniers visitent plus de sites d’infos GenAI que de vrais sites d’actualités. 77 % y sont envoyés par l’un des services de Google (Discover, Search ou Actualités), et 10 % via Meta.

Dans la mesure où la lutte contre la désinformation nous semble un enjeu de salubrité (numérique) publique, cet article, en principe réservé aux lecteurs premium de Next, est exceptionnellement en accès libre pour 24 heures. Ce sont vos abonnements qui rendent possible ce genre d’enquête au long cours, merci !


« Plus de 1 000 médias en français, générés par IA, polluent le web (et Google) », titrait Next en février dernier, dans le tout premier de la vingtaine d’articles que nous avons depuis consacrés à ce que nous qualifions de « véritable « pollution » numérique et médiatique ».

Nous précisions alors avoir « de bonnes raisons de penser qu’il en existerait plusieurs milliers », mais également avoir « identifié une centaine de ces pros de l’info GenAI, sans pouvoir mesurer combien de dizaines (voire de centaines) d’autres se seraient lancés dans ce douteux (mais lucratif) « business » ». Nous avons depuis identifié près de 8 900 sites « en tout ou partie générés par IA » (GenAI), administrés (et monétisés) par plus de 200 éditeurs.

Début octobre, Next révélait que près de 20 % des 1 000 sites d’info les plus recommandés par Google Discover, et 33 % des 120 sites les plus recommandés par Google News, à la rubrique Technologie, étaient générés par IA.

L’algorithme Discover de « recommandation de contenus » de Google, la principale source de trafic des sites journalistiques français, est en effet devenu une « pompe à fric » pour les sites monétisés par la publicité, majoritairement financés par… la régie publicitaire de Google. Au point que de nombreux professionnels du référencement et du marketing numérique s’y sont lancés, attirés par l’appât du gain.

Perdu dans le jargon ? Petit lexique pour s’y retrouver


Discover : la mission historique de Google est d’amener des réponses aux requêtes des internautes, mais le moteur développe depuis des années des outils de recommandation, qui sélectionnent automatiquement des contenus et les affichent aux utilisateurs de Google, de Chrome et d’Android. Sur mobile, les suggestions Discover sont par exemple visibles dès l’interface du système d’exploitation. Elles sont devenues la principale source de trafic des médias français.

Poper : de l’anglais to pop, qui signifie sauter ou éclater. Ce terme est utilisé par les professionnels du référencement pour désigner la capacité à faire apparaitre un site ou un contenu donné au sein des outils de recommandation automatisés.

SEO : de l’anglais search engine optimization, soit optimisation pour les moteurs de recherche. Le terme recouvre à la fois les pratiques techniques ou éditoriales visant à favoriser l’apparition d’un site dans les moteurs de recherche, et l’activité de service qui s’est créée autour de cet objectif.

16 millions d’internautes par mois, soit plus d’1/4 de la population française

Next a depuis été contacté par le Groupement des éditeurs de services en ligne (GESTE, qui en fédère plus d’une centaine), et l’entreprise de mesure d’audience Médiamétrie. Cherchant à quantifier le phénomène à l’échelle du marché, nous leur avons proposé d’analyser l’audience des 251 sites GenAI figurant ou ayant figuré dans le Top1000 des sites recommandés par l’algorithme Discover de Google (retrouvez l’étude intégrale en pied de cet article).

À notre grande surprise, le panel de près de 20 000 internautes constitué par Médiamétrie indique que ces 251 sites enregistrent en moyenne, depuis le début de l’année, entre 14 et 16 millions de visiteurs uniques (VU) par mois, soit plus d’un quart de la population française de plus de 15 ans.

Les plus de 50 ans visitent plus de sites GenAI que de vrais sites d’infos

Seconde découverte, elle aussi accablante : la surreprésentativité des « inactifs », et des plus de 50 ans. D’après le panel de Médiamétrie, 52% des visiteurs quotidiens de sites GenAI seraient inactifs (hors étudiants), contre 42% dans l’audience quotidienne des sites d’actualités, alors qu’ils ne représenteraient que 29 % de la population.

Et si les personnes de 50 à 64 ans et de plus de 65 ans représentent chacun 23 % de la population française, elles représentent 31 et 43 % des internautes consultant des sites GenAI dans le mois, soit près des trois quarts (74 %) d’entre eux, alors qu’ils ne représenteraient que 46 % de la population.

A contrario, les 15 - 24 ans et les 25 - 49 ans, qui représenteraient respectivement 14 et 35 % de la population, ne constituent que 3 et 23 % des internautes consultant des sites d’infos générées par IA. Les personnes âgées semblent en effet plus particulièrement susceptibles de tomber dans le piège de ce type d’infox et images GenAI, au point d’être qualifiées de « pièges à boomers », ou « boomer traps ».

Si 24,5 % des internautes du panel de Médiamétrie ont consulté au moins un site GenAI dans le mois, le taux s’élève à 30,6 % chez les CSP+, 34 % chez les inactifs (hors étudiants), 37,5 % chez les 50 - 64 ans et 36,7 % chez les plus de 65 ans.

L’analyse du panel de Médiamétrie indique en outre que si les internautes de moins de 50 ans visitent plus de sites figurant dans le Top10 des sites d’actualités que de sites GenAI, les plus de 50 ans visitent plus de sites d’infos générées par IA que de vrais sites d’infos.

L’étude de Médiamétrie montre également que les visiteurs de sites GenAI « surconsomment Internet » : 84 % d’entre-eux consultent en effet quotidiennement des sites d’informations, contre 36 % des internautes en moyenne.

Pour autant, si les internautes passent en moyenne 11 minutes 14 secondes par jour sur les sites d’actualité, à raison de 10 pages par internaute, et de 1 minute 8 secondes par page, le temps passé sur les sites GenAI ne serait, lui, que de 1 minute 15, pour 3 pages par jour, et 25 secondes par page seulement.

L’application de recommandation de contenus liée à l’algorithme Discover n’étant pas (encore) disponible sur les ordinateurs de bureau, 88,8 % de ces visiteurs uniques de sites GenAI l’ont fait depuis leurs téléphones mobiles ou tablettes.

Et si 10 % d’entre-eux avaient cliqué sur un lien partagé sur les plateformes de Meta (Facebook voire Instagram), 77 % (soit plus des trois quarts) y avaient été envoyés via l’un des services de Google (Discover, Search ou Actualités, hors GMail).

Et ce, alors que Google n’a de cesse de répéter, depuis des mois, que ses « systèmes antispams » excluent « 99 % […] des contenus de faible qualité ». Un chiffre qu’un responsable de l’équipe Trust and Safety de Google vient pourtant de relativiser… en se référant aux enquêtes de Next !

Next, fournisseur (non-)officiel de punchlines de Google Trust and Safety

Intervenant début décembre à Search Central Live Zurich 2025, un évènement dédié aux professionnels du SEO et du marketing digital, Andres Almeida, directeur adjoint de l’équipe Trust and Safety de Google, reconnaissait en effet que l’AI Slop (du nom donné à ces contenus bas de gamme générés par IA) « envahit le monde et [que] Discover n’est pas à l’abri ».

Il évoquait notamment le fait que nombre de ces sites reposent sur des fermes de contenus (Private Blog Networks, ou PBN en anglais) basés sur des noms de domaines expirés (afin de capitaliser sur leur réputations passées dans le ranking de Google), le recours à des techniques de « black hat SEO » (cherchant à « hacker » les algorithmes du moteur de recherche), et expliquait vouloir endiguer ce type de « spam ».

Or, une des slides utilisées pour illustrer sa démonstration reprenait, traduits en anglais, les titres (et sous-titres) de deux de la vingtaine d’articles que nous avons consacrés depuis février à cette pollution du web en général et de Google en particulier par des infos générées par IA : celui qui pointait du doigt le fait que près de 20 % des 1 000 sites d’info les plus recommandés par Google Discover étaient générés par IA, et celui qui expliquait les motivations de leurs éditeurs : « « gruger Google » pour faire du fric ».

Notre base de données des sites d’infos générées par IA en dénombre désormais près de 8 900 (rien qu’en français). Pour en avoir le coeur net, nous en avons soumis un échantillon restreint à Médiamétrie afin de réaliser cette première analyse du trafic enregistré par les sites GenAI à ceux qui avaient été les plus recommandés par Google Discover.

Au vu des pertes de revenus publicitaires que subissent les médias parasités et de la monétisation de la plupart des sites GenAI par AdSense, la régie publicitaire de Google se retrouve juge et partie. Concurrencés par les sites GenAI, les médias subissent par ailleurs des pertes de trafic, susceptibles d’affecter le montant des droits voisins que leur verse Google.

Non contents de voir ces droits minorés, les médias employant des journalistes humains sont même floués une troisième fois. En effet, ces sites GenAI n’existeraient pas si les grands modèles de langage (LLM) et IA génératives qu’ils utilisent n’avaient été entraînés sur du contenu produit par des humains, et notamment sur des articles écrits par des journalistes.

Or, et en l’état, aucun mécanisme de contrepartie financière n’a été mis en œuvre afin de compenser ce pillage des médias, ni de la part des éditeurs d’IA, ni de la part des prestataires de générateurs d’articles conçus pour masquer qu’ils relèvent du plagiat (nous y reviendrons), ni de la part de ces éditeurs de sites GenAI. Ce pourquoi le ministère de la Culture envisage la possibilité d’une « inversion de la charge de la preuve » ou d’une « présomption d’utilisation des contenus culturels par les fournisseurs d’IA ».

À titre d’illustration, les 5 sites de l’éditeur figurant en tête du Top 10 de Médiamétrie totaliseraient 7,25 millions de « visiteurs uniques ». Or, cet éditeur administre 27 autres sites. De même, les 5 sites de l’éditeur figurant en 3e position totalisent 4 millions de « visiteurs uniques ». Ce dernier en administre une quinzaine d’autres.

L’étude de Médiamétrie montre en outre que 10 sites GenAI dénombrent de 1 à 4 millions de « visiteurs uniques » pour ce seul mois d’octobre 2025, et donc encore plus de pages vues parasitant des médias faisant travailler des journalistes, quand ils ne plagient pas leurs articles.

En outre, ce premier échantillon de 251 sites n’émane que de 85 éditeurs différents. Y figurent majoritairement des professionnels du SEO, mais également quelques groupes de presse, dénombrant dans leurs fermes de sites respectives plus de 2 000 autres sites d’infos GenAI.

Il serait donc non seulement instructif de pouvoir mesurer le poids de ces 2 000 autres sites potentiellement susceptibles, eux aussi, d’être recommandés par Discover ou Google Actualités, mais également d’étendre l’étude à l’ensemble des 8 900 sites GenAI que nous avons identifiés, ainsi qu’à leurs éditeurs respectifs.

À titre de comparaison, notre base de données répertorie en effet plus de 200 éditeurs administrant au moins 5 sites GenAI, dont 130 plus de 10, 70 plus de 25 et 35 plus de 50. Tous reposent peu ou prou sur le pillage et recyclage de contenus préalablement produits et mis en ligne par des humains, voire sur le plagiat généré par IA d’articles de journalistes.

L’objectif de cette première mesure d’audience est aussi de créer un Baromètre des sites GenAI qui permettrait de creuser plus avant la problématique, et d’étendre le périmètre des sites analysés à tout ou partie de notre base de données.

Téléchargez notre extension web (gratuite) pour être alerté lorsque vous visitez un site d’info généré par IA


Nous avons développé une extension pour les navigateurs Chrome (et donc Brave, Vivaldi, Opera, Microsoft Edge, etc.) et Firefox (y compris en version mobile sur Android), qui tourne en tâche de fond et affiche un pop-up d’alerte lorsque ses utilisateurs consultent un des 8 900 sites d’information dont nous avons identifiés que leurs contenus sont « en tout ou partie » générés par des intelligences artificielles génératives.

extension GenAI

Afin de vous prémunir des autres risques de cyberarnaques, notre extension prend également en compte deux autres listes : celle de plus de 30 000 noms de domaine « suspects » de Red Flag Domain, ainsi que la liste noire des entités non autorisées à proposer des produits ou services financiers en France de l’Autorité des marchés financiers (AMF).

Télécharger notre extension sur Firefox
Télécharger notre extension sur Chrome

  •  

☕️ Gemini 3 a désormais sa variante Flash

Quand Google a lancé sa nouvelle famille de modèles Gemini 3, seule la variante Pro a été présentée. C’est le modèle « à tout faire » de la nouvelle génération de LLM chez Google, avec un mode rapide et un autre pour le raisonnement, selon les besoins. Mais comme souvent, beaucoup attendaient une ou plusieurs versions réduites, beaucoup moins chères et plus adaptées à certains usages.

Google complète donc son offre avec une version Flash, positionnée comme un modèle à faible latence, optimisé pour l’inférence en temps réel, tout en préservant ses capacités multimodales et un mode de raisonnement. Gemini 3 Flash accepte ainsi en entrée le texte, les photos, vidéos et tout ce qui touche à la vision, pour interroger par exemple un flux vidéo en temps réel.

Le prix est bien sûr moins élevé que le modèle Pro. Via l’API, la facture s’élève ainsi à 0,30 dollar par million de jetons en entrée et 2 dollars en sortie. Google met également sur le devant de la scène des performances élevées, avec notamment 90,4 % au test GPQA Diamond, 78 % à SWE-bench Verified ou encore 33,7 % sur Humanity Last Exam, battant du même coup plusieurs modèles plus larges.

Le nouveau LLM est disponible dans Google AI Studio, Google Antigravity, Gemini CLI, Android Studio et Vertex AI, depuis l’API.

  •  

☕️ Emmanuel Macron outré par un deepfake suggérant un coup d’État en France

Emmanuel Macron est mécontent : ce week-end, un de ses homologues africains lui a envoyé un message pour vérifier ce qu’il se passait en France. Le pays était-il en plein coup d’État ?

En cause : une vidéo générée par IA, dans laquelle une journaliste placée devant ce qui semble être l’Élysée annonce la (fausse) chute du président de la République, remplacé par un colonel.

« Douze millions de vues ! » racontait-il en début de semaine lors d’un échange avec les lecteurs de La Provence (depuis le 12 novembre, avec le public de La Dépêche du Midi, Emmanuel Macron multiplie les rencontres de citoyennes et citoyens pour échanger avec eux sur « la démocratie face aux réseaux sociaux »).

Le président indique avoir demandé à Meta, par l’intermédiaire de Pharos, de supprimer le contenu, et s’être entendu répondre que celle-ci ne contrevenait pas aux règles d’utilisation de la plateforme.

Et d’ironiser : « J’ai tendance à penser que j’ai plus de moyens de pression que qui que ce soit. » Le président a regretté de se découvrir désarmé. « Ces gens-là se moquent de nous », a-t-il lancé, en référence aux propriétaires de réseaux sociaux.

En exposant cette affaire, il a par ailleurs démultiplié la visibilité du deepfake, passé de 12 à 20 millions de vues en 24 heures à peine.

Auprès du Figaro, Meta indique avoir affiché des étiquettes pour aider les utilisateurs à repérer les contenus créés par IA.

Libération a de son côté remonté la trace de son créateur pour tomber sur un jeune Burkinabé, Rachid B., originaire de Ouagadougou. Ce dernier indique avoir supprimé la vidéo le 17 décembre (alors qu’elle avait atteint les 23 millions de vues) « pour ne pas avoir de problèmes juridiques ou des trucs comme ça ».

Dans d’autres contextes, le président de la République est lui-même usager des technologies de génération d’images relativement réalistes : il s’en était notamment servi pour faire la promotion du Sommet sur l’intelligence artificielle, en février 2025, et « lancer le débat », selon ses propres termes.

  •  

[Offert] Notes de la communauté : un rempart efficace mais très imparfait contre la désinformation

leS NoTEs sAy La lIBErTé
[Offert] Notes de la communauté : un rempart efficace mais très imparfait contre la désinformation

L’éditeur de Facebook et Instagram a démarré hier une phase de test pour ses notes de la communauté. Largement calquées sur celles de X, elles permettent d’épingler nombre de contenus erronés, voire mensongers. De quoi résoudre tous les problèmes ? Non, selon Bloomberg, qui a publié une vaste étude sur le sujet.

Pour les fêtes de fin d’année, Next vous offre cet article initialement paru le 21 mars 2025 et réservé aux abonnés. Pour lire les prochains entretiens dès leur publication, abonnez-vous !


Les notes de la communauté sont un mécanisme simple : à la lecture d’une publication, on peut décider d’ajouter un contexte, en général un commentaire suivi d’un ou plusieurs liens. Le système avait été initié sur Twitter, avec son rachat par Elon Musk et sa transformation en X, en complément des entreprises et médias effectuant une vérification professionnelle.

Depuis quelques mois, les projecteurs sont braqués sur ces notes. Elon Musk s’est débarrassé de tous les vérificateurs professionnels, louant les mérites d’un système alimenté par les internautes. Dans l’esprit du milliardaire, le réseau social s’équilibre de lui-même. Une idée séduisante, d’autant plus que le mécanisme a l’immense avantage d’être parfaitement gratuit pour celui qui, après avoir dépensé des dizaines de milliards de dollars pour racheter Twitter, lie actuellement ses entreprises à la Maison-Blanche.

Les notes de la communauté ont plusieurs mérites

Bloomberg Opinion s’est lancé dans un vaste travail : analyser 1,1 million de notes de la communauté, publiées entre début 2023 et février 2025. Une montagne de données, qui permet d’en tirer nombre de conclusion ou, en tout cas, de faisceaux et corrélations. Les éléments mis en lumière pointent leur dualité, entre un système fréquemment encensé par Elon Musk et ses attaques contre les médias classiques.

Premier constat, sans doute l’un des plus importants : les notes de la communauté ne sont pas une arnaque. Qu’il s’agisse de constats par Bloomberg ou d’autres études pointées par nos confrères, le système fonctionne. Les messages épinglés par la communauté reçoivent ainsi moins d’engagement du reste des internautes, en likes comme en retweets. Ils sont également plus susceptibles d’être supprimés. De manière générale, le processus est considéré comme plus fiable et transparent que la vérification par des professionnels. Bloomberg relève également une limitation de la viralité de certains canulars pendant les grands incendies de Los Angeles.

Le fonctionnement de ces notes est assez simple. Si vous voyez passer un message qui vous parait faux, vous pouvez passer par le menu « … » pour demander à en ajouter une. Il faut fournir un message explicatif ainsi qu’un ou plusieurs liens pour appuyer le propos. Elle n’est pas automatiquement publiée : elle doit rassembler suffisamment de voix. Les autres personnes contribuant aux notes sont en effet invitées à voter. Quand un nombre suffisant de personnes donnent leur aval, la note apparait chez tout le monde.

Ce système, souligne Bloomberg, fonctionne généralement bien, et même mieux qu’avant. En janvier 2023, le temps médian nécessaire pour ajouter une note et la faire valider était d’environ 30 heures. Le mois dernier, ce temps était de 14 heures. On comprend donc pourquoi le système intéresse doublement Meta : non seulement il ne coute rien (en dehors de la mise en place du système et de sa maintenance), mais il est plus rapide que le travail des vérificateurs professionnels, qui peuvent prendre jusqu’à une semaine pour répondre.

Un outil parmi d’autres

Si les notes de la communauté donnent de bons résultats, elles ne représentent pas pour autant l’alpha et l’oméga de la modération et de la vérification des faits. Avoir divisé par deux le temps d’apparition d’une note montre un plus fort engagement des internautes et un processus mieux intégré dans les habitudes, mais l’efficacité du mécanisme est soumise au consensus. Qui prend du temps.

C’est la première limite du système selon Bloomberg : les 14 heures ont beau représenter une forte amélioration, les notes arrivent le plus souvent bien après la bataille de la viralité, le mal étant déjà fait.

Surtout, les données analysées par Bloomberg montreraient qu’après un pic, le système pourrait perdre en efficacité. Cette dernière dépend étroitement du consensus. Or, sur les sujets les plus clivants, il a du mal à être atteint. Selon les informations recueillies, moins de 10 % des notes de la communauté seraient réellement publiées, faute d’un accord. Parmi celles publiées, 26 % sont même supprimées, suite à un désaccord. Ce n’est qu’une moyenne, car plus le sujet divise, plus le score augmente. Sur un échantillon de 2 674 notes portant sur la Russie et l’Ukraine l’année dernière, plus de 40 % des notes ont ainsi été supprimées.

De plus, ce système de quorum peut être manipulé. « Il n’est pas rare de voir des instances de voix pro-russes rassemblant leurs partisans pour qu’ils votent collectivement contre une note proposée ou publiée », indique ainsi Bloomberg.

Même chose pour Elon Musk : sur les 167 notes accolées à ses tweets, seules 88 étaient encore en ligne au moment de la publication de l’article. Pour nos confrères, le milliardaire n’a besoin de rien faire : « ses partisans s’en chargent souvent à sa place ». En outre, il y a un mois, le patron de X s’est tout à coup mis en colère. Affirmant que Volodymyr Zelensky était malaimé de ses concitoyens ukrainiens, une note est venue le contredire. Plus récemment, The Economist a mis à jour ces chiffres, montrant une forte cote de popularité.

Sources fiables : la grande ambivalence

Bloomberg pointe également l’ambivalence d’Elon Musk au sujet des médias traditionnels, qu’il accuse régulièrement d’avoir leur propre agenda politique et de répandre le « virus woke ». À cet ancien monde, il oppose justement les notes de la communauté, système qu’il présente comme l’aboutissement d’une démocratie libre, où chacun peut donner son avis, le tout s’équilibrant de lui-même.

Pour autant, ce système de notes repose sur la fiabilité des sources pour fonctionner. De quoi parle-t-on ? Des médias traditionnels, qui représentent « la principale source d’information ». Plus précisément, 31 % des liens cités, suivis par 20 % de liens vers des réseaux sociaux (qui peuvent renvoyer eux-mêmes vers des médias) et 11 % vers des sites éducatifs. Parmi les sources les plus fréquemment citées, on trouve Reuters (« l’organisation d’information la plus trompeuse au monde », selon Elon Musk), la BBC (« British Pravda ») et NPR (« gérée par la Stasi wok»).

Même problème avec Wikipédia, source la plus souvent citée dans les notes de la communauté. Elon Musk ne cache pas sa détestation profonde de l’encyclopédie collaborative. Il a appelé par exemple en décembre dernier à couper les dons à la fondation Wikimedia.

Sur ce point, Bloomberg note « une curieuse bizarrerie de la nature humaine » : « Les utilisateurs semblent croire plus facilement un inconnu sur internet qui renvoie à un article du New York Times, par exemple, qu’ils ne croient le New York Times lui-même lorsqu’il propose directement une vérification des faits ». Pour nos confrères, c’est l’équivalent « d’un ami qui sort Wikipédia pour trancher un débat dans un bar ».

Avec Meta, les notes vont changer d’échelle

Bloomberg a fait coïncider les résultats de son enquête avec le début des tests pour les notes de communauté sur les services de Meta. Comme nous l’indiquions la semaine dernière, Meta s’est lancée le 18 mars dans une phase d’essai aux États-Unis. Et tout portait à croire que le système allait rapidement trouver son public, avec plus de 200 000 inscriptions.

Dans un billet, la société disait s’attendre « à ce que les notes de communauté soient moins biaisées que le programme tiers de vérification des faits qu’elles remplacent, car elles permettent à davantage de personnes ayant plus de perspectives d’ajouter du contexte aux publications ». Un axe de communication reprenant le discours de Mark Zuckerberg en janvier, dans lequel il déclarait que « les fact-checkers sont devenus trop biaisés politiquement, et ils ont détruit plus de confiance qu’ils n’en ont créée, particulièrement aux États-Unis ».

Or, avec l’arrivée des notes chez Meta, le changement d’échelle est manifeste : d’environ 220 millions d’utilisateurs sur X à environ 3,3 milliards sur les plateformes Facebook, Instagram et Threads cumulées. L’efficacité des notes sur une si large population reste à démontrer, mais il est probable qu’elles aient un certain impact, comme sur X.

En revanche, pour Bloomberg, elles ne sauraient être la défense ultime contre la propagation des fake news ou simplement des erreurs. Dans une approche « prévenir plutôt que guérir », le média indique que le fonctionnement même de X aujourd’hui alimente en bonne partie le problème : la course à la viralité. Elon Musk a modifié la manière dont les détenteurs d’un compte Premium peuvent gagner de l’argent sur sa plateforme, en misant sur l’engagement, incitant à faire réagir autant que possible.

En même temps que Facebook a annoncé cette grande bascule, plusieurs autres changements importants ont été présentés. Par exemple, les notes de la communauté n’auront aucun impact sur la visibilité des publications, contrairement au système actuel. En outre, l’incitation financière pour les créateurs de contenus sera plus importante, là encore un encouragement à la viralité.

En somme, les notes de la communauté fonctionnent dans une certaine mesure, mais perdent nettement en efficacité dès que les sujets deviennent plus clivants. Mais selon nos confrères, la conclusion la plus évidente est que si les plateformes de réseaux sociaux voulaient vraiment lutter contre la désinformation, elles commenceraient par ne plus inciter à la viralité.

  •  

Piratage du ministère de l’Intérieur : un suspect interpelé

Des données oui, mais...
Piratage du ministère de l’Intérieur : un suspect interpelé

Le parquet de Paris a annoncé qu’un suspect avait été arrêté dans le cadre du piratage du ministère de l’Intérieur. Parallèlement, les pirates ont diffusé des informations en lien avec la Caisse d’allocations familiales, mais il n’y a rien de neuf sur les fichiers TAJ et FPR.

« Une personne a été interpelée le 17 décembre dans le cadre de l’enquête ouverte par la section de lutte contre la cybercriminalité du parquet de Paris, des chefs notamment d’atteinte à un système de traitement automatisé de données à caractère personnel mis en œuvre par l’État en bande organisée, à la suite de la cyberattaque au préjudice du ministère de l’Intérieur », a indiqué le parquet dans un communiqué, retransmis sur X et signé Laure Beccuau, procureur de la République.

Le communiqué donne d’autres informations, notamment que le suspect est né en 2003 et qu’il était déjà « connu des services de justice pour avoir été condamné pour des faits similaires en 2025 ». Le parquet rappelle que ce délit fait encourir une peine de 10 ans d’emprisonnement. On apprend également que les « investigations diligentées par l’OFAC [Office anti-cybercriminalité, ndlr] se poursuivent » et qu’une « nouvelle communication interviendra à l’issue de la garde à vue, qui peut durer jusqu’à 48 heures ».

Fuite d’informations provenant de la CAF

Indra, qui se présente comme un des pirates derrière l’attaque du ministère de l’Intérieur, a publié de nouveau un message BreachForums hier soir, à nouveau ressuscité l’espace d’un instant. « Bonjour la communauté BreachForums, Je vous annonce aujourd’hui un cadeau de Noël pour la France. Dites merci à « SaxX », c’est vraiment un bon menteur : la compromission d’une base de données de la CAF », a écrit Indra, en référence à celui qui se décrit comme « Gentil hacker », pour avoir minimisé l’ampleur de la fuite dans un tweet hier soir. Il y évoquait un « gros bluff » et traitait le groupe de pirates de « bande de clowns ».

« Voilà l’envers du décor ! Des jeunes cybercriminels français avec une émulation néfaste qui jouent à qui aura la plus grosse et défoncent néanmoins nos systèmes d’information en France. On est bien loin de l’ingérence étrangère comme j’ai pu l’évoquer depuis quelques jours », clamait ainsi SaxX hier soir vers 21 h.

La fuite d’informations de la CAF a bien été identifiée comme telle par plusieurs personnes, dont Christophe Boutry (anciennement de la DGSI). Il indique dans un tweet que la base n’est pas « classique », dans le sens où il « agrège des bénéficiaires CAF, MSA (agricole) et CNOUS (étudiants) ». Selon lui, le seul dispositif croisant ces trois bases est le Pass’Sport. En outre, il pointe un chiffre « trompeur », car les 22 millions annoncés se réduisent à 3,5 millions de foyers uniques « après dédoublonnage intégral ».

La situation serait particulièrement sensible pour les jeunes adultes : « Le fichier permet de suivre l’évolution précise du bénéficiaire. De simple ayant-droit associé au mail de ses parents, il devient une cible directe à sa majorité, avec l’apparition de ses propres coordonnées (téléphone, email personnel) et de sa situation sociale », indique Christophe Boutry. La fuite reste grave dans tous les cas, d’autant que les informations y sont fraiches, les dernières datant de novembre. « Encore une faille majeure dans la chaîne de sous-traitance de l’État », ajoute Christophe Boutry.

Le ou les pirates ont annoncé il y a quelques heures détenir également 2,1 millions de dossiers patients provenant de l’AP-HP (Assistance Publique – Hôpitaux de Paris).

  •  

☕️ La distribution Emmabuntüs revient dans une version Debian Edition 6

Emmabuntüs, une distribution spécialisée dans le matériel reconditionné pour lui redonner une seconde vie, a reçu une évolution majeure. Cette Debian Edition 6 est basée sur la version 13.2 de Debian (Trixie) et reçoit en tant que telle toutes les évolutions importantes de cette dernière. La version 5 était basée sur Debian 12.1 à sa sortie.

Sans surprise, la nouvelle édition reste axée sur la légèreté. La session par défaut utilise Xfce 4.20. Pas question de GNOME ou KDE ici, à moins de l’installer spécifiquement. Pour le matériel plus ancien, LXQt 2.1 est également présent, avec une consommation de ressources encore plus réduite. Précisons quand même qu’avec une base Debian 13.2, la nouvelle Emmabuntüs ne peut plus être installée que sur des machines 64 bits. La version 5 reste disponible.

Screenshot

La Debian Edition 6 se concentre largement sur les questions d’accessibilité. De nombreuses options ont été ajoutées, disponibles dans une interface dédiée. On y trouve ainsi le support des synthétiseurs vocaux MBROLA et Piper, la synthèse vocale pendant la navigation, la prise en charge de trois profils Orca, un bip sonore pour l’insertion des clés USB, l’arrivée de LIOS (Linux-Intelligent-OCR-Solution). On trouve aussi de multiples scripts, notamment pour installer Index Braille et Wine, afficher le niveau de batterie de l’ordinateur ou encore pour simplifier les mises à jour du système.

L’ensemble des nouveautés peut être consulté depuis le site officiel. Comme toujours, la nouvelle version est fournie sous forme d’image ISO.

  •  

noyb accuse TikTok de récupérer des données venant de Grindr à propos de ses utilisateurs

TikTok tact
noyb accuse TikTok de récupérer des données venant de Grindr à propos de ses utilisateurs

L’association de Max Schrems vient de déposer deux plaintes contre TikTok devant l’autorité de protection autrichienne. Elle accuse notamment le réseau social de récupérer des données de ses utilisateurs venant d’applications extérieures comme Grindr en passant par AppsFlyer, une entreprise de revente de données israélienne.

TikTok accumulerait des données de ses utilisateurs venant d’autres applications et sites. Accompagnant un utilisateur de l’application, noyb a porté plainte, devant l’autorité de protection de données de son pays, la DSB, en accusant TikTok de stocker certaines données qu’il n’a remplies que dans l’application Grindr.

Dans sa plainte [PDF] dans laquelle elle attaque aussi Grindr et l’entreprise israélienne AppsFlyer, l’association autrichienne explique qu’en voulant télécharger les données le concernant stockées par TikTok, l’utilisateur en question a remarqué que l’archive contenait une référence à des données d’activité en dehors de TikTok, alors que la politique de confidentialité ne donne aucune information concernant le stockage de ce genre de données.

Voulant aller plus loin, il a bataillé avec les services de TikTok pour obtenir plus d’informations. Finalement, après plusieurs échanges, l’entreprise lui a fourni deux tableaux contenant des informations sur des données venant d’ailleurs, sans pour autant transmettre les données en question. La plainte explique que ces tableaux contiennent « par exemple […] des informations sur les autres applications utilisées par le plaignant (telles que Grindr), les actions entreprises par le plaignant dans d’autres applications (telles que l’ouverture de l’application ou l’ajout d’un produit au panier), ou si un événement dit de conversion a eu lieu (c’est-à-dire si un utilisateur a effectué l’action souhaitée après l’affichage d’une publicité sur TikTok) ». La plainte insiste sur le fait que les données récoltées sont aussi visibles sur l’application Grindr utilisée par le plaignant.

Grindr et le data broker AppsFlyer aussi visés

Les avocats de noyb et du plaignant accusent donc TikTok d’avoir enfreint le RGPD, et notamment l’article 5(1)(c) qui impose que les données personnelles collectées soit « adéquates, pertinentes et limitées à ce qui est nécessaire au regard des finalités pour lesquelles elles sont traitées ». Mais ils pointent aussi le fait que l’entreprise, en récupérant des données hors TikTok, l’a fait sans aucune base légale. Enfin, ils appuient sur le fait que certaines données venaient de Grindr et concernaient l’orientation sexuelle du plaignant, données particulièrement encadrées par l’article 9 du RGPD.

Pour récupérer ces données, la plainte affirme que « selon les informations fournies, TikTok a probablement obtenu ces informations auprès du courtier en données en ligne « AppsFlyer » ». Cette entreprise israélienne est aussi formellement visée par la plainte de noyb. Elle y est accusée d’avoir transféré à TikTok illégalement les données personnelles de l’utilisateur. Ici aussi la plainte insiste sur le fait que des données protégées par l’article 9 du RGPD sont concernées.

Si les avocats de l’association ne donnent pas d’éléments de preuve dans le document, ils y affirment qu’ « il est factuellement clair que Grindr a partagé les données d’activité du plaignant avec (au moins une) tierce partie (« AppsFlyer »), qui a ensuite partagé ces données (directement ou indirectement) avec TikTok ». Ceci sans que l’utilisateur ne donne son consentement et sans s’appuyer sur aucune autre base légale.

La récupération de données venant de Grindr, « qu’un exemple parmi les plus extrêmes  »

« À l’instar de nombreux de ses homologues américains, TikTok collecte de plus en plus de données provenant d’autres applications et sources », commente Kleanthi Sardeli, avocate spécialisée dans la protection des données chez noyb, dans un communiqué publié sur le site de l’association. « Cela permet à l’application chinoise d’obtenir une image complète de l’activité en ligne des utilisateurs. Le fait que les données provenant d’une autre application aient révélé l’orientation sexuelle et la vie sexuelle de cet utilisateur n’est qu’un exemple parmi les plus extrêmes », ajoute-t-elle.

La deuxième plainte [PDF] de noyb ne concerne que TikTok et découle, de fait, de la première. L’association accuse le réseau social de ne pas partager avec ses utilisateurs toutes les données qu’elle agrège sur eux dans la fonctionnalité de récupération de données personnelles alors que son outil affirme le contraire. Elle lui reproche aussi un manque d’information sur les données partagées à cette occasion.

Next a contacté les trois entreprises dans la matinée. Elles n’avaient pas fourni de réponse à l’heure de publier cet article. Nous actualiserons cette actualité le cas échéant.

  •  

☕️ OpenAI dégaine son GPT Image 1.5 pour concurrencer Nano Banana Pro

Le père de ChatGPT vient de lancer la version 1.5 de son générateur d’images, sobrement nommé GPT Image. La version 1.0 avait été lancée en mars dernier, avant que les capacités soient mises à disposition un mois plus tard à travers l’API gpt-image-1.

Entre temps, Google lui a largement volé la vedette. Le lancement de Nano Banana en septembre a montré qu’OpenAI n’était pas le seul acteur à faire de la génération d’images plus convaincantes. Mais l’arrivée de Gemini 3 Pro s’est accompagnée de Nano Banana Pro. Ce modèle a rapidement fait le tour de la planète pour ses capacités de génération d’images, au point que beaucoup ne voyaient plus la différence avec des photos réelles.

OpenAI a donc répliqué avec GPT Image 1.5, qui se présente avec des capacités équivalentes à Nano Banana Pro, mais avec une tarification 20 % moins chère via l’API que l’ancien modèle. Par rapport à ce dernier, OpenAI affirme que la génération peut également prendre jusqu’à quatre fois moins de temps. Dans ChatGPT (web ou application mobile), un nouveau hub (dans la barre latérale) permet de se lancer plus rapidement avec des invites (prompts) prêtes à l’emploi et des filtres.

Nos confrères de MacG ont pris en main le nouveau générateur et l’ont comparé à Nano Banana Pro via quelques tests. Leurs conclusions sont simples : les deux modèles se valent globalement, l’un ou l’autre remportant la manche selon les demandes.

Le nouveau modèle d’OpenAI est en tout cas disponible pour l’ensemble des utilisateurs, aux mêmes conditions que l’ancien modèle.

  •  

[Offert] Karen Hao : « Les empires de l’IA étouffent l’innovation »


C'est l'heure de l'alliance rebelle
[Offert] Karen Hao : « Les empires de l’IA étouffent l’innovation »


La relation d’OpenAI au travail de ses employés comme des entraîneurs de données, celle de Sam Altman à la consommation énergétique de son entreprise, la manière dont l’industrie freine la recherche scientifique en IA… Next a parlé de tous ces sujets avec la journaliste et autrice d’« Empire of AI » Karen Hao.

Pour les fêtes de fin d’année, Next vous offre cet article initialement paru le 16 juillet 2025 et réservé aux abonnés. Pour lire les prochains entretiens dès leur publication, abonnez-vous !


En 2015, une dizaine de personnalités de la Silicon Valley – parmi lesquelles l’informaticien Illya Sutskever ou les entrepreneurs Sam Altman, Greg Bockman et Elon Musk – se réunissent pour créer une nouvelle entité. Son nom ? OpenAI. Son but ? Faire avancer la recherche en intelligence artificielle. Sa spécificité, publicisée jusque dans son nom ? Être une organisation à but non lucratif, ouverte ou reposant sur les principes de l’open source, dont l’objet serait de faire progresser les connaissances communes, partagées, dans ce domaine informatique de plus en plus prisé qu’est l’intelligence artificielle.

Le projet attire tout de suite l’attention. Il est, après tout, financé par de grands noms : Altman, Brockman et Musk eux-mêmes, le cofondateur de LinkedIn Reid Hoffman, la venture capitalist et ex-collègue de Sam Altman chez Y Combinator Jessica Livingston, le financier Peter Thiel…

En quelques années, la promesse initiale évolue. En 2018, Elon Musk part avec pertes et fracas, critiquant le manque de résultats d’OpenAI et les risques de conflit d’intérêt à venir, alors que Tesla développe ses compétences en matière d’IA. De quasi-ONG de financement de la recherche en IA, OpenAI devient une société privée, de plus en plus secrète.

Fin 2023, un an à peine après que la publication du robot conversationnel ChatGPT a fasciné le grand public par ses capacités de génération de texte et d’image, nouveau coup de tonnerre. Sam Altman, à la tête du projet depuis ses débuts, est d’abord licencié de son poste de CEO par le conseil d’administration, remplacé par l’ex-directrice de la technologie Mira Murati, avant de reprendre sa place.

Aux premières loges de ces multiples rebondissements se trouve une journaliste, Karen Hao, d’abord employée par la MIT Technology Review, puis le Wall Street Journal, et actuellement freelance pour diverses publications dont le magazine états-unien The Atlantic. Première journaliste à obtenir l’accès à la start-up, Karen Hao a depuis continué d’enquêter sur ses activités et celles de l’industrie au sens large, jusqu’à publier Empire of AI, Dreams and nightmares in Sam Altman’s Open AI (Penguin Random House, non traduit), en mai 2025. Elle s’est entretenue avec Next.

« Sam Altman a réussi à créer une ferveur quasi religieuse pour la création d’une intelligence artificielle générale »

>> Vous montrez clairement que l’intelligence artificielle (IA), ou même la notion d’intelligence artificielle générale, varie beaucoup dans l’industrie, au point que ses promoteurs semblent pouvoir toujours l’adapter aux nouveaux problèmes qui les intéressent. Comment est-ce possible ?

L’idée originale de l’intelligence artificielle est de recréer l’intelligence humaine à l’aide d’ordinateurs. Mais il n’y a pas de consensus scientifique sur ce qu’est l’intelligence humaine, ce qui explique que la définition de l’IA évolue régulièrement au fil du temps. L’intelligence artificielle générale (AGI) obéit à la même logique : il ne s’agit que d’un re-positionnement, c’est une manière de se différencier des produits et services existants.

OpenAI s’inscrit dans cette grande tradition d’incapacité à définir ce que l’IA signifie vraiment. L’entreprise utilise tout de même une définition explicite : pour elle, les AGI sont des « systèmes autonomes qui surpassent les humains dans la plupart des tâches à valeur économique ». Ils la définissent donc surtout comme des machines d’automatisation du travail. Mais dans certains cas, il arrive que Microsoft et OpenAI parlent d’AGI comme de systèmes qui seraient capables de générer cent milliards de dollars ou mille milliards de dollars. Une telle définition est totalement différente de celle de la machine à automatiser le travail.

Au sein d’OpenAI, il y a aussi une blague qui circule, selon laquelle si vous demandez leur avis à 13 chercheurs, vous obtiendrez 16 définitions différentes de l’AGI. Donc oui, on manque de clarté, et je pense que l’entreprise profite parfois de ce manque de précision pour continuer à faire ce qu’elle veut.

>> Deux des définitions que vous venez d’évoquer sont néanmoins très liées à des enjeux économiques, et notamment à celle de l’automatisation du travail humain. Pourtant, sans étiquetage des données, sans entraînement humain des systèmes, il n’y aurait pas d’IA. Pourriez-vous résumer quel est le rapport de Scale AI, l’un des sous-traitants essentiels d’OpenAI en annotation de données, aux travailleurs ?

Scale AI est une plateforme qui met en relation les entreprises d’IA avec des travailleurs contractuels pour des tâches telles que l’étiquetage de données, la modération de contenu ou le renforcement à partir du feedback humain (RLHF), quand les gens envoient des requêtes aux modèles et les classent pour essayer d’orienter le type de réponse de ces technologies. Scale AI a ouvert avant l’explosion des LLM, lorsqu’il existait plus de modèles d’IA différents, sur l’idée de fournir du travail humain de haute qualité à bas coût aux entreprises d’IA.

Or, ils ont découvert quasi accidentellement que le Venezuela était un très bon endroit pour trouver ce genre de personnels. Lorsque le pays a traversé une grave crise économique, il a coché trois cases : des personnes très éduquées, une très bonne connexion internet, et des gens désespérés de trouver du travail, donc prêt à s’employer pour des salaires très bas. Cette expérience est un peu devenue leur méthode classique d’intervention, qu’ils ont réutilisée ailleurs. Quand la pandémie a frappé, Scale AI s’est tourné vers tous les pays où les économies se sont retrouvées en souffrance, et où de nombreux travailleurs très qualifiés devenaient disponibles pour des salaires bas, faute de trouver d’autres emplois.

Sur chacun de ces marchés, l’entreprise a fonctionné de la même manière : elle commence par proposer de bons salaires en échange des tâches d’entraînement, puis quand de nombreuses personnes ont pris l’habitude d’en faire leur source principale de revenu, ScaleAI se met à réduire nettement le montant des rémunérations, ou à mettre les travailleurs en concurrence pour les mêmes tâches. Ils et elles se retrouvent coincés dans des situations franchement instables, incapables de garantir s’ils vont travailler, combien ils gagneront pour leurs tâches, quelles seront leurs heures de travail, le tout sans prestations ni Sécurité sociale.

>> Dans une interview pour le média Synth, vous expliquiez que les employés d’OpenAI n’ont aucun équilibre entre travail et vie privée. Comment comprendre le rapport de cette entreprise au travail ?

Si beaucoup d’entre eux n’ont pas d’équilibre entre vie professionnelle et vie privée, c’est parce qu’Altman a réussi à créer une ferveur quasi religieuse dans la culture d’entreprise, à la fois pour l’AGI et pour la mission d’Open AI à faire en sorte que l’AGI profite à toute l’humanité. Lorsque vous pensez remplir une sorte d’objectif religieux, il est logique que vous vous y adonniez au maximum. Si vous croyez vraiment que le travail que vous effectuez chaque jour peut soit apporter l’utopie, soit empêcher l’humanité de sombrer dans la dystopie, cela crée des conditions propices au surmenage et à une association complète de votre identité à votre travail.

Cela dit, la façon dont OpenAI positionne ses produits, ou ce qu’elle fait réellement et les impacts qu’elle a sur le travail en général, cela produit surtout de l’exploitation. Tous les travailleurs qui contribuent à la production de ces technologies, partout sur la planète, sont exploités. Comme OpenAI adopte une définition économique de l’AGI, l’entreprise est naturellement encline à produire des technologies qui automatisent des emplois, ce qui est une forme d’exploitation du travail.

À mon sens, s’ils ont choisi cette définition, c’est parce que mesurer ce qui est considéré comme « un travail économiquement viable » est relativement simple. Si vous essayez de créer une AGI, il s’agit d’un objectif plutôt facile à se fixer et à suivre pour savoir si vous avez atteint votre but. C’est également un objectif très pratique si vous voulez gagner de l’argent. Si vos machines sont capables d’effectuer un « travail économiquement viable », les dirigeants paieront pour, et bien, y compris pour automatiser leurs propres travailleurs.

« L’expansion de ces entreprises risque de nous faire retourner à une ère impériale »

>> Outre les enjeux que cela pose en termes de travail, ce type d’orientation a un réel impact environnemental. Sam Altman a par exemple déclaré qu’une « fraction significative » de l’énergie produite sur Terre devrait être allouée à l’IA, quand bien même cette énergie est produite de manière très carbonée aux États-Unis. Pourquoi y a-t-il si peu de réactions sur le sujet ?

Il me semble que le grand public est encore loin d’avoir compris les enjeux que l’IA pose, aussi bien sur le travail que sur l’environnement, ou même sur la recherche en IA. Côté environnemental, en l’occurrence, les data centers ont beau être immenses, ils sont souvent relativement cachés, placés dans des lieux lointains du public, à des endroits que les médias couvrent moins… Tout cela fait que les usagers classiques de l’IA n’ont pas encore pris conscience de ses impacts sur la santé, sur la consommation d’eau, sur l’énergie.

Ils s’en rendent d’autant moins facilement compte que l’industrie pousse très clairement le discours selon lequel l’intelligence artificielle tomberait du ciel, serait un produit mystique, le résultat d’une forme de magie. Et toute cette rhétorique participe à leur logique impériale.

>> Pourquoi est-ce que la notion d’empire vous a paru nécessaire, pour décrire ces entreprises privées ?

C’était d’abord une manière de mettre en évidence l’ampleur des ambitions de ces entreprises. Elles parlent de domination mondiale, au sens propre, elles consolident de tels pouvoirs économiques et politiques qu’elles deviennent comparables à des empires… Cela permet aussi de souligner que leurs comportements, le fait de revendiquer des ressources qui ne leur appartiennent pas comme étant les leurs, celui d’exploiter d’immenses quantités de main-d’œuvre, celui de monopoliser la production de connaissances, tout cela correspond à des logiques impériales.

L’immense majorité des chercheurs en IA aujourd’hui travaillent pour ou sont financés par l’industrie, ce qui nous empêche de bien comprendre les vraies limitations de ces technologies, puisque les entreprises n’ont aucun intérêt de travailler sur ces sujets. Imaginez ce qui arriverait si la plupart des chercheurs sur le climat étaient payés par les entreprises des énergies fossiles. C’est à peu près la situation dans laquelle nous sommes aujourd’hui dans l’IA : les systèmes ont énormément de défauts, mais moins de 5 % de la recherche produite se penche sur ces problèmes.

Il y a aussi la dimension religieuse, ce récit d’opposition entre les bons et les mauvais empires, où les « bons » auraient besoin de devenir des empires pour vaincre les mauvais, car si les mauvais empires gagnent, alors l’humanité risque sa survie… Toute cette rhétorique ressemble à celle des empires du passé.

Si vous comprenez qu’il s’agit de logiques impériales, alors vous comprenez que la conclusion de l’expansion de ces entreprises est le retour aux empires, soit l’inversion de la tendance vers plus de progrès et de démocratie. En l’occurrence, les fondements de la démocratie sont en train de s’éroder. Pour moi, l’enjeu est vraiment celui-là : comprendre que le risque fondamental est celui de retourner en arrière, vers de nouveaux régimes impériaux.

« Les régulateurs doivent cesser de croire que la Silicon Valley agit pour l’intérêt général »

>> Dans Empire of AI, vous décrivez une fascination des représentants politiques pour Sam Altman et une réticence à réguler l’IA qui rappelle nettement la fascination pour Mark Zuckerberg que Sarah Wynn-Williams décrit dans Careless People (Macmillan, 2025, non traduit). Dans quelle mesure faudrait-il que cela change ?

Les régulateurs devraient apprendre du passé, cesser de croire que l’élite de la Silicon Valley agit dans l’intérêt de la population, du grand public, de la société dans son ensemble. Ils devraient réfléchir de manière très critique à la manière de s’assurer que les entreprises technologiques continuent de fournir leurs services, mais sans bâtir d’empires, car ce sont deux choses différentes.

Les gouvernants devraient réfléchir aux meilleures manières de réglementer les entreprises d’IA, non seulement en se penchant sur celles qui veulent produire des modèles d’IA, mais aussi en encadrant les données sur lesquelles ces entreprises sont autorisées à entraîner leurs modèles ; en se penchant sur l’interprétation des lois sur les droits d’auteur pour protéger le travail des artistes, des écrivains et des créateurs ; en s’intéressant à l’endroit où ces sociétés sont autorisées à construire des centres de données, à la quantité et aux sources d’énergie qu’elles ont droit d’utiliser, à la quantité d’eau douce à laquelle elles ont le droit de recourir. Il faudrait qu’ils régulent le type de protocoles de test auxquels les constructeurs d’IA doivent soumettre leurs systèmes avant de les déployer ; s’intéresser à l’impact de ces systèmes sur les enfants et sur les autres groupes vulnérables…

Très souvent, je finis par entendre que trop de réglementation pourrait faire disparaître l’innovation. C’est un discours trompeur, car en réalité, ne pas réglementer empêche l’innovation. Ces entreprises en sont arrivées à un point où elles n’ont plus aucune raison de faire quoi que ce soit pour l’intérêt public. Ce sont des entités totalement égoïstes, qui freinent clairement l’innovation.

Au cours du premier trimestre de cette année, près de 50 % des financements du capital-risque sont allés à OpenAI et Anthropic : c’est un coût d’opportunité énorme pour le reste du domaine de l’IA, mais aussi pour le reste de l’industrie technologique. Ces entreprises verrouillent une grande partie de l’innovation, ce qui réduit la capacité d’innover dans de nombreux autres domaines.

>> Comment comprenez-vous les récents mouvements d’employés d’OpenAI vers Meta ?

Il y a eu ces discussions autour des 100 millions de dollars de packages offerts par Meta…. À mon sens, ça illustre surtout la folie du montant des capitaux qui circulent dans cet espace. Peut-être que les régulateurs devraient commencer à plafonner les compensations que les entreprises offrent à leurs candidats.

Pour moi, cet épisode illustre à quel point ces entreprises sont dirigées par des personnes à l’ego démesuré, qui se battent les unes contre les autres pour créer leur propre version de l’IA, pour remodeler l’IA à leur image. L’une de mes plus grandes critiques à l’encontre de ces entreprises est qu’elles n’ont aucune structure de gouvernance : ce qu’elles font est purement basé sur les caprices et les décisions prises par la poignée de personnes à leur tête.

>> Comment la démocratie peut-elle se défendre face aux empires de l’IA ?

On a besoin de contestation démocratique depuis la base. Les gouvernants doivent faire leur travail, mais les gens ne peuvent pas attendre qu’ils réagissent, car ces entreprises ont été si efficaces pour capturer les gouvernements que peu de politiciens dans le monde adoptent des positions fortes pour les réglementer.

Des centaines de communautés protestent déjà contre la construction de centres de données, construits sans préoccupation de leur usage d’eau douce. Ces protestations ralentissent déjà leur développement, elles forcent l’ouverture de débats sur la question de savoir si oui ou non nous en avons besoin. D’autres personnes exercent leur droit à la vie privée pour tenter d’empêcher les entreprises d’exploiter leurs données. Des artistes se battent pour tenter d’obtenir de meilleures interprétations de la loi sur les droits d’auteur, ou bien utilisent des outils comme Nightshade, qui permet de faire en sorte que, si les sociétés d’IA utilisent leurs œuvres dans leurs données d’entrainement, alors celles-ci dégradent le modèle.

Il existe de multiples formes de protestation dans lesquelles les gens s’engagent et qui me paraissent être des formes de contestation démocratique. Nous avons autant besoin de cela que de faire en sorte que les régulateurs se réveillent.

  •  

Piratage du ministère de l’Intérieur : les fichiers TAJ et FPR ont bien été consultés

Jeu de dupes ?
Piratage du ministère de l’Intérieur : les fichiers TAJ et FPR ont bien été consultés

Le ministère de l’Intérieur a confirmé il y a quelques jours une fuite de données. Des pirates ont revendiqué l’attaque, affirmant avoir des informations sur des millions de personnes, issues notamment des fichiers TAJ et FPR. Le ministre de l’Intérieur, Laurent Nunez, a confirmé ce matin que ces bases avaient bien été consultées et que des fiches avaient été volées.

Un ou des pirates ont revendiqué l’attaque contre le ministère de l’Intérieur. Une personne, se faisant appeler « Indra », a relancé brièvement BreachForums, qui avait disparu suite à plusieurs arrestations, aussi bien aux États-Unis qu’en France. Le message revendiquait l’attaque, précisait qu’il s’agissait d’une vengeance pour l’arrestation de ses « amis » et que la fuite était bien plus grave que ce que l’on pensait. Les pirates affirmaient ainsi posséder des informations sur plus de 16 millions de personnes, dont quantité d’informations provenant des fichiers TAJ (Traitement d’antécédents judiciaires) et FPR (Fichier des personnes recherchées).

Officiellement, le ministère de l’Intérieur, Laurent Nunez, a confirmé dans un premier temps qu’une attaque avait bien eu lieu contre des services de messagerie. Les mesures de sécurité avaient en conséquence été relevées et des rappels d’hygiène numérique faits aux forces de l’ordre. La fuite est cependant plus grave qu’initialement reconnu.

« Quelques dizaines de fiches »

Ce matin, Laurent Nunez a donné de nouvelles informations à Franceinfo, lors de l’émission de 8h30. « On a fait l’objet d’une intrusion malveillante il y a quelques jours ». Il a confirmé que des accès ont été obtenus à partir de « certaines boites professionnelles ». De là, « l’individu ou le groupe d’individus […] a pu consulter un certain nombre de fichiers importants pour nous, notamment le traitement des antécédents judiciaires, et procéder à un certain nombre d’extractions ».

Le ministre évoque « quelques dizaines d’extractions », mais pas les « millions de données » revendiquées dans le message sur BreachForums. Cependant, Laurent Nunez indique en même temps que l’on « ne connait pas l’ampleur des compromissions », faisant relativiser le nombre d’extractions donné.

De plus, le ministère ne peut « absolument pas dire si cela va compromettre des enquêtes », mais affirme que l’incident « ne met pas en danger la vie de nos compatriotes ». Autre affirmation : aucune demande de rançon n’aurait été reçue. Ce qui irait d’ailleurs dans le sens du message des pirates, qui indiquaient attendre que la France les contacte.

Laurent Nunez reconnait que « des imprudences » ont été commises et le scénario d’attaque laisse effectivement penser que de l’ingénierie sociale a été utilisée pour piéger une ou plusieurs personnes. Les accès récupérés (sous forme de mots de passe en clair dans des échanges e-mails) auraient alors servi à accéder aux applications métiers et bases de données, dont le TAJ et le FPR. « On a saisi la CNIL aussi, la Commission nationale de l’informatique et des libertés, comme la loi nous l’impose. Et puis il y a eu une enquête administrative que j’ai demandée, sur laquelle on travaille », a ajouté le ministre.

L’ampleur de la fuite reste à déterminer

La grande question est désormais de savoir quelle crédibilité accorder aux affirmations du ou des pirates. Si la menace est avérée, alors une grande partie du TAJ et du FPR serait dans la nature, avec des conséquences potentiellement catastrophiques pour la France.

La situation n’est cependant pas claire. Le message du ou des pirates a été publié initialement le 13 décembre. Un ultimatum était donné à la France, qui a jusqu’au 20 décembre pour contacter le groupe à une adresse tutanota indiquée dans l’avertissement. Indra insistait en outre sur l’aspect vengeance de l’attaque, pour l’arrestation des membres du groupe ShinyHunters.

Cependant, si l’on en croit SaxX, les ShinyHunters (avec qui il assure être en contact) se seraient « désolidarisés » de ce Indra ayant attaqué le ministère de l’Intérieur, dont on ne sait rien de plus à l’heure actuelle. Il pourrait s’agir, comme le suppose SaxX, d’une menace étatique étrangère ayant pris l’apparence d’un groupe cybercriminel « classique ».

Trop peu de preuves à ce stade

La situation est d’autant plus floue que les experts ne sont pas d’accord sur l’ampleur de la menace. Pour Baptiste Robert par exemple, le ou les pirates n’ont pas exfiltré l’intégralité du TAJ et du FPR. Preuve en serait l’usage de termes trop génériques employés dans ce contexte.

Le chercheur en sécurité soulignait également hier soir que les pirates avaient publié sur leur chaine Telegram une capture montrant le portail de connexion CHEOPS avec l’adresse de la chaine en identifiant et les mots « WE ARE STILL HERE » (« Nous sommes toujours là ») dans le mot de passe. Selon lui, cette capture ne prouve rien, car l’utilisateur n’est pas authentifié. « Si c’est un moyen d’essayer de faire pression en vue d’une éventuelle négociation, c’est particulièrement mal fait », a indiqué Baptiste Robert.

Il y aurait ainsi bien compromission, récupération d’accès et consultation des données, mais aucune preuve d’une extraction conséquente des données.

  •  

☕️ La directrice du MI6 alerte sur le transfert de pouvoir du politique vers les géants tech

« Nous évoluons désormais dans un espace entre la paix et la guerre », a déclaré la nouvelle directrice du MI6, Blaise Metreweli, dans son premier discours public, le 15 décembre, avant de présenter le « réseaux entremêlé de défis de sécurité » à laquelle l’agence de renseignement extérieure britannique doit faire face.

Dans cette nouvelle « ère d’incertitude », « la ligne de front est partout » a-t-elle décrit, citant les menaces hybrides et informationnelles parmi les outils déployés par une Russie « agressive, expansionniste et révisionniste ».

Photo de Luke Stackpoole sur Unsplash

Et de citer les menaces « juste en dessous du seuil de la guerre » que pose le gouvernement de Vladimir Poutine, autant par le recours à des cyberattaques sur des infrastructures que par les apparitions croissantes de drones aux alentours d’aéroports civils.

Première femme à prendre la tête du MI6, toujours sous le nom de code « C », Blaise Metreweli a autant détaillé les mouvements géopolitiques à l’œuvre – suggérant implicitement de traiter différemment la Chine de la Russie – que décrit la maîtrise des technologies comme « défi déterminant du XXIe siècle ». En la matière, l’enjeu n’est pas seulement « de savoir qui détient les technologies les plus puissantes, mais aussi de savoir qui les guide avec la plus grande sagesse ».

En l’occurrence, « le pouvoir lui-même devient plus diffus, plus imprévisible, car le contrôle de ces technologies passe des États aux entreprises, et parfois même à des individus », a décrit la cheffe des espions britanniques.

Avant sa prise de poste le 1ᵉʳ octobre 2025, à la suite de Richard Moore, Blaise Metreweli dirigeait la division Innovation et Technologie du MI6.

  •  

Anthony Enzor-DeMeo, nouveau CEO de Mozilla : une question de confiance… et d’IA

Aussi différent que tout le monde
Anthony Enzor-DeMeo, nouveau CEO de Mozilla : une question de confiance… et d’IA

Mozilla a désormais un nouveau CEO : Anthony Enzor-DeMeo. Il remplace Laura Chambers, qui a dirigé l’entreprise comme CEO par intérim.

Anthony Enzor-DeMeo était arrivé chez Mozilla il y a tout juste un an, pour prendre la tête de Firefox. Dans l’annonce faite ce 16 décembre, il a remercié Laura Chambers pour son « leadership exceptionnel » dans une période charnière pour Mozilla, à qui elle a « apporté clarté, stabilité et concentration ». Nabiha Syed reste à la tête de la fondation depuis le départ de Mitchell Baker en début d’année, et Mark Surman est toujours directeur général de l’entreprise.

Il enchaine rapidement sur ce qu’il présente comme le crédo de l’entreprise : la confiance. « Quand j’ai rejoint Mozilla, il était clair que la confiance allait devenir le problème majeur de la technologie et que le navigateur serait l’endroit où cette bataille allait se dérouler. L’IA remodelait déjà la façon dont les gens recherchent, achètent et prennent des décisions de manière difficile à voir et encore plus à comprendre », indique Anthony Enzor-DeMeo.

Trois grands axes, dont l’IA

« Les gens veulent un logiciel rapide, moderne, mais aussi honnête sur ce qu’il fait », ajoute le nouveau CEO. La confiance doit surpasser tout le reste et Mozilla doit devenir une référence dans le domaine. « Ce n’est pas un slogan », martèle Anthony Enzor-DeMeo.

Il définit les trois grands axes de son règne : chaque produit développé par Mozilla doit donner de l’autonomie (confidentialité, utilisation des données, simplicité des contrôles…), une monétisation transparente et le passage à un écosystème plus large de logiciels de confiance, dont Firefox restera « l’ancre ».

Et que tout le monde soit averti : Firefox va bien évoluer vers un navigateur IA. Des investissements vont être faits en ce sens sur trois ans. Mais le nouveau CEO précise rapidement que ce travail devra « refléter le Manifeste Mozilla » et que tout ce qui touche à l’IA devra pouvoir être désactivé facilement. La différenciation avec le reste de l’industrie se ferait sur les « principes ».

Pas de LLM made in Mozilla à l’horizon

« Nous agirons avec urgence. L’IA change les logiciels. Les navigateurs deviennent le point de contrôle de la vie numérique. La réglementation modifie les défauts. Ces changements jouent en faveur des forces de Mozilla », affirme Anthony Enzor-DeMeo. À The Verge, le CEO indique cependant être conscient de « l’érosion de la confiance » sur l’IA, insistant sur la nécessité pour Mozilla de devenir une référence.

Mais de quelle IA parle-t-on ? Comme le confirme le CEO à nos confrères, Mozilla ne va pas développer son propre LLM. Firefox va surtout s’équiper d’un mode IA qui donnera accès à divers modèles. Certains seront open source, d’autres non, et les principaux acteurs devraient être présents. Aucun modèle en particulier ne sera mis en avant, tout dépendant du choix fait par l’internaute. Reste à voir comment Mozilla arrivera à faire passer son message à faire la différence dans un marché du navigateur en pleine effervescence, l’IA ayant relancé la guerre, avec de nouveaux acteurs comme OpenAI et Perplexity.

  •  

SSD, mémoire vive : pénurie, mon amour…

Finalement, l’amour à un prix : cher !
SSD, mémoire vive : pénurie, mon amour…

Fortes tensions : c’est le terme à la mode quand il s’agit de parler de puces mémoire, aussi bien pour les SSD que la mémoire vive. Les demandes explosent du côté des professionnels sur les GPU avec de grosses quantités de mémoire vive, à cause de l’intelligence artificielle. La situation pourrait s’aggraver avec maintenant une volonté de faire des « AI SSD ».

Face à cette situation, Micron (connu au travers de sa marque Crucial) a décidé de sortir du marché grand public, aussi bien pour la mémoire vive que les SSD. C’est un coup de tonnerre important dans un marché dominé par trois acteurs pour la fabrication des puces : SK hynix, Samsung et Micron donc.

Samsung ne bouge pas, SK hynix renforce sa production…

Les yeux se tournaient d’ailleurs vers Samsung pour voir ce qu’il allait faire. Un porte-parole du fabricant a tordu le cou aux rumeurs, affirmant à Wccftech que celle sur « l’abandon progressif des SSD S-ATA ou d’autres SSD est fausse ».

Toujours à nos confrères, SK hynix affirme continuer à produire massivement de la mémoire HBM, dont raffolent les GPU et les autres puces taillées pour l’IA. Le fabricant de puces ajoute néanmoins qu’il « étend activement sa capacité de production à travers de nouveaux projets de fabrication ».

…et prépare des « AI SSD » avec NVIDIA

Dans les projets de SK hynix, il y aurait des « AI SSD », développés conjointement avec NVIDIA, c’est en tout cas ce que rapporte le média Chosun. Nos confrères se basent sur une déclaration du vice-président de l’entreprise, Kim Cheon-seong lors de la conférence Artificial Intelligence Semiconductor Future Technology.

Il serait question d’un SSD dont les performances seraient 10 fois supérieures à celles des modèles traditionnels. Il serait commercialisé sous le nom de « Storage Next » pour NVIDIA et « AI-N P » (pour AI NAND Performances) du côté de SK hynix. Un prototype est attendu pour l’année prochaine. « Les deux sociétés ont estimé que les IOPS, qui désignent le nombre d’opérations d’entrée/sortie par seconde, pourraient atteindre 100 millions en 2027 », ajoutent nos confrères.

Des précédents avec les SSD Optane

Ce n’est pas la première fois que les fabricants se lancent dans des SSD avec des performances supérieures pour le monde professionnel et pour répondre à des besoins spécifiques. Intel l’a fait par exemple avec les SSD Optane à base de mémoire 3D Xpoint (une technologie abandonnée en 2022). La latence était plus faible et l’endurance plus élevée que sur les SSD classiques. Ils se positionnaient entre la mémoire vive et le SSD.

Un point pour finir sur la situation à venir. Kingston est assez peu optimiste pour les prochaines semaines. Cameron Crandall (responsable SSD pour les datacenters chez Kingston) en a parlé lors du podcast The Full Nerd Network. Il prévoit que, selon TechPowerUp, la situation devrait encore s’aggraver dans les 30 prochains jours, « entraînant une hausse des prix des SSD par rapport aux niveaux actuels », ajoutent nos confrères.

SK hynix est encore moins optimiste et prévoit une pénurie jusqu’en 2028, comme le rapporte Hardware & Co. Une chose est sûre : le prix de la mémoire s’envole en cette période de fin d’année… À moins que la bulle de l’IA n’explose (ou n’implose) avant ?

Les conséquences pourraient être bien visibles pour les consommateurs. Les ordinateurs portables pourraient par exemple redescendre à 8 Go de mémoire vive seulement, alors que 16 Go sont généralement un minimum, comme le rapporte Les Numériques. 16 Go est d’ailleurs le seuil minimum de mémoire imposé par Microsoft pour certifier un PC Copilot+.

« Après près de deux ans de calme relatif, le marché des disques durs (HDD) montre à nouveau des signes de stress », explique Tom’s Hardware. Nos confrères reprennent un rapport de Digitimes Asia qui annonce une hausse de 4 % des prix. Selon nos confrères, c’est symptôme d’un changement important de paradigme, qui modifie « toute la chaîne d’approvisionnement informatique ».

Laissons passer les fêtes de fin d’année, écouler les stocks et il sera temps de refaire un point de situation à la rentrée, aussi bien sur le stockage que sur la mémoire vive.

  •  

Les publicitaires chinois, principaux exportateurs de publicités frauduleuses sur Meta

Modération à deux vitesses
Les publicitaires chinois, principaux exportateurs de publicités frauduleuses sur Meta

En diffusant des publicités à destination des pays extérieurs à la Chine, les entreprises chinoises forment l’une des principales sources de revenus publicitaires pour Meta. Alors qu’elles produisent un taux de publicités frauduleuses inégalé, la société de Mark Zuckerberg semble minimiser ses efforts de modération.

La Chine n’est pas un marché simple, pour Meta. La société de Mark Zuckerberg a beau s’être plié en quatre pour plaire aux autorités locales – y compris, accuse son ex-directrice des politiques publiques Sarah Wynn-Williams, en créant tout un système de censure –, Facebook, Instagram et consorts n’en sont pas moins interdits à la population locale depuis 2009.

Ce qui n’est pas interdit, en revanche, c’est de faire de la publicité sur ces plateformes, à destination d’un public étranger. Ce système publicitaire permet à des entreprises chinoises de toucher des millions de consommateurs à travers le globe, mais aussi de représenter 11 % du chiffre d’affaires global de Meta. Selon des documents internes obtenus par Reuters, Shein et Temu étaient les deux plus gros clients publicitaires de Meta dans le monde en 2024, devant Amazon.

Problème : près d’une publicité sur cinq promues sur Facebook, Instagram et consorts depuis la Chine constituent des violations flagrantes de ses conditions d’utilisation. 19 % de ces publicités consistent en des contenus de promotions d’arnaques, de jeux illégaux, ou encore de produits interdits.

Début novembre, une précédente enquête démontrait qu’à travers la planète, Meta réalisait près de 10 % de son chiffre d’affaires annuel, soit environ 16 milliards de dollars l’an dernier, à partir de publicités enfreignant ses propres politiques. En Europe, en revanche, l’entreprise a pris le parti d’adopter une lecture étendue du récent règlement sur la transparence et le ciblage de la publicité à caractère politique, pour y empêcher la publicité « politique, électorale et sur les sujets sociaux », privant des acteurs a priori légitimes d’un outil qu’ils utilisaient jusqu’ici régulièrement.

La Chine, principale pourvoyeuse de publicités problématiques

Rien qu’entre 2022 et 2024, les revenus publicitaires chinois ont fait plus que doubler, passant de 7,5 milliards de dollars à 18,4 milliards de dollars, pour atteindre près de 10 % du chiffre d’affaires global de Meta. En parallèle, il devenait de plus en plus évident qu’une large part de ces activités constituaient des pratiques frauduleuses.

En interne, Meta calcule que l’équivalent du quart de toutes les publicités frauduleuses diffusées dans ses systèmes viennent de Chine, selon les documents obtenus par Reuters. Un tel taux de fraude se traduit aussi en montant de revenus : au total, Meta aurait gagné près de 3 milliards de dollars en diffusant via ses systèmes publicitaires des contenus promouvant des arnaques, de la pornographie ou d’autres contenus illégaux.

Pendant la « Golden Week », des congés dont des millions de citoyens chinois profitent au mois d’octobre, le taux d’arnaques sur les plateformes de Meta décline à l’échelle mondiale.

Tentative avortée d’endiguer le phénomène

Les victimes, elles, se situent partout sur le globe, d’acheteurs taïwanais qui se retrouvent avec des compléments alimentaires inadaptés aux investisseurs d’Amérique du Nord allégés de leurs économies à la suite d’une arnaque quelconque. L’ampleur du problème est telle qu’en 2024, des équipes de la société de Mark Zuckerberg ont déclaré qu’il était nécessaire de réaliser « des investissements significatifs pour réduire ces dommages grandissants ». Pendant la seconde moitié de l’année 2024, une nouvelle équipe anti-fraude affectée spécifiquement à ce défi a réussi à réduire le total des publicités frauduleuses de 19 % à 9 % du chiffre d’affaires publicitaire total issu de Chine.

Et puis, à la fin de l’année passée, un nouveau document indiquait qu’à la suite d’un « revirement de la stratégie d’intégrité et du suivi de Zuck » (sic), l’équipe en question était « invitée à suspendre » ses activités. Auprès de Reuters, un porte-parole indique que Mark Zuckerberg n’a pas demandé la dissolution de l’équipe, mais de redoubler des efforts pour lutter contre les escroqueries « partout dans le monde ».

Dans un document de février 2025, des dirigeants de Meta écrivaient quoi qu’il en soit renoncer à chercher la « parité » entre la lutte contre la fraude publicitaire en Chine et ailleurs dans le monde. Alors que sa précédente tentative avait été proche de ramener le taux de fraude venu de Chine à une proportion similaire à celle constatée ailleurs, les efforts ont été abandonnés, au motif que le marché chinois serait spécifiquement « antagoniste ».

À la mi-2025, le phénomène avait repris une nouvelle ampleur, les publicités contrevenant aux politiques de Meta formant à nouveau 16 % des revenus de l’entreprise en Chine, pays qualifié sur certaines présentations de principal « pays exportateur d’escroqueries ».

Un réseau opaque d’intermédiaires

Pour faire vivre son activité publicitaire malgré les restrictions, Meta passe par un système spécifique à la Chine. Sur place, l’entreprise vend l’essentiel de ses publicités via 11 agences principales, qu’il qualifie dans des documents de « plus gros revendeurs » (top tier resellers).

Ces partenaires s’occupent ensuite d’animer un réseau de plus petites agences chinoises ou extérieures au pays, ou de vendre elles-mêmes des publicités. Les agences de deuxième niveau, elles, interagissent à leur tour avec une myriade de petites sociétés qui n’ont pas de lien direct avec Meta ou ses 11 plus grands partenaires. D’après ses documents internes, ce réseau complexe et opaque favorise la prolifération de publicités problématiques, promouvant des arnaques, des jeux illégaux ou des produits interdits.

Un audit de la société Propellerfish constate notamment la facilité avec laquelle un publicitaire peut se créer un compte utilisateur sur Facebook ou Instagram (un nom et une date de naissance suffisent), ou encore la multiplication de faux comptes. Le rapport souligne aussi l’éclosion d’une industrie complète de « spécialistes de l’optimisation publicitaire », dont le fonctionnement complet repose sur l’exploitation de failles dans les systèmes de vérification de Meta et sur la création et la diffusion de publicités pour des arnaques et des biens illégaux. Dans la mesure où ces contenus ne visent pas le public chinois, les autorités locales tendent à laisser faire, constate encore Propellerfish.

La modération des publicités est, elle aussi, sous-traitée aux partenaires de Meta. Dans la mesure où les entreprises ne peuvent pas atteindre normalement Facebook ou Instagram, Meta paie une commission de près de 10 % à ses 11 partenaires principaux pour que ces derniers permettent à leurs partenaires d’acheter des publicités et de les placer sur les plateformes dirigées par Mark Zuckerberg. Les publicités acquises par ces canaux profitent par ailleurs de protections spécifiques. Sur le terrain, relève Reuters, certains des grands partenaires de Meta en viennent à promouvoir explicitement leur capacité à outrepasser les contrôles de l’entreprise états-unienne.

Auprès de Reuters, un porte-parole de Meta indique que les systèmes de l’entreprise ont bloqué 46 millions de publicités soumises par ses partenaires chinois dans les 18 derniers mois, généralement avant que le public n’y soit exposé, et que cela faisait partie intégrante de ses processus habituels de modération.

  •  

1 669 MW : l’EPR de Flamanville passe à 100 % de puissance… mais le chemin est encore long

Extended Power à Retardement
1 669 MW : l’EPR de Flamanville passe à 100 % de puissance… mais le chemin est encore long

L’EPR de Flamanville est monté à 100 % de sa capacité ce week-end. Les tests vont continuer, mais une lourde opération de maintenance est déjà programmée pour septembre 2026 : 350 jours d’arrêt pour notamment remplacer le couvercle de la cuve, une petite pièce de… 100 tonnes. Le réacteur a déjà vu les délais et son coût exploser dans les grandes largeurs.

Vendredi, l‘ASNR (Autorité de sûreté nucléaire et de radioprotection) donnait son accord « pour le passage du réacteur EPR de Flamanville à un niveau de puissance supérieur à 80 % de sa puissance nominale ». En clair, le réacteur peut monter jusqu’à 100 % de sa puissance maximale de fonctionnement. On est encore loin d’une mise en production pérenne.

L’EPR a produit 1 669 MW de puissance électrique brute

Au début de l’année, le réacteur avait eu le droit de dépasser les 25 % de puissance. L’ASNR avait ensuite procédé à des inspections, sans mettre « en évidence d’élément susceptible de remettre en cause la possibilité de poursuivre la montée en puissance du réacteur ». Le réacteur avait pour rappel produit ses premiers électrons en décembre 2024, après avoir obtenu l’autorisation de mise en service quelques mois auparavant. Le réacteur avait alors produit 100 MW de puissance électrique, loin des plus de 1 600 MW prévus.

Dans la foulée de l’autorisation, EDF a poussé les curseurs. Dimanche 14 décembre 2025, la pleine puissance a été atteinte à 11h37 se félicite l’entreprise : « le réacteur de Flamanville 3 […] a produit 1 669 MW de puissance électrique brute ».

On parle de puissance brute, en opposition à la puissance nette qui est celle injectée dans le réseau. EDF rappelle que la puissance nucléaire d’un réacteur correspond à la quantité totale de chaleur produite dans le cœur du réacteur par la fission nucléaire ; à ne pas confondre avec la fusion, qui est en cours de développement. La « chaleur sert à produire de la vapeur qui fera tourner la turbine. Elle est exprimée en MW thermiques (MWth) ».

Principe de fonctionnement : chaleur -> turbine -> électricité

Quand on parle de puissance électrique brute, c’est la puissance maximale en sortie de turbine, qui « entraîne un alternateur chargé de convertir l’énergie mécanique en électricité ». Dans la pratique, un « réacteur nucléaire consomme une partie de l’électricité qu’il produit pour ses propres besoins de fonctionnement (pompes, systèmes de ventilation, circuits de sûreté…) ».

Cette montée en puissance devait avoir lieu plus tôt dans l’année, mais un problème détecté en juin a repoussé l’échéance de plusieurs mois : « l’unité de production n°3 de Flamanville a été mise à l’arrêt dans le cadre des essais de mise en service du réacteur. Suite à des analyses, le réacteur de Flamanville est maintenu à l’arrêt pour intervenir sur des soupapes de protection du circuit primaire principal ». Tout est rentré dans l’ordre fin octobre.

Attention, le réacteur est en phase de test, la production de masse de manière pérenne n’est pas encore là. Il est question de « tester les matériels à pleine puissance, réaliser des relevés et vérifier leur bon fonctionnement ». Sur les réacteurs nucléaires, le rodage est long. Au cours des prochaines semaines, « la puissance du réacteur sera amenée à varier pour poursuivre les essais à différents paliers de puissance et une intervention sera réalisée sur un poste électrique interne ».

Nouveau couvercle de 100 tonnes en 2026

L’EPR va aussi avoir droit à des travaux de plus grande envergure avec le remplacement du couvercle de la cuve, une pièce de 100 tonnes et 6 mètres de diamètre. Cette opération se fera lors du premier arrêt pour rechargement du réacteur, prévu pour septembre 2026. Elle doit durer la bagatelle de 350 jours, quasiment une année complète. Le démarrage ne devrait donc pas avoir lieu avant fin 2027.

En 2017, l’ASNR avait expliqué que cette « anomalie concerne le fond et le couvercle de la cuve. L’acier de ces composants n’a pas la composition chimique attendue. Au cours de leur fabrication par forgeage, l’usine Creusot Forge d’Areva NP n’a pas suffisamment éliminé une zone qui contient naturellement un excès de carbone […]. Cette zone se retrouve donc au centre des pièces finales ».

Comme nous l’avons déjà expliqué, l’Autorité considère que, sur la base de ces analyses techniques, « les caractéristiques mécaniques du fond et du couvercle de la cuve sont suffisantes au regard des sollicitations auxquelles ces pièces sont soumises, y compris en cas d’accident ». Il fallait compter environ 7 ans pour construire un nouveau couvercle, l’ASNR avait donc donné son feu vert jusqu’à fin 2024 en attendant que la pièce soit disponible. La date limite a ensuite été repoussée.

Pour la cuve, la revue technique était arrivée à la conclusion que « l’anomalie ne remet pas en cause l’aptitude au service ». Pierre-Franck Chevet, président de l’ASNR en 2017, affirmait qu’« on peut se prononcer favorablement sur l’utilisation pérenne du fond de cuve ». Si la cuve était à changer, les coûts et les délais auraient explosé… enfin davantage de ce qu’ils sont déjà.

Les calculs et les comptes ne sont pas bons

Le réacteur a pour rappel été mis en marche après pas moins de 17 ans de travaux (12 ans de retard sur le calendrier initial) et une explosion des coûts… c’est peu de le dire. De 3 milliards d’euros, l’addition est passée à… plus de 20 milliards d’euros.

Dans un nouveau rapport publié au début de l’année, la Cour des comptes affirmait que « les calculs effectués par la Cour aboutissent à une rentabilité médiocre pour Flamanville 3, inférieure au coût moyen pondéré du capital de l’entreprise, sur la base d’un coût total de construction estimé à environ 23,7 milliards d’euros (intérêts intercalaires compris) ». En 2020 déjà, la Cour tirait à boulet rouge sur le nucléaire français.

Récemment, RTE appelait à accélérer les usages électriques (voitures, datacenters, hydrogène) afin d’assurer un meilleur équilibre entre consommation et production d’électricité. La raison, selon RTE : une consommation « atone » depuis la pandémie de Covid-19 alors que la production d’énergies renouvelables (hydraulique comprise) et nucléaire ont progressé. La mise en marche de l’EPR de Flamanville va encore augmenter la capacité de production de la France.

  •  

☕️ Une licence collective pour l’utilisation d’images dans les articles scientifiques

Les chercheurs et chercheuses qui travaillent sur des images peuvent dès à présent les inclure dans les articles en open access en se posant moins de questions.

Le ministère de la Recherche a mis en place une « licence collective étendue » qui facilite l’utilisation d’images dans les publications en accès ouvert, explique-t-il.

Cette licence est issue d’une convention passée avec les organismes de gestion collective des droits d’auteur : ADAGP (Société des auteurs dans les arts graphiques et plastiques), SAIF (Société des Auteurs des arts visuels et de l’Image Fixe), Scam (Société civile des auteurs multimédia).

« Cette mesure bénéficie particulièrement aux disciplines où l’image est un objet d’étude essentiel, comme l’Archéologie, la Géographie, l’Histoire, l’Histoire de l’Art ou encore la Sociologie. Elle s’applique également aux Sciences, Technologies et en Médecine, lorsque les images utilisées ne sont pas produites en laboratoire », explique le ministère.

Jusqu’à récemment une telle chose n’était pas possible, mais l’article 28 de la loi de programmation de la recherche de 2020 prévoit que le gouvernement puisse prendre des ordonnances pour modifier le Code de la propriété intellectuelle « aux fins de permettre l’octroi de licences collectives ayant un effet étendu ». Une ordonnance a ensuite été prise en 2021.

Les chercheurs, notamment ceux en sciences humaines et sociales qui travaillent sur des images, devaient effectuer des « démarches complexes image par image : identification des ayants droit, demandes d’autorisation, contractualisation et paiement », explique le ministère. Désormais, ils devront seulement signaler l’image utilisée à l’aide d’un formulaire.

Pour cette licence, le ministère explique assurer « un paiement forfaitaire aux ayants droit » sans donner d’information sur le montant et les diverses conditions de la convention.

  •  

☕️ Free lance son Option eSIM Watch et connecte les montres Apple en 4G sans surcoût

Free Mobile a finalement lancé mardi son option dédiée à l’Apple Watch. Baptisée « Option eSIM Watch », elle est offerte sans surcoût aux souscripteurs d’un forfait Free 5G ou Série Free, et permet donc de disposer d’une connexion via le réseau mobile de l’opérateur sur sa montre connectée, même sans smartphone pour servir d’intermédiaire. L’accès à Internet est cependant cantonné à la 4G.

« Laissez votre smartphone à la maison et voyagez léger : votre montre fonctionne en toute autonomie », vante l’opérateur. L’activation est présentée comme quasi automatique : elle se fait depuis le smartphone de l’utilisateur, au moyen de l’application dédiée à la montre, avec les identifiants du compte Free Mobile pour déclencher le jumelage. « Vous êtes joignable sur votre montre au même numéro que votre ligne mobile », promet Free.

Les avantages de l’option eSIM Watch selon Free

Sans surprise, l’option exige une Apple Watch compatible eSIM (Series 6 ou plus récentes, dotée de la connexion cellulaire), sous watchOS 26.2 minimum. Elle ne peut être activée que sur une seule montre à la fois.

Rappelons que l’offre eSIM pour Apple Watch est disponible de longue date chez certains opérateurs concurrents. Orange l’a par exemple inaugurée en 2017 avec la sortie de la Watch Series 3, première génération chez Apple à embarquer la connexion cellulaire. Chez SFR, l’offre est arrivée en 2019. Jusqu’ici seuls Bouygues Telecom et Free faisaient de la résistance en France.

En changeant son fusil d’épaule, Free égratigne ses concurrents, puisque l’option eSIM est proposée gratuitement sur son réseau, alors qu’elle est facturée 5 euros par mois chez Orange et SFR.

  •  

PeerTube v8 permet le travail en équipe, la v2 mobile peut publier des vidéos

Streaming en approche !
PeerTube v8 permet le travail en équipe, la v2 mobile peut publier des vidéos

L’outil PeerTube, qui permet de publier et diffuser des vidéos via une fédération de serveurs, revient en version 8. En plus d’une rénovation visuelle pour le lecteur, elle apporte de nouveaux outils, notamment pour le travail en équipe. L’application mobile s’apprête à revenir en v2, avec enfin la possibilité de publier des vidéos depuis son téléphone.

Le projet PeerTube, principalement soutenu par Framasoft, a largement évolué en quelques années. Nous en sommes déjà à la version 8 et son développeur principal, Chocobozzz (embauché à temps complet par Framasoft il y a quelques années) continue de lui apporter des améliorations, en fonction notamment des retours de la communauté.

Nouveau thème et gestion en équipe

La nouveauté la plus mise en avant pour cette v8 concerne le thème du lecteur vidéo. Comme le précise l’association, c’est la première fois qu’il évolue depuis la première version. Le nouveau lecteur se veut plus épuré, plus lisible et plus discret, pour s’effacer face au contenu. Par exemple, les icônes pleines laissent place à des contours fins et le bouton volume n’affiche sa barre (verticale) qu’au survol de la souris. Les informations techniques ont été rassemblées dans le menu « Statistiques pour les nerds », accessible via un clic droit sur le lecteur. L’ancien thème reste disponible dans les options.

PeerTube v8 apporte également la gestion collaborative des chaines. Selon l’association, il s’agit d’une des fonctions les plus réclamées. On peut donc affecter désormais le rôle d’éditeur à d’autres personnes, qui seront donc alors en mesure de publier, mettre à jour ou supprimer des vidéos, listes de lecture et commentaires, ajouter ou supprimer une synchronisation, modifier les informations de la chaine, etc. Ces éditeurs « secondaires » ne pourront en revanche pas ajouter eux-mêmes d’autres éditeurs, ni supprimer la chaine. Ces droits restent l’apanage de la personne propriétaire.

On note plusieurs autres améliorations, comme la possibilité de créer des storyboards via un encodeur distant plutôt que sur le serveur, pour éviter par exemple la consommation associée de ressources. L’import est amélioré sur plusieurs points : on peut relancer manuellement un import après un échec, la synchronisation d’une chaine se relancera d’elle-même (par défaut une fois par heure, temps modifiable dans les paramètres), et les informations sur l’état de l’import sont affichées dans la page de gestion de la vidéo.

L’application mobile fait peau neuve

Si le logiciel principal en est déjà à sa huitième version, l’application mobile se contentait surtout d’être un lecteur amélioré. Avec la v2 désormais en ligne, PeerTube change de braquet, avec l’arrivée du téléversement des vidéos directement depuis l’application.

Comme nous l’explique Gaëtan, l’un des communicants de Framasoft (et impliqué dans le projet PeerTube), il s’agissait de la plus grosse demande sur l’application mobile. On peut donc désormais choisir une vidéo depuis son téléphone, prévisualiser le résultat, ajouter des informations et la publier. Elle est alors mise en cache dans l’application, le temps qu’elle soit envoyée au serveur. Attention d’ailleurs lors de cette étape, car si vous n’êtes pas sur un réseau Wi-Fi, l’envoi peut consommer une partie non négligeable de votre forfait 4G/5G, selon la durée et la qualité de la vidéo.

Au lieu de sélectionner une vidéo, on peut également filmer depuis l’application et enregistrer. Dans les deux cas, il suffit ensuite de choisir la chaine dans laquelle on veut la publier pour que le téléversement commence. L’application n’a pas besoin de rester au premier plan pour que le processus continue, on peut utiliser autre chose en attendant, voire éteindre le téléphone. On peut revenir dans PeerTube pour voir l’état du processus, un pourcentage indiquant l’avancée.

Streaming et outils d’édition en 2026

Si la publication depuis l’application mobile constituait une étape majeure, plusieurs autres vont arriver dans le courant 2026. Gaëtan nous indique ainsi que la priorité suivante est le mode streaming, pour diffuser en direct depuis son téléphone. Un mode studio est également prévu, avec à la clé des outils d’édition pour ne plus avoir besoin d’une autre application. La gestion du réseau sera aussi améliorée, notamment en cas de perte de la connexion. On peut en effet redémarrer le téléversement d’où il s’est arrêté, mais l’opération est manuelle. Comme nous l’indique Gaëtan, la fonction serait par exemple pratique quand on voyage en train.

Quoi qu’il en soit, cette version 2 de l’application mobile est disponible sur Android et iOS. Elle sera aussi publiée sur F-Droid, mais l’opération prend plus de temps, à cause d’exigences sur la reproductibilité des builds.

Pour les personnes intéressées, le développeur principal de l’application (Wicklow) avait publié deux billets de blog (partie 1 et partie 2) sur Framasoft pour raconter la construction du projet et les choix technologiques qui avaient été faits.

  •