↩ Accueil

Vue normale

☕️ Ingérences numériques étrangères : VIGINUM doté de « moyens renforcés »

12 février 2026 à 14:51

VIGINUM annonce pouvoir collecter les données issues des petites plateformes où sont souvent pensées les opérations de manipulations contre la France, relève l’AFP.

Un décret, présenté hier en Conseil des ministres et publié ce 12 février au Journal officiel, dote en effet le service de vigilance et de protection contre les ingérences numériques étrangères de « moyens renforcés ».

Il supprime le « seuil minimal de 5 millions de visiteurs uniques par mois » qui fixait le « périmètre des plateformes sur lesquelles Viginum (pouvait) collecter des données à caractère personnel ».

Il élargit également le champ de cette collecte, « en particulier en l’étendant aux interfaces en ligne au sens du DSA », et allonge par ailleurs les durées de conservation des données et de renouvellement des collectes. Cette extension permet de conserver des « archives » pour faire face aux acteurs dits « persistants », explique une source sécuritaire à l’AFP.

Après quelques années en service, les autorités se sont aperçues qu’« un certain nombre d’opérations d’ingérence numérique étrangère se préparaient sur des petites plateformes pour que cela soit moins visible des outils de modération », poursuit cette source, citant notamment l’exemple de Discord.

Le décret octroie par ailleurs au service de nouvelles missions en matière de documentation des modes opératoires, de recherche et d’information du public, ainsi qu’aux actions d’éducation aux médias, et précise le cadre d’action de certaines missions déjà exercées, en particulier en matière électorale.

Infographie de la galaxie Viginum
Viginum

Dans sa délibération associée, la CNIL « prend acte des justifications » présentées par le secrétaire général de la défense et de la sécurité nationale (SGDSN), et « considère que le projet de décret comporte des garanties propres à assurer le respect du principe de minimisation des données lors de la collecte des données qui est rendue possible dès la phase de veille/détection ».

Elle relève par ailleurs que sa « nouvelle mission de recherche et développement implique la réutilisation des données collectées par Viginum pour une nouvelle finalité, de conception, d’entraînement et de développement d’outils utilisant l’IA en appui aux missions du service. »

Challenges rappelle de son côté que VIGINUM a publié en décembre dernier un guide de sensibilisation à la protection du débat public numérique en contexte électoral, en prévision des municipales les 15 et 26 mars prochains.

Une « stratégie nationale de lutte contre les manipulations de l’information », annoncée par Emmanuel Macron début février, vient par ailleurs d’être rendue publique (nous y reviendrons), précise Challenges :

« D’ores et déjà, tous les cadres dirigeants des partis politiques ont été reçus ces dernières semaines par Nicolas Roche, le patron du SGDSN (Secrétariat Général de la Défense et de la Sécurité Nationale), pour un brief sur les risques d’ingérences étrangères à l’occasion des municipales. »

De l’enthousiasme au burnout, l’IA ne réduit pas la charge de travail, mais l’intensifie

12 février 2026 à 14:14
Le revers du mode IA
De l’enthousiasme au burnout, l’IA ne réduit pas la charge de travail, mais l’intensifie

Une étude de chercheuses de la Business School de Berkeley montre que le recours volontaire à l’IA augmente certes la productivité des employés, mais au prix d’un « nouveau rythme » de travail multitâche et d’un « cercle vicieux » générant workslop, burnout et turnover. Elle appelle les managers et employés à prendre la mesure du phénomène avant qu’il ne soit trop tard.

Dimanche dernier, un billet de blog intitulé « La fatigue liée à l’IA est bien réelle, mais personne n’en parle » faisait le buzz sur les réseaux sociaux. Le développeur Siddhant Khare y déplorait que « quand chaque tâche prend moins de temps, on ne fait pas moins de tâches, on en fait plus. Nos possibilités semblent s’étendre, donc le travail s’étend en fonction ».

Il y soulignait également que le passage d’une gestion lente mais concentrée sur un seul problème à celle de cinq ou six sujets différents en une journée l’empêche de retrouver le même état de « concentration profonde » qu’il connaissait auparavant, s’inquiétant d’une potentielle « atrophie de la pensée ».

Lundi, une étude publiée dans la Harvard Business Review est venue confirmer ses dires. « L’IA ne réduit pas la charge de travail, elle l’intensifie », y écrivent Aruna Ranganathan et Xingqi Maggie Yew, chercheuses à la Business School de l’université de Berkeley.

Elles ont étudié pendant huit mois, d’avril à décembre 2025, la manière dont l’IA générative avait modifié les habitudes de travail dans une entreprise technologique américaine comptant environ 200 employés. Elles y sont allées deux fois par semaine afin d’observer comment y travaillaient les employés, suivant également leurs canaux de communication internes, et procédant à plus de 40 entretiens approfondis :

« Nous avons constaté que les employés travaillaient à un rythme plus soutenu, assumaient un éventail de tâches plus large et prolongeaient leur journée de travail, souvent sans qu’on leur demande de le faire. De leur propre initiative, les employés en faisaient plus parce que l’IA leur donnait le sentiment que “faire plus” était possible, accessible et, dans de nombreux cas, intrinsèquement gratifiant. »

Les chercheuses soulignent que l’entreprise en question ne leur imposait aucunement de recourir à l’IA, se bornant à leur proposer des abonnements d’entreprise à des IA disponibles dans le commerce. « Si cela peut sembler être un rêve devenu réalité pour les dirigeants, les changements induits par l’adoption enthousiaste de l’IA peuvent s’avérer insoutenables et causer des problèmes à long terme », alertent cela dit les autrices :

« Une fois l’enthousiasme des premiers essais retombé, les employés peuvent se rendre compte que leur charge de travail a augmenté discrètement et se sentir dépassés par toutes les tâches qui leur incombent soudainement. Cette augmentation insidieuse de la charge de travail peut à son tour entraîner une fatigue cognitive, un épuisement professionnel et une prise de décision affaiblie. La hausse de productivité observée au début peut laisser place à une baisse de la qualité du travail, à un turnover élevé et d’autres problèmes. »

Un pharmakon : à la fois remède, poison, et bouc émissaire

Les chercheuses ont identifié trois formes principales d’intensification : l’élargissement du périmètre des tâches effectuées, le flou qui s’instaure entre travail et vie privée, la banalisation du multitâches.

L’IA pouvant assister ses utilisateurs dans des domaines où ils n’ont pas de compétences particulières, « les employés ont progressivement assumé des responsabilités qui incombaient auparavant à d’autres », relèvent les chercheuses. Les chefs de produit ont commencé à écrire du code, les chercheurs se sont attelés à des tâches d’ingénierie quand d’autres « se sont essayés à des tâches qu’ils auraient auparavant externalisées, reportées ou évitées ».

L’IA générative a en effet rendu envisageable d’effectuer des tâches qui, jusque-là, paraissaient a priori infaisables, faute de compétences dédiées. Les chercheuses ont constaté que les employés ont commencé à prendre en charge des tâches qui auraient préalablement nécessité une aide ou du personnel supplémentaires. Non content de réduire la dépendance vis-à-vis des autres, ce recours à l’IA offre en outre « une amélioration cognitive stimulante » aux personnes ainsi « augmentées ».

Sauf que, à la manière des prises de risque que peuvent générer de faux sentiments de sécurité, cette émancipation est aussi un pharmakon, et donc à la fois un remède, un poison, et un bouc émissaire, qui n’est pas sans rappeler la potentielle émergence d’une « bêtise artificielle » contre laquelle alerte la philosophe Anne Alombert.

Les chercheuses évoquent par exemple le temps passés par des ingénieurs à devoir réviser et corriger les mémos générés par IA de personnes ne disposant pas de compétences appropriées, ou encore le temps perdu à finaliser des pull requests et à remettre au propre du code développé en mode « vibe-coding » par des dev’ ne maitrisant pas le langage de programmation en question.

Un temps perdu que nous avions déjà chroniqué dans un article consacré au « workslop », terme désignant précisément les travaux de piètre qualité obligeant employés et managers à « refaire le job » que des gens moins qualifiés ont effectué grâce à l’IA dans des domaines qu’ils ne maitrisent pas, ou pas assez.

La frontière entre travail et temps libre devient poreuse

Les chercheuses ont également constaté que le fait de pouvoir expérimenter des tâches jusqu’alors inenvisageables contribue également à alimenter un flou entre ce qui relève du travail et de la vie privée. Des employés ont ainsi commencé à expérimenter de nouvelles compétences professionnelles sur leurs temps de pause déjeuner, le soir ou le week-end.

Le fait de pouvoir avoir des « conversations » avec les chatbots, et que ces tâches s’apparentent à la fois à des défis, énigmes, missions et nouveaux apprentissages, accroît également la propension à pouvoir s’y atteler, ou y retourner, en-dehors de ses horaires de travail.

« La frontière entre le travail et le temps libre n’avait pas disparu, mais elle était devenue plus facile à franchir », résument les chercheuses, à qui des employés ont déclaré avoir réalisé, souvent après coup, qu’à mesure que le fait de travailler pendant les pauses devenait une habitude, les temps morts ne leur procuraient plus le même sentiment de récupération.

Un « nouveau rythme » de travail multitâche

Le fait de pouvoir être assisté par un « partenaire » ou « assistant  » dédié, susceptible de les aider en matière de productivité dans leur charge de travail, a aussi poussé certains employés à vouloir en faire plus qu’avant, dans le même temps. L’IA a ainsi introduit un « nouveau rythme » de travail permettant à des employés de gérer plusieurs tâches actives à la fois.

Si ce mode « multitâches » peut donner l’impression d’être « boosté » voire « dopé », il requiert aussi de devoir fréquemment changer de sujet d’attention, pour vérifier et relancer les propositions de l’IA, et de faire face à un nombre croissant de tâches à la fois. De quoi générer une charge mentale cognitive supplémentaire, facilitant de surcroit les problèmes de concentration.

Cette façon de courir sur plusieurs fronts entraîne elle-même une fatigue accrue. De nombreux travailleurs ont ainsi remarqué qu’ils faisaient plus de choses à la fois et ressentaient plus de pression qu’avant d’utiliser l’IA, « même si le gain de temps résultant de l’automatisation était censé réduire cette pression », soulignent les chercheuses.

Un cercle vicieux : on ne travaille pas moins mais autant, voire plus

Alors que l’IA faisait miroiter des gains de productivité, ces derniers pourraient dès lors et dans le même temps entraîner des risques de burnout et de turnover, et donc de baisse de la productivité. Les chercheuses en concluent que ces combinaisons de travaux et (multi)tâches « augmentés » ont « créé un cercle vicieux », et que « cela place les dirigeants dans une situation délicate », voire au risque de « ne pas se rendre compte du coût de ces gains avant qu’il ne soit trop tard » :

« L’IA a accéléré certaines tâches, ce qui a accru les attentes en matière de rapidité ; cette rapidité accrue a rendu les travailleurs plus dépendants de l’IA. Cette dépendance accrue a élargi le champ d’action des travailleurs, ce qui a encore augmenté la quantité et la densité du travail. Plusieurs participants ont fait remarquer que, même s’ils se sentaient plus productifs, ils ne se sentaient pas moins occupés, et dans certains cas, ils se sentaient même plus occupés qu’auparavant. »

Comme l’a résumé un ingénieur : « On pensait que, peut-être, grâce à l’IA, on serait plus productif, on gagnerait du temps et on travaillerait moins. Mais en réalité, on ne travaille pas moins. On travaille autant, voire plus. »

Or, ce type de surmenage peut altérer le jugement, augmenter le risque d’erreurs, la fatigue voire l’épuisement professionnel, et un sentiment croissant qu’il est plus difficile de se détacher du travail, résument les chercheuses.

Contrer les effets épuisants et individualisants de l’IA

Cherchant à anticiper ce que les managers pourraient faire pour aider leurs employés à sortir de ce « cercle vicieux », elles écartent d’emblée le fait de leur demander de s’autoréguler. Elles estiment que les entreprises devraient élaborer un ensemble de normes et standards destinés à recadrer l’utilisation de l’IA, plutôt que de la laisser dévorer le temps de cerveau disponible des employés.

Elles incitent les managers à mettre en place des « pauses intentionnelles » afin d’évaluer l’état d’avancement des travaux, voire reconsidérer les hypothèses de base avant de continuer plus avant. Des propositions qui font écho à celles de Siddhant Khare, qui recommande de passer à autre chose si 30 minutes de conversation avec un chatbot ne s’avèrent pas satisfaisantes.

Les chercheuses proposent aussi de séquencer le temps de travail, avec des plages horaires protégeant les employés de toute interruption, et le regroupement des notifications non urgentes :

« Plutôt que de réagir à chaque résultat généré par l’IA au fur et à mesure qu’il apparaît, le séquençage encourage le travail à progresser par phases cohérentes. Lorsque la coordination est rythmée de cette manière, les travailleurs subissent moins de fragmentation et moins de changements de contexte coûteux, tandis que les équipes maintiennent leur rendement global. En régulant l’ordre et le calendrier du travail, plutôt qu’en exigeant une réactivité continue, le séquençage peut aider les organisations à préserver l’attention, à réduire la surcharge cognitive et à favoriser une prise de décision plus réfléchie. »

Les chercheuses invitent également les entreprises à organiser des temps de dialogue et de débriefing permettant aux employés d’échanger sur leurs pratiques respectives et ce que l’IA a pu changer. L’objectif serait tout autant d’ « interrompre l’utilisation continue et isolée de l’IA » que d’aider à « retrouver une certaine perspective », réancrer le travail dans un contexte social et « contrer les effets épuisants et individualisants d’un travail rapide et médiatisé par l’IA ».

« L’IA facilite l’accomplissement de tâches supplémentaires, mais rend plus difficile de s’arrêter », concluent les chercheuses, qui appellent à « préserver des moments de récupération et de réflexion, même lorsque le rythme de travail s’accélère » :

« La question qui se pose aux organisations n’est pas de savoir si l’IA va changer le travail, mais si elles vont activement façonner ce changement ou le laisser les façonner discrètement. »

L’État de New York veut que les contenus générés par IA soient signalés comme tels

10 février 2026 à 16:50
NY FAIR News Act
L’État de New York veut que les contenus générés par IA soient signalés comme tels

Deux élues démocrates ont déposé un projet de loi afin de garantir l’intégrité des informations et de leurs travailleurs contre l’intelligence artificielle.

Un nouveau projet de loi présenté à l’Assemblée législative de l’État de New York entend obliger les organes de presse à signaler les contenus générés par l’IA et imposerait une vérification humaine préalable à leur publication, relève le Nieman Journalism Lab.

La sénatrice Patricia Fahy ( démocrate, comté d’Albany) et la députée Nily Rozic (démocrate, Eastern Queens) ont en effet présenté un projet de loi, intitulé « The New York Fundamental Artificial Intelligence Requirements in News Act » (loi sur les exigences fondamentales en matière d’intelligence artificielle dans les médias d’information de l’État de New York), ou « NY FAIR News Act » en abrégé.

« Au cœur de l’industrie de l’information, New York a tout intérêt à préserver le journalisme et à protéger les travailleurs qui le produisent », souligne Rozic dans un communiqué annonçant le projet de loi.

Il voudrait apporter « des protections claires et significatives pour les journalistes, les professionnels des médias et le grand public afin de garantir l’intégrité des informations et de leur personnel contre l’intelligence artificielle ».

La loi exigerait pour ce faire que les organes de presse apposent des avertissements sur tout contenu publié « essentiellement composé, rédigé ou créé à l’aide d’une intelligence artificielle générative ». Les articles, images et sons créés à l’aide d’une IA générative devraient également être examinés par un employé humain « ayant un contrôle éditorial » avant leur publication.

Le journalisme, une des industries les plus menacées par l’IA

Les législateurs se justifient au motif que les contenus générés par l’IA peuvent être « faux ou trompeur ». Ils soutiennent également que ces derniers « plagient » les sources originales dont les IA s’inspirent « sans autorisation ni citation appropriée ».

« L’une des industries les plus menacées par l’utilisation de l’intelligence artificielle est sans doute le journalisme et, par conséquent, la confiance du public dans l’exactitude des informations diffusées », précise la sénatrice Fahy dans le communiqué, ajoutant que « Plus de 76 % des Américains s’inquiètent du fait que l’IA puisse voler ou reproduire des articles journalistiques et des informations locales. »

La proposition a également été approuvée par une large coalition de syndicats représentant les travailleurs du secteur des médias d’information de New York. « Alors que la technologie de l’IA continue d’évoluer rapidement, nous devons mettre en place des mesures de protection plus strictes pour protéger les travailleurs et garantir la surveillance et la transparence lors de son utilisation », a déclaré le président de l’AFL-CIO de l’État de New York, Mario Cilento :

« La loi NY FAIR News Act permettra de préserver la crédibilité des journalistes, de garantir l’intégrité des reportages et de renforcer la confiance du public. Ces garde-fous de bon sens sont essentiels à une démocratie saine. »

Le texte prévoit aussi l’interdiction du remplacement des journalistes par des IA

Le texte prévoit également que l’utilisation de systèmes d’intelligence artificielle générative ne puisse entraîner de licenciement, remplacement ni transfert de tâches et fonctions actuellement exécutées par des employés ou des travailleurs, pas plus que de réduction de temps de travail, salaires ou avantages sociaux, ni de dégradation des conventions collectives existantes.

Le Nieman Lab relève que des dispositions similaires ont été négociées dans les conventions collectives individuelles de nombreuses salles de rédaction à travers le pays au cours des deux dernières années.

L’an passé, le gouvernement espagnol avait de son côté prévu de sanctionner les contenus ne précisant pas qu’ils sont générés par IA. Les sanctions, découlant de l’application de l’AI Act européen, s’échelonneraient de 500 000 à 7,5 millions d’euros, ou de 1 % à 2 % du chiffre d’affaires mondial des entités prises en défaut.

Incognito Market : 30 ans de prison pour l’administrateur taïwanais de 24 ans

10 février 2026 à 16:24
Cache cash
Incognito Market : 30 ans de prison pour l’administrateur taïwanais de 24 ans

Accusé d’avoir contribué à vendre l’équivalent de plus de 105 millions de dollars de drogues sur le « dark web », un ex-étudiant taïwanais en sécurité informatique avait réussi à en tirer plus de 6 millions de dollars, à raison de 5 % de chaque transaction. Qu’il avait en partie transféré sur un compte à son nom.

Avec 45,5 millions de revenus en 2023, Incognito Market figurait alors en 4ᵉ position des places de marché du dark web les plus profitables. Le communiqué du département de la Justice US avance qu’elle aurait contribué à écouler plus de 105 millions de dollars de stupéfiants, dont plus de 1 000 kg de cocaïne, plus de 1 000 kg de méthamphétamines, des centaines de kg d’autres stupéfiants et plus de 4 kg d’une substance prétendument de l’« oxycodone », dont une partie était mélangée à du fentanyl.

« Rui-Siang Lin était l’un des trafiquants de drogue les plus prolifiques au monde, utilisant Internet pour vendre plus de 105 millions de dollars de drogues illégales dans tout le pays et à travers le monde », tout en prélevant 5 % des transactions, a déclaré le procureur américain Jay Clayton :

« Il est responsable d’au moins un décès tragique, et il a exacerbé la crise des opioïdes et causé la misère de plus de 470 000 consommateurs de stupéfiants et de leurs familles. La sentence prononcée aujourd’hui met en garde les trafiquants : vous ne pouvez pas vous cacher dans l’ombre d’Internet. Et notre message plus général est simple : Internet, la « décentralisation », la « blockchain » – toute technologie – ne sont pas un permis pour exploiter un commerce de distribution de stupéfiants. »   

« Et oui, il s’agit d’une extorsion !!!! »

En mars 2024, Incognito Market, l’« une des plus grandes » places de marché (noir) de vente de drogues sur le dark web, parvenait successivement à escroquer puis rançonner ses utilisateurs. D’ordinaire, ceux qui procèdent à de tels « exit scam » cherchent à se faire discrets. Pharoah, l’administrateur de la place de marché, fit de son côté tout pour se faire remarquer.

Se disant « surpris du nombre de personnes qui se sont fiées à notre fonctionnalité de “chiffrement automatique” », Pharoah précisait en effet aux utilisateus d’Incognito Market que les « messages et identifiants de transaction n’ont jamais été supprimés après la période d'”expiration”… SURPRISE SURPRISE !!! »

Pour les inciter à payer leurs rançons (de 100 à 20 000 dollars), il menaçait même de « fuiter auprès des forces de l’ordre » l’intégralité des 557 000 commandes et 862 000 identifiants de transactions de crypto-monnaies à la fin du mois de mai : « Le fait que vos informations et celles de vos clients figurent sur cette liste ne dépend que de vous », précise le message : « Et oui, il s’agit d’une extorsion !!!! ».

Un CV incompatible avec sa fortune en cryptos

Fin mai, le département de la Justice des États-Unis avait annoncé l’arrestation d’un Taïwanais de 23 ans, qu’il accuse d’être Pharoah. Rui-Siang Lin, un ex-étudiant en sécurité informatique passionné par les cryptos – et également connu sous les noms de Ruisiang Lin, 林睿庠, et faro – avait en effet été arrêté à l’aéroport John F. Kennedy de New York.

Le communiqué précisait alors qu’Incognito Market aurait permis la commercialisation de plus de 1 000 kilos de stupéfiants, dont « au moins 364 kilogrammes de cocaïne, 295 kilogrammes de méthamphétamine et 92 kilogrammes de MDMA », pour « environ 80 000 000 $ en crypto-monnaies ».

Incognito Market dénombrait plus de 1 000 vendeurs, plus de 200 000 acheteurs, et « au moins un employé ». Le communiqué annonçant la sentence infligée à Rui-Siang Lin avance désormais qu’y figuraient 1 800 «  vendeurs », et plus de 400 000 « acheteurs » ayant effectué plus de 640 000 transactions.

Les quatre portefeuilles de cryptos stockés dans le serveur saisi en janvier 2024 comprenaient 1 316 BTC (équivalant à 37 millions de dollars, précisait l’acte d’accusation), dont 123,14 (3,35 M$) pour le seul portefeuille de l’administrateur d’Incognito Market.

L’analyse des transactions indiquait que, depuis son lancement, Incognito Market aurait généré 83,6 millions de dollars de revenus et rapporté à son administrateur « au moins 4 181 228 $ grâce à sa commission de 5 % ».

Or, l’un des portefeuilles de cryptoactifs, créé par Rui-Siang Lin fin juillet 2023, avait reçu l’équivalent de 4,5 millions de dollars de dépôts en cryptos fin novembre. Des sommes incompatibles avec ses activités professionnelles, résumait l’acte d’accusation :

« Sur les quatre “expériences professionnelles” énumérées dans le CV de Lin, la première est un “stage”, la seconde est “étudiant chercheur”, la troisième “cofondateur” d’une obscure société de technologie et la quatrième est employé des “technologies de l’information” pour un bureau du gouvernement étranger. Aucun de ces postes ne suggère que LIN aurait gagné des millions de dollars. »

Spécialiste de l’OPSEC, il tombe pour des erreurs d’OPSEC

Étrangement, Rui-Siang Lin avait non seulement commis l’erreur de se rendre aux États-Unis, mais aussi et surtout d’effectuer quatre paiements auprès d’un registrar pour des noms de domaine faisant la promotion d’Incognito Market depuis un portefeuille de cryptos lui étant associé.

Ce même portefeuille avait en outre reçu des sommes en provenance d’une plateforme de « swapping » (souvent utilisée pour « blanchir » des BTC notamment en les convertissant en d’autres cryptoactifs, NDLR) dont les montants correspondaient à ceux que l’administrateur d’Incognito Market venait de tenter de blanchir.

Des erreurs d’autant plus surprenantes qu’Incognito Market obligeait ses utilisateurs à déchiffrer des messages chiffrés au moyen de PGP, mais qu’il les testait également via des quizz portant notamment sur leurs connaissances de la sécurité de Monero ou encore des principes de la sécurité opérationnelle (ou OPSEC, pour « OPerations SECurity »), s’étonnait Wired.

Extraits d'un quizz proposé aux utilisateurs d'Incognito

Recruté comme spécialiste des technologies de l’information par le ministère des Affaires étrangères de Taïwan, il avait en outre été envoyé diriger, à l’Académie de police de l’île de Sainte-Lucie, dans les Caraïbes, une formation de quatre jours consacrée à… la cybercriminalité et aux crypto-monnaies. 

Et dans sa dernière publication sur LinkedIn, il se disait « très heureux de vous annoncer que j’ai obtenu la nouvelle qualification de Chainalysis : Chainalysis Reactor Certification (CRC) ! », la société d’analyse des blockchains et cryptoactifs utilisée par les principales polices occidentales.

Dans son dernier tweet, posté le 18 mai (jour de son arrestation), il partageait un graphe de Chainalysis montrant qu’avec 45,5 millions de revenus en 2023, Incognito Market figurait en 4ᵉ position des places de marché du dark web les plus profitables.

OpenAI contraint d’investir dans la presse locale

10 février 2026 à 15:00
Leur métier : porter la plume dans la plaine
OpenAI contraint d’investir dans la presse locale

Qualifiant le journalisme de « relique du siècle dernier », OpenAI constate que ses utilisateurs posent à ChatGPT un nombre croissant de questions au sujet d’informations locales. Le nombre de journalistes locaux ayant chuté de 60 % en 20 ans aux États-Unis, il annonce un partenariat avec Axios pour contribuer à en financer une centaine, afin d’alimenter sa base de connaissances.

Aux États-Unis, l’accaparement de la publicité par Google et les plateformes, couplé au fait de pouvoir s’informer depuis son smartphone, ont contribué à la disparition de 3 500 journaux papiers de la presse régionale, passés de près de 9 000 à moins de 5 500 en 20 ans, estime la Local News Initiative de l’université de Northwestern.

Aux USA, le nombre de journaux locaux a chuté de 40 %, celui des journalistes de 60 %, en 20 ans

Près de 40 % des titres de la presse locale ont disparu, laissant 50 des 342 millions de citoyens sans accès à de l’information journalistique. 39 des 50 États dénombrent moins de 1 000 journalistes. Le nombre d’employés d’entreprises de presse a dans le même temps chuté de 75 %, celui des journalistes de 60 %.

Or, ChatGPT enregistrerait environ 1 million de requêtes et demandes d’informations locales par semaine, relève OpenAI, pour qui les gens « continuent à faire davantage confiance aux informations locales qu’aux informations nationales » : « La plupart de cet intérêt se concentre sur la vie civique quotidienne : événements communautaires et entreprises locales, criminalité et interventions d’urgence, législation, tribunaux et politiques publiques ».

OpenAI note également que les internautes s’enquièrent aussi des conditions météorologiques hivernales : les questions au sujet de la météo et des fermetures d’écoles ont ainsi plus que quadruplé, au point de devenir l’un des sujets les plus populaires après le 17 janvier, lorsque la tempête hivernale Fern s’est abattue sur les États-Unis.

Problème : « ChatGPT peut aider les gens à trouver des informations locales, à condition que les journalistes locaux continuent à les couvrir ». Ce pourquoi OpenAI annonce vouloir adopter « une approche différente en matière de partenariats dans le domaine de l’information ».

Le journalisme ? Une « relique du siècle dernier »

La start-up souligne que « pendant des années, les relations entre les grandes entreprises technologiques et les organes de presse ont été marquées par des tensions », au point de qualifier le journalisme de « relique du siècle dernier » (sic), résume Adam Cohen, responsable de la politique économique chez OpenAI :

« À mesure que les plateformes numériques transformaient la manière dont les gens découvraient et consommaient l’information, le journalisme était souvent considéré comme une activité « traditionnelle », une relique du siècle dernier imprimée sur du papier ou récité de manière rigide devant un téléprompteur. Les blogueurs, les vlogueurs et les podcasteurs étaient considérés comme l’avenir du discours public, et les entreprises technologiques rejetaient instinctivement l’idée que le journalisme professionnel puisse mériter une attention particulière. »

Dès lors, « les partenariats étaient rares » et « le dialogue limité » entre les deux professions, la Silicon Valley considérant l’information comme « un mauvais modèle économique », « sans se soucier outre mesure de son impact sur notre compréhension du monde qui nous entoure et du rôle essentiel que joue la fiabilité de l’information dans le soutien de nos idéaux démocratiques ».

43 communautés, couverts par 100 journalistes

« Nous avons choisi une voie différente », se targue aujourd’hui OpenAI, au motif qu’ « un secteur médiatique prospère et indépendant n’est pas seulement compatible avec l’IA, il en est essentiel », que « les gens veulent connaître les sources des informations qu’ils voient sur ChatGPT, et le fait de proposer un journalisme de haute qualité rend ChatGPT plus utile et plus informatif ».

Lancé en janvier 2025, le partenariat entre OpenAI et Axios vise à étendre le nombre de villes couvertes afin de fournir aux utilisateurs de ChatGPT des informations locales validées par des journalistes. Axios Local, qui avait lui-même été initié en 2021, couvrait l’an passé 30 villes et ses newsletters dépassaient les 2 millions d’abonnés.

Axios et OpenAI veulent aujourd’hui y rajouter neuf autres villes, portant le réseau à 43 communautés, couverts par 100 journalistes, co-financés par 13 000 abonnés payants. « Grâce à OpenAI, Axios peut désormais embaucher davantage de journalistes locaux pour couvrir les petites agglomérations urbaines, un modèle qui lui permettra à terme d’atteindre des milliers de zones défavorisées en matière d’information à travers le pays », résume le communiqué d’Axios.

Ni Axios ni OpenAI ne détaillent les montants dont il serait question.

❌