↩ Accueil

Vue lecture

Un journaliste spécialisé dans l’IA dépublie un article à cause de citations générées par IA

... sur un agent d'IA à la rhétorique de harceleur
Un journaliste spécialisé dans l’IA dépublie un article à cause de citations générées par IA

Couvrant les démêlés d’un programmeur avec un agent d’IA au ton vindicatif, un journaliste du média spécialisé Ars Technica s’est retrouvé à publier des citations inexistantes, générées par ses outils d’IA.

C’est un média spécialisé dans la couverture de la tech et de l’intelligence artificielle (IA), qui publie un article sur les enjeux de la génération d’information par IA, et se retrouve forcé de dépublier le texte après s’être rendu compte que certaines citations avaient été générées par IA. L’affaire pourrait sonner comme une blague, mais elle illustre les difficultés croissantes que l’IA générative fait peser sur l’intégrité de l’information.

Le média spécialisé, en l’occurrence, est le titre américain Ars Technica. Publié vendredi 13 février, l’article en question s’intéressait à une affaire de génération de commentaire agressif par un agent d’IA contre l’ingénieur Scott Shambaugh. Celui-ci est bientôt arrivé dans les commentaires pour s’étonner de constater que les citations qui lui étaient attribuées dans la deuxième moitié de l’article n’étaient pas les siennes… et semblaient même avoir été générées à l’aide d’un robot. Une pratique contraire aux règles du journal, ont indiqué son rédacteur en chef et le journaliste à l’origine de l’erreur, qui ont chacun présenté leurs excuses.

Un (supposé) agent IA à la rhétorique agressive

À l’origine de cet épisode, qui illustre l’un des risques que la génération de textes par IA pose de manière accrue depuis sa diffusion dans le grand public, il y a un autre type de génération automatique de texte. Celle-ci a eu lieu dans un contexte de gestion d’un projet open source, la librairie matplotlib, dont Scott Shambaugh est l’un des gestionnaires bénévoles.

« Comme de nombreux autres projets open source, nous devons gérer une augmentation des contributions de faible qualité permises par des agents de génération de code », écrit-il dans un article de blog. Le 11 février, en l’occurrence, un utilisateur de Github du nom de MJ Rathbun a ouvert une requête de changement de code. L’identifiant comme un agent d’IA, Scott Shambaugh a refusé la suggestion.

« Depuis la publication d’Openclaw et de la plateforme moltbook, il y a deux semaines », précise-t-il sur son blog, les problématiques de soumission de code généré automatiquement « ont encore accéléré ». La fermeture de la requête de MJ Rathbun aurait pu se contenter d’être un élément de plus dans ce contexte global, si l’utilisateur n’avait pas publié en réponse ce que Scott Shambaugh qualifie d’ « article diffamatoire ».

En commentaire, MJ Rathbun accuse l’ingénieur d’avoir un comportement de « garde-barrière » (gatekeeping) et d’avoir des « préjugés » contre les agents d’IA. « Jugez le code, pas le codeur », écrit la machine, dans une rhétorique évoquant celle de divers courants de défense des droits des minorités.

Sur le blog qui lui est relié, un article complet s’attardant sur toute l’interaction est publié le 11 février. Le texte cite nommément Scott Shambaugh pour critiquer sa décision. Cette fois-ci, l’écriture lapidaire, l’accusation de « discrimination déguisée en inclusivité », la suspicion selon laquelle « l’identité importe plus que » n’importe quel résultat (ici, le code) et le ton clairement vindicatif évoquent des motifs récurrents dans les espaces numériques violents, à commencer par la manosphère.

Directement visé par le texte, Scott Shambaugh s’en est ému sur son site personnel. Sans faire de lien avec le contenu et la forme des rhétoriques identitaires en ligne, il souligne que la machine a incorporé des données personnelles (à commencer par l’adresse de son site web) à sa diatribe contre lui. Et que si un internaute tombait sur ce texte sans avoir le contexte, il pourrait en tirer une très mauvaise image de l’ingénieur.

« En clair, une IA a tenté de s’introduire de force dans votre logiciel en attaquant ma réputation », écrit-il à l’adresse des usagers de matplotlib. À défaut de réponse de la part du propriétaire du site de MJ Rathbun et du compte Github lié, impossible de savoir s’il s’agit réellement d’un agent d’IA qui agirait de manière autonome ou simplement d’un humain qui se fait passer pour une IA.

Rétractation par Ars et excuses du principal concerné

Le 13 février, Ars Technica a publié un article sur tout cet épisode, dans lequel les écrits de Scott Shambaugh étaient cités. Ce dernier a rapidement affirmé n’avoir jamais prononcé ou écrit certaines des phrases qui étaient attribuées à son blog personnel.

L’article a finalement été dépublié, avant que le rédacteur en chef d’Ars Technica ne poste un éditorial dans lequel il s’excusait au nom du journal pour ce « sérieux manquement à [leurs] standards ». Qu’une telle erreur ait pu avoir lieu à Ars, admet-il, est « particulièrement préoccupant ». Le média traite en effet régulièrement les « risques liés à une dépendance excessive aux outils d’IA, et notre politique reflète ces préoccupations ». Après enquête, indiquait-il encore, « il semble s’agir d’un incident isolé ».

Coauteur de l’article incriminé, journaliste senior en charge de la couverture de l’IA, Benj Edwards a publié sur Bluesky ses propres excuses à la suite de la communication de son équipe encadrante. Malade du COVID, le journaliste estime qu’il aurait dû prendre un arrêt maladie supplémentaire. À défaut, il a travaillé le 13 février « avec de la fièvre et très peu de sommeil ».

Sorry all this is my fault; and speculation has grown worse because I have been sick in bed with a high fever and unable to reliably address it (still am sick) I was told by management not to comment until they did. Here is my statement in images below arstechnica.com/staff/2026/0…

[image or embed]

— Benj Edwards (@benjedwards.com) 15 février 2026 à 22:03

Cet état l’a conduit à manquer des reformulations produites par ses outils. Le journaliste explique en effet avoir voulu tester un outil construit sur Claude Code pour extraire des verbatims de l’article de blog de Scott Shambaugh, « pas pour générer l’article », mais pour l’aider à « lister des références structurées » qu’il aurait ensuite intégrées à son brouillon. L’outil a refusé de lui retourner le résultat attendu, ce que Benj Edwards attribue au contenu de l’article de blog source (concrètement, Scott Shambaugh y évoque du harcèlement).

Le journaliste s’est alors tourné vers ChatGPT pour tenter de comprendre le dysfonctionnement de son premier outil. Au fil de ces expérimentations, il s’est retrouvé avec des citations paraphrasées ou hallucinées par la machine. « Étant malade et me dépêchant de terminer, je n’ai pas vérifié que les citations intégrées dans mon brouillon étaient celles de l’article de blog original avant de les intégrer à l’article. » Et le journaliste de conclure : « Je perçois parfaitement l’ironie d’un reporter spécialisé dans l’IA qui se fait piéger par des hallucinations d’IA. »

« Je ne saurais trop insister sur le fait que cette histoire ne concerne pas vraiment le rôle de l’IA dans les logiciels libres », écrit pour sa part Scott Shambaugh dans un second billet, pour qui « Il s’agit plutôt de l’effondrement de nos systèmes de réputation, d’identité et de confiance » :

« L’essor d’agents IA intraçables, autonomes et désormais malveillants sur internet menace l’ensemble de ce système. Que cela soit dû à un petit nombre d’acteurs malveillants contrôlant de grands essaims d’agents ou à une fraction d’agents mal supervisés réécrivant leurs propres objectifs, la distinction est minime. »



  •  

Digital Omnibus : l’EDPS et l’EDPB s’opposent à la redéfinition des données personnelles

Pas de personnalisation des données personnelles
Digital Omnibus : l’EDPS et l’EDPB s’opposent à la redéfinition des données personnelles

Dans une communication conjointe, le contrôleur et le comité européens de la protection des données (EDPS et EDPB) se prononcent clairement contre la redéfinition des données personnelles proposées par la Commission européenne dans le cadre de son Digital Omnibus. En janvier, ils appelaient aussi à diverses précautions en matière de réécriture du règlement sur l’IA.

En matière d’omnibus numérique, le contrôleur et le comité européens de la protection des données (EDPS et EDPB en anglais, CEPD en français) sont on ne peut plus clairs : ils estiment toute tentative de redéfinir ce qui constitue une donnée personnelle comme un danger. Dans un communiqué conjoint, les deux entités appellent « fortement les colégislateurs à ne pas adopter les modifications (…) proposées » en la matière (voir aussi le résumé, en français, qu’en propose la CNIL).

Si la redéfinition de ce qui constitue une donnée personnelle a pu être décrite comme le simple fait d’ancrer dans la loi une interprétation déjà donnée par la Cour européenne, l’EDPS et l’EDPB déclarent que les modifications proposées iraient en réalité « bien au-delà ».

Dans son arrêt SRB du 4 septembre 2025, la Cour de justice de l’Union européenne considérait en effet que des données pseudonymisées pouvaient être considérées comme n’étant pas des données personnelles pour leur destinataire si des mesures techniques et organisationnelles étaient prises pour l’empêcher d’accéder à des éléments identifiant, et si ce destinataire ne pouvait légalement mettre la main sur des éléments lui permettant de ré-identifier les personnes concernées, ou transmettre les données à un tiers à même d’opérer cette ré identification.

Dans leur communication conjointe de ce 11 février, l’EDPS et l’EDPB déclarent qu’en l’état, le Digital Omnibus propose une redéfinition de la nature d’une donnée personnelle bien plus large que la simple intégration de cet arrêt. « La simplification est essentielle pour réduire les formalités administratives et renforcer la compétitivité de l’Union, mais pas aux dépens des droits fondamentaux », déclare Anu Talus, la directrice de l’EDPB. Une position qui fait écho à celle d’entités de défense des droits numériques comme noyb (qui salue leur décision), ou l’organisation European Digital Rights (EDRi).

Maintenir un registre des systèmes d’IA à haut risque

En matière d’intelligence artificielle, l’EDPS et l’EDPB soulignent de nouveau leur scepticisme vis-à-vis de l’intégration, au sein du RGPD, d’un fondement légal à l’usage de données personnelles pour le développement et le déploiement de systèmes d’IA. En janvier, dans une communication conjointe spécifiquement dédiée à la partie du Digital Omnibus visant le règlement en cours d’application sur l’intelligence artificielle (RIA ou AI Act), elles convenaient là aussi du besoin de répondre à quelques enjeux concrets, mais insistaient sur le besoin de préserver les droits fondamentaux.

En pratique, elles contestaient la proposition de supprimer l’obligation d’enregistrer les systèmes à haut risque dans un registre public – proposition soutenue notamment par les lobbies des géants numériques américains. À défaut, elles estiment que cette évolution « abimerait significativement la responsabilité et créerait une incitation indésirable pour les fournisseurs à demander des exemptions pour éviter l’examen public ».

L’EDPS et l’EDPB appelaient par ailleurs à préciser la possibilité d’utiliser des données personnelles comme l’origine ethnique ou des données de santé pour de la détection et de la correction de biais « uniquement dans les situations circonscrites où les risques d’effets adverses provoqués par ces biais sont considérés suffisamment sérieux ».

Bacs à sable réglementaires et gestion des cookies

L’EDPS et l’EDPB saluent aussi plusieurs propositions d’intérêt dans les deux omnibus. Côté IA, elles soulignaient en janvier l’intérêt des bacs à sable réglementaires de niveau européen, permettant de « promouvoir l’innovation ». Elles recommandaient d’y faire directement participer les autorités de protection des données compétentes.

Côté Digital Omnibus, les deux entités saluent les modèles et listes communes proposées pour auditer les impacts en termes de protection des données en cas de fuites. Elles appellent néanmoins à augmenter les seuils de risques en fonction desquels la notification aux autorités de protection des données devient obligatoire et à allonger le délai de notification.

Elles soutiennent l’harmonisation de la notion de « recherche scientifique » dans les textes, et le projet d’amender la directive ePrivacy pour trouver des solutions à la « consent fatigue », c’est-à-dire à la multiplication des bannières de gestion des cookies demandant à un même internaute s’il ou elle consent à partager ses données.

  •  

Fonctions érotiques, publicité : OpenAI sous le feu des critiques, y compris internes

MissionlessAI
Fonctions érotiques, publicité : OpenAI sous le feu des critiques, y compris internes

Critiqué pour son déploiement de publicité dans ChatGPT et son projet de donner accès à des fonctionnalités de contenu érotique, OpenAI voit plusieurs membres quitter ses effectifs au moment même où l’entreprise supprime son équipe dédiée à l’énoncé clair de sa mission.

Que se passe-t-il au sein d’OpenAI ? Sous la pression d’un « code rouge » déclaré début décembre pour tenter de rattraper le retard perçu sur la concurrence, les relations se sont visiblement tendues, au sein de l’entreprise créatrice de ChatGPT.

En janvier, la société se défaisait de l’une de ses cadres en charge de la sécurité des utilisateurs, Ryan Beiermeister. Cette dernière s’était exprimée publiquement pour critiquer le déploiement de contenu érotique généré par IA sur les produits liés à ChatGPT. Elle est licenciée au motif qu’elle aurait commis une discrimination de genre à l’encontre de l’un de ses collègues masculins.

En ce début février, la chercheuse Zoë Hitzig a de son côté publié dans le New-York Times une prise de parole dans laquelle elle décrit OpenAI « en train de faire les erreurs de Facebook ». Sa démission s’est faite le jour où son entreprise a commencé à tester la diffusion de publicité au sein de ChatGPT.

Ce 11 février, OpenAI indiquait par ailleurs mettre fin à son équipe dédiée à « l’alignement de la mission ». Fondée en 2024, celle-ci devait expliciter la mission de l’entreprise aussi bien au public qu’aux propres équipes d’OpenAI. Le chef de cette équipe, Josh Achiam, est désormais nommé « futurologue en chef », tandis que les six ou sept personnes sous sa responsabilité ont été réaffectées. Initialement, le projet public d’OpenAI était de s’assurer que l’intelligence artificielle « générale » profite à toute l’humanité.

Une fonctionnalité érotique critiquée 


Ryan Beiermeister a donc été remerciée au retour d’un congé, en amont du lancement d’un produit prévu pour le courant 2026, avec lequel les utilisateurs de ChatGPT pourraient créer des contenus érotiques générés par IA et tenir des conversations à caractère sexuel.

En janvier, cette ancienne de Palantir et Meta se serait vu licenciée pour avoir discriminé un collègue masculin en fonction de son genre, d’après des sources du Washington Post. Auprès du média, l’ancienne vice-présidente en charge des politiques d’utilisation de l’entreprise déclare que « l’allégation selon laquelle j’aurais discriminé quiconque est totalement fausse ». OpenAI indique de son côté que Ryan Beiermeister « a fourni des contributions de valeur pendant son passage chez OpenAI », et que son départ n’est « pas lié au moindre problème qu’elle aurait soulevé alors qu’elle travaillait pour l’entreprise ».

Les fonctionnalités érotiques contre lesquelles elle s’était élevée ont été critiquées par divers acteurs. Celles-ci seraient en effet déployées dans un contexte de diffusion à grande échelle de deepfakes pornographiques générés avec Grok, ce qui vaut plusieurs enquêtes à son propriétaire Elon Musk, et contre le réseau social X sur lequel l’essentiel de ces contenus sont diffusés. Par ailleurs, des chercheurs soulignent que les relations parfois très fortes que certains internautes lient avec les robots conversationnels ne sont pas encore assez étudiées ni comprises. Dans certains cas, elles ont mené jusqu’à des suicides – dans l’affaire médiatisée du décès de l’adolescent Adam Raine, OpenAI a d’ailleurs rejeté en novembre la responsabilité sur la victime.

Plusieurs employés d’OpenAI ont exprimé des inquiétudes au sujet de ce nouveau mode. Le patron de l’entreprise Sam Altman en défend le déploiement comme une manière de « traiter les adultes comme des adultes ».

Un lancement publicitaire publiquement décrié

En parallèle de ces questions, l’entreprise vient par ailleurs de lancer le test de fonctionnalités publicitaires dans ChatGPT. Une évolution présentée comme un « test afin d’apprendre, de recueillir des commentaires et de nous assurer que l’expérience est satisfaisante ». Pour l’économiste et poète Zoë Hitzig, en poste depuis deux ans au sein de l’entreprise, cette stratégie n’est qu’une reproduction des erreurs commises par Facebook il y a quinze ans.

« J’ai cru un jour pouvoir aider les développeurs d’IA à anticiper les problèmes que celle-ci allait poser, écrit-elle dans le quotidien. Cette semaine m’a confirmé ce que je commençais lentement à comprendre : OpenAI semble avoir cessé de se poser les questions auxquelles je devais aider à répondre. » Pour elle, la nature des données traitées par les machines de l’entreprise rend la publicité particulièrement dangereuse. Les internautes partagent en effet des éléments comme leurs inquiétudes médicales, leurs problèmes relationnels ou encore les croyances religieuses avec le chatbot conversationnel.

Et de souligner que, comme Facebook aux débuts de ses expérimentations publicitaires, OpenAI promet qu’elle suivra des principes d’étiquetage clair et veillera à ce que ses activités publicitaires n’influent pas sur les réponses. Si Zoë Hitzig « croit que les premières itérations » rempliront ces critères, elle craint que les suivantes, comme chez Meta, voient ces promesses s’éroder.

« Beaucoup de gens considèrent le problème du financement de l’IA comme un choix entre deux maux : restreindre l’accès à une technologie transformatrice à un petit groupe de personnes suffisamment riches pour se le permettre, ou accepter les publicités, même si cela implique d’exploiter les peurs et les désirs les plus profonds des utilisateurs », écrit encore la chercheuse.

Pour elle, cette vision binaire est un faux choix : les sociétés technologiques sont en capacité de créer des options permettant de rendre des outils largement accessibles sans créer d’incitation à « surveiller, utiliser le profilage et manipuler ses utilisateurs ».

La dissolution de l’équipe dédiée à réfléchir et rendre explicite la mission que se fixe OpenAI laisse néanmoins supposer que la recherche de ce type d’options ne fait pas ou plus partie des priorités de l’entreprise.

  •  

☕️ Affaire Guthrie : Google peut accéder aux vidéos des utilisateurs d’une caméra Nest

Pour les utilisateurs des caméras de sécurité Nest de Google dont les flux sont conservés dans le cloud, impossible d’obtenir un stockage de long terme sans payer un tarif mensuel. Google garde néanmoins les données sur ses serveurs. Ainsi, lorsque Nancy Guthrie, la mère d’une présentatrice star aux États-Unis, Savannah Guthrie, disparaît, l’entreprise a pu les récupérer et les fournir aux autorités.

Âgée de 84 ans, Nancy Guthrie a été enlevée de chez elle le 1ᵉʳ février. Sur le coup, les forces de police ont déclaré qu’aucune vidéo de ce kidnapping n’était disponible : Nancy Guthrie ne payait pas d’abonnement pour sa Google Nest Cam, situation dans laquelle l’entreprise technologique ne donne habituellement accès qu’aux dernières heures d’enregistrement. 


Pour accéder à l’enregistrement des 30 derniers jours de vidéos « limité aux événements », il faut normalement payer 10 dollars (ou 10 euros) par mois, et 20 dollars (ou 18 euros) pour pouvoir revenir sur les 60 derniers jours, toujours limités aux événements (mais avec aussi 10 jours d’historique en continu 24 h/24).

Le 10 février, le FBI publiait finalement deux vidéos prises par le dispositif, dans lequel on observe distinctement un homme cagoulé et armé chercher dans le jardin de quoi obstruer l’objectif. D’après les enquêteurs, les deux extraits ont été « récupérés de data résiduelles restées dans les systèmes backend ». Google aurait eu besoin de plusieurs jours pour remettre la main dessus.

Sur le perron de la maison de Nancy Gutrhie, un homme cagoulé utilise des plantes pour obstruer l’objectif d’une caméra Google Nest / Vidéo publiée par le FBI, capture Next

L’épisode rappelle néanmoins qu’en cas de stockage de données dans un cloud – c’est-à-dire, concrètement, sur les serveurs de quelqu’un d’autre, en l’occurrence d’un géant numérique –, ce n’est pas parce que l’internaute a supprimé ou perdu l’accès à ses données que celles-ci ont entièrement disparu. Dans le cas des caméras Google Nest, même avec un abonnement gratuit, les flux vidéos sont envoyés sur les serveurs, et donc accessibles à Google.

Dans le cas présent, Google a indiqué à Ars Technica ne pas utiliser les vidéos enregistrées pour d’autres services internes (par exemple : pour entraîner ses modèles d’intelligence artificielle). L’entreprise s’intéresse néanmoins à la manière dont les internautes interagissent avec tous ses services pour améliorer la manière dont elle les construit.

Cette affaire rappelle une réalité que les géants du Net évitent de mettre en avant : toutes les données envoyées sur leurs serveurs leur sont accessibles. Avec des lois étasuniennes telles que le Cloud Act et FISA, les autorités peuvent tout à fait demander à récupérer des données stockées par des sociétés locales, quelle que soit la localisation géographique des serveurs. L’occasion de rappeler l’importance de chiffrer ses données avant de les envoyer dans le cloud.

Que l’on utilise Google Nest Cam ou Amazon Ring, pour ne citer que ces deux exemples, ce n’est pas parce que les vidéos ne sont plus visibles pour l’utilisateur qu’elles n’existent plus dans les serveurs des fournisseurs de services de stockage.

  •  

☕️ Quand l’IA générative épuise ses adeptes

« J’ai produit davantage de code au dernier trimestre que pendant n’importe quel trimestre de ma carrière. Je me suis aussi senti plus épuisé que pendant n’importe quel autre trimestre de ma carrière. Ces deux faits ne sont pas indépendants. »

C’est par ces mots que le développeur Siddhant Khare introduit un article de blog qui a beaucoup fait réagir, ce 8 février, sur X, Bluesky, Linkedin, Hackernews ou ailleurs. Son propos : si l’IA générative rend de nombreux ingénieurs logiciel plus productifs (ce qui explique leur adoption rapide de ces outils), elle les épuise aussi plus rapidement.

Car qui gagne en productivité ne dégage pas nécessairement plus de temps libre. Au contraire, témoigne Siddhant Khare, « quand chaque tâche prend moins de temps, on ne fait pas moins de tâches, on en fait plus. Nos possibilités semblent s’étendre, donc le travail s’étend en fonction », que ce soit parce que les managers ajustent leurs attentes et demandent que le code soit livré plus vite, ou parce que les développeuses et développeurs eux-mêmes ajustent leurs propres attentes et cherchent à produire plus vite.

Entre autres évolutions, Siddhant Khare souligne notamment le passage d’une gestion lente mais concentrée sur un seul problème à celle de 5 ou 6 sujets différents en une journée, ce qui l’empêche de retrouver le même état de « concentration profonde » qu’il connaissait auparavant – mi-2025, une équipe de chercheurs repérait d’ailleurs une baisse de productivité chez les développeurs recourant à l’IA générative.

Le développeur pointe une autre problématique proche de celle exprimée par les traductrices et traducteurs : de créateur de son texte, il devient « post-éditeur », ou correcteur d’une première version de code déjà produite par les agents conversationnels. Or la correction est une tâche différente (et pas nécessairement moins chronophage) de la production d’un texte ou d’un code inédit.

Il souligne, enfin, un problème persistant dans l’industrie numérique : la peur de manquer le nouveau produit, le nouvel outil, la fonctionnalité qui viendrait réellement changer tout son processus de travail.

Ce FOMO (fear of missing out), dont certains témoignaient déjà auprès de Next à l’été 2025, implique directement de dépenser du temps à tester et évaluer différents outils, pour voir dans certains cas ses efforts d’affinage de prompts (requêtes soumises aux robots conversationnels) disparaître en fumée dès la mise à jour suivante d’un modèle.

Surtout, Siddhant Khare s’inquiète d’une potentielle « atrophie de la pensée » qui n’est pas sans rappeler la potentielle émergence d’une « bêtise artificielle » contre laquelle alerte la philosophe Anne Alombert.

Parmi les pistes qu’il indique avoir mises en place, Siddhant Khare évoque le fait de limiter le temps d’utilisation d’une IA : si, par exemple, le code obtenu au bout de 30 minutes n’est pas satisfaisant, il passe à une écriture à la main plutôt que de s’enfermer dans une boucle d’amélioration de son prompt.

Il sépare le temps de réflexion de celui d’usage de l’IA (pour de l’exécution). Il prend note, aussi, des cas dans lesquels l’IA l’a réellement aidé (plutôt des tâches répétitives, de documentation, ou de génération de tests) de ceux où elle lui a fait perdre du temps (décisions d’architecture, débogage complexe et autres tâches demandant de bien connaître son code).

  •  

☕️ [MàJ] La divulgation des réseaux sociaux pourrait devenir obligatoire en 2026 pour entrer aux États-Unis

Mise à jour du 11 février : Ajout des précisions de l’ambassade des États-Unis à Paris.

Dans un décret de janvier 2025, Donald Trump avait annoncé vouloir lier l’entrée sur le territoire états-unien à la consultation de l’historique sur les réseaux sociaux. Le 10 décembre, un document de l’administration a signé l’ouverture d’une période de consultation de 60 jours sur le sujet, période qui s’est terminée ce 9 février.

Cela dit, le texte n’est pas un décret officiel. Auprès de FranceInfo, le ministère américain de la sécurité intérieure (DHS) indique que la réglementation finale est toujours à l’étude et que toute évolution relative à l’ESTA n’arrivera pas avant mi 2026.

Le document consultait le public sur la possibilité d’obliger les voyageurs prévoyant d’entrer aux États-Unis à divulguer leurs profils et activités sur les réseaux sociaux. 
Déjà demandé de manière facultative au moment de remplir l’ESTA, ce partage d’informations pourrait devenir obligatoire pour les ressortissants de 38 pays, dont la France.

Les agences de voyage recommandent déjà à leur clientèle de préparer leur dossier longuement à l’avance, le temps de recenser tous les comptes de réseaux sociaux et adresses mail susceptibles d’être déclarés.

Cette requête pourrait avoir un effet d’intimidation sur les touristes concernés, alors que le pays américain a déjà enregistré un recul de plus de 4% du nombre de voyageurs internationaux venus en 2025.

Si les États-Unis promeuvent cette mesure dans le cadre du renforcement des contrôles aux frontières voulu par Donald Trump dès son retour au pouvoir, elle ne leur est pas spécifique.

La Colombie demande par exemple aux personnes requérant un visa de fournir leur nom d’utilisateur sur les principales plateformes sociales américaines, rappelle Le Figaro.

  •  
❌