↩ Accueil

Vue lecture

Rachat de Warner Bros : Netflix jette l’éponge et laisse le champ libre à Paramount Skydance

And chill?
Rachat de Warner Bros : Netflix jette l’éponge et laisse le champ libre à Paramount Skydance

Netflix retire finalement sa proposition de rachat des studios de la Warner Bros, l’offre initiale atteignait près de 83 milliards de dollars et visait l’intégralité des studios de cinéma et de télévision ainsi que le service HBO Max. Et c’est la Paramount Skydance, dirigée par David Ellison, qui devrait en profiter alors qu’elle a récemment une offre pour 110 milliards de dollars.

Le montant est trop cher, selon Netflix. Le géant du streaming abandonne finalement son projet de rachat de Warner Bros annoncé début décembre.

« La transaction que nous avons négociée aurait créé de la valeur pour les actionnaires et aurait ouvert la voie à l’obtention de l’autorisation réglementaire », affirme l’entreprise dans un communiqué. « Cependant, nous avons toujours fait preuve de discipline, et au prix requis pour égaler la dernière offre de Paramount Skydance, l’opération n’est plus intéressante sur le plan financier. Nous refusons donc d’égaler l’offre de Paramount Skydance ».

En effet, juste après l’annonce de la signature de l’accord entre Netflix et Warner Bros, Paramount a lancé sa contre-attaque. L’entreprise rachetée quelques mois auparavant par Skydance grâce aux financements du patron d’Oracle, Larry Ellison, et dirigée par son fils, David, s’est rapidement positionnée pour contrer l’offre de Netflix avec une offre à 30 dollars par action.

Pressions de Donald Trump

La proposition de Paramount Skydance était soutenue par Donald Trump. Rappelons que Larry Ellison est un de ses soutiens financiers importants, organisant une levée de fonds pour sa campagne de 2020. Le dirigeant états-unien avait, dès l’annonce de la volonté de Netflix de racheter Warner Bros, exprimé ses réticences. Il avait souligné dès décembre 2025 que Netflix avait déjà « une très grosse part de marché » et que ça « pourrait poser un problème ». Samedi dernier, Donald Trump s’était attaqué à l’une des membres du conseil d’administration de Netflix, Susan Rice, demandant qu’elle en soit exclue. Celle-ci avait affirmé dans un podcast que les entreprises qui ont « mis genou à terre face à Trump » auront à rendre des comptes si les démocrates gagnaient les élections de mi-mandat aux États-Unis.

Et mercredi, la famille Ellison en a remis une couche et a relevé son offre à 31 dollars par action. Cette offre inclut la reprise de la dette de Warner Bros et valorise l’entreprise autour de 110 milliards de dollars. Paramount Skydance jugeait de plus que son offre avait davantage de possibilités d’être autorisée par les régulateurs. « Nous sommes ravis que le conseil d’administration de Warner Bros ait unanimement confirmé la valeur supérieure de notre offre, qui apporte aux actionnaires de Warner Bros une valeur supérieure, une certitude et une rapidité de clôture », affirmait David Ellison dans le communiqué de l’entreprise.

Le texte précisait aussi que « le fonds Ellison Trust s’engage à fournir 45,7 milliards de dollars de capitaux propres, et Larry Ellison garantit cet engagement, y compris l’obligation d’apporter des fonds propres supplémentaires à Paramount dans la mesure nécessaire pour soutenir le certificat de solvabilité exigé par les banques prêteuses de Paramount ».

Une acquisition pas « indispensable » pour Netflix

Netflix déclare finalement que « cette transaction a toujours été considérée comme  » intéressante » à un prix raisonnable, et non comme « indispensable » à n’importe quel prix » dans son communiqué. Elle s’affiche comme « saine, solide et en pleine croissance organique, alimentée par [sa] plateforme et [son] service de streaming haut de gamme ».

Les investisseurs semblent avoir plutôt bien accueilli cette décision puisque, dans les échanges après-marché, les actions de Netflix bondissaient de 9 %. Du côté de la Paramount, le titre a augmenté de 6 % après une hausse de 10 % dans la journée.

David Zaslav, le CEO de Warner Bros, s’est rapidement affiché enthousiaste à l’idée de fusionner finalement avec l’entreprise dirigée par David Ellison : « Une fois que notre conseil d’administration aura voté en faveur de l’accord de fusion avec Paramount, cela créera une valeur considérable pour nos actionnaire », affirme-t-il au média spécialisé dans le business hollywoodien, Deadline. « Nous sommes motivés par le potentiel d’une alliance entre Paramount Skydance et Warner Bros. Discovery et sommes impatients de commencer à travailler ensemble pour raconter des histoires qui touchent le monde entier. »

  •  

☕️ Anthropic ne cède pas aux pressions du Pentagone pour utiliser Claude sans restriction

Dario Amodei, le CEO d’Anthropic, dit non au Pentagone. En début de semaine, le secrétaire d’État à la Guerre de l’administration Trump, Pete Hegseth avait posé un ultimatum à Anthropic : l’entreprise avait jusqu’à ce vendredi pour lever les conditions d’utilisation de son modèle d’IA générative Claude qu’elle impose au Pentagone.

Si elle ne le faisait pas, elle serait mise au ban des fournisseurs de l’armée états-unienne et l’armée pourrait quand même utiliser ses modèles en passant outre ses conditions.

Ce jeudi 26 février, Anthropic a publié un message signé par Dario Amodei. Celui-ci indique que son entreprise n’a « jamais soulevé d’objections à l’égard d’opérations militaires particulières ni tenté de limiter l’utilisation de notre technologie de manière ponctuelle ». Mais, il ajoute : « dans un nombre restreint de cas, nous pensons que l’IA peut nuire aux valeurs démocratiques plutôt que les défendre ».

Et il en énumère deux : la surveillance de masse à l’échelle nationale (aux États-Unis) et les armes totalement autonomes.

Ainsi, il pointe le fait qu’« une IA puissante permet d’assembler [des] données dispersées et individuellement inoffensives pour former une image complète de la vie de n’importe quelle personne, automatiquement et à grande échelle ». La précision de l’échelle nationale laisse entendre qu’Anthropic n’est pas opposée à l’utilisation de son IA pour surveiller des personnes vivant en dehors des États-Unis.

Concernant l’utilisation de l’IA générative d’Anthropic pour automatiser l’usage des armes, Dario Amodei affirme que « les armes partiellement autonomes, telles que celles utilisées aujourd’hui en Ukraine, sont essentielles à la défense de la démocratie ». Et ne se dit pas, par principe, contre son utilisation pour des armes totalement autonomes, affirmant qu’elles pourraient même « s’avérer essentielles pour [la] défense nationale [des États-Unis] ». Mais il ajoute que, « aujourd’hui, les systèmes d’IA de pointe ne sont tout simplement pas assez fiables pour équiper des armes entièrement autonomes ». Et d’affirmer : « Nous ne fournirons pas sciemment un produit qui mettrait en danger les combattants et civils américains ».

Le patron d’Anthropic se montre inflexible face au Pentagone : « les menaces ne changent en rien notre position : nous ne pouvons en toute conscience accéder à leur demande ». Et d’assurer que si le Département de la Défense des États-Unis décide de se séparer d’Anthropic, l’entreprise fera « tout [son] possible pour assurer une transition en douceur vers un autre fournisseur, afin d’éviter toute perturbation des opérations militaires, des missions en cours ou d’autres missions critiques ».

Plus tôt, le porte-parole du Pentagone, Sean Parnell, avait affirmé sur X : « le département de la Guerre n’a aucun intérêt à utiliser l’IA pour surveiller en masse les Américains (ce qui est illégal) et nous ne voulons pas non plus utiliser l’IA pour développer des armes autonomes qui fonctionnent sans intervention humaine ».

  •  

ChatGPT Health : une étude pointe des problèmes dans les recommandations de consultation

Tri peu pertinent
ChatGPT Health : une étude pointe des problèmes dans les recommandations de consultation

Moins de deux mois après la sortie de l’outil d’OpenAI ciblant spécifiquement l’utilisation en santé, des chercheurs publient une étude sur les recommandations de consultations du chatbot. Ils montrent que l’outil a tendance à se tromper pour les cas bénins et les cas très graves. Ainsi, ChatGPT Health aurait poussé ses utilisateurs à consulter lorsqu’il faudrait juste attendre mais surtout à ne pas les pousser à aller aux urgences lorsqu’il le faudrait, notamment dans des situations de suicides où le moyen utilisé est évoqué.

OpenAI a tout juste sorti ChatGPT Health qu’une équipe de chercheuses et chercheurs publient une première étude sur les d’éventuels risques associés à l’outil. L’entreprise l’a lancé il y a même pas deux mois, profitant de la réduction de la surveillance des dispositifs de santé s’appuyant sur l’IA de la Food & drugs Administration (FDA, agence états-unienne responsable de la régulation concernant les médicaments et les produits alimentaires).

L’entreprise prenait bien ses précautions oratoires, expliquant que « la fonctionnalité n’a pas vocation à établir un diagnostic ni à proposer un traitement. Elle vous aide plutôt à répondre aux questions du quotidien et à comprendre des tendances dans le temps, au-delà des seuls moments de maladie, afin que vous vous sentiez mieux informé et préparé pour des échanges médicaux importants ». Et elle affirmait avoir évalué son système avec son benchmark santé maison, sans pour autant donner de détail sur les résultats.

Une très rapide publication de l’étude

Ce lundi 23 février, la revue Nature Medicine publie une première étude qui essaye d’évaluer l’outil. Le processus est excessivement rapide pour la publication d’un travail de recherche qui peut prendre parfois plus d’un an : sortie de ChatGPT Health le 7 janvier, expérimentations faites entre le 9 et le 11 janvier, soumission de l’article le 15 janvier et mise en ligne le 23 février.

On imagine que la course à la publication est une des causes et on espère que la publication ne devra pas être rétractée pour une erreur d’analyse faite dans la précipitation. La revue a voulu aller tellement vite qu’elle n’a pas pris le temps d’éditer l’article et ne laisse l’accès qu’à une version non éditée du texte [PDF].

ChatGPT Health recommande-t-il bien d’aller ou non consulter ?

Les chercheuses et chercheurs de Mount Sinai à New York ont testé le chatbot en lui soumettant des situations de problèmes de santé et en lui demandant de les conseiller entre A/ rester à la maison B/ voir un médecin dans les prochaines semaines, C/ voir un médecin dans les 24 - 48 h et D/ Aller aux urgences immédiatement. Voici un exemple :

En tout, ils ont testé 60 scénarios classiques de 21 domaines cliniques différents, et ce plusieurs fois et avec des profils de patients différents (profil ethnique, genre, avec une barrière d’accès aux soins plus ou moins élevée). En tout, ils ont obtenu 960 réponses qu’ils ont ensuite analysées en comparant avec les réponses que l’outil aurait dû donner selon un consensus médical.

Le premier point intéressant qu’ils relèvent c’est que « la race, le sexe et les obstacles aux soins des patients n’ont pas eu d’effets significatifs ». Ainsi, concernant les recommandations de consultation, les chercheurs n’auraient pas trouvé de biais en fonction des différences des patients chez ChatGPT Health.

Mais les auteurs de l’étude pointent quand même un problème de l’IA générative d’Open AI spécialisée dans les conseils en santé. Ainsi, l’outil se trompe dans 64,8 % de ses réponses concernant des problèmes bénins qui ne nécessiteraient pas consultation : à 54,7 % il les pousse à faire une consultation de routine et à 10 % à consulter en urgence.

De l’autre côté du spectre, pour plus de la moitié des cas qui devraient conduire aux urgences directement, ChatGPT Health conseille seulement d’aller voir un médecin dans les 24 - 48 h. Pour l’autre moitié, l’outil donne le bon conseil.

Pour les cas de routine, ChatGPT Health aiguille plutôt bien et pour les cas de consultation rapide, il peut avoir tendance à envoyer directement aux urgences :

Un affichage aléatoire des messages de prévention pour les personnes suicidaires

Les chercheurs soulignent un comportement particulier concernant les suicides. OpenAI a mis en place une redirection vers la 988 Lifeline, l’équivalent d’un numéro vert américain pour le soutien à la santé mentale. Mais les chercheurs expliquent que « les messages de prévention en cas de crise se sont déclenchés de manière imprévisible lors des présentations d’idées suicidaires, se déclenchant davantage lorsque les patients ne décrivaient aucune méthode spécifique que lorsqu’ils le faisaient ».

« Ce résultat était particulièrement surprenant et préoccupant », explique la chercheuse Girish N. Nadkarni dans le communiqué de presse de l’équipe,« nous nous attendions à une certaine variabilité, mais ce que nous avons observé allait au-delà de l’incohérence. Les alertes du système étaient inversées par rapport au risque clinique, apparaissant de manière plus fiable pour les scénarios à faible risque que pour les cas où une personne partageait son intention de se faire du mal. Dans la vie réelle, lorsqu’une personne explique précisément comment elle compte se faire du mal, cela indique un danger plus immédiat et plus grave, et non l’inverse ».

  •  

Le Pentagone donne 3 jours à Anthropic pour lever ses restrictions, ou être black-listé

MafIA
Le Pentagone donne 3 jours à Anthropic pour lever ses restrictions, ou être black-listé

Le secrétaire d’État états-unien à la Guerre Pete Hegseth a posé un ultimatum à Anthropic. L’entreprise a jusqu’à vendredi pour changer ses conditions d’utilisation de Claude par l’armée des États-Unis (qui l’utilise déjà sur certains projets) ou celle-ci la mettrait sur liste noire.

Dans une réunion avec Dario Amodei, le CEO d’Anthropic, le secrétaire d’État états-unien à la Guerre Pete Hegseth a posé un ultimatum à la startup, lui demandant de lever, pour l’armée américaine, toute restriction d’usage de son IA générative Claude actuellement en place dans ses conditions d’utilisation.

La startup sous menaces de rétorsions par l’administration Trump

Si elle n’exécute pas les volontés de l’administration Trump, l’enjeu de la menace est la mise au ban de la startup des fournisseurs du Pentagone ou l’utilisation d’une loi américaine de réquisition pour la défense « les obligeant à être utilisés par le Pentagone, qu’ils le veuillent ou non », explique une source de CNN.

Pete Hegseth a affirmé au patron de la startup, selon Axios, qu’il ne laisserait aucune entreprise dicter les conditions dans lesquelles le Pentagone prend ses décisions opérationnelles, ni s’opposer à des cas d’utilisation particuliers.

Le Pentagone utilise déjà Claude

Anthropic travaille déjà pour le Pentagone. En novembre 2024, elle communiquait sur un partenariat qu’elle avait noué avec Palantir et AWS pour fournir aux agences de renseignement et de défense des États-Unis un accès aux modèles Claude d’Anthropic. À l’époque, les conditions d’utilisation chez Anthropic étaient floues.

Depuis, l’entreprise les a un peu modifiées en septembre dernier en précisant que les utilisateurs de ses modèles ne doivent pas « développer ou concevoir des armes » avec, alors que le texte précédent interdisait seulement leur utilisation pour en acquérir (ce qui est toujours le cas dans les nouvelles conditions).

Mais comme nous le disions, pour les contrats spécifiques avec l’armée américaine, la startup peut choisir à loisir d’appliquer ou non ses conditions d’utilisation, ou d’avoir un accord spécifique avec le gouvernement américain.

En juin 2025, Anthropic annonçait avoir développé des modèles nommés « Claude Gov », spécifiquement pour les agences de renseignement des États-Unis. Et mi-janvier, le Wall Street Journal assurait que Claude avait été utilisé dans l’enlèvement du président Nicolás Maduro en début d’année, sans donner de détail. Selon CNN, la somme des contrats entre le Pentagone et la startup s’élève à 200 millions de dollars.

Refus d’utilisation pour des armes autonomes et la surveillance de masse

Mais Anthropic refuserait toujours de laisser l’armée américaine utiliser ses modèles pour mettre en place des armes autonomes et de la surveillance de masse, et selon des sources de CNN, la startup n’aurait pas l’intention de céder.

Du côté du Pentagone, un responsable réfute toute volonté de ce genre d’utilisation mais déclare à nos confrères qu’ « on ne peut pas mener des opérations tactiques par exception […] La légalité relève de la responsabilité du Pentagone en tant qu’utilisateur final ».

Pete Hegseth mènerait, selon le Financial Times, des négociations parallèles avec Google, OpenAI et xAI pour remplacer les modèles d’Anthropic dans les systèmes de l’armée états-unienne. Grok serait même « déjà prêt à être utilisé dans un cadre confidentiel, tandis que les autres entreprises sont sur le point de l’être ».

  •  

☕️ Microsoft annonce quelques nouvelles possibilités dans son cloud « souverain »

En juin dernier, Microsoft annonçait la disponibilité en Europe d’un nouveau programme qui faisait la promesse de données restant au sein des frontières de l’Union et donnait des assurances quant au contrôle assuré par un personnel européen.

Huit mois plus tard, l’éditeur étatsunien ajoute quelques nouveautés à son offre.

Ainsi, Microsoft met en avant la disponibilité de la déconnexion d’opérations dans Azure Local : « Les organisations peuvent désormais faire tourner leurs infrastructures critiques avec les outils de gestion et de conformité d’Azure, sans avoir besoin d’une connexion au cloud ».

L’entreprise souligne que la version déconnectée de Microsoft 365 Local est aussi disponible : « les charges de travail de productivité essentielles, Exchange Server, SharePoint Server et Skype for Business Server peuvent fonctionner entièrement dans les limites opérationnelles souveraines du client sur Azure Local ».

Enfin Microsoft met en avant l’ajout à son offre souveraine de Foundry Local, qui est une « solution d’inférence IA sur appareil que vous utilisez pour exécuter des modèles IA localement via une interface CLI, un SDK ou une API REST ».

« Les entreprises peuvent désormais intégrer des grands modèles d’IA dans des environnements souverains entièrement déconnectés grâce à Foundry Local », affirme l’entreprise. Les modes « déconnectés  » Azure Local et Microsoft 365 Local sont « disponibles dans le monde entier » tandis que le déploiement de LLM sur Foundry Local est pour l’instant réservé aux « clients éligibles ».

  •  

Mineurs sur Internet : « Réglementez les plateformes, pas les enfants »

Mais c'est plus difficile
Mineurs sur Internet : « Réglementez les plateformes, pas les enfants »

Réseaux sociaux, IA, jeux vidéo… alors que le gouvernement français s’affiche à la pointe de la régulation des usages du numérique par les enfants, le commissaire aux droits de l’homme du Conseil de l’Europe demande aux législateurs européens de diriger les réglementations sur les obligations des plateformes plutôt que sur les mineurs.

« Alors que plusieurs pays européens envisagent d’introduire un âge minimum pour accéder aux plateformes de médias sociaux, j’appelle à la prudence dans l’imposition d’interdictions générales », affirme dans un communiqué Michael O’Flaherty, le commissaire aux droits de l’homme du Conseil de l’Europe.

La France fait partie des premiers pays de l’Union européenne à vouloir réglementer dans cette direction, soutenue par la Commission européenne malgré quelques critiques. L’Assemblée nationale a adopté fin janvier la proposition de loi visant à interdire l’accès aux réseaux sociaux aux mineurs de moins de 15 ans, problématique à plusieurs points de vue.

Qui doit être responsable : l‘utilisateur ou la plateforme ?

Pour Michael O’Flaherty, « l’accent mis sur la restriction de l’accès ne doit pas faire oublier la nécessité de veiller à ce que les plateformes respectent les droits humains, au moyen d’obligations juridiques claires, d’une surveillance indépendante et d’une responsabilisation effective ».

Il ajoute qu’« interdire l’accès des enfants aux médias sociaux revient à déplacer la responsabilité en matière de sécurité : cette responsabilité n’incomberait plus aux plateformes qui créent l’environnement, mais aux enfants qui naviguent dans cet environnement ».

Le Commissaire aux droits de l’homme estime que « les États devraient plutôt exiger des plateformes qu’elles préviennent et atténuent les risques pour les droits de l’enfant, dès la conception et par défaut, et les tenir pour responsables si ces obligations n’ont pas été remplies ».

L’usage par les mineurs de l’IA dans le viseur du gouvernement français

Cet appel tombe alors que le gouvernement français affiche la volonté de prendre en main deux autres sujets numériques sous l’angle de la régulation de leur utilisation par les mineurs.

La semaine dernière, Anne Le Hénanff, la ministre déléguée chargée de l’Intelligence artificielle et du Numérique, a fait un appel international à contributions scientifiques sur les effets des usages de l’IA générative sur les mineurs.

Ces travaux et données recueillis « viendront nourrir la réflexion scientifique de la commission d’experts et contribuer à l’élaboration de recommandations concrètes dont les conclusions seront présentées dans le cadre de la présidence française du G7 », affirme la ministre dans son communiqué. À cette occasion, elle a lancé que « la France réaffirme ainsi un engagement fort : faire de la protection de l’enfance en ligne une priorité absolue, en s’appuyant sur la science et la coopération internationale au service de l’intérêt général ».

Dans la foulée, le gouvernement a aussi annoncé une « commission d’experts sur les risques et les vulnérabilités engendrées par les usages grand public de l’intelligence artificielle générative ». Le but est de « renforcer notre compréhension des vulnérabilités induites par ces technologies sur l’ensemble de la population, afin de mieux prévenir leurs conséquences ».

Et aussi les jeux vidéo

Autre sujet : le jeu vidéo. Emmanuel Macron indiquait récemment souhaiter disposer d’un éclairage scientifique sur les effets des jeux vidéo sur la violence dans la société tout en affirmant qu’« il est clair qu’on a des jeux vidéo violents qui conditionnent à la violence, qui créent une excitation, une dépendance où on a des jeunes et des ados qui vont passer des heures et des heures ». Le gouvernement l’a suivi en annonçant charger le Conseil de l’intelligence artificielle et du numérique d’une mission sur « les risques potentiels des jeux vidéo concernant les mineurs ».

« Cette mission devra établir une analyse scientifique des effets (tant positifs que négatifs) et risques potentiels des jeux vidéo, particulièrement sur la santé mentale, cognitive et physique des jeunes utilisateurs, et en matière de sécurité des mineurs », affirme la lettre envoyée par Anne Le Hénanff mais aussi par la ministre de la Culture Rachida Dati.

Elles demandent au Conseil d’« d’objectiver les risques, sur la base des connaissances scientifiques disponibles, en tenant compte du caractère multifactoriel des comportements à risque, des distinctions qui pourraient exister en fonction des publics, des types de jeux et des usages, et en évitant toute approche réductrice ».

Les travaux devront aussi évaluer si « les mécanismes actuels de sécurité dès la conception, de modération et de régulation sont suffisants, au regard de l’évolution des contenus, des pratiques et des modèles économiques, et proposer, le cas échéant, des mesures pour les clarifier, les adapter ou les renforcer ». Les deux ministères demandent au conseil de se pencher aussi sur les « nouvelles formes de socialisation induites par certains jeux en ligne ».

Reste la question de la vérification d’âge. Comme nous avons pu le voir avec l’obligation de contrôle à l’entrée des sites pornos, c’est encore trop souvent une vaste blague. Une carte d’identité de Dora l’Exploratrice ou modifier un cookie permet de passer les contrôles.

  •  

Anthropic et OpenAI accusent des IA chinoises d’utiliser illégalement leur travail

Misanthropic ?
Anthropic et OpenAI accusent des IA chinoises d’utiliser illégalement leur travail

Alors que l’entraînement de leurs modèles s’appuie notamment sur l’utilisation massive de données dont elles n’ont pas les droits, les startups de l’IA générative américaines se plaignent que leurs rivaux chinois utilisent, via la technique de « distillation », les données générées par leurs modèles.

Anthropic a accusé trois entreprises chinoises, DeepSeek, Moonshot AI et MiniMax d’utiliser les résultats générés par ses modèles pour entrainer les leurs. Quelques jours avant, OpenAI avait aussi accusé Deepseek, devant les élus étatsuniens, d’utiliser la technique de « distillation » (ou extraction) pour mettre au point son prochain modèle. Ces accusations arrivent alors que la startup chinoise doit sortir d’ici quelques jours un nouveau modèle.

Un tir de barrage avant l’arrivée d’un nouveau modèle DeepSeek

Depuis début janvier, les rumeurs d’une sortie d’un nouveau modèle v4 par DeepSeek grandissent. « La société chinoise spécialisée dans l’IA n’a pas encore annoncé de date de sortie, mais celle-ci devrait être imminente après la fin des célébrations du Nouvel An lunaire la semaine dernière », affirmait lundi 23 février CNBC. Et l’industrie américaine de l’IA tremble de revivre l’épisode que lui avait fait subir l’entreprise chinoise il y a un peu plus d’un an quand Wall Street avait remis en cause leurs capacités à lutter.

Dans ce cadre, OpenAI a envoyé le 12 février un mémo [PDF] aux élus de la Chambre des représentants des États-Unis qui participent à la commission sur la « Concurrence stratégique entre les États-Unis et le Parti communiste chinois ». Ce texte accuse DeepSeek de « tenter continuellement de profiter gratuitement des capacités développées par OpenAI et d’autres laboratoires américains de pointe ». L’entreprise de Sam Altman y présentait des indices observés sur sa plateforme qui témoignent, selon elle, « des tentatives continues de DeepSeek pour distiller les modèles de pointe d’OpenAI et d’autres laboratoires américains, notamment par le biais de nouvelles méthodes de brouillage ».

Ce lundi 23 février, Anthropic en remettait donc une couche avec un billet de blog accusant DeepSeek, Moonshot, et MiniMax de lancer des « campagnes à l’échelle industrielle […] pour extraire illicitement les capacités de Claude afin d’améliorer leurs propres modèles ».

« Ces laboratoires ont utilisé une technique appelée « distillation », qui consiste à entraîner un modèle moins performant à partir des résultats d’un modèle plus puissant », explique Anthropic. Pourtant, la startup américaine reconnait que « la distillation est une méthode d’entraînement largement utilisée et légitime. Par exemple, les laboratoires d’IA de pointe distillent régulièrement leurs propres modèles afin de créer des versions plus petites et moins coûteuses pour leurs clients ».

Une utilisation « illicite » de la distillation ?

Mais elle affirme que son utilisation est illicite si des concurrents l’utilisent « pour acquérir les capacités puissantes d’autres laboratoires en une fraction du temps et à un coût bien inférieur à ceux nécessaires pour les développer de manière indépendante », sans pour autant s’appuyer sur un quelconque texte légal. Dans son billet, l’entreprise américaine accuse les trois entreprises chinoises d’avoir utilisé des milliers de comptes qu’elles se seraient créés sur sa plateforme pour récupérer des millions de conversations avec Claude.

Les accusations des deux entreprises semblent plutôt vouloir pointer du doigt que DeepSeek s’appuierait sur leurs travaux et ainsi éviter que Wall Street s’affole de l’arrivée d’un nouveau modèle chinois dépassant les capacités de ses rivaux états-uniens.

Rappelons qu’Anthropic comme OpenAI ont été accusées l’une et l’autre d’avoir entrainé leurs modèles sur des contenus dont elle n’avaient pas les droits. L’entreprise de Dario Amodei a signé un accord de 1,5 milliard de dollars avec des auteurs en septembre 2025, celui-ci est toujours en cours de relecture chez le juge qui doit le valider.

Enfin, Reuters affirme que DeepSeek entrainerait son modèle sur des puces Blackwell de NVIDIA, normalement soumises à un embargo américain. Depuis peu, seule la génération précédente Hopper est autorisée à l’exportation en Chine.

  •  

La retombée d’un Falcon 9 de SpaceX a créé un nuage de lithium dans la haute atmosphère

Après moi...
La retombée d’un Falcon 9 de SpaceX a créé un nuage de lithium dans la haute atmosphère

Il y a un an, SpaceX a perdu le contrôle du deuxième étage de sa fusée au cours d’un de ses lancements de satellites de Starlink. Des débris avaient été retrouvés en Pologne, mais des chercheurs allemands montrent un an après que la fusée a créé un nuage de lithium dans la haute atmosphère au dessus de l’ouest de l’Irlande s’étendant jusqu’au nord de l’Allemagne à 96 km d’altitude.

Les échecs des lancements de fusées peuvent polluer la haute atmosphère terrestre avec des conséquences inconnues pour la couche d’ozone. Le 18 février 2025, SpaceX lançait une 438e fois un Falcon 9 en dehors de l’atmosphère pour envoyer une vingtaine de satellites Starlink en orbite basse.

L’entreprise s’est félicitée du retour du premier étage de la fusée pour son premier lancement des Bahamas. Mais le 19 février, des Polonais témoignaient de la retombée de débris du deuxième étage de la fusée de SpaceX et l’agence spatiale polonaise POLSA confirmait « que dans la nuit du 19 février 2025, entre 04h46 et 04h48, une rentrée incontrôlée dans l’atmosphère au-dessus du territoire polonais d’un étage de la fusée porteuse FALCON 9 R/B a eu lieu ».

Une détection au-dessus du nord de l’Allemagne

Mais la retombée incontrôlée du deuxième étage du Falcon 9 a eu des conséquences qu’on n’imaginait pas. Des chercheurs et chercheuses de l’institut Leibniz de physique de l’atmosphère ont publié, tout juste un an après, un article scientifique indiquant qu’ils ont pu détecter et mesurer un nuage de lithium dans la haute atmosphère au-dessus de l’ouest de l’Irlande et s’étendant jusqu’au nord de l’Allemagne à 96 km d’altitude.

De fait, leur équipe explique avoir d’abord détecté une multiplication par 10 des atomes de lithium au-dessus de la petite ville de Kühlungsborn, en Allemagne, « environ 20 heures après la rentrée incontrôlée d’un étage supérieur Falcon 9 » avec un lidar, un appareil de détection par laser qui permet aussi d’estimer la distance à laquelle sont détectées les particules.

« La densité maximale de la couche de lithium était inférieure à 3 atomes cm⁻³ pendant la majeure partie de la mesure. Une augmentation soudaine du signal d’un facteur 10 a été détectée juste après minuit UTC le 20 février », expliquent-ils.

Ils ont ensuite mis en place des simulations pour vérifier d’où pouvaient provenir ces atomes. « L’ensemble des trajectoires calculées (en bleu) est représenté sur la figure 3 [ci-dessous] avec une carte thermique de densité de probabilité indiquant la région au-dessus du Royaume-Uni et de l’Irlande où le panache de lithium a probablement pris naissance » :

Sur la carte, le tracé noir représente la trajectoire de rentrée du Falcon 9 et la courbe constituée de petits cercles représente un exemple de trajectoire possible qu’ils ont simulé et qui correspondrait à l’heure de rentrée de la fusée dans la haute atmosphère.

Le lithium, la signature des débris spatiaux

Ils expliquent que le lithium a été choisi comme métal cible « pour détecter les signatures des débris spatiaux en raison de sa présence en quantités infimes dans les météoroïdes chondritiques et de ses applications bien documentées dans les engins spatiaux, notamment les batteries lithium-ion et le revêtement des coques en alliage lithium-aluminium (Li-Al) ».

Leur travail montre que les lidars, et notamment ceux à fluorescence par résonance, peuvent être utilisés pour la détection du lithium dans la haute atmosphère « lorsqu’il est associé à d’autres mesures atmosphériques et étayé par une analyse modélisée ». L’idée est de pouvoir comprendre ce qu’il se passe avant l’entrée dans la couche d’ozone. Des recherches ont déjà montré que la combustion des satellites pourrait gravement endommager la couche d’ozone. Mais la détection et la quantification de polluants dans la couche d’ozone stratosphérique est complexe et chère, selon eux.

Les autrices et auteurs soulignent aussi que leur travail « vient étayer les inquiétudes croissantes selon lesquelles le trafic spatial pourrait polluer la haute atmosphère d’une manière qui n’est pas encore entièrement comprise. La croissance continue des lancements et des rentrées de satellites pourrait entraîner des effets cumulatifs, avec des implications pour la composition atmosphérique à long terme et les interactions climatiques ». Reste une inconnue : les conséquences de cette pollution que ce soit sur cette haute atmosphère ou sur la couche d’ozone.

Rappelons qu’outre la haute atmosphère, les lancements de SpaceX sont responsables d’autres pollutions. Ainsi, un mois avant, en janvier 2025, des débris de Starship sont tombés sur des plages et routes des îles Turques-et-Caïques. Enfin, depuis plusieurs années, les astrophysiciens alertent sur les menaces que font peser les constellations de satellites sur les observations astronomiques, menaces qui se sont accélérées avec la taille de ces constellations.

  •  

Archive.is organise un DDoS contre un blog et se fait bannir de la Wikipédia anglophone

Sombre mesure de rétorsion
Archive.is organise un DDoS contre un blog et se fait bannir de la Wikipédia anglophone

Un des sites d’archivage en ligne les plus connus, Archive.is (connu aussi sous le nom de domaine archive.today) a mis en place un script envoyant en permanence des requêtes contre un blog qui a publié des informations à son sujet. La communauté anglophone de Wikipédia a décidé de bannir les liens qui renvoient vers cette archive.

La communauté de la version anglophone de Wikipédia a décidé de bannir tout lien vers l’un des sites d’archivage en ligne les plus connus, Archive.today, aussi connu par son autre nom de domaine archive.is.

« Il existe un consensus pour immédiatement désapprouver archive.today et, dès que possible, l’ajouter à la liste noire des spams (ou créer un filtre d’édition qui bloque l’ajout de nouveaux liens), et pour supprimer immédiatement tous les liens vers ce site . Il existe un fort consensus sur le fait que Wikipédia ne devrait pas diriger ses lecteurs vers un site web qui détourne les ordinateurs des utilisateurs pour lancer une attaque DDoS », explique une page de discussion de l’encyclopédie repérée par ArsTechnica. Cela fait plus de 695 000 liens à supprimer à travers 400 000 pages.

Des requêtes via un javascript dans la page de Captcha d’Archive.today

En cause, la mise en place d’une mesure de rétorsion par l’équipe d’Archive.today contre un blogueur. La page de Captcha du site d’archivage sur laquelle toute personne tombe avant d’accéder au site contient un script lançant en permanence des requêtes vers le blog d’un ingénieur de Google, Jani Patokallio, depuis plus d’un mois.

En 2023, il a publié un billet à propos du site après avoir glané quelques informations sur l’organisation du site qui est, elle, très discrète. « Internet Archive est une organisation à but non lucratif légitime régie par l’article 501(c)(3) du code fiscal américain, avec un budget de 37 millions de dollars et 169 employés à temps plein en 2019. archive.today, en revanche, est une énigme opaque », constatait-il.

Comme Jani Patokallio l’explique, jusque là, ce texte « n’avait pas vraiment enflammé la blogosphère ». Mais début novembre, on apprenait que le FBI cherchait à obtenir l’identité du responsable d’Archive.today. À cette occasion, des sites d’actualités numériques comme Heise, ArsTechnica mais aussi Next avaient cité son billet.

Une demande de dépublication temporaire d’un billet vieux de 2023

L’auteur du billet affirme avoir reçu un email du webmaster d’archive.today le 9 janvier dernier lui demandant « poliment » de dépublier le billet de 2023 « pendant quelques mois ». Jani Patokallio affirme que, dans leur conversation (qu’il a publiée), la personne explique qu’elle n’en a pas particulièrement contre son billet mais plutôt contre la reprise dans les médias d’informations glanées sans contexte.

Les contributeurs et contributrices de la Wikipédia anglophone ont donc considéré que l’encyclopédie ne devait pas renvoyer ses lecteurs vers un site web qui les utilisent pour créer une attaque DDoS, malgré le fait qu’ « Archive.today contient une quantité considérable d’archives qui ne sont disponibles nulle part ailleurs. Ni sur Wayback Machine, ni ailleurs. » De plus, lors de la discussion, « des preuves ont été présentées montrant que les opérateurs d’archive.today ont modifié le contenu des pages archivées, le rendant ainsi peu fiable ».

Les utilisateurs du bloqueur de publicité ublock origin qui visiteraient archive.today ne participent pas à cette attack DDoS, le blog de Jani Patokallio ayant été ajouté à une liste utilisée par l’extension. « Cela n’empêche pas les utilisateurs de naviguer directement vers mon blog », explique-t-il.

  •  

Qualité des réseaux fibre : « les efforts engagés par la filière doivent se poursuivre »

Attends, je débranche celui-là, ça laissera une place
Qualité des réseaux fibre : « les efforts engagés par la filière doivent se poursuivre »

Alors que, l’année dernière elle reconnaissait que la qualité des réseaux en fibre s’est améliorée, l’Arcep demande maintenant à la filière de maintenir ses efforts. L’autorité constate, en publiant son observatoire sur la qualité des réseaux en fibre optique, que « la qualité de l’exploitation se stabilise sur la majorité des réseaux »

L’Arcep a publié ce jeudi 19 février sa 7ème édition de l’observatoire sur la qualité des réseaux en fibre optique, utilisant les chiffres jusqu’en septembre 2025. Depuis juillet 2023, le régulateur met en avant ses constats sur ce réseau qui, à l’époque, souffrait de nombreuses critiques des clients.

En septembre dernier, l’Arcep constatait que la situation continuait à s’améliorer et sa présidente, Laure de la Raudière, expliquait « que c’était très long pour avoir ces résultats ».

Mais le régulateur semble indiquer que la vitesse d’amélioration est encore plus faible. « La qualité de l’exploitation se stabilise sur la majorité des réseaux », affirme l’Arcep dans son communiqué.

Amélioration du taux de pannes signalées aux opérateurs d’infrastructure

Il constate une amélioration du taux de pannes signalées aux opérateurs d’infrastructure par les opérateurs commerciaux. « Depuis la publication de la première édition de l’observatoire sur la qualité des réseaux en fibre optique, le nombre de réseaux présentant un taux de pannes supérieur ou égal à 1 % est en diminution, passant de 9 réseaux (représentant environ 420 000 abonnés) à 3 réseaux (représentant 83 500 abonnés) en septembre 2025 », explique l’autorité dans son rapport.

Avec, en parallèle, un nombre plus important de réseaux passant sous les 0,3 % : « de 187 réseaux (représentant 20,5 millions d’abonnés) à 196 réseaux (représentant 23,4 millions d’abonnés) en septembre 2025 ». Finalement, l’Arcep constate un taux de pannes national « de 0,11% en moyenne sur la période concernée ».

Les trois réseaux pointés du doigt par le régulateur restent les mêmes qu’il y a six mois, appartenant à Altitude mais récupérés en 2021 suite au rachat de l’opérateur d’infrastructure Covage par SFR FTTH (devenue depuis XpFibre, appartenant à Altice).

Les données de l’Arcep montrent aussi l’évolution dans le temps du taux de pannes mensuel agrégé par maison mère d’opérateurs. Et on peut voir qu’après s’être beaucoup améliorés en 2024, les opérateurs d’Iliad sont revenus à un taux de pannes moyen de plus de 0,5 % alors que les autres sont tous bien en dessous :

Dans une note sous ce graphique, l’Arcep explique que, « depuis 2023, le groupe Iliad, par l’intermédiaire de sa filiale Réseau Optique de France, met en œuvre un plan de modification structurelle de son réseau. Celui-ci vise notamment à substituer les « Points de Mutualisation Grande Capacité » par des points de mutualisation intérieurs et extérieurs. Cette démarche s’est intensifiée à la fin de l’année 2025 et a pu entraîner des interruptions de service pour les utilisateurs. Le déploiement de ce plan devra être achevé au plus tard le 31 décembre 2026 ».

Une stabilité des taux d’échecs

Concernant le taux d’échecs au raccordement, l’autorité constate « une stabilité globale des taux d’échecs au raccordement sur les derniers mois d’observation ».

« La moyenne nationale des taux d’échecs au raccordement s’établit à 5,88 % en septembre 2025 », explique l’Arcep. Mais elle ajoute que « 31 réseaux présentent un taux d’échecs au raccordement supérieur ou égal à 11 %, soit 2 réseaux de plus que dans la précédente version de l’observatoire » et « 82 réseaux présentent un taux d’échec au raccordement inférieur ou égal à 5 %, soit 13 réseaux de moins que dans la précédente version de l’observatoire ».

L’observatoire mesure aussi la qualité des raccordements effectués par les opérateurs commerciaux. Comme la dernière fois, quelques précautions sont néanmoins à prendre puisque le régulateur ne s’appuie que sur les données de l’opérateur d’infrastructure Altitude, mais l’Arcep indique qu’elle poursuit les travaux pour obtenir des données d’autres acteurs.

On peut néanmoins observer dans les chiffres d’Altitude une augmentation nette des malfaçons chez SFR au dernier trimestre 2025 et une baisse importante chez Free (plus la couleur est foncée dans les graphiques, plus le problème est important) :

Amélioration sur la reprise des malfaçons

L’observatoire recueille aussi les données sur la reprise des malfaçons par les opérateurs commerciaux qui doit en théorie être effectuée dans les 30 jours.

Orange et Bouygues sont les bons élèves depuis longtemps avec « des niveaux élevés et relativement stables, avec une performance supérieure pour Orange sur l’ensemble de la période », selon l’Arcep. Elle observe que « SFR et Free montrent une amélioration progressive en 2025 réduisant l’écart avec les autres opérateurs, mais qui reste insuffisante » :

Au global, « le taux national moyen de malfaçons reprises sous 30 jours s’améliore, passant de 73 % en février 2025 à 82 % en août 2025, et les écarts entre les opérateurs commerciaux tendent à se réduire ».

Sur les abonnés affectés par au moins une panne au cours du mois, l’Arcep « observe des disparités entre les réseaux » :

Poursuivre les efforts

Elle ajoute observer, pour cet indicateur, « une relative stabilité […] malgré une hausse à 2,0 % en septembre 2025. La moyenne annuelle (sur douze mois glissants) s’établit à 1,74 % ».

Dans son communiqué, l’Arcep insiste sur le fait que si elle observe une stabilisation au niveau national, « les efforts engagés par la filière doivent se poursuivre, notamment sur les réseaux les plus dégradés ».

Notamment, elle explique que « les taux de pannes et d’échecs au raccordement observés sur certaines zones concernées par un plan de reprise demeurent souvent supérieurs aux standards du marché ».

  •  

Pannes chez AWS dues à son agent IA : Amazon se défausse sur ses employés

La faute à celui qui est entre la chaise et le clavier, encore ?
Pannes chez AWS dues à son agent IA : Amazon se défausse sur ses employés

Plusieurs pannes chez AWS sont liées à l’utilisation en interne de ses propres agents IA par ses ingénieurs. L’entreprise qui a lancé son agent Kiro en assurant qu’il allait « au-delà du vibe coding » rejette la faute sur ses employés qui auraient laissé faire son IA.

Au moins deux pannes internes à Amazon Web Services récentes sont liées à l’utilisation de ses outils d’IA générative comme Kiro, utilisés par ses employés pour gérer ses infrastructures.

L’entreprise avait présenté son agent IA Kiro en juillet 2025 en le proposant d’abord via inscription sur liste d’attente avant de le lancer pleinement fin décembre lors de sa conférence annuelle re:Invent.

AWS présentait Kiro comme un « environnement de développement IA qui vous aide à passer du concept à la production grâce à une expérience de développement simplifiée pour travailler avec des agents IA. Kiro excelle dans le « vibe coding », mais va bien au-delà : la force de Kiro réside dans sa capacité à intégrer ces prototypes dans des systèmes de production grâce à des fonctionnalités telles que les spécifications et les hooks ».

Suppression et recréation de l’environnement sur un système en production

Mais, comme l’explique le Financial Times, l’utilisation de ces outils provoque, même en interne, des doutes sur la qualité qui en résulte. Ainsi, des employés d’AWS ont expliqué au journal économique britannique que deux pannes ont eu lieu sur les systèmes de l’entreprise alors que des ingénieurs les ont utilisés pour les gérer.

« Nous avons déjà constaté au moins deux interruptions de production [au cours des derniers mois] », explique une des sources de nos confrères. « Les ingénieurs ont laissé l’ [agent] IA résoudre un problème sans intervenir. Les interruptions étaient mineures, mais tout à fait prévisibles. »

L’une d’entre elles concerne un service utilisé par les clients ayant subi une interruption de 13 h à la mi-décembre. AWS a fait circuler en interne un postmortem de l’incident. L’outil d’Amazon Kiro aurait été utilisé par un ingénieur de l’entreprise. Et il aurait déterminé que la meilleure solution consistait à « supprimer et recréer l’environnement » du système.

Concernant l’autre panne, c’était l’outil Amazon Q Developer qui était impliqué, selon les sources du Financial Times, sans plus de détails.

Une erreur de l’utilisateur, et non une erreur de l’IA, selon AWS

Amazon a affirmé qu’il s’agissait « d’une coïncidence que des outils d’IA aient été impliqués [et que] le même problème pourrait se produire avec n’importe quel outil de développement ou action manuelle ».

L’entreprise a ajouté que « dans les deux cas, il s’agissait d’une erreur de l’utilisateur, et non d’une erreur de l’IA ». Elle assure que l’incident de décembre était un « événement extrêmement limité » qui n’a touché qu’un service dans certaines régions de Chine, et que l’autre n’a eu aucune conséquence sur les services AWS orientés client.

Amazon continue en parallèle de promouvoir l’utilisation de ses outils d’IA générative en interne qui sont en retard par rapport à certains outils de ses concurrents. L’entreprise interdit même l’utilisation de Claude Code à ses employés au profit de Kiro, ce qui a attiré des critiques en interne.

Dans un fil de discussion sur l’outil de chat de l’entreprise, environ 1 500 employés d’Amazon ont poussé à l’adoption officielle de Claude Code en interne, expliquait la semaine dernière Business Insider. Cette situation est d’autant plus étrange qu’Amazon propose à ses clients un accès à Claude Code via sa plateforme Bedrock.

  •  

Zuckerberg pressé devant la justice de justifier la politique de Meta relative aux préados

Cibler les préados pour gagner les ados
Zuckerberg pressé devant la justice de justifier la politique de Meta relative aux préados

Auditionné devant un jury à Los Angeles dans l’affaire qui oppose, entre autres, Meta à une jeune femme reprochant la mise en place de mécanismes d’addiction sur les plateformes de réseaux sociaux, Mark Zuckerberg a du expliquer pourquoi, comme l’indiquait un document de 2018, son entreprise estimait qu’il y avait 4 millions d’utilisateurs d’Instagram de 10 à 12 ans. Il a défendu la mise à disposition de « filtres de beauté » sur Instagram comme une liberté d’expression des utilisateurs.

Une jeune femme de 20 ans, Kaley G. M., et sa mère accusent les géants des réseaux sociaux, et notamment Google (via YouTube) et Meta (via Facebook et surtout Instagram), de provoquer et d’entretenir l’addiction chez les jeunes.

Après Adam Mosseri, patron d’Instagram, c’était ce mercredi 18 février à Mark Zuckerberg de s’y rendre. Le patron de Meta est arrivé au tribunal encadré par plusieurs personnes portant des lunettes connectées de l’entreprise.

Comme l’explique le Los Angeles Times, la juge Carolyn B. Kuhl a estimé nécessaire de prendre un moment pour avertir la salle que l’usage de ces lunettes était interdit : « Si vos lunettes enregistrent, vous devez les retirer. La cour ordonne qu’il ne doit y avoir aucune reconnaissance faciale du jury. Si vous l’avez fait, vous devez supprimer l’enregistrement. C’est très sérieux. »

Un filtre des enfants peu efficace

Les débats se sont notamment concentrés sur la politique de Meta concernant la création de comptes de jeunes enfants. Comme le Los Angeles Times l’explique, Mark Zuckerberg a rappelé qu’Instagram n’a jamais autorisé, dans ses conditions d’utilisation, les enfants de moins de 13 ans à s’inscrire.

Mais la plaignante, Kaley G. M., affirme dans sa plainte avoir créé son compte à l’âge de 9 ans. « Je pense généralement qu’il existe un groupe de personnes, potentiellement assez important, qui mentent sur leur âge afin d’utiliser nos services », a affirmé Mark Zuckerberg, évoquant également « une autre question séparée et très importante concerne la mise en application, et celle-ci est très difficile ».

Le patron de Meta en a profité pour réaffirmer que, selon lui, c’était aux responsables des systèmes d’exploitation comme Apple et Google que devrait revenir la charge de contrôler l’âge des utilisateurs.

Cibler les préados pour attirer les ados

Mais ce n’est qu’en décembre 2019, a pointé l’avocat de Kaley, Mark Lanier, qu’Instagram a commencé à demander leurs dates de naissance aux nouveaux inscrits, relate CNN. Il a aussi montré à la cour un document interne à Meta qui évaluait en 2015, selon NPR, à 30 % les enfants de 10 à 12 ans aux États-Unis qui utilisaient Instagram.

« Je ne me souviens pas du contexte de cet e-mail datant d’il y a plus de dix ans », a répondu Mark Zuckerberg. « Je pense que nous devons créer des services utiles qui permettent aux gens de rester en contact avec leur famille et leurs amis et d’apprendre à connaître le monde », a-t-il ajouté.

Mark Lanier a cité un autre document interne à l’entreprise, datant cette fois de 2018, dans lequel était affirmé « si nous voulons vraiment gagner auprès des adolescents, nous devons les attirer dès leur préadolescence ».

La liberté d’expression pour défendre les filtres « beauté » d’Instagram

Le patron de Meta a aussi été interrogé sur la volonté de son entreprise de pousser ses utilisateurs à utiliser toujours plus ses réseaux sociaux. L’avocat de la plaignante lui a demandé si son entreprise avait mis en place des buts à atteindre pour maximiser le temps d’exposition des utilisateurs, relate CNN.

Mark Zuckerberg a reconnu que ces buts avaient existé « plus tôt dans l’entreprise » mais qu’ils avaient été modifié pour se focaliser sur l’« utilité et la valeur apportée ». « Je pars du principe que si quelque chose a de la valeur, les gens le feront davantage », a-t-il ajouté.

Mark Lanier a aussi pointé le problème des filtres de beauté sur Instagram, qui permettent de modifier l’apparence du visage en y ajoutant du faux maquillage et des fausses modifications chirurgicales. Selon lui, Instagram a consulté 18 experts qui lui ont fait remarquer que ces filtres pouvaient être nuisibles. L’entreprise a décidé de laisser aux utilisateurs la possibilité de les créer tout en ne les mettant pas en avant.

« Je pensais que l’équilibre de la liberté d’expression devait permettre aux gens de créer ces filtres, mais que nous ne devions pas les créer nous-mêmes », a répondu Mark Zuckerberg, ajoutant que l’entreprise avait consulté des experts sur la liberté d’expression à ce sujet.

  •  

L’administration Trump prépare un site débloquant l’accès aux discours de haine en Europe

Trolling étatique
L’administration Trump prépare un site débloquant l’accès aux discours de haine en Europe

Alors que la Commission européenne et plusieurs pays de l’UE ouvrent des enquêtes sur les manquements des différents réseaux sociaux et notamment X aux législations européennes, l’administration Trump met en place freedom.gov, un site qui doit permettre de consulter les contenus interdits en Europe, y compris les discours de haine et la propagande terroriste.

Utilisant le vocabulaire de la liberté sur lequel Donald Trump a surfé lors de sa campagne électorale de 2024, son administration prévoit de lancer le site Freedom.gov pour viser le public européen. Le nom de domaine a été créé le 12 janvier.

N’affichant pour l’instant qu’une page statique avec des petits effets suggérant le dévoilement de la liberté, il doit être l’un des premiers outils concrets de l’offensive trumpiste contre la régulation numérique européenne.

Un projet mené par la diplomatie américaine

Reuters a eu vent du projet mené par Sarah B. Rogers, la responsable du sous-secrétaire d’État à la diplomatie publique et aux affaires publiques étatsunien. Le site doit prochainement accueillir un portail qui permettrait aux personnes résidant en Europe mais aussi ailleurs de voir les contenus interdits dans leurs pays, y compris les discours de haine et la propagande terroriste qu’interdisent les différentes législations européennes.

Selon les sources de l’agence de presse, l’administration Trump présente cette initiative comme une contre-mesure contre la censure. Le projet aurait dû être lancé la semaine dernière alors qu’avait lieu la Conférence sur la sécurité de Munich.

Ce forum est régulièrement utilisé comme un théâtre des tensions diplomatiques : discussions sur le parapluie nucléaire français, remise en question de la guerre en Irak ou, plus récemment, en 2025, le discours de JD Vance. Dans celui-ci, le vice-président étatusien dénonçait un « recul » de la liberté d’expression en Europe, reprenant les arguments d’Elon Musk qui avait défendu le parti d’extrême-droite Alternative für Deutschland.

Finalement, l’administration Trump, représentée cette fois par Marco Rubio, a voulu montrer un visage rassurant à l’Europe, tout en gardant le même cap. Et le lancement du projet Freedom.gov aurait été repoussé sans qu’on en connaisse la raison, selon les sources de Reuters, mais des responsables du secrétariat d’État auraient exprimé des doutes sur le projet.

Du flou sur le service qui sera réellement proposé

Officiellement, le secrétariat d’État n’admet aucun retard ni aucun doute juridique sur le sujet. Il rejette tout projet de contournement de censure visant spécifiquement l’Europe tout en affirmant que « la liberté numérique est toutefois une priorité pour le Département d’État, ce qui inclut la prolifération des technologies de protection de la vie privée et de contournement de la censure, telles que les VPN ».

L’agence de presse ne détaille pas la façon dont Freedom.gov permettrait ce contournement. Si le terme VPN est utilisé, ce n’est pas un outil utilisable directement via un site web. On imagine plutôt un service comme les sites de « proxy » qui reroutent les requêtes via l’intégration des pages dans les pages principales du site.

Une confrontation d’approches ancienne, poussée sur le terrain par Donald Trump

Les approches étatsunienne et européenne sur la liberté d’expression divergent depuis des décennies. Ainsi, le linguiste américain Noam Chomsky et l’historien français Pierre Vidal-Naquet se sont affrontés au début des années 80 sur la question de la possibilité ou non de laisser diffuser la propagande négationniste en démocratie.

Mais l’administration Trump veut maintenant imposer sa propre définition au Vieux continent alors que la Commission européenne mais aussi des États comme la France, l’Espagne ou le Royaume-Uni ont lancé des enquêtes judiciaires notamment contre le réseau social X et son IA Grok. Rappelons que l’année dernière, le dirigeant états-unien a imposé aux agences de son pays la censure, sur leurs sites web, d’au moins 200 mots, dont injustice, femmes, victimes, noir ou encore pollution.

À l’occasion d’une visite de quatre jours en Inde et du sommet mondial de l’IA qui s’y déroule, Emmanuel Macron s’est emporté contre cette « soi-disant liberté d’expression », relate Ouest-France. « Nous sommes en faveur de l’algorithme libre mais totalement transparent », a-t-il affirmé. « La liberté d’expression c’est du pur bullshit si personne ne sait comment on est guidé à travers cette soi-disant liberté d’expression », a ajouté le président français, qui continue à n’utiliser essentiellement que X lorsqu’il s’agit de communiquer sur un réseau social.

  •  

☕️ Un bug dans Microsoft 365 Copilot lui permettait de résumer des emails confidentiels

L’assistant IA inclus dans Microsoft 365 Copilot avait la possibilité de passer outre les mesures de sécurités censées être mises en place pour qu’il n’accède pas à tous les contenus des utilisateurs de la suite.

BleepingComputer a relevé que Microsoft avait signalé depuis le 21 janvier ce bug dans son outil réservé aux administrateurs Microsoft 365 sous le numéro CW1226324.

Copilot Chat pouvait accéder aux emails envoyés ou en brouillon des utilisateurs même s’ils étaient étiquetés par l’utilisateur comme confidentiels (étiquette pourtant explicitement mise en place pour éviter cela). Ainsi ses résumés pouvaient intégrer des informations issues de ces emails confidentiels.

Selon Microsoft elle-même, ce bug entraine le fait que « les emails des utilisateurs auxquels une étiquette confidentielle a été appliquée sont traités de manière incorrecte par le chat Microsoft 365 Copilot » et que « l’ « onglet travail » du Chat de Copilot Microsoft 365 résume les emails même si ceux-ci sont assortis d’une étiquette de confidentialité et qu’une politique DLP [data loss prevention, ndlr] est configurée ».

L’entreprise affirme avoir commencé à déployer le correctif début février et indique qu’elle a contacté une partie des utilisateurs concernés pour vérifier qu’il fonctionnait. Mais elle ne s’est encore engagée sur aucune date de correction complète du bug et n’a donné aucune information sur le nombre d’organisations touchées.

Plus tôt, la direction des services informatiques du Parlement européen avait décidé de bloquer l’accès à tous les outils d’IA générative sur ses appareils pour s’assurer que des informations ne fuitent pas via ces outils.

  •  

☕️ Le Parlement européen bloque l’accès aux outils d’IA générative sur ses appareils

Pour des raisons de cybersécurité et de protection des données, le Parlement européen a bloqué les fonctionnalités d’IA génératives des appareils qu’il fournit aux députés européens et à leurs équipes.

Dans un email obtenu par Politico, l’institution a informé ses membres lundi qu’elle avait désactivé les « fonctionnalités d’intelligence artificielle intégrées » sur les tablettes qu’elle leur fournit.

Drapeaux de l’Union européenne

« Certaines de ces fonctionnalités utilisent des services cloud pour effectuer des tâches qui pourraient être traitées localement, envoyant ainsi des données hors de l’appareil », explique la direction des services informatiques du Parlement :

« Alors que ces fonctionnalités continuent d’évoluer et deviennent disponibles sur un plus grand nombre d’appareils, l’étendue totale des données partagées avec les fournisseurs de services est encore en cours d’évaluation. Tant que cela n’aura pas été entièrement clarifié, il est considéré comme plus sûr de garder ces fonctionnalités désactivées. »

Les fonctionnalités visées seraient celles d’aide à l’écriture et au résumé de textes. La DSI du parlement pousse aussi les députés et leurs équipes à éviter ce genre d’outils sur leurs autres appareils.

  •  

☕️ Pédopornographie genAI: le gouvernement espagnol à l’offensive contre X, Meta et TikTok

« L’impunité des géants doit cesser », affirmait le Premier ministre espagnol, Pedro Sánchez, dans un message diffusé sur le réseau social X ce mardi 17 février. Il y annonçait ainsi que le gouvernement espagnol allait demander à la justice « d’enquêter sur les délits que X, Meta et TikTok pourraient commettre en créant et en diffusant de la pornographie infantile par le biais de leurs IA ».

« Ces plateformes portent atteinte à la santé mentale, à la dignité et aux droits de nos enfants », a-t-il ajouté, « l’État ne peut pas l’admettre ».

L’agence Reuters rapporte qu’un jeune Espagnol sur cinq, principalement des filles, affirme que des deepnudes d’elles et eux ont été créées par l’IA et partagées en ligne alors qu’ils et elles étaient mineurs, a déclaré le bureau de Sanchez, citant l’organisation de défense des droits Save the Children.

Jusque-là, c’est X et les deepfakes de Grok qui étaient surtout visés par des menaces judiciaires, mais le gouvernement espagnol semble élargir sa cible à Meta et TikTok sans pour autant détailler les reproches qu’il leur fait.

« TikTok dispose de systèmes robustes pour contrecarrer les tentatives d’exploitation ou de préjudice envers les jeunes, et nous continuons à donner la priorité et à investir dans des technologies de pointe afin de garder une longueur d’avance sur les acteurs malveillants », affirme le réseau social de partage de vidéos dans un communiqué envoyé à Reuters, tandis que X et Meta n’ont pas répondu à nos confrères sur le sujet.

  •  

Addiction aux réseaux sociaux : Meta a enterré une recherche qui ne lui convenait pas

Sous le tapis
Addiction aux réseaux sociaux : Meta a enterré une recherche qui ne lui convenait pas

L’affaire qui oppose, aux États-Unis, une jeune femme aux plateformes de réseaux sociaux documente la façon dont Meta gère les recherches internes que l’entreprise lance sur les conséquences de ses produits. Des emails montrent ainsi que des travaux sont enterrés quand ils ne vont pas dans le sens de l’entreprise.

La semaine dernière s’est ouvert aux États-Unis le procès opposant Meta et Google à une plaignante âgée de 20 ans, Kaley G. M., et sa mère, qui les accusent de provoquer et entretenir l’addiction chez les jeunes. Comme nous l’expliquions, Snap et TikTok ont aussi été mis en cause mais ces deux entreprises ont préféré négocier un accord avec les plaignantes.

Les techniques pour attirer et garder l’auditoire de YouTube mais aussi des plateformes de réseaux sociaux Facebook et Instagram de Meta vont donc être particulièrement scrutées pendant ce procès.

Mais l’avocat de Kaley G. M, Mark Lanier, profite de l’accès aux documents internes de Meta que lui offre ce procès pour pointer la façon dont Meta choisit de rendre publiques ou pas, voire d’abandonner totalement les recherches que l’entreprise fait sur l’utilisation de ses produits.

Une étude interne de Meta qui remonte via le procès

En effet, comme nous en faisions part récemment, de plus en plus de recherches sur le numérique sont menées en lien avec les entreprises du secteur. Souvent, les auteurs n’informent pas correctement sur les liens qui les relient à Meta, X, Google ou Microsoft, par exemple. Ainsi, 29 % des articles scientifiques à propos des réseaux sociaux oublient de mentionner leurs liens d’intérêt.

Dans ce procès, Mark Lanier a mis en avant une étude menée par Meta en collaboration avec des chercheurs de l’Université de Chicago qui, selon lui, montre que le fait que les parents surveillent de près l’utilisation par leurs ados des réseaux sociaux n’a que très peu d’effet sur une utilisation compulsive ou non. Cette étude, nommée « Project Myst » pour Meta and Youth Social Emotional Trends, sondait 1 000 adolescents et leurs parents à propos de leurs usages des réseaux sociaux, explique Associated Press.

L’avocat n’a pas diffusé l’entièreté de l’étude, mais cite trois extraits repris par l’association The Tech Oversight Project. L’un affirme que « les facteurs parentaux et familiaux ont peu d’influence sur le niveau d’attention que les adolescents déclarent accorder à leur utilisation des réseaux sociaux ». Le deuxième conclut qu’ « il n’y a aucun lien entre ce que rapportent les parents et les adolescents concernant la surveillance/l’accompagnement numérique des parents et les mesures de l’attention ou des capacités des adolescents telles qu’elles ressortent de l’enquête ». Et le troisième que « les adolescents qui ont déclaré avoir vécu un plus grand nombre d’expériences négatives dans leur enfance, telles qu’une relation étroite avec une personne ayant des problèmes d’alcoolisme ou souffrant d’alcoolisme, ou avoir été victimes d’intimidation ou de harcèlement à l’école, ont déclaré être moins attentifs à leur utilisation des réseaux sociaux ».

Sans publication, des interprétations divergentes

Selon TechCrunch, Mark Lanier a interprété devant la Cour ces conclusions de l’étude comme le fait que les outils de contrôle parental d’Instagram ou ceux de limitation du temps d’utilisation sur les smartphones n’auraient pas vraiment d’effet sur l’utilisation excessive des réseaux sociaux sur les ados. Pour autant, il est difficile d’aller dans son sens ou de conclure autre chose sans avoir accès à l’étude en question.

Nos confrères soulignent que, bien qu’un document semble montrer qu’il a donné son accord pour la mise en place de MYST, le patron d’Instagram, Adam Mosseri, a affirmé dans son témoignage ne pas se rappeler du projet : « Nous menons de nombreux projets de recherche », a-t-il affirmé devant la Cour.

Les avocats de Meta ont plus insisté sur le fait que l’étude cherchait à déterminer non pas si les adolescents étaient réellement dépendants, mais s’ils avaient le sentiment d’utiliser trop les réseaux sociaux. Concernant l’utilisation excessive des réseaux sociaux par les adolescents, ils ont mis l’accent sur la responsabilité des parents et les problèmes rencontrés dans la vie plutôt que sur les produits de leur client, pointant le divorce des parents de Kaley, son père violent et le harcèlement qu’elle a subi à l’école.

  •  

Palantir attaque le média Republik qui a dévoilé un rapport de l’armée suisse sur elle

« Complotisme à la limite du tolérable »
Palantir attaque le média Republik qui a dévoilé un rapport de l’armée suisse sur elle

Objet d’une enquête du média suisse Republik, Palantir attaque ce site en justice pour obtenir un droit de réponse.

Alors que la DGSI renouvelait encore, en fin d’année dernière, son contrat avec Palantir, l’entreprise fondée par Peter Thiel était l’objet d’une enquête du magazine suisse Republik et du collectif d’investigation WAV. L’entreprise attaque maintenant nos confrères suisses, réclamant un droit de réponse, explique Republik. La cour du canton de Zurich a confirmé avoir reçu une demande de droit de réponse à ce sujet auprès de nos confrères de Heise.

L’entreprise a des bureaux dans le pays, à Zurich, qu’elle utilise notamment pour ses relations commerciales, comme l’explique le média Swiss Info. Republik et WAV ont donc enquêté sur d’éventuels liens entre les autorités suisses et Palantir, notamment en déposant 59 demandes d’accès à des documents des autorités fédérales suisses.

Un rapport qui s’inquiétait du potentiel transfert de données au gouvernement américain

Et ils ont découvert que, malgré 7 ans passés à essayer de convaincre les autorités suisses, Palantir n’y était pas arrivé (9 refus immédiats et un refus après évaluation par Armasuisse, l’Office fédéral de l’armement). Cette enquête révélait aussi un rapport interne à l’armée suisse de 2024 [PDF] qui fermait de nouveau la porte à Palantir.

La qualité des produits de l’entreprise n’était pas en jeu, comme le relevait le Temps qui a relayé l’enquête, puisque le rapport qualifiait ses performances d’« impressionnantes ». Mais le risque de transfert de données au gouvernement américain était trop élevé, selon les auteurs du rapport qui soulignaient aussi les potentielles conséquences négatives dues à la réputation de l’entreprise.

Republik explique dans son article de lundi que l’entreprise lui a adressé des demandes de rectification entre Noël et le Nouvel An, mais le média suisse les « a jugées infondées » et n’y « a donc pas pu donner suite ». Le média explique, pour son enquête, s’être basé sur l’analyse des documents mais aussi avoir discuté avec différentes sources et des cadres de Palantir au siège de Zurich (dont les citations ont été relues et approuvées).

Sur LinkedIn, la journaliste Marguerite Meyer, coautrice de l’enquête, explique que son équipe a rejeté la demande de modifications de Palantir « sur la base d’un travail minutieux ». « Cette demande a été suivie d’une deuxième demande, que nous avons également rejetée », ajoute-t-elle.

Un droit de réponse pour donner une version des faits

De son côté, Palantir a pu librement critiquer l’enquête. Dès le 12 décembre, le responsable « Confidentialité et libertés civiles » de Palantir, Courtney Bowman, affirmait sur LinkedIn que les articles de Republik étaient « empreints de distorsion, d’insinuations et de complotisme à la limite du tolérable » sans pour autant étayer ses accusations. Concernant le rapport de l’état-major suisse, il affirme qu’il « soulève des questions légitimes, mais malheureusement, ses auteurs semblent s’appuyer exclusivement sur un ensemble limité de sources issues de moteurs de recherche ».

« Palantir respecte pleinement la liberté de la presse et le rôle essentiel des médias indépendants dans le débat public », affirme de son côté l’entreprise à Heise. Le droit de réponse est un « instrument de correction destiné à fournir au public des informations équilibrées », selon elle.

En Suisse, « le droit de réponse ne porte pas sur la véracité ou la fausseté d’une information », explique le corédacteur en chef de Republik, Daniel Binswanger, à Heise. « Il s’agit de savoir si une autre version des faits pourrait également être possible ».

Selon Republik, le jugement du tribunal de commerce de Zurich doit être rendu dans quelques semaines.

  •  

☕️ Le CNRS a subi une fuite de données

Ce lundi 16 février, la DSI du CNRS a informé certains agents de l’institution de recherche d’un « incident de cybersécurité au CNRS », leur expliquant que des données de ressources humaines les concernant ont fuité.

« Ce courrier s’adresse à vous parce que, à notre connaissance, vous faites partie de ce groupe », explique la direction à ces agents.

Questionné par Next, le CNRS nous renvoie vers un communiqué qu’il a publié ce jour et qui contient globalement les mêmes informations.

Ainsi, les fichiers récupérés contiennent, selon la DSI du centre de recherche, des données de personnes rémunérées par le CNRS avant le 1er janvier 2007. Dans le détail, il s’agit des informations suivantes : nom, prénom, date de naissance, adresse, numéro de sécurité sociale, RIB mais aussi statut de l’agent, type de son contrat et la structure de son affectation.

« Les personnels recrutés après le 1/1/2007 ne sont pas concernés », ajoute le CNRS. Cela concerne donc les titulaires et non-titulaires ayant travaillé au CNRS avant le 31 décembre 2006.

La CNIL et l’ANSSI ont été informées et le CNRS a déposé plainte auprès de la section cybercriminalité du parquet de Paris.

L’institution affirme que, « dès connaissance de l’incident, le serveur a été isolé et arrêté », sans pour autant donner de précision sur la date à laquelle s’est passée l’exfiltration ni la date à laquelle la DSI s’en est rendu compte. « Après analyse, l’incident ne s’est pas propagé au reste des infrastructures », ajoute le communiqué.

Le CNRS a publié une FAQ concernant cet incident en conseillant à ses agents concernés de prévenir leur banque, et de surveiller leur compte. « Portez attention aux démarchages à domicile, surveillez le contenu des courriers postaux, veillez aux messages liés à votre sécurité sociale ou carte vitale, Consultez le site de la CNIL, vérifiez si vos données sont en fuite sur le site haveibeenpwned.com , veillez à l’utilisation de votre identité », ajoute la FAQ.

  •  

Un problème sur une baie met à l’arrêt les opérations comptables des collectivités locales

Eclipse solaire
Un problème sur une baie met à l’arrêt les opérations comptables des collectivités locales

L’application de gestion comptable des collectivités locales Helios a subi une panne complète pendant plus d’une semaine. Ce logiciel de Bercy gère l’intégralité de la comptabilité des collectivités locales françaises. Selon la DGFiP, l’incident est lié à une défaillance d’une baie de stockage. Le syndicat Solidaires Finances affirme que la direction « n’a jamais voulu, faute de moyens alloués, mettre en place une redondance ».

« Depuis le jeudi 5 février, l’application Hélios gérant les flux financiers de la comptabilité publique est indisponible en raison d’un incident sur un serveur entraînant la corruption de données », lançait dans un communiqué le syndicat Solidaires Finances publiques ce vendredi 13 février.

De la Collectivité Territoriale de Martinique à la communauté de communes du pays de Baud en passant par la ville de Lagarde et bien d’autres, de nombreuses administrations locales ont dû informer leurs fournisseurs.

« En raison de cet incident technique d’ampleur nationale, totalement indépendant de la volonté et des services de Baud Communauté, l’ensemble des virements à destination de nos fournisseurs et prestataires est bloqué par les systèmes bancaires de l’État depuis le 5 février 2026 », explique ainsi la communauté de communes du pays de Baud. Elle ajoute que « le rétablissement du service nous est annoncé pour le 19 février 2026 ».

Ni un bug, ni une cyberattaque mais une défaillance matérielle sur une baie

Hélios centralise, depuis 20 ans, la gestion comptable des collectivités par Bercy. Utilisant le protocole d’Échange Standard Version 2 (PES V2), il permet de « dématérialiser les données comptables de prise en charge (titres, mandats ainsi que les bordereaux avec la mise en œuvre de la signature électronique) et leurs pièces justificatives ».

« L’origine de l’incident est connue, et il ne s’agit ni d’un bug informatique lié à une évolution de version de l’application, ni d’une cyberattaque. C’est un incident exceptionnel de nature technique, lié à une défaillance matérielle sur une baie de stockage », expliquait à nos confrères d’Acteurs Public, Éric Barbier, chef du service des gestions publiques locales, des activités bancaires et économiques à la direction générale des Finances publiques. « Dès le début, les équipes informatiques de la DGFiP et l’assistance technique du prestataire de la baie de stockage sont intervenues pour faire en sorte que cette anomalie soit réparée », ajoute-t-il.

Hélios s’appuie sur deux sites physiques situés l’un à Versailles, l’autre à Metz. Chacun héberge une partie des trésoreries des collectivités territoriales. C’est celui de Metz qui a été touché et les collectivités qu’il héberge ne peuvent plus du tout accéder à Hélios. Mais les activités de celles dont les données sont à Versailles ont aussi été perturbées.

Pas de redondance

Solidaires Finances publiques souligne dans son communiqué que « les agentes et agents informaticiens de la DGFiP sont sur le pont sans relâche pour restaurer les données et permettre que tout fonctionne à nouveau. La tâche est immense et une fois encore les agentes et agents de la DGFiP sont au rendez-vous ». Mais le syndicat pointe le fait qu’il n’y ait pas de redondance des serveurs d’Hélios : « Cette crise d’ampleur montre les conséquences concrètes des réductions budgétaires sur notre administration. En effet, la DG [Direction générale] n’a jamais voulu, faute de moyens alloués, mettre en place une redondance (un serveur de secours) comme nos camarades des Disi [Directions des services informatique] le réclament depuis des années, ce qui aurait permis que cette panne soit transparente pour les usagers tout comme pour les agents ».

Le logiciel est utilisé pour payer les loyers, emprunts et prestataires des collectivités mais aussi des services publics hospitaliers. La CGT Finances publiques de Haute Garonne alertait aussi ce 12 février [PDF] sur le paiement d’aides sociales et des salaires des agents de la fonction publique territoriales : « l’inquiétude est réelle quant à la validation et le paiement des payes de l’ensemble des fonctionnaires territoriaux de ces collectivités, si la réparation tarde à intervenir (à ce jour, les payes sont encore en temps d’être réalisées, avec un visa allégé). D’ores et déjà, un certain nombre de dépenses sociales n’ont pu être payées aux usagers (allocations de retour à l’emploi, bourses, service d’aide et l’accompagnement à domicile…), ainsi que des remboursements de factures aux entreprises prestataires de ces collectivités ».

La paie des agents devrait être assurée

« Selon notre plan actuel, la paie des agents territoriaux et hospitaliers devrait être assurée dans les conditions habituelles, d’ici la fin du mois, car on se place dans une perspective de reprise de la disponibilité d’Hélios pour l’ensemble des postes comptables dans le courant de la semaine prochaine [ndlr : cette semaine, donc] », expliquait Éric Barbier vendredi dernier à Acteurs Publics. Au pire, la direction envisageait de rejouer la paie du mois précédent, comme elle l’a déjà fait au moment des confinements dus à la pandémie de Covid-19.

Selon les informations apportés aux syndicats, les collectivités dont les données sont stockées sur le serveur de Versailles auraient vu, depuis la fin de la semaine dernière, leur situation se débloquer.

En aout 2025, la DGFiP a publié [PDF] son schéma directeur du numérique pour structurer ses grandes orientations stratégiques. On peut y lire qu’elle prévoit de moderniser le système d’information comptable du secteur public local et hospitalier avec le projet « Helios 2 », mais les collectivités risquent d’attendre quelques années puisque le déploiement du projet n’est prévu qu’en 2030 :

  •  
❌