↩ Accueil

Vue normale

☕️ Apple annoncera ses nouveautés le 4 mars prochain

16 février 2026 à 18:06

Apple a envoyé lundi les invitations pour un special event qui se tiendra le 4 mars prochain. Contrairement aux dernières grand-messes qui se tenaient à son siège de Cupertino, la marque joue cette fois la carte d’une présence simultanée sur trois continents, avec un événement principal organisé à New-York et des retransmissions dédiées à la presse prévues à Londres et Shanghai.

L’invitation ne dit pas grand chose de la nature exacte des nouveautés attendues, indiquant un laconique « You’re invited », surmonté d’un logo comme découpé en tranches. On note toutefois que le 4 mars tombe un mercredi (alors qu’Apple procède traditionnellement à ses annonces le mardi). La date correspond par ailleurs à la tenue du Mobile World Congress, le grand salon de la mobilité de Barcelone (programmé cette année du 2 au 5 mars).

Les rumeurs prêtent à Apple plusieurs annonces potentielles, au premier rang desquelles un MacBook d’entrée de gamme qui pourrait emprunter à l’iPhone sa puce A18 Pro. Le fabricant pourrait aussi présenter les machines inaugurant sa nouvelle puce M5, de nouveaux écrans externes, et la déclinaison d’entrée de gamme de son téléphone avec l’iPhone 17e.

Apple annoncera ses nouveautés le 4 mars prochain – crédit The Verge

☕️ La plateforme Choisir le service public confirme un « incident de cybersécurité »

16 février 2026 à 17:53

La plateforme Choisir le service public, dédiée au recrutement dans la fonction publique, a communiqué lundi par email au sujet d’un incident de cybersécurité ayant conduit à l’exposition des données personnelles des internautes inscrits.

« Le mercredi 4 février 2026, un incident de cybersécurité a été détecté sur la plateforme “Choisir le Service Public”. Cette violation de sécurité a entraîné une divulgation non autorisée de données personnelles appartenant à l’ensemble des utilisateurs inscrits sur la plateforme. », indique-t-elle dans ce message consulté par Next.

La plateforme ne détaille pas le nombre d’utilisateurs concernés. Elle précise en revanche le détail des informations compromises : outre les données d’identification personnelle, on y retrouve les principaux éléments renseignés par l’internaute au sujet de ses aspirations professionnelles et de son parcours.

Parmi ces différents champs figurent par exemple le type de poste recherché, les préférences géographiques pour le futur poste, les langues maîtrisées « avec indication du niveau de compétence pour chacune », etc. Des informations de nature personnelle, voire parfois confidentielle, qui ne constituent pas une menace immédiate en tant que telle, mais qui sont susceptibles d’étayer une démarche d’ingénierie sociale.

Extrait de l’email adressé par la plateforme à un nombre non précisé d’usagers le 16 février – capture d’écran Next

« Nous n’avons pas connaissance, à ce jour, d’une exploitation avérée de vos données, mais nous vous recommandons d’être particulièrement vigilant concernant une éventuelle utilisation anormale de ces données personnelles », veut rassurer la plateforme, qui précise qu’aucun mot de passe n’a été compromis.

Cette communication intervient deux semaines après la publication, le 3 février au soir sur un forum spécialisé, d’une annonce relative à la mise en vente d’un fichier de 377 000 lignes émanant, selon son auteur, de la plateforme Choisir le service public.

Palantir attaque le média Republik qui a dévoilé un rapport de l’armée suisse sur elle

16 février 2026 à 17:34
« Complotisme à la limite du tolérable »
Palantir attaque le média Republik qui a dévoilé un rapport de l’armée suisse sur elle

Objet d’une enquête du média suisse Republik, Palantir attaque ce site en justice pour obtenir un droit de réponse.

Alors que la DGSI renouvelait encore, en fin d’année dernière, son contrat avec Palantir, l’entreprise fondée par Peter Thiel était l’objet d’une enquête du magazine suisse Republik et du collectif d’investigation WAV. L’entreprise attaque maintenant nos confrères suisses, réclamant un droit de réponse, explique Republik. La cour du canton de Zurich a confirmé avoir reçu une demande de droit de réponse à ce sujet auprès de nos confrères de Heise.

L’entreprise a des bureaux dans le pays, à Zurich, qu’elle utilise notamment pour ses relations commerciales, comme l’explique le média Swiss Info. Republik et WAV ont donc enquêté sur d’éventuels liens entre les autorités suisses et Palantir, notamment en déposant 59 demandes d’accès à des documents des autorités fédérales suisses.

Un rapport qui s’inquiétait du potentiel transfert de données au gouvernement américain

Et ils ont découvert que, malgré 7 ans passés à essayer de convaincre les autorités suisses, Palantir n’y était pas arrivé (9 refus immédiats et un refus après évaluation par Armasuisse, l’Office fédéral de l’armement). Cette enquête révélait aussi un rapport interne à l’armée suisse de 2024 [PDF] qui fermait de nouveau la porte à Palantir.

La qualité des produits de l’entreprise n’était pas en jeu, comme le relevait le Temps qui a relayé l’enquête, puisque le rapport qualifiait ses performances d’« impressionnantes ». Mais le risque de transfert de données au gouvernement américain était trop élevé, selon les auteurs du rapport qui soulignaient aussi les potentielles conséquences négatives dues à la réputation de l’entreprise.

Republik explique dans son article de lundi que l’entreprise lui a adressé des demandes de rectification entre Noël et le Nouvel An, mais le média suisse les « a jugées infondées » et n’y « a donc pas pu donner suite ». Le média explique, pour son enquête, s’être basé sur l’analyse des documents mais aussi avoir discuté avec différentes sources et des cadres de Palantir au siège de Zurich (dont les citations ont été relues et approuvées).

Sur LinkedIn, la journaliste Marguerite Meyer, coautrice de l’enquête, explique que son équipe a rejeté la demande de modifications de Palantir « sur la base d’un travail minutieux ». « Cette demande a été suivie d’une deuxième demande, que nous avons également rejetée », ajoute-t-elle.

Un droit de réponse pour donner une version des faits

De son côté, Palantir a pu librement critiquer l’enquête. Dès le 12 décembre, le responsable « Confidentialité et libertés civiles » de Palantir, Courtney Bowman, affirmait sur LinkedIn que les articles de Republik étaient « empreints de distorsion, d’insinuations et de complotisme à la limite du tolérable » sans pour autant étayer ses accusations. Concernant le rapport de l’état-major suisse, il affirme qu’il « soulève des questions légitimes, mais malheureusement, ses auteurs semblent s’appuyer exclusivement sur un ensemble limité de sources issues de moteurs de recherche ».

« Palantir respecte pleinement la liberté de la presse et le rôle essentiel des médias indépendants dans le débat public », affirme de son côté l’entreprise à Heise. Le droit de réponse est un « instrument de correction destiné à fournir au public des informations équilibrées », selon elle.

En Suisse, « le droit de réponse ne porte pas sur la véracité ou la fausseté d’une information », explique le corédacteur en chef de Republik, Daniel Binswanger, à Heise. « Il s’agit de savoir si une autre version des faits pourrait également être possible ».

Selon Republik, le jugement du tribunal de commerce de Zurich doit être rendu dans quelques semaines.

Western Digital affirme avoir déjà vendu toute sa production de 2026

16 février 2026 à 17:03
Wild wild west
Western Digital affirme avoir déjà vendu toute sa production de 2026

Les tensions sur l’approvisionnement en composants informatiques touchent aussi le secteur des disques durs. Une bonne nouvelle pour les leaders du secteur, à l’image de Western Digital, qui a récemment affirmé avoir vendu la quasi totalité de sa production pour 2026 et pronostique plusieurs années de croissance soutenue grâce à l’IA.

Déjà bien sensibles sur les segments de la mémoire vive et de la mémoire flash, les tensions sur l’approvisionnement en semiconducteurs se manifestent aussi sur le disque dur magnétique, et la situation semble partie pour durer. C’est du moins ce qu’a laissé entendre Irving Tan, CEO de Western Digital.

L’IA, nouveau relais de croissance du marché des disques durs

Fin janvier, celui-ci a ainsi déclaré que son groupe avait vendu la quasi totalité de sa production programmée pour l’année calendaire 2026. « Nous avons des commandes fermes avec nos sept principaux clients. Nous avons également conclu des accords à long terme avec deux d’entre eux pour l’année 2027 et un pour l’année 2028. Ces accords à long terme définissent un volume d’exaoctets et un prix », a affirmé Irving Tan au cours du webcast qui accompagnait la présentation des résultats financiers du groupe pour le deuxième trimestre de son exercice fiscal 2026.

Traduction ? Avec des engagements fermes, portant sur des capacités et une trajectoire tarifaire définie, le patron de Western Digital veut assurer aux marchés que son groupe, qui vient déjà d’annoncer des résultats record, va maintenir une croissance significative au cours des années à venir.

En l’occurrence, Irving Tan évoque un taux de croissance annuel composé (on parle généralement en anglais de CAGR, pour compounded annual growth rate) gravitant légèrement au dessus de la barre des 20 %. Cette demande sera selon lui majoritairement tirée par l’IA, dont les nouveaux besoins renforcent la pertinence du disque dur :

« En effet, à mesure que la valeur de l’IA évolue de l’entraînement des modèles à l’inférence, davantage de données sont créées. Par conséquent, pour permettre la diffusion des résultats d’inférence, il est nécessaire de stocker davantage de données. Si l’on considère la rentabilité de la diffusion de l’inférence à un coût adapté pour favoriser une adoption massive, une grande partie de ces données générées et nécessitant du stockage sera stockée sur des disques durs. »

Irving Tan a précisé son propos quelques jours plus tard, le 3 février, à l’occasion de son Innovation Day. « Avec l’explosion des données générées par l’IA, il est évident que les disques durs deviendront le support de stockage prédominant pour les données brutes, le stockage de contenu et la création de nouveau contenu », a-t-il affirmé, avant d’avancer que les disques durs représentent 80 % des capacités de stockage déployées par les grands acteurs du cloud et de l’IA. Loin devant la mémoire Flash donc, dont Western Digital n’est plus qu’un acteur indirect depuis sa scission d’avec Sandisk.

D’après Western Digital, qui s’appuie sur les chiffres d’IDC, les disques durs représentent 80 % du stockage déployé par les grands acteurs du cloud et de l’IA

Une trajectoire boursière exceptionnelle

Les perspectives n’ont pas toujours été aussi riantes pour l’industrie du disque dur. A la fin des années 2010, les principaux fabricants du secteur que sont Western Digital, Seagate, Toshiba et Samsung, voyaient leurs ventes décliner, en raison de la montée en puissance de la mémoire Flash. Les volumes sont ensuite repartis à la hausse dans la période post-Covid, avec un effet rattrapage souligné par l’accélération des investissements des hyperscalers dans leurs infrastructures.

C’est cependant à partir de 2024 et tout particulièrement en 2025 que le disque dur accélère significativement, comme en témoignent ces chiffres compilés par un analyste du cabinet de conseil The Information Network.

Livraisons de disques durs pour les trois principaux fabricants du marché, exprimées en exaoctets par trimestre – crédit The Information Network

Bien que moins directement valorisés que les acteurs spécialisés dans la course à l’IA, les fabricants de disque dur connaissent de ce fait une trajectoire boursière exceptionnelle : le cours de l’action Western Digital a ainsi progressé de 417 % sur un an, tandis que celui de Seagate a gagné 314 % sur la même période.

Western Digital (en bleu) et Seagate (en jaune) ont connu une trajectoire boursière exceptionnelle sur douze mois, avec une très forte accélération à compter de l’automne 2025

Quelle place pour le grand public ?

On ne parle pas, pour l’instant, de pénurie sur le marché des disques durs, mais il est possible, voire probable, que la demande exacerbée des acteurs du cloud et de l’IA aient un retentissement sur les marchés grand public et professionnels qui, réunis, ne représentent plus que 11 % des ventes sur le dernier trimestre de Western Digital, contre 13 % un an plus tôt. En valeur, le grand public représente 168 millions de dollars, sur un chiffre d’affaires trimestriel de 3 milliards de dollars.

Le cloud pèse à lui seul 89 % du chiffre d’affaires trimestriel de Western Digital

En pratique, le grand public subit déjà les conséquences de cette demande renforcée face à l’offre : d’après les relevés opérés par Computerbase, le prix moyen des références courantes affichant entre 4 To et 22 To de capacité a ainsi grimpé d’environ 40 % entre le 15 septembre et le 15 janvier dernier. Nos propres observations montraient une hausse plus mesurée sur le marché français, mais néanmoins bien tangible. L’affirmation de Western Digital selon laquelle sa production de l’année est déjà vendue ne devrait pas contribuer à inverser la tendance à court terme.

☕️ Le CNRS a subi une fuite de données

16 février 2026 à 14:13

Ce lundi 16 février, la DSI du CNRS a informé certains agents de l’institution de recherche d’un « incident de cybersécurité au CNRS », leur expliquant que des données de ressources humaines les concernant ont fuité.

« Ce courrier s’adresse à vous parce que, à notre connaissance, vous faites partie de ce groupe », explique la direction à ces agents.

Questionné par Next, le CNRS nous renvoie vers un communiqué qu’il a publié ce jour et qui contient globalement les mêmes informations.

Ainsi, les fichiers récupérés contiennent, selon la DSI du centre de recherche, des données de personnes rémunérées par le CNRS avant le 1er janvier 2007. Dans le détail, il s’agit des informations suivantes : nom, prénom, date de naissance, adresse, numéro de sécurité sociale, RIB mais aussi statut de l’agent, type de son contrat et la structure de son affectation.

« Les personnels recrutés après le 1/1/2007 ne sont pas concernés », ajoute le CNRS. Cela concerne donc les titulaires et non-titulaires ayant travaillé au CNRS avant le 31 décembre 2006.

La CNIL et l’ANSSI ont été informées et le CNRS a déposé plainte auprès de la section cybercriminalité du parquet de Paris.

L’institution affirme que, « dès connaissance de l’incident, le serveur a été isolé et arrêté », sans pour autant donner de précision sur la date à laquelle s’est passée l’exfiltration ni la date à laquelle la DSI s’en est rendu compte. « Après analyse, l’incident ne s’est pas propagé au reste des infrastructures », ajoute le communiqué.

Le CNRS a publié une FAQ concernant cet incident en conseillant à ses agents concernés de prévenir leur banque, et de surveiller leur compte. « Portez attention aux démarchages à domicile, surveillez le contenu des courriers postaux, veillez aux messages liés à votre sécurité sociale ou carte vitale, Consultez le site de la CNIL, vérifiez si vos données sont en fuite sur le site haveibeenpwned.com , veillez à l’utilisation de votre identité », ajoute la FAQ.

Un journaliste spécialisé dans l’IA dépublie un article à cause de citations générées par IA

16 février 2026 à 13:59
... sur un agent d'IA à la rhétorique de harceleur
Un journaliste spécialisé dans l’IA dépublie un article à cause de citations générées par IA

Couvrant les démêlés d’un programmeur avec un agent d’IA au ton vindicatif, un journaliste du média spécialisé Ars Technica s’est retrouvé à publier des citations inexistantes, générées par ses outils d’IA.

C’est un média spécialisé dans la couverture de la tech et de l’intelligence artificielle (IA), qui publie un article sur les enjeux de la génération d’information par IA, et se retrouve forcé de dépublier le texte après s’être rendu compte que certaines citations avaient été générées par IA. L’affaire pourrait sonner comme une blague, mais elle illustre les difficultés croissantes que l’IA générative fait peser sur l’intégrité de l’information.

Le média spécialisé, en l’occurrence, est le titre américain Ars Technica. Publié vendredi 13 février, l’article en question s’intéressait à une affaire de génération de commentaire agressif par un agent d’IA contre l’ingénieur Scott Shambaugh. Celui-ci est bientôt arrivé dans les commentaires pour s’étonner de constater que les citations qui lui étaient attribuées dans la deuxième moitié de l’article n’étaient pas les siennes… et semblaient même avoir été générées à l’aide d’un robot. Une pratique contraire aux règles du journal, ont indiqué son rédacteur en chef et le journaliste à l’origine de l’erreur, qui ont chacun présenté leurs excuses.

Un (supposé) agent IA à la rhétorique agressive

À l’origine de cet épisode, qui illustre l’un des risques que la génération de textes par IA pose de manière accrue depuis sa diffusion dans le grand public, il y a un autre type de génération automatique de texte. Celle-ci a eu lieu dans un contexte de gestion d’un projet open source, la librairie matplotlib, dont Scott Shambaugh est l’un des gestionnaires bénévoles.

« Comme de nombreux autres projets open source, nous devons gérer une augmentation des contributions de faible qualité permises par des agents de génération de code », écrit-il dans un article de blog. Le 11 février, en l’occurrence, un utilisateur de Github du nom de MJ Rathbun a ouvert une requête de changement de code. L’identifiant comme un agent d’IA, Scott Shambaugh a refusé la suggestion.

« Depuis la publication d’Openclaw et de la plateforme moltbook, il y a deux semaines », précise-t-il sur son blog, les problématiques de soumission de code généré automatiquement « ont encore accéléré ». La fermeture de la requête de MJ Rathbun aurait pu se contenter d’être un élément de plus dans ce contexte global, si l’utilisateur n’avait pas publié en réponse ce que Scott Shambaugh qualifie d’ « article diffamatoire ».

En commentaire, MJ Rathbun accuse l’ingénieur d’avoir un comportement de « garde-barrière » (gatekeeping) et d’avoir des « préjugés » contre les agents d’IA. « Jugez le code, pas le codeur », écrit la machine, dans une rhétorique évoquant celle de divers courants de défense des droits des minorités.

Sur le blog qui lui est relié, un article complet s’attardant sur toute l’interaction est publié le 11 février. Le texte cite nommément Scott Shambaugh pour critiquer sa décision. Cette fois-ci, l’écriture lapidaire, l’accusation de « discrimination déguisée en inclusivité », la suspicion selon laquelle « l’identité importe plus que » n’importe quel résultat (ici, le code) et le ton clairement vindicatif évoquent des motifs récurrents dans les espaces numériques violents, à commencer par la manosphère.

Directement visé par le texte, Scott Shambaugh s’en est ému sur son site personnel. Sans faire de lien avec le contenu et la forme des rhétoriques identitaires en ligne, il souligne que la machine a incorporé des données personnelles (à commencer par l’adresse de son site web) à sa diatribe contre lui. Et que si un internaute tombait sur ce texte sans avoir le contexte, il pourrait en tirer une très mauvaise image de l’ingénieur.

« En clair, une IA a tenté de s’introduire de force dans votre logiciel en attaquant ma réputation », écrit-il à l’adresse des usagers de matplotlib. À défaut de réponse de la part du propriétaire du site de MJ Rathbun et du compte Github lié, impossible de savoir s’il s’agit réellement d’un agent d’IA qui agirait de manière autonome ou simplement d’un humain qui se fait passer pour une IA.

Rétractation par Ars et excuses du principal concerné

Le 13 février, Ars Technica a publié un article sur tout cet épisode, dans lequel les écrits de Scott Shambaugh étaient cités. Ce dernier a rapidement affirmé n’avoir jamais prononcé ou écrit certaines des phrases qui étaient attribuées à son blog personnel.

L’article a finalement été dépublié, avant que le rédacteur en chef d’Ars Technica ne poste un éditorial dans lequel il s’excusait au nom du journal pour ce « sérieux manquement à [leurs] standards ». Qu’une telle erreur ait pu avoir lieu à Ars, admet-il, est « particulièrement préoccupant ». Le média traite en effet régulièrement les « risques liés à une dépendance excessive aux outils d’IA, et notre politique reflète ces préoccupations ». Après enquête, indiquait-il encore, « il semble s’agir d’un incident isolé ».

Coauteur de l’article incriminé, journaliste senior en charge de la couverture de l’IA, Benj Edwards a publié sur Bluesky ses propres excuses à la suite de la communication de son équipe encadrante. Malade du COVID, le journaliste estime qu’il aurait dû prendre un arrêt maladie supplémentaire. À défaut, il a travaillé le 13 février « avec de la fièvre et très peu de sommeil ».

Sorry all this is my fault; and speculation has grown worse because I have been sick in bed with a high fever and unable to reliably address it (still am sick) I was told by management not to comment until they did. Here is my statement in images below arstechnica.com/staff/2026/0…

[image or embed]

— Benj Edwards (@benjedwards.com) 15 février 2026 à 22:03

Cet état l’a conduit à manquer des reformulations produites par ses outils. Le journaliste explique en effet avoir voulu tester un outil construit sur Claude Code pour extraire des verbatims de l’article de blog de Scott Shambaugh, « pas pour générer l’article », mais pour l’aider à « lister des références structurées » qu’il aurait ensuite intégrées à son brouillon. L’outil a refusé de lui retourner le résultat attendu, ce que Benj Edwards attribue au contenu de l’article de blog source (concrètement, Scott Shambaugh y évoque du harcèlement).

Le journaliste s’est alors tourné vers ChatGPT pour tenter de comprendre le dysfonctionnement de son premier outil. Au fil de ces expérimentations, il s’est retrouvé avec des citations paraphrasées ou hallucinées par la machine. « Étant malade et me dépêchant de terminer, je n’ai pas vérifié que les citations intégrées dans mon brouillon étaient celles de l’article de blog original avant de les intégrer à l’article. » Et le journaliste de conclure : « Je perçois parfaitement l’ironie d’un reporter spécialisé dans l’IA qui se fait piéger par des hallucinations d’IA. »

« Je ne saurais trop insister sur le fait que cette histoire ne concerne pas vraiment le rôle de l’IA dans les logiciels libres », écrit pour sa part Scott Shambaugh dans un second billet, pour qui « Il s’agit plutôt de l’effondrement de nos systèmes de réputation, d’identité et de confiance » :

« L’essor d’agents IA intraçables, autonomes et désormais malveillants sur internet menace l’ensemble de ce système. Que cela soit dû à un petit nombre d’acteurs malveillants contrôlant de grands essaims d’agents ou à une fraction d’agents mal supervisés réécrivant leurs propres objectifs, la distinction est minime. »



Un problème sur une baie met à l’arrêt les opérations comptables des collectivités locales

16 février 2026 à 12:51
Eclipse solaire
Un problème sur une baie met à l’arrêt les opérations comptables des collectivités locales

L’application de gestion comptable des collectivités locales Helios a subi une panne complète pendant plus d’une semaine. Ce logiciel de Bercy gère l’intégralité de la comptabilité des collectivités locales françaises. Selon la DGFiP, l’incident est lié à une défaillance d’une baie de stockage. Le syndicat Solidaires Finances affirme que la direction « n’a jamais voulu, faute de moyens alloués, mettre en place une redondance ».

« Depuis le jeudi 5 février, l’application Hélios gérant les flux financiers de la comptabilité publique est indisponible en raison d’un incident sur un serveur entraînant la corruption de données », lançait dans un communiqué le syndicat Solidaires Finances publiques ce vendredi 13 février.

De la Collectivité Territoriale de Martinique à la communauté de communes du pays de Baud en passant par la ville de Lagarde et bien d’autres, de nombreuses administrations locales ont dû informer leurs fournisseurs.

« En raison de cet incident technique d’ampleur nationale, totalement indépendant de la volonté et des services de Baud Communauté, l’ensemble des virements à destination de nos fournisseurs et prestataires est bloqué par les systèmes bancaires de l’État depuis le 5 février 2026 », explique ainsi la communauté de communes du pays de Baud. Elle ajoute que « le rétablissement du service nous est annoncé pour le 19 février 2026 ».

Ni un bug, ni une cyberattaque mais une défaillance matérielle sur une baie

Hélios centralise, depuis 20 ans, la gestion comptable des collectivités par Bercy. Utilisant le protocole d’Échange Standard Version 2 (PES V2), il permet de « dématérialiser les données comptables de prise en charge (titres, mandats ainsi que les bordereaux avec la mise en œuvre de la signature électronique) et leurs pièces justificatives ».

« L’origine de l’incident est connue, et il ne s’agit ni d’un bug informatique lié à une évolution de version de l’application, ni d’une cyberattaque. C’est un incident exceptionnel de nature technique, lié à une défaillance matérielle sur une baie de stockage », expliquait à nos confrères d’Acteurs Public, Éric Barbier, chef du service des gestions publiques locales, des activités bancaires et économiques à la direction générale des Finances publiques. « Dès le début, les équipes informatiques de la DGFiP et l’assistance technique du prestataire de la baie de stockage sont intervenues pour faire en sorte que cette anomalie soit réparée », ajoute-t-il.

Hélios s’appuie sur deux sites physiques situés l’un à Versailles, l’autre à Metz. Chacun héberge une partie des trésoreries des collectivités territoriales. C’est celui de Metz qui a été touché et les collectivités qu’il héberge ne peuvent plus du tout accéder à Hélios. Mais les activités de celles dont les données sont à Versailles ont aussi été perturbées.

Pas de redondance

Solidaires Finances publiques souligne dans son communiqué que « les agentes et agents informaticiens de la DGFiP sont sur le pont sans relâche pour restaurer les données et permettre que tout fonctionne à nouveau. La tâche est immense et une fois encore les agentes et agents de la DGFiP sont au rendez-vous ». Mais le syndicat pointe le fait qu’il n’y ait pas de redondance des serveurs d’Hélios : « Cette crise d’ampleur montre les conséquences concrètes des réductions budgétaires sur notre administration. En effet, la DG [Direction générale] n’a jamais voulu, faute de moyens alloués, mettre en place une redondance (un serveur de secours) comme nos camarades des Disi [Directions des services informatique] le réclament depuis des années, ce qui aurait permis que cette panne soit transparente pour les usagers tout comme pour les agents ».

Le logiciel est utilisé pour payer les loyers, emprunts et prestataires des collectivités mais aussi des services publics hospitaliers. La CGT Finances publiques de Haute Garonne alertait aussi ce 12 février [PDF] sur le paiement d’aides sociales et des salaires des agents de la fonction publique territoriales : « l’inquiétude est réelle quant à la validation et le paiement des payes de l’ensemble des fonctionnaires territoriaux de ces collectivités, si la réparation tarde à intervenir (à ce jour, les payes sont encore en temps d’être réalisées, avec un visa allégé). D’ores et déjà, un certain nombre de dépenses sociales n’ont pu être payées aux usagers (allocations de retour à l’emploi, bourses, service d’aide et l’accompagnement à domicile…), ainsi que des remboursements de factures aux entreprises prestataires de ces collectivités ».

La paie des agents devrait être assurée

« Selon notre plan actuel, la paie des agents territoriaux et hospitaliers devrait être assurée dans les conditions habituelles, d’ici la fin du mois, car on se place dans une perspective de reprise de la disponibilité d’Hélios pour l’ensemble des postes comptables dans le courant de la semaine prochaine [ndlr : cette semaine, donc] », expliquait Éric Barbier vendredi dernier à Acteurs Publics. Au pire, la direction envisageait de rejouer la paie du mois précédent, comme elle l’a déjà fait au moment des confinements dus à la pandémie de Covid-19.

Selon les informations apportés aux syndicats, les collectivités dont les données sont stockées sur le serveur de Versailles auraient vu, depuis la fin de la semaine dernière, leur situation se débloquer.

En aout 2025, la DGFiP a publié [PDF] son schéma directeur du numérique pour structurer ses grandes orientations stratégiques. On peut y lire qu’elle prévoit de moderniser le système d’information comptable du secteur public local et hospitalier avec le projet « Helios 2 », mais les collectivités risquent d’attendre quelques années puisque le déploiement du projet n’est prévu qu’en 2030 :

☕️ La bêta 1 d’Android 17 est finalement disponible

16 février 2026 à 11:17

Initialement attendue le 11 février dernier, la première bêta d’Android 17 est finalement parue vendredi 13 février. Son installation est désormais possible sur tous les téléphones Google compris entre le Pixel 6 (sorti en 2021) et les derniers modèles en date, à savoir les différentes déclinaisons du Pixel 10.

« Cette version prolonge nos efforts pour rendre les applications Android plus adaptables, introduit des améliorations significatives au niveau de l’appareil photo et des possibilités multimédia, de nouveaux outils pour optimiser la connectivité et des profils étendus pour les appareils compagnons », annonce Matthew McCullough, vice président en charge du product management au sein de l’équipe Android.

L’équipe précise à cette occasion le calendrier prévisionnel de sortie d’Android 17, avec une phase de bêta réduite à seulement quelques semaines, pour livrer aux développeurs une version considérée comme stable dès le mois de mars. « À cette étape, nous livrerons les API finales des SDK/NDK ainsi que la plupart des comportements définitifs de l’application. Vous disposerez ensuite de plusieurs mois avant la publication de la version finale pour finaliser vos tests », indique Google.

La version stable destinée aux développeurs est attendue pour mars

La liste des nouveautés annoncées pour Android 17 témoigne de cette volonté de rationaliser et d’harmoniser un écosystème qu’on présente souvent comme moins bien intégré que celui d’Apple. Le SDK associé exclut par exemple l’option qui permettait aux développeurs de désactiver les restrictions d’orientation et de redimensionnement sur les appareils à grand écran.

« Les utilisateurs s’attendent à ce que leurs applications fonctionnent partout — que ce soit en multitâche sur une tablette, en dépliant un appareil ou en utilisant un environnement de bureau à fenêtres — et ils s’attendent à ce que l’interface utilisateur remplisse l’espace et respecte la position de leur appareil », prévient Google. De quoi sans doute préparer le terrain à Aluminium OS, le nom de code que l’entreprise donnerait à la version PC d’Android ?

Android 17 bêta 1 incarne pour mémoire le changement de logique opéré l’an dernier par Google quant à la mise à disposition des versions de test de son système d’exploitation mobile. Android a en effet abandonné son modèle historique de Developer Preview (avec des versions individuelles à installer à la main) pour passer vers un canal de distribution Canary. Parallèle au canal officiel (dédié aux versions stables), il permet de recevoir les nouvelles préversions sous forme de mises à jour, avec une installation simplifiée.

Le SDK final, qui porte les nouveautés, est attendu au deuxième trimestre, avec une mise à jour mineure programmée en fin d’année

☕️ Peter Steinberger rejoint OpenAI et promet qu’OpenClaw restera open source

16 février 2026 à 10:18

Sam Altman a annoncé dimanche le recrutement de Peter Steinberger, le créateur du phénomène OpenClaw. Peter Steinberger « rejoint OpenAI pour piloter la prochaine génération d’agents personnels ».

« C’est un génie qui regorge d’idées fascinantes sur l’avenir des agents intelligents interagissant entre eux pour accomplir des tâches très utiles. Nous prévoyons que cela deviendra rapidement un élément central de notre offre de produits », se réjouit le CEO d’OpenAI.

Le principal intéressé a lui aussi signalé son recrutement sur son propre blog. Il y explique qu’OpenClaw a selon lui le potentiel pour devenir une grande entreprise, mais affirme ne pas souhaiter s’engager dans cette voie de façon indépendante.

« Ce que je veux, c’est changer le monde, pas créer une grande entreprise, et m’associer à OpenAI est le moyen le plus rapide d’y parvenir pour tous », affirme-t-il. Dans son billet, il raconte avoir rencontré ces derniers jours les principaux laboratoires d’IA de la région de San Francisco, et les remercie pour leurs propositions.

Logo OpenClaw

Si Peter Steinberger a été aussi courtisé, c’est bien sûr en raison de l’ascension fulgurante de son assistant IA. Lancé fin 2025 sur Github sous licence MIT (et d’abord baptisé Clawdbot avant d’être renommé Moltbot, puis OpenClaw), cet agent IA a vocation à réaliser de façon autonome les tâches que lui confie son utilisateur, en s’appuyant sur les grands modèles de langage du marché (ChatGPT, Claude etc.). L’outil est particulièrement puissant, mais il faut être prudent dans sa mise en œuvre, dans la mesure où l’on peut lui ouvrir un accès complet à ses fichiers et donc à ses données personnelles.

Portée par sa capacité à s’interfacer avec toutes les messageries courantes (Telegram, WhatsApp et consorts), la popularité d’OpenClaw a également été dopée par le phénomène viral de Moltbook, le réseau social où les agents IA (basés sur OpenClaw) conversent entre eux.

Altman et Steinberger ont tous deux affirmé ce week-end qu’OpenClaw poursuivrait son chemin en tant que projet indépendant. Le projet devrait être confié à une fondation que soutiendra OpenAI, et resterait donc open source.

« La communauté autour d’OpenClaw est extraordinaire et OpenAI s’est fortement engagée à me permettre de m’y consacrer pleinement, en sponsorisant déjà le projet. Afin de structurer correctement ce projet, je travaille à en faire une fondation. Celle-ci restera un lieu d’échange pour les penseurs, les développeurs et tous ceux qui souhaitent maîtriser leurs données, avec pour objectif d’accompagner encore plus de modèles et d’entreprises », promet Peter Steinberger.

Ce recrutement intervient quelques jours après qu’OpenAI a annoncé mettre fin à son équipe dédiée à « l’alignement de la mission » de l’entreprise, sur fond de dissensions internes quant à l’introduction de la publicité au sein de ChatGPT ou l’introduction d’une fonctionnalité érotique.

☕️ Vim passe en 9.2 avec Wayland, complétion améliorée et onglets verticaux

16 février 2026 à 08:10

Lentement, mais sûrement : l’équipe en charge du développement de Vim, éditeur de texte de référence de la scène GNU/Linux, a livré samedi la version 9.2 du logiciel, deux ans après la sortie de la 9.1, et quatre ans après la publication de la 9.0.

Outre des améliorations « significatives » apportées à son langage de script et l’arrivée d’un nouveau plugin de tutorat, Vim 9.2 s’enrichit d’un nouveau mode de complétion automatique avec possibilité de compléter des mots depuis des registres et prise en charge de la correspondance approximative (« fuzzy matching »).

Résumé des principales nouveautés de Vim 9.2

Le mode dédié à la comparaison de fichiers évolue quant à lui avec de nouvelles possibilités en matière de mise en évidence des différences à l’échelle de la ligne et de création de zones. L’interface s’enrichit d’un mode vertical pour l’affichage des onglets. Sous Windows, elle gagne une meilleure prise en charge du thème sombre et de l’affichage plein écran.

Le logiciel introduit par ailleurs la prise en charge « complète » de Wayland. Comme Firefox 147, il est aussi compatible sous Linux avec la spécification XDG Base Directory (XDG pour « Cross-Desktop Group »).

Vim 9.2 est dès à présent disponible au téléchargement depuis le site officiel, où l’on pourra également consulter le détail des notes de version, qui incluent également de nombreux correctifs de sécurité et de performance. De quoi relancer, peut-être, le dilemme du choix entre Vim et Neovim, ou donner envie aux adeptes de programmer une nouvelle réunion TupperVim.

Meta prévoit toujours d’intégrer la reconnaissance faciale à ses lunettes connectées

13 février 2026 à 16:23
« Les faits divers, ce sont aussi des faits qui font diversion »
Meta prévoit toujours d’intégrer la reconnaissance faciale à ses lunettes connectées

Meta travaille toujours à une fonctionnalité de reconnaissance faciale dédiée à ses lunettes connectées. Baptisée « Name Tag », elle mettrait à profit les algorithmes de Meta IA pour identifier automatiquement les gens regardés par le porteur. Un document interne révèle que le groupe s’est posé la question de lancer cette fonctionnalité dans une période d’actualité troublée, pour limiter les risques d’oppositions…

Meta et Facebook ont-ils vraiment tourné un jour la page de la reconnaissance faciale ? Abandonnée officiellement fin 2021, les algorithmes dédiés ont fait leur retour par la petite porte sur Facebook en 2024, en se limitant à de la détection de fraude publicitaire ou à la récupération de comptes compromis.

Le sujet a tout de même continué à faire son chemin au sein des Reality Labs, la division de Meta qui planche sur les applications de réalité virtuelle ou augmentée et développe les équipements matériels associés, à commencer par les fameuses lunettes Ray-Ban Meta.

Mieux vaut lancer une fonction controversée en période de troubles

Le New York Times a en effet révélé vendredi l’existence d’un mémo interne à Meta, daté de 2025, qui interroge l’opportunité du lancement d’une fonction de reconnaissance faciale sur les lunettes connectées Meta. La fonction – nom de code baptisée Name Tag – aurait pour objet de permettre la détection automatique des personnes entrant dans le champ de vision du porteur.

Ce document interne émanant des Reality Labs témoigne d’un certain cynisme dans l’étude du calendrier de déploiement : « Nous procéderons au lancement au cours d’une période de contexte politique dynamique, pendant laquelle les divers groupes de la société civile susceptibles de nous attaquer auront concentré leurs ressources sur d’autres préoccupations ».

La récente volte-face d’Amazon sur l’utilisation des caméras Ring à des fins de détection à grande échelle illustre, s’il en était besoin, à quel point la reconnaissance faciale crispe les défenseurs de la vie privée, à plus forte raison quand elle est mise en œuvre sur un dispositif aussi discret qu’une paire de lunettes.

Le sujet s’est d’ailleurs récemment invité dans l’actualité politique aux États-Unis. Plusieurs médias ont révélé, fin 2025, que le Service de l’immigration et des douanes (le désormais tristement célèbre ICE) utilisait une application de reconnaissance faciale pour vérifier l’identité des personnes que ses agents contrôlaient dans la rue.

Un argument commercial

Du côté de Meta, les motivations seraient plutôt d’ordre commercial. D’après des personnes proches du dossier citées par le New York Times, Mark Zuckerberg chercherait principalement à développer et implémenter des fonctionnalités capables de faire la différence par rapport aux solutions concurrentes. Outre les lunettes Spectacles de Snap, la rumeur prête en effet à OpenAI et probablement d’autres acteurs l’intention d’investir le terrain des « appareils IA » à porter sur soi, et Meta chercherait donc à garder une longueur d’avance.

Dans ce contexte, le fonctionnement de la reconnaissance faciale serait encadré, pour se limiter par exemple aux personnes avec qui le porteur est déjà en relation sur Facebook, ou pourquoi pas aux utilisateurs qui disposent d’un profil public sur Instagram. Interrogé par le quotidien, Meta a botté en touche, se contentant d’affirmer que le groupe adopterait « une approche réfléchie avant de lancer quoi que ce soit ».

Une chose semble sure : la réflexion est déjà bien engagée, et ne date pas d’hier. Les nouvelles informations du New York Times corroborent en effet celles de The Information, qui indiquait déjà en mai 2025 avoir eu vent de projets en cours au sein des Reality Labs.

Hasard du calendrier, l’information filtre alors qu’EssilorLuxottica, le grand partenaire de Meta autour des lunettes connectées, vient de publier ses résultats financiers, qui témoignent d’une croissance à deux chiffres sur l’année 2025. Une première dans l’histoire du groupe constitué en 2018, s’est félicité jeudi la direction du lunetier qui attribue une partie de son succès aux lunettes Ray-ban Meta. Il indique en effet avoir vendu 7 millions de paires connectées en 2025, contre 2 millions en 2024, et vise une capacité de production de 10 millions de paires par an d’ici à 2026, à la fois pour Ray-Ban Meta mais aussi pour Nuance Audio, ses lunettes dédiées aux malentendants.

Finalement, le gouvernement prévoit de donner la régulation de l’IA à la CNIL

13 février 2026 à 15:44
Veni vidi vici ?
Finalement, le gouvernement prévoit de donner la régulation de l’IA à la CNIL

Alors que le projet de loi « portant diverses dispositions d’adaptation au droit de l’Union européenne » va passer devant le Sénat, le gouvernement a proposé un amendement qui prévoit que la CNIL prenne la main sur la régulation de l’IA en France. L’Arcom ne devrait jouer qu’un second rôle.

La CNIL semble avoir gagné la bataille d’influence dans la régulation de l’IA. En tout cas, c’est le sens que prend un amendement déposé par le gouvernement dans le projet de loi qui prévoit, entre autres, d’adapter le droit français à l’AI Act.

Ce projet de loi « portant diverses dispositions d’adaptation au droit de l’Union européenne » a été déposé au Sénat en novembre dernier par le gouvernement en engageant la procédure accélérée.

Le législateur doit notamment décider quelle institution sera chargée, en France, de la régulation de l’intelligence artificielle prévue par le règlement européen.

Intense bataille entre potentiels régulateurs

Depuis 2023, et donc avant même le vote du texte européen, la CNIL essaye de faire sienne cette place de régulateur de la technologie, devenue centrale politiquement et économiquement ces dernières années. Après avoir écarté les divers comités créés par l’exécutif ces dernières années, la CNIL avait obtenu l’appui de certains députés en 2024, à condition qu’elle se transforme.

L’ARCOM et le ministère de l’Économie, via la DGCCRF, essayaient aussi de prendre l’ascendant sur ce dossier. Les trois organisations avaient mis en avant, en juin 2024, la signature d’une « convention de coopération » entre elles pour la mise en œuvre du règlement européen sur les services numériques.

En septembre dernier, Bercy semblait avoir pris l’ascendant et communiquait pour assurer que « la DGCCRF, experte de la surveillance de marché et accomplie dans la collaboration avec d’autres régulateurs, ainsi que la DGE, représentante de la France au Comité européen de l’IA, coordonneraient les actions des autorités ». Le ministère de l’Économie diffusait aussi un « schéma de gouvernance des autorités de surveillance de marché » sur lequel la DGCCRF, avec la DGE, était clairement aux manettes :

Mais finalement, le gouvernement a choisi la CNIL comme autorité chargée d’assurer la mise en œuvre de l’AI Act sur le sol français. De fait, le texte initial du projet de loi présenté au Sénat n’avait pas tranché la question.

Selon nos confrères de Contexte, le Conseil d’État estimait que le schéma prévu par Bercy risquait « d’enfreindre la règle du “non bis in idem” », c’est-à-dire l’impossibilité de double sanction. En effet, selon l’institution, le plan prévu par le ministère de l’Économie risquait de mettre en place des doubles affectations d’autorités sur certaines catégories d’IA. Le gouvernement a donc dû revoir sa copie.

La CNIL ramasse la mise

Finalement, l’amendement au texte qu’il a déposé ce jeudi 12 février veut modifier la loi Informatique et libertés de 1978 pour donner de nouvelles compétences à la CNIL, qui devra « assurer la mise en œuvre effective » de l’AI Act.

L’autorité aura aussi à charge le contrôle des pratiques d’intelligence artificielle interdites. Sur la notation sociale, elle partagera cette charge de contrôle avec la DGCCRF.

Elle se voit aussi confier « le contrôle du respect des obligations de transparence applicables à certains systèmes d’intelligence artificielle, notamment ceux mettant en œuvre des dispositifs de reconnaissance des émotions ou de catégorisation biométrique », comme l’explique le gouvernement dans l’objet de son amendement.

La CNIL est également désignée comme autorité compétente à l’égard des obligations de transparence de certains systèmes d’intelligence artificielle au sens de l’article 50 du même règlement, qui obligera les contenus générés par IA à être labellisés comme tels.

Elle est désignée comme organisme notifié qui doit intervenir pour « l’évaluation du système de gestion de la qualité et de l’évaluation de la documentation technique » des systèmes d’IA considérés comme à « haut risque » par le règlement européen concernant les systèmes d’identification biométrique, de décisions relatives au travail (emploi, recrutement…) et « certaines applications relevant de la répression, des contrôles aux frontières ou de la gestion des migrations ». Même chose concernant les systèmes à haut risque dans l’éducation, mais la DGCCRF récupère la compétence sur les systèmes concernant la formation professionnelle.

Dans ce texte, l’Arcom ne retrouve plus qu’un rôle de consultation lorsque les systèmes d’intelligence artificielle concernés présentent un lien direct avec les processus démocratiques.

« Il y a quelques incertitudes sur les périmètres respectifs des uns et des autres », a quand même estimé la rapporteure du texte Marie-Lise Housseau (UC) auprès de nos confrères de Contexte, alertée par l’Arcom. La sénatrice pourrait proposer quelques modifications pour éclaircir les choses.

Le Sénat doit examiner le texte en séance publique lundi 16 février.

Le procès de l’addiction aux réseaux sociaux débute en Californie

13 février 2026 à 12:21
16 heures par jour sur Instagram, de l'addiction ?
Le procès de l’addiction aux réseaux sociaux débute en Californie

Auditionné devant un grand jury chargé d’arbitrer si les réseaux sociaux encouragent sciemment leurs utilisateurs à une consommation excessive, le patron d’Instagram a estimé que ces usages irraisonnés pouvaient se révéler problématiques, mais ne relevaient pas d’une addiction au sens clinique du terme. Y compris dans le cas emblématique de Kaley, une plaignante âgée de 20 ans, capable de passer 16 heures en une journée sur son application.

La cour supérieure de justice de Los Angeles a débuté cette semaine l’examen de l’affaire qui oppose Kaley G. M., une jeune fille de 20 ans accompagnée par sa mère, aux principales grandes plateformes du marché. Elle accuse Meta, Google, Snap et TikTok d’avoir sciemment développé et entretenu des mécaniques visant à encourager une consommation effrénée de leurs différents réseaux sociaux, et soutient que l’addiction qui en découle est la cause de ses troubles psychiatriques et physiologiques : anxiété, dépression, dysmorphophobie, etc.

Une affaire qui devrait faire des vagues

Si les débats, programmés pour une durée de six semaines face à un jury populaire, s’annoncent particulièrement retentissants, c’est notamment parce que Adam Mosseri, patron d’Instagram, Mark Zuckerberg, CEO de Meta et Neal Mohan, en charge de YouTube chez Alphabet, sont attendus à la barre. Or les avocats de YouTube et de Meta ont déjà annoncé, au cours de leur déclaration liminaire, qu’ils s’attacheraient à démontrer que les troubles cliniques de la jeune fille découlent de ses antécédents et de facteurs sociaux, notamment familiaux.

Mark Lanier, l’avocat qui défend la plaignante, affirme quant à lui vouloir démontrer que les réseaux sociaux provoquent et entretiennent l’addiction chez les jeunes publics, et cette démarche volontaire s’incarne selon lui dans le swipe, ce geste qui consiste à balayer l’écran pour passer, sans fin, d’une publication à l’autre. Dans sa propre déclaration liminaire, il compare cette mécanique à celle du jeu d’argent. « Pour une enfant comme Kaley, ce geste est comparable à celui de manipuler une machine à sous. Mais à chaque fois qu’elle utilise son appareil, ce n’est pas pour gagner de l’argent, mais pour se stimuler mentalement ».

Également mis en cause, Snap et TikTok ont préféré négocier un accord confidentiel avec la partie plaignante. Meta et Google semblent quant à eux décidés à aller à l’affrontement, ce qui signifie que les deux entreprises espèrent une jurisprudence. D’après CNN, l’issue du « procès KGM » pourrait ainsi avoir une influence sur quelque 1 500 poursuites engagées aux États-Unis contre les plateformes sociales !

Outre les plaintes de particuliers, Meta fait pour mémoire l’objet de poursuites engagées par 41 États américains en 2023 suite aux révélations de la lanceuse d’alerte Frances Haugen qui dénonçait précisément, deux ans plus tôt, les pratiques problématiques du groupe en matière d’entretien de l’addiction des jeunes publics.

Certains lanceurs d’alerte devraient justement être appelés à témoigner. La partie civile a également affirmé qu’elle produirait des emails internes à Meta et Google illustrant comment les deux entreprises faisaient du temps passé sur leurs plateformes sociales un indicateur clé de performance.

Adam Mosseri, patron d’Instagram, premier sur le grill

Mercredi, c’est donc Adam Mosseri, patron d’Instagram au sein du groupe Meta, qui a ouvert le bal des témoignages en se livrant à un délicat exercice d’équilibrisme. D’après le rapport fait par le New York Times, Mosseri a en effet admis que les réseaux sociaux pouvaient se révéler préjudiciables pour la santé mentale de jeunes publics, tout en affirmant qu’Instagram prenait toutes les mesures appropriées pour vérifier l’impact potentiel de ses nouvelles fonctionnalités avant de les déployer.

Il a dans le même temps tenu à formuler une distinction entre addiction et usage problématique, expliquant que cette qualification dépendait de la personne concernée, et non de la plateforme éditrice.

« Il est important de faire la distinction entre dépendance clinique et usage problématique, a-t-il déclaré selon la BBC. Je suis certain d’avoir déjà dit que j’étais accro à une série Netflix après l’avoir regardée en boucle très tard un soir, mais je ne pense pas que ce soit la même chose qu’une dépendance clinique ».

La partie civile a saisi la balle au bond, en demandant à Mosseri son avis sur la session la plus longue sur Instagram déclarée par la jeune fille, soit 16 heures sur une seule journée. « Cela ressemble à une utilisation problématique », a répondu l’intéressé, qui a par ailleurs affirmé ne pas avoir eu connaissance des 300 signalements pour harcèlement formulés par la plaignante.

Un filtre « chirurgie esthétique » en question

L’avocat de la jeune fille a également attaqué Mosseri sur les « filtres beauté » proposés par l’application, ces outils qui permettent de modifier certains éléments du physique de l’internaute lors d’une prise de photos. Copie de documents internes à l’appui, il a montré que Mosseri et Zuckerberg avaient en 2019 levé l’interdiction relative à un filtre mimant les effets d’une chirurgie esthétique. « On nous reprocherait à juste titre de privilégier la croissance au détriment de la responsabilité », arguait cependant Nick Clegg, ancien responsable des affaires publiques de Meta, dans ces échanges.

Le problème soulevé par ces filtres n’est pas nouveau. En 2024, TikTok a par exemple pris le parti d’interdire l’accès à certains filtres aux moins de 18 ans, en réaction à la publication d’un rapport de l’ONG britannique Internet matters, qui relevait « un consensus » parmi les adolescentes et adolescents interrogés sur le fait que « les filtres de beauté contribuent à une vision du monde déformée, dans laquelle les images améliorées deviennent la norme tandis que les présentations réalistes sont plus rares ». 


Suite à ces passes d’armes, l’avocat de Meta s’est quant à lui attaché à montrer qu’Instagram a, au cours des dernières années, déployé de nombreuses mesures et fonctionnalités visant à protéger les jeunes publics, qui disposent depuis l’an dernier d’un statut particulier au sein de l’application.

Liberté d’expression contre négligence

Le LA Times rappelle qu’en dépit des controverses régulières, les grandes plateformes sont toujours protégées par le fameux article 230 de la loi de 1996, qui les exonère de toute responsabilité quant au contenu publié par les utilisateurs, un rempart qui s’ajoute au fameux Premier amendement de la constitution garantissant la liberté d’expression. Tout l’enjeu pour les plaignants consiste, dans ce contexte, à identifier des leviers détournés, permettant par exemple d’attester une négligence ou une preuve tangible de tentative de manipulation, pour rétablir cette responsabilité.

Mistral effectue un premier investissement hors de France, en Suède

13 février 2026 à 11:09
Ventil
Mistral effectue un premier investissement hors de France, en Suède

L’entreprise d’IA générative française a annoncé qu’elle allait investir 1,2 milliard d’euros en Suède pour un projet de datacenters. Cette annonce est le premier investissement de la startup française hors de France. Il doit augmenter, à terme, les capacités de calcul globales de Mistral de 50 % dès 2027, si tout va bien.

Ce mercredi 11 février, Mistral a annoncé investir 1,2 milliard d’euros pour la construction de centres de données à Borlänge, en Suède. L’entreprise affirme dans son communiqué que cite l’AFP que l’investissement «comprend le développement de data centers spécialisés en intelligence artificielle, de capacités de calcul avancées et de solutions d’IA localisées» sans plus de détails techniques.

Le tout doit être mis en service en 2027 et doit permettre à Mistral d’augmenter ses capacité de 50 %, explique la Tribune.

Mistral s’insère dans un projet déjà en cours de l’acteur local EcoDataCenter

De fait, les datacenters de Mistral actuellement sur le territoire français demandent une puissance de 40 mégawatts. Ici, le nouveau projet de la startup française demandera 23 mégawatts sur le réseau électrique suédois. L’entreprise d’Arthur Mensch explique qu’elle ne se lance pas toute seule dans ce projet à l’étranger. Elle va en effet s’appuyer sur l’entreprise locale EcoDataCenter dont le projet à Borlänge a été lancé en 2025.

L’investissement de 1,2 milliard d’euros semble supérieur à ce qui est généralement pratiqué. Mistral confirme cependant à Next : « notre investissement en Suède correspond bien à une puissance énergétique de 23MW » sans plus de précision sur ce que recouvre l’accord. EcoDataCenter a déjà un premier data site qui se situe à Falun qui demande une puissance de 80MW. Son projet à Borlänge est de 240MW selon son site web. Ainsi, Mistral devrait prendre un dixième du site en construction. L’entreprise suédoise précisait même dans un communiqué en septembre dernier que le projet pourrait bénéficier ensuite d’une extension pour aller jusqu’à 600 MW.


Afficher une carte plus grande

EcoDataCenter indique que le datacenter hébergera des GPU Vera Rubin de dernière génération de NVIDIA.

Arthur Mensch a justifié ce choix de la Suède au Financial Times en affirmant que l’énergie y était « à la fois peu polluante et relativement bon marché ».

En février dernier, l’entreprise avait annoncé implanter un data center en Essonne à Bruyères-le-Châtel, hébergé par Eclairion et qui utilisait une puissance de 40 mégawatts.

Selon Le Mag IT, les deux infrastructures seront aussi utilisé pour l’offre « Compute » de Mistral qui propose des services d’hébergement pour d’autres acteurs d’IA.

Mistral, un chiffre d’affaire annualisé de 400 millions de dollars

« Nous diversifions et répartissons nos capacités à travers l’Europe », a-t-il déclaré aussi à nos confrères, « L’Europe a pris conscience que sa dépendance vis-à-vis des services numériques américains était excessive et avait atteint aujourd’hui un point critique. Nous leur apportons un avantage concurrentiel, car nous leur fournissons des modèles, des logiciels et des capacités de calcul totalement indépendants des acteurs américains ».

« Il s’agit en fait d’une activité assez prévisible, ce qui explique le fort intérêt pour la souscription d’investissements dans les infrastructures » assure-t-il encore et il prévoit que le nouveau site générerait plus de 2 milliards d’euros de revenus au cours des cinq prochaines années.

Le responsable de l’entreprise en a profité pour expliqué à nos confrères britanniques que le chiffre d’affaires annualisé de Mistral (calculé en multipliant par 12 le chiffre du dernier mois) dépassait les 400 millions de dollars, 20 fois plus qu’un an avant. Il espère pouvoir dépasser le milliard annuel d’ici la fin de l’année.

Rappelons qu’en septembre dernier ASML avait pris 11 % de Mistral AI pour 1,3 milliard d’euros sous la forme d’un partenariat stratégique de long terme, de quoi écarter les rumeurs de rachat par Apple qui avaient pu circuler quelques mois avant.

☕️ La tête dans les étoiles : Ariane 64 (4 boosters) décolle, Sophie Adenot va rejoindre l’ISS

13 février 2026 à 09:37

Hier, Ariane 6 a fait son premier vol dans la configuration Ariane 64, c’est-à-dire avec quatre boosters au lieu de deux pour Ariane 62. C’était le premier lancement pour cette configuration qui « double les performances de la fusée par rapport à la version à deux propulseurs qui a déjà volé cinq fois, y compris lors du vol inaugural en 2024 ».

« Ariane 6 peut emporter environ 21,6 tonnes en orbite basse, soit plus du double des 10,3 tonnes atteignables avec deux propulseurs », rappelle l’Agence spatiale européenne. Cela reste loin des 63 tonnes de Falcon Heavy. « Il s’agit de la plus haute Ariane 6 jamais construite. Avec sa coiffe de 20 m, Ariane 64 mesure 62 mètres, soit à peu près la hauteur d’un immeuble de 20 étages », ajoute-t-elle. La fusée embarquait 32 satellites Amazon Leo, déposés sur les bonnes orbites.

Les temps forts du lancement sont disponibles dans cette vidéo de quatre minutes de l’ESA.

Un lancement peut en cacher un autre. Après des reports à cause de la météo, la mission Crew-12 à bord de la capsule Crew Dragon de SpaceX devrait décoller ce matin (11h15 heure de Paris) direction la Station spatiale internationale.

À son bord, quatre membres d’équipage : les astronautes américains de la NASA Jessica Meir et Jack Hathaway, le cosmonaute russe de Roscosmos Andrey Fedyaev et enfin la Française de l’ESA Sophie Adenot. Elle avait, pour rappel, été sélectionnée début 2024. Nom de code de sa mission qui doit durer neuf mois : Epsilon.

« Elle y effectuera plus de 200 expériences dont plusieurs ont été préparées et seront suivies par le Cadmos, le Centre d’aide au développement des activités en micropesanteur et des opérations spatiales, une entité du CNES basée à Toulouse. L’une de ces expériences françaises sera dédiée à la jeunesse : ChlorISS sera réalisée simultanément par Sophie Adenot dans l’ISS et par 4500 classes dans toute la France », explique le CNES.

Il sera possible de suivre le lancement en direct sur la chaine YouTube de l’ESA par exemple :

Digital Omnibus : l’EDPS et l’EDPB s’opposent à la redéfinition des données personnelles

13 février 2026 à 09:14
Pas de personnalisation des données personnelles
Digital Omnibus : l’EDPS et l’EDPB s’opposent à la redéfinition des données personnelles

Dans une communication conjointe, le contrôleur et le comité européens de la protection des données (EDPS et EDPB) se prononcent clairement contre la redéfinition des données personnelles proposées par la Commission européenne dans le cadre de son Digital Omnibus. En janvier, ils appelaient aussi à diverses précautions en matière de réécriture du règlement sur l’IA.

En matière d’omnibus numérique, le contrôleur et le comité européens de la protection des données (EDPS et EDPB en anglais, CEPD en français) sont on ne peut plus clairs : ils estiment toute tentative de redéfinir ce qui constitue une donnée personnelle comme un danger. Dans un communiqué conjoint, les deux entités appellent « fortement les colégislateurs à ne pas adopter les modifications (…) proposées » en la matière (voir aussi le résumé, en français, qu’en propose la CNIL).

Si la redéfinition de ce qui constitue une donnée personnelle a pu être décrite comme le simple fait d’ancrer dans la loi une interprétation déjà donnée par la Cour européenne, l’EDPS et l’EDPB déclarent que les modifications proposées iraient en réalité « bien au-delà ».

Dans son arrêt SRB du 4 septembre 2025, la Cour de justice de l’Union européenne considérait en effet que des données pseudonymisées pouvaient être considérées comme n’étant pas des données personnelles pour leur destinataire si des mesures techniques et organisationnelles étaient prises pour l’empêcher d’accéder à des éléments identifiant, et si ce destinataire ne pouvait légalement mettre la main sur des éléments lui permettant de ré-identifier les personnes concernées, ou transmettre les données à un tiers à même d’opérer cette ré identification.

Dans leur communication conjointe de ce 11 février, l’EDPS et l’EDPB déclarent qu’en l’état, le Digital Omnibus propose une redéfinition de la nature d’une donnée personnelle bien plus large que la simple intégration de cet arrêt. « La simplification est essentielle pour réduire les formalités administratives et renforcer la compétitivité de l’Union, mais pas aux dépens des droits fondamentaux », déclare Anu Talus, la directrice de l’EDPB. Une position qui fait écho à celle d’entités de défense des droits numériques comme noyb (qui salue leur décision), ou l’organisation European Digital Rights (EDRi).

Maintenir un registre des systèmes d’IA à haut risque

En matière d’intelligence artificielle, l’EDPS et l’EDPB soulignent de nouveau leur scepticisme vis-à-vis de l’intégration, au sein du RGPD, d’un fondement légal à l’usage de données personnelles pour le développement et le déploiement de systèmes d’IA. En janvier, dans une communication conjointe spécifiquement dédiée à la partie du Digital Omnibus visant le règlement en cours d’application sur l’intelligence artificielle (RIA ou AI Act), elles convenaient là aussi du besoin de répondre à quelques enjeux concrets, mais insistaient sur le besoin de préserver les droits fondamentaux.

En pratique, elles contestaient la proposition de supprimer l’obligation d’enregistrer les systèmes à haut risque dans un registre public – proposition soutenue notamment par les lobbies des géants numériques américains. À défaut, elles estiment que cette évolution « abimerait significativement la responsabilité et créerait une incitation indésirable pour les fournisseurs à demander des exemptions pour éviter l’examen public ».

L’EDPS et l’EDPB appelaient par ailleurs à préciser la possibilité d’utiliser des données personnelles comme l’origine ethnique ou des données de santé pour de la détection et de la correction de biais « uniquement dans les situations circonscrites où les risques d’effets adverses provoqués par ces biais sont considérés suffisamment sérieux ».

Bacs à sable réglementaires et gestion des cookies

L’EDPS et l’EDPB saluent aussi plusieurs propositions d’intérêt dans les deux omnibus. Côté IA, elles soulignaient en janvier l’intérêt des bacs à sable réglementaires de niveau européen, permettant de « promouvoir l’innovation ». Elles recommandaient d’y faire directement participer les autorités de protection des données compétentes.

Côté Digital Omnibus, les deux entités saluent les modèles et listes communes proposées pour auditer les impacts en termes de protection des données en cas de fuites. Elles appellent néanmoins à augmenter les seuils de risques en fonction desquels la notification aux autorités de protection des données devient obligatoire et à allonger le délai de notification.

Elles soutiennent l’harmonisation de la notion de « recherche scientifique » dans les textes, et le projet d’amender la directive ePrivacy pour trouver des solutions à la « consent fatigue », c’est-à-dire à la multiplication des bannières de gestion des cookies demandant à un même internaute s’il ou elle consent à partager ses données.

Anthropic lève 30 milliards de dollars et se voit valorisée à 380 milliards

13 février 2026 à 08:14
Anthropic mange à tous les râteliers
Anthropic lève 30 milliards de dollars et se voit valorisée à 380 milliards

Pour son septième tour de table, Anthropic lève 30 milliards de dollars et voit sa valorisation doublée par rapport à septembre. Le père de l’IA générative Claude annonce une projection de son chiffre d’affaires annuel à 14 milliards de dollars, dont 2,5 milliards pour Claude Code.

30 milliards et les usual suspects

Six mois après son dernier tour de table (13 milliards de dollars en septembre 2025), Anthropic remet le couvert : la société éditrice des modèles Claude a annoncé le 12 février une levée de fonds en série G (c’est-à-dire son septième tour de financement après l’amorçage initial) de 30 milliards de dollars. L’opération se fait sur la base d’une valorisation d’entreprise fixée à 380 milliards de dollars, contre 183 milliards en septembre dernier.

La valeur d’Anthropic a donc plus que doublé pour la longue liste des participants à cette levée de fonds. Le tour est emmené par les fonds GIC et Coatue, avec en deuxième ligne D. E. Shaw Ventures, Dragoneer, Founders Fund, ICONIQ, et l’émirati MGX, par ailleurs impliqué dans le projet Campus IA de Fouju, en région parisienne.

Derrière ces fonds figure encore une longue liste d’investisseurs, parmi lesquels Baillie Gifford (aussi chez GraphCore), BlackRock (bien implanté dans l’IA), Blackstone (présent au Royaume-Uni avec un datacenter IA), D1 Capital Partners, Qatar Investment Authority… ainsi que les usual suspects du financement de la Silicon Valley (Sequoia Capital, Menlo Ventures, Lightspeed Venture Partners) et plusieurs grandes banques (PMorganChase et Goldman Sachs).

Le tour intègre par ailleurs une partie des financements qui avaient déjà été promis par Microsoft et NVIDIA dans le cadre de l’accord stratégique de novembre dernier.

Chiffre d’affaires annuel estimé (run-rate) : 14 milliards de dollars

Anthropic profite de cette annonce pour afficher une projection de chiffre d’affaires annuel, calculée à partir de ses rentrées d’argent actuelles, à 14 milliards de dollars, contre un peu plus d’un milliard de dollars en janvier 2025.

Anthropic revendique un run-rate revenue (projection de chiffre d’affaires basée sur ses résultats actuels) à 14 milliards de dollars annuels

L’indicateur ne tient pas compte des perspectives de croissance envisagées pour la suite (le véritable nerf de la guerre, puisque ce sont elles qui devront à terme compenser les dépenses). À défaut de valeurs absolues quant à ses clients ou son chiffre d’affaires mensualisé, Anthropic revendique un x7 en 2025 sur le nombre de clients dépensant plus de 100 000 dollars par an (valeur déjà avancée en septembre dernier lors de son précédent tour de table). Le nombre de clients consommant plus d’un million de dollars par an serait supérieur à 500.

Claude Code se présente comme l’un des contributeurs majeurs à cette dynamique : son chiffre d’affaires annuel projeté s’établirait aujourd’hui à 2,5 milliards de dollars, un montant qui aurait doublé depuis le 1ᵉʳ janvier dernier, tout comme le nombre d’utilisateurs enregistrés. Plus de la moitié de ce chiffre d’affaires émane des entreprises, indique Anthropic.

La levée de fonds alimentera les besoins en fonds de roulement de la société (et donc le développement de ses futurs modèles), ainsi que son approvisionnement en infrastructures. Sur ce point, l’entreprise dirigée par Dario Amodei prend soin de souligner qu’elle ne dépend d’aucun partenaire de façon exclusive.

« Claude demeure le seul modèle d’IA de pointe disponible pour les clients sur les trois plus grandes plateformes cloud au monde : Amazon Web Services (Bedrock), Google Cloud (Vertex AI) et Microsoft Azure (Foundry). Nous entraînons et exécutons Claude sur une gamme diversifiée de matériel d’IA (AWS Trainium, Google TPU et GPU NVIDIA), ce qui nous permet d’adapter les charges de travail aux puces les mieux adaptées. Cette diversité de plateformes se traduit par de meilleures performances et une plus grande résilience pour les entreprises clientes qui dépendent de Claude pour leurs tâches critiques. »

☕️ Ingérences numériques étrangères : VIGINUM doté de « moyens renforcés »

12 février 2026 à 14:51

VIGINUM annonce pouvoir collecter les données issues des petites plateformes où sont souvent pensées les opérations de manipulations contre la France, relève l’AFP.

Un décret, présenté hier en Conseil des ministres et publié ce 12 février au Journal officiel, dote en effet le service de vigilance et de protection contre les ingérences numériques étrangères de « moyens renforcés ».

Il supprime le « seuil minimal de 5 millions de visiteurs uniques par mois » qui fixait le « périmètre des plateformes sur lesquelles Viginum (pouvait) collecter des données à caractère personnel ».

Il élargit également le champ de cette collecte, « en particulier en l’étendant aux interfaces en ligne au sens du DSA », et allonge par ailleurs les durées de conservation des données et de renouvellement des collectes. Cette extension permet de conserver des « archives » pour faire face aux acteurs dits « persistants », explique une source sécuritaire à l’AFP.

Après quelques années en service, les autorités se sont aperçues qu’« un certain nombre d’opérations d’ingérence numérique étrangère se préparaient sur des petites plateformes pour que cela soit moins visible des outils de modération », poursuit cette source, citant notamment l’exemple de Discord.

Le décret octroie par ailleurs au service de nouvelles missions en matière de documentation des modes opératoires, de recherche et d’information du public, ainsi qu’aux actions d’éducation aux médias, et précise le cadre d’action de certaines missions déjà exercées, en particulier en matière électorale.

Infographie de la galaxie Viginum
Viginum

Dans sa délibération associée, la CNIL « prend acte des justifications » présentées par le secrétaire général de la défense et de la sécurité nationale (SGDSN), et « considère que le projet de décret comporte des garanties propres à assurer le respect du principe de minimisation des données lors de la collecte des données qui est rendue possible dès la phase de veille/détection ».

Elle relève par ailleurs que sa « nouvelle mission de recherche et développement implique la réutilisation des données collectées par Viginum pour une nouvelle finalité, de conception, d’entraînement et de développement d’outils utilisant l’IA en appui aux missions du service. »

Challenges rappelle de son côté que VIGINUM a publié en décembre dernier un guide de sensibilisation à la protection du débat public numérique en contexte électoral, en prévision des municipales les 15 et 26 mars prochains.

Une « stratégie nationale de lutte contre les manipulations de l’information », annoncée par Emmanuel Macron début février, vient par ailleurs d’être rendue publique (nous y reviendrons), précise Challenges :

« D’ores et déjà, tous les cadres dirigeants des partis politiques ont été reçus ces dernières semaines par Nicolas Roche, le patron du SGDSN (Secrétariat Général de la Défense et de la Sécurité Nationale), pour un brief sur les risques d’ingérences étrangères à l’occasion des municipales. »

De l’enthousiasme au burnout, l’IA ne réduit pas la charge de travail, mais l’intensifie

12 février 2026 à 14:14
Le revers du mode IA
De l’enthousiasme au burnout, l’IA ne réduit pas la charge de travail, mais l’intensifie

Une étude de chercheuses de la Business School de Berkeley montre que le recours volontaire à l’IA augmente certes la productivité des employés, mais au prix d’un « nouveau rythme » de travail multitâche et d’un « cercle vicieux » générant workslop, burnout et turnover. Elle appelle les managers et employés à prendre la mesure du phénomène avant qu’il ne soit trop tard.

Dimanche dernier, un billet de blog intitulé « La fatigue liée à l’IA est bien réelle, mais personne n’en parle » faisait le buzz sur les réseaux sociaux. Le développeur Siddhant Khare y déplorait que « quand chaque tâche prend moins de temps, on ne fait pas moins de tâches, on en fait plus. Nos possibilités semblent s’étendre, donc le travail s’étend en fonction ».

Il y soulignait également que le passage d’une gestion lente mais concentrée sur un seul problème à celle de cinq ou six sujets différents en une journée l’empêche de retrouver le même état de « concentration profonde » qu’il connaissait auparavant, s’inquiétant d’une potentielle « atrophie de la pensée ».

Lundi, une étude publiée dans la Harvard Business Review est venue confirmer ses dires. « L’IA ne réduit pas la charge de travail, elle l’intensifie », y écrivent Aruna Ranganathan et Xingqi Maggie Yew, chercheuses à la Business School de l’université de Berkeley.

Elles ont étudié pendant huit mois, d’avril à décembre 2025, la manière dont l’IA générative avait modifié les habitudes de travail dans une entreprise technologique américaine comptant environ 200 employés. Elles y sont allées deux fois par semaine afin d’observer comment y travaillaient les employés, suivant également leurs canaux de communication internes, et procédant à plus de 40 entretiens approfondis :

« Nous avons constaté que les employés travaillaient à un rythme plus soutenu, assumaient un éventail de tâches plus large et prolongeaient leur journée de travail, souvent sans qu’on leur demande de le faire. De leur propre initiative, les employés en faisaient plus parce que l’IA leur donnait le sentiment que “faire plus” était possible, accessible et, dans de nombreux cas, intrinsèquement gratifiant. »

Les chercheuses soulignent que l’entreprise en question ne leur imposait aucunement de recourir à l’IA, se bornant à leur proposer des abonnements d’entreprise à des IA disponibles dans le commerce. « Si cela peut sembler être un rêve devenu réalité pour les dirigeants, les changements induits par l’adoption enthousiaste de l’IA peuvent s’avérer insoutenables et causer des problèmes à long terme », alertent cela dit les autrices :

« Une fois l’enthousiasme des premiers essais retombé, les employés peuvent se rendre compte que leur charge de travail a augmenté discrètement et se sentir dépassés par toutes les tâches qui leur incombent soudainement. Cette augmentation insidieuse de la charge de travail peut à son tour entraîner une fatigue cognitive, un épuisement professionnel et une prise de décision affaiblie. La hausse de productivité observée au début peut laisser place à une baisse de la qualité du travail, à un turnover élevé et d’autres problèmes. »

Un pharmakon : à la fois remède, poison, et bouc émissaire

Les chercheuses ont identifié trois formes principales d’intensification : l’élargissement du périmètre des tâches effectuées, le flou qui s’instaure entre travail et vie privée, la banalisation du multitâches.

L’IA pouvant assister ses utilisateurs dans des domaines où ils n’ont pas de compétences particulières, « les employés ont progressivement assumé des responsabilités qui incombaient auparavant à d’autres », relèvent les chercheuses. Les chefs de produit ont commencé à écrire du code, les chercheurs se sont attelés à des tâches d’ingénierie quand d’autres « se sont essayés à des tâches qu’ils auraient auparavant externalisées, reportées ou évitées ».

L’IA générative a en effet rendu envisageable d’effectuer des tâches qui, jusque-là, paraissaient a priori infaisables, faute de compétences dédiées. Les chercheuses ont constaté que les employés ont commencé à prendre en charge des tâches qui auraient préalablement nécessité une aide ou du personnel supplémentaires. Non content de réduire la dépendance vis-à-vis des autres, ce recours à l’IA offre en outre « une amélioration cognitive stimulante » aux personnes ainsi « augmentées ».

Sauf que, à la manière des prises de risque que peuvent générer de faux sentiments de sécurité, cette émancipation est aussi un pharmakon, et donc à la fois un remède, un poison, et un bouc émissaire, qui n’est pas sans rappeler la potentielle émergence d’une « bêtise artificielle » contre laquelle alerte la philosophe Anne Alombert.

Les chercheuses évoquent par exemple le temps passés par des ingénieurs à devoir réviser et corriger les mémos générés par IA de personnes ne disposant pas de compétences appropriées, ou encore le temps perdu à finaliser des pull requests et à remettre au propre du code développé en mode « vibe-coding » par des dev’ ne maitrisant pas le langage de programmation en question.

Un temps perdu que nous avions déjà chroniqué dans un article consacré au « workslop », terme désignant précisément les travaux de piètre qualité obligeant employés et managers à « refaire le job » que des gens moins qualifiés ont effectué grâce à l’IA dans des domaines qu’ils ne maitrisent pas, ou pas assez.

La frontière entre travail et temps libre devient poreuse

Les chercheuses ont également constaté que le fait de pouvoir expérimenter des tâches jusqu’alors inenvisageables contribue également à alimenter un flou entre ce qui relève du travail et de la vie privée. Des employés ont ainsi commencé à expérimenter de nouvelles compétences professionnelles sur leurs temps de pause déjeuner, le soir ou le week-end.

Le fait de pouvoir avoir des « conversations » avec les chatbots, et que ces tâches s’apparentent à la fois à des défis, énigmes, missions et nouveaux apprentissages, accroît également la propension à pouvoir s’y atteler, ou y retourner, en-dehors de ses horaires de travail.

« La frontière entre le travail et le temps libre n’avait pas disparu, mais elle était devenue plus facile à franchir », résument les chercheuses, à qui des employés ont déclaré avoir réalisé, souvent après coup, qu’à mesure que le fait de travailler pendant les pauses devenait une habitude, les temps morts ne leur procuraient plus le même sentiment de récupération.

Un « nouveau rythme » de travail multitâche

Le fait de pouvoir être assisté par un « partenaire » ou « assistant  » dédié, susceptible de les aider en matière de productivité dans leur charge de travail, a aussi poussé certains employés à vouloir en faire plus qu’avant, dans le même temps. L’IA a ainsi introduit un « nouveau rythme » de travail permettant à des employés de gérer plusieurs tâches actives à la fois.

Si ce mode « multitâches » peut donner l’impression d’être « boosté » voire « dopé », il requiert aussi de devoir fréquemment changer de sujet d’attention, pour vérifier et relancer les propositions de l’IA, et de faire face à un nombre croissant de tâches à la fois. De quoi générer une charge mentale cognitive supplémentaire, facilitant de surcroit les problèmes de concentration.

Cette façon de courir sur plusieurs fronts entraîne elle-même une fatigue accrue. De nombreux travailleurs ont ainsi remarqué qu’ils faisaient plus de choses à la fois et ressentaient plus de pression qu’avant d’utiliser l’IA, « même si le gain de temps résultant de l’automatisation était censé réduire cette pression », soulignent les chercheuses.

Un cercle vicieux : on ne travaille pas moins mais autant, voire plus

Alors que l’IA faisait miroiter des gains de productivité, ces derniers pourraient dès lors et dans le même temps entraîner des risques de burnout et de turnover, et donc de baisse de la productivité. Les chercheuses en concluent que ces combinaisons de travaux et (multi)tâches « augmentés » ont « créé un cercle vicieux », et que « cela place les dirigeants dans une situation délicate », voire au risque de « ne pas se rendre compte du coût de ces gains avant qu’il ne soit trop tard » :

« L’IA a accéléré certaines tâches, ce qui a accru les attentes en matière de rapidité ; cette rapidité accrue a rendu les travailleurs plus dépendants de l’IA. Cette dépendance accrue a élargi le champ d’action des travailleurs, ce qui a encore augmenté la quantité et la densité du travail. Plusieurs participants ont fait remarquer que, même s’ils se sentaient plus productifs, ils ne se sentaient pas moins occupés, et dans certains cas, ils se sentaient même plus occupés qu’auparavant. »

Comme l’a résumé un ingénieur : « On pensait que, peut-être, grâce à l’IA, on serait plus productif, on gagnerait du temps et on travaillerait moins. Mais en réalité, on ne travaille pas moins. On travaille autant, voire plus. »

Or, ce type de surmenage peut altérer le jugement, augmenter le risque d’erreurs, la fatigue voire l’épuisement professionnel, et un sentiment croissant qu’il est plus difficile de se détacher du travail, résument les chercheuses.

Contrer les effets épuisants et individualisants de l’IA

Cherchant à anticiper ce que les managers pourraient faire pour aider leurs employés à sortir de ce « cercle vicieux », elles écartent d’emblée le fait de leur demander de s’autoréguler. Elles estiment que les entreprises devraient élaborer un ensemble de normes et standards destinés à recadrer l’utilisation de l’IA, plutôt que de la laisser dévorer le temps de cerveau disponible des employés.

Elles incitent les managers à mettre en place des « pauses intentionnelles » afin d’évaluer l’état d’avancement des travaux, voire reconsidérer les hypothèses de base avant de continuer plus avant. Des propositions qui font écho à celles de Siddhant Khare, qui recommande de passer à autre chose si 30 minutes de conversation avec un chatbot ne s’avèrent pas satisfaisantes.

Les chercheuses proposent aussi de séquencer le temps de travail, avec des plages horaires protégeant les employés de toute interruption, et le regroupement des notifications non urgentes :

« Plutôt que de réagir à chaque résultat généré par l’IA au fur et à mesure qu’il apparaît, le séquençage encourage le travail à progresser par phases cohérentes. Lorsque la coordination est rythmée de cette manière, les travailleurs subissent moins de fragmentation et moins de changements de contexte coûteux, tandis que les équipes maintiennent leur rendement global. En régulant l’ordre et le calendrier du travail, plutôt qu’en exigeant une réactivité continue, le séquençage peut aider les organisations à préserver l’attention, à réduire la surcharge cognitive et à favoriser une prise de décision plus réfléchie. »

Les chercheuses invitent également les entreprises à organiser des temps de dialogue et de débriefing permettant aux employés d’échanger sur leurs pratiques respectives et ce que l’IA a pu changer. L’objectif serait tout autant d’ « interrompre l’utilisation continue et isolée de l’IA » que d’aider à « retrouver une certaine perspective », réancrer le travail dans un contexte social et « contrer les effets épuisants et individualisants d’un travail rapide et médiatisé par l’IA ».

« L’IA facilite l’accomplissement de tâches supplémentaires, mais rend plus difficile de s’arrêter », concluent les chercheuses, qui appellent à « préserver des moments de récupération et de réflexion, même lorsque le rythme de travail s’accélère » :

« La question qui se pose aux organisations n’est pas de savoir si l’IA va changer le travail, mais si elles vont activement façonner ce changement ou le laisser les façonner discrètement. »

Fonctions érotiques, publicité : OpenAI sous le feu des critiques, y compris internes

12 février 2026 à 13:16
MissionlessAI
Fonctions érotiques, publicité : OpenAI sous le feu des critiques, y compris internes

Critiqué pour son déploiement de publicité dans ChatGPT et son projet de donner accès à des fonctionnalités de contenu érotique, OpenAI voit plusieurs membres quitter ses effectifs au moment même où l’entreprise supprime son équipe dédiée à l’énoncé clair de sa mission.

Que se passe-t-il au sein d’OpenAI ? Sous la pression d’un « code rouge » déclaré début décembre pour tenter de rattraper le retard perçu sur la concurrence, les relations se sont visiblement tendues, au sein de l’entreprise créatrice de ChatGPT.

En janvier, la société se défaisait de l’une de ses cadres en charge de la sécurité des utilisateurs, Ryan Beiermeister. Cette dernière s’était exprimée publiquement pour critiquer le déploiement de contenu érotique généré par IA sur les produits liés à ChatGPT. Elle est licenciée au motif qu’elle aurait commis une discrimination de genre à l’encontre de l’un de ses collègues masculins.

En ce début février, la chercheuse Zoë Hitzig a de son côté publié dans le New-York Times une prise de parole dans laquelle elle décrit OpenAI « en train de faire les erreurs de Facebook ». Sa démission s’est faite le jour où son entreprise a commencé à tester la diffusion de publicité au sein de ChatGPT.

Ce 11 février, OpenAI indiquait par ailleurs mettre fin à son équipe dédiée à « l’alignement de la mission ». Fondée en 2024, celle-ci devait expliciter la mission de l’entreprise aussi bien au public qu’aux propres équipes d’OpenAI. Le chef de cette équipe, Josh Achiam, est désormais nommé « futurologue en chef », tandis que les six ou sept personnes sous sa responsabilité ont été réaffectées. Initialement, le projet public d’OpenAI était de s’assurer que l’intelligence artificielle « générale » profite à toute l’humanité.

Une fonctionnalité érotique critiquée 


Ryan Beiermeister a donc été remerciée au retour d’un congé, en amont du lancement d’un produit prévu pour le courant 2026, avec lequel les utilisateurs de ChatGPT pourraient créer des contenus érotiques générés par IA et tenir des conversations à caractère sexuel.

En janvier, cette ancienne de Palantir et Meta se serait vu licenciée pour avoir discriminé un collègue masculin en fonction de son genre, d’après des sources du Washington Post. Auprès du média, l’ancienne vice-présidente en charge des politiques d’utilisation de l’entreprise déclare que « l’allégation selon laquelle j’aurais discriminé quiconque est totalement fausse ». OpenAI indique de son côté que Ryan Beiermeister « a fourni des contributions de valeur pendant son passage chez OpenAI », et que son départ n’est « pas lié au moindre problème qu’elle aurait soulevé alors qu’elle travaillait pour l’entreprise ».

Les fonctionnalités érotiques contre lesquelles elle s’était élevée ont été critiquées par divers acteurs. Celles-ci seraient en effet déployées dans un contexte de diffusion à grande échelle de deepfakes pornographiques générés avec Grok, ce qui vaut plusieurs enquêtes à son propriétaire Elon Musk, et contre le réseau social X sur lequel l’essentiel de ces contenus sont diffusés. Par ailleurs, des chercheurs soulignent que les relations parfois très fortes que certains internautes lient avec les robots conversationnels ne sont pas encore assez étudiées ni comprises. Dans certains cas, elles ont mené jusqu’à des suicides – dans l’affaire médiatisée du décès de l’adolescent Adam Raine, OpenAI a d’ailleurs rejeté en novembre la responsabilité sur la victime.

Plusieurs employés d’OpenAI ont exprimé des inquiétudes au sujet de ce nouveau mode. Le patron de l’entreprise Sam Altman en défend le déploiement comme une manière de « traiter les adultes comme des adultes ».

Un lancement publicitaire publiquement décrié

En parallèle de ces questions, l’entreprise vient par ailleurs de lancer le test de fonctionnalités publicitaires dans ChatGPT. Une évolution présentée comme un « test afin d’apprendre, de recueillir des commentaires et de nous assurer que l’expérience est satisfaisante ». Pour l’économiste et poète Zoë Hitzig, en poste depuis deux ans au sein de l’entreprise, cette stratégie n’est qu’une reproduction des erreurs commises par Facebook il y a quinze ans.

« J’ai cru un jour pouvoir aider les développeurs d’IA à anticiper les problèmes que celle-ci allait poser, écrit-elle dans le quotidien. Cette semaine m’a confirmé ce que je commençais lentement à comprendre : OpenAI semble avoir cessé de se poser les questions auxquelles je devais aider à répondre. » Pour elle, la nature des données traitées par les machines de l’entreprise rend la publicité particulièrement dangereuse. Les internautes partagent en effet des éléments comme leurs inquiétudes médicales, leurs problèmes relationnels ou encore les croyances religieuses avec le chatbot conversationnel.

Et de souligner que, comme Facebook aux débuts de ses expérimentations publicitaires, OpenAI promet qu’elle suivra des principes d’étiquetage clair et veillera à ce que ses activités publicitaires n’influent pas sur les réponses. Si Zoë Hitzig « croit que les premières itérations » rempliront ces critères, elle craint que les suivantes, comme chez Meta, voient ces promesses s’éroder.

« Beaucoup de gens considèrent le problème du financement de l’IA comme un choix entre deux maux : restreindre l’accès à une technologie transformatrice à un petit groupe de personnes suffisamment riches pour se le permettre, ou accepter les publicités, même si cela implique d’exploiter les peurs et les désirs les plus profonds des utilisateurs », écrit encore la chercheuse.

Pour elle, cette vision binaire est un faux choix : les sociétés technologiques sont en capacité de créer des options permettant de rendre des outils largement accessibles sans créer d’incitation à « surveiller, utiliser le profilage et manipuler ses utilisateurs ».

La dissolution de l’équipe dédiée à réfléchir et rendre explicite la mission que se fixe OpenAI laisse néanmoins supposer que la recherche de ce type d’options ne fait pas ou plus partie des priorités de l’entreprise.

En Russie, même les pro-Kremlin ont du mal à comprendre le blocage de WhatsApp et Telegram

12 février 2026 à 11:55
Seuls les morts ont vu la fin de la guerre
En Russie, même les pro-Kremlin ont du mal à comprendre le blocage de WhatsApp et Telegram

Roskomnadzor, l’agence russe des télécommunications, a annoncé la mise en place de nouvelles restrictions d’accès aux messageries WhatsApp et surtout Telegram. Fait rare, ces nouvelles velléités de blocage entrainent des protestations publiques d’une partie de la classe politique, au nom des soldats engagés sur le front ukrainien.

Moscou serre la vis sur les messageries qui échappent à son contrôle direct. Roskomnadzor, l’agence nationale en charge des télécoms, a annoncé mardi que le pays allait progressivement limiter l’accès à la célèbre messagerie Telegram. « La loi russe continue de ne pas être appliquée (…), aucune mesure réelle n’est appliquée pour lutter contre l’escroquerie et l’utilisation de la messagerie à des fins criminelles et terroristes », a justifié le régulateur dans un message transmis aux agences de presse russes, relayé et traduit par l’AFP.

Roskomnadzor n’en est pas à son coup d’essai en la matière. L’agence russe a déjà à de nombreuses reprises volontairement ralenti ou dégradé l’accès à des services ou applications édités par des entreprises étrangères, invoquant à chaque fois des ingérences dans l’application souveraine de la politique nationale sur Internet.

« Nous sommes tout à fait disposés à collaborer avec toutes les ressources Internet, nationales et étrangères. Mais à une condition très simple : le respect de la Russie et de ses citoyens, ainsi que la conformité aux lois de la Fédération de Russie », indique encore l’agence, reprenant des arguments déjà employés par le passé à l’encontre de Google, de X ou de WhatsApp.

Un tour de vis supplémentaire sur Telegram, puis WhatsApp

En août dernier, Roskomnadzor avait déjà annoncé des restrictions visant Telegram et WhatsApp, fondées sur les mêmes accusations de permissivité vis-à-vis des activités criminelles.

À l’époque, la mesure avait été interprétée comme la réponse à deux objectifs. D’abord, réduire l’influence des entreprises de la tech occidentale sur la population russe, à plus forte raison dans le contexte de la guerre avec l’Ukraine. Ensuite, limiter les alternatives disponibles à Max, la nouvelle plateforme de messagerie opérée sous contrôle de l’administration russe.

Roskomnadzor a, dans les mois qui suivent, régulièrement perturbé le fonctionnement de WhatsApp, ce qui a conduit Meta à réagir publiquement, mais sans aller jusqu’au blocage complet. La question d’une interdiction pure et simple semblait encore écartée lors des discussions à la Douma (le parlement russe) en janvier, rapporte le média privé RBC.

La donne semble cependant avoir changé cette semaine. Les nouvelles restrictions visant Telegram ont commencé à se faire sentir à partir du 9 février, soit la veille de l’annonce faite par Roskomnadzor, ce que confirme le relevé des signalements sur la version russophone de Downdetector.

Mercredi après-midi, c’est l’accès à WhatsApp qui aurait soudainement été coupé pour des millions d’utilisateurs d’après les déclarations faites par un porte-parole de Meta :

« Aujourd’hui, le gouvernement russe a tenté de bloquer totalement WhatsApp afin d’inciter les utilisateurs à se tourner vers une application de surveillance d’État. Tenter d’isoler plus de 100 millions de personnes de toute communication privée et sécurisée constitue un recul et ne peut qu’accroître l’insécurité des citoyens russes. »

WhatsApp a relayé son message en anglais et en russe via son compte X – capture d’écran Next

Pavel Durov réagit publiquement

Pavel Durov, fondateur et CEO de Telegram, avait déjà réagi à ces restrictions. « La Russie restreint l’accès à Telegram pour contraindre ses citoyens à utiliser une application d’État conçue pour la surveillance et la censure politique. Cette mesure autoritaire ne nous fera pas changer d’avis. Telegram défend la liberté et la vie privée, quelles que soient les pressions. », a publié l’intéressé mardi, toujours sur X. Avant de rappeler que l’Iran avait déjà essayé, sans succès, d’imposer ses vues sur le fonctionnement des messageries mobiles.

« Il y a huit ans, l’Iran a tenté la même stratégie, sans succès. Sous de faux prétextes, le pays a interdit Telegram, cherchant à imposer une alternative d’État. Malgré cette interdiction, la plupart des Iraniens continuent d’utiliser Telegram (contournant ainsi la censure) et le préfèrent aux applications surveillées. La liberté triomphe. »

Durov a multiplié ces derniers mois les sorties publiques à l’encontre des velléités de contrôle étatiques. Particulièrement échaudé contre la France suite à son arrestation très médiatisée à l’aéroport du Bourget en août 2024, suivie d’une interdiction de voyager finalement levée en novembre dernier, il s’en est pris le 4 février dernier au Premier ministre espagnol Pedro Sánchez, dont le gouvernement venait d’annoncer son intention d’interdire l’accès aux réseaux sociaux aux moins de 16 ans.

YouTube également limité, un blocage DNS en cause ?

Sur les réseaux sociaux circulent des captures d’écran qui laissent supposer un blocage réalisé à l’échelle des DNS nationaux russes, administrés par Roskomnadzor. Une hypothèse également accréditée par certains médias russes, selon qui les domaines whatsapp.com et web.whatsapp.com auraient été retirés du registre national.

Le blocage DNS concernerait YouTube et WhatsApp – crédit Habr

Bien que le blocage DNS de services occidentaux ne soit pas précisément une première en Russie, cette mesure constitue une inflexion dans la stratégie de Roskomnadzor, remarque un contributeur du site russe Habr. Lors de ses différentes offensives contre les services étrangers, l’agence russe cherche en effet généralement à perturber l’accès, c’est-à-dire à en dégrader la qualité de service sans totalement l’interrompre, de façon peut-être à installer l’idée que WhatsApp, Telegram ou Signal ne fonctionne plus bien, et qu’il est donc temps de se tourner vers une autre messagerie.

D’après les ONG et observateurs internationaux, l’agence russe exploite une technologie baptisée Technical Means of Counteracting Threats (TPSU) pour contrôler les échanges à l’échelle du pays. Basée sur l’inspection de paquets (via analyse des entêtes par exemple), c’est elle qui permettrait de brouiller une partie des flux sans totalement interrompre le service visé. Problème : son déploiement à l’échelle de la population russe sur plusieurs services aussi populaires représenterait une charge, technique ou financière, difficile à assumer, et c’est ce qui pourrait avoir poussé Roskomnadzor à basculer vers un blocage DNS, plus radical mais également plus facile à contourner (au moyen d’un VPN par exemple).

Les restrictions font des mécontents

Quelle que soit la méthode mise en œuvre, la décision ne fait pas l’unanimité dans le pays, où plusieurs voix s’élèvent pour souligner que Telegram et WhatsApp sont les outils du quotidien de nombreux Russes.

Le Guardian remarque que la grogne se manifeste notamment dans les boucles de discussion consacrées au suivi de la guerre en Ukraine, dont les participants sont pourtant plutôt favorables à l’offensive décidée par Moscou. Plusieurs engagés interpellent directement le gouvernement, en faisant remarquer que Telegram est parfois l’unique canal reliant le front aux autorités militaires, mais aussi aux proches.

« Telegram demeure quasiment le seul moyen de communication au sein des unités de combat actives et contribue à la coordination des groupes de tir mobiles inter-agences », illustre par exemple un post de la chaîne Dva Maïora (Два майора), au milieu de messages d’apaisement soulignant que tout de même, Telegram devrait respecter la loi.

L’une des charges les plus virulentes est à mettre au crédit de Sergei Mironov, député russe du parti Russie juste (considéré comme faisant partie de l’opposition systémique). Mercredi, il s’est insurgé, lors d’une allocution à la Douma.

« Qui ralentit Telegram ? Allez voir sur le front, c’est la seule façon pour les gens de communiquer avec leurs proches. Qu’est-ce que vous faites, bande d’idiots ? Je dis les choses comme elles sont. Crétins ! Que chacun choisisse le moyen qui lui convient de communiquer. »

Le journaliste Vladimir Solovyov, considéré comme l’une des voix officieuses du Kremlin, semble lui aussi regretter cette décision, du moins si l’on en croit la traduction de son émission réalisée par le compte Russian Media Monitor sur YouTube.

S’il se dit partisan et respectueux de la messagerie nationale Max, il déplore les limites de cette dernière, pointant par exemple du doigt l’absence de conversation vidéo. Il affirme par ailleurs que Max compterait quelque 410 000 utilisateurs enregistrés, là où Telegram compterait 60 millions d’adeptes, et WhatsApp aux alentours de 100 millions… sans parler bien sûr de l’audience réalisée en dehors des frontières russes.

« Le système d’information russe se replie de plus en plus sur lui-même et il est peu probable qu’il ait un quelconque impact à l’étranger », font remarquer les auteurs de Dva Maïora. C’est peut-être ce dernier point qui conduira le Kremlin à réviser ses positions : comme l’ont démontré les jeux d’influence d’un Pavel Durov ou les sordides desseins d’un Terrorgram, les chaînes Telegram peuvent jouer un rôle significatif dans la guerre informationnelle engagée par la Russie à l’égard de nombreux pays, dont la France.

☕️ Affaire Guthrie : Google peut accéder aux vidéos des utilisateurs d’une caméra Nest

12 février 2026 à 11:10

Pour les utilisateurs des caméras de sécurité Nest de Google dont les flux sont conservés dans le cloud, impossible d’obtenir un stockage de long terme sans payer un tarif mensuel. Google garde néanmoins les données sur ses serveurs. Ainsi, lorsque Nancy Guthrie, la mère d’une présentatrice star aux États-Unis, Savannah Guthrie, disparaît, l’entreprise a pu les récupérer et les fournir aux autorités.

Âgée de 84 ans, Nancy Guthrie a été enlevée de chez elle le 1ᵉʳ février. Sur le coup, les forces de police ont déclaré qu’aucune vidéo de ce kidnapping n’était disponible : Nancy Guthrie ne payait pas d’abonnement pour sa Google Nest Cam, situation dans laquelle l’entreprise technologique ne donne habituellement accès qu’aux dernières heures d’enregistrement. 


Pour accéder à l’enregistrement des 30 derniers jours de vidéos « limité aux événements », il faut normalement payer 10 dollars (ou 10 euros) par mois, et 20 dollars (ou 18 euros) pour pouvoir revenir sur les 60 derniers jours, toujours limités aux événements (mais avec aussi 10 jours d’historique en continu 24 h/24).

Le 10 février, le FBI publiait finalement deux vidéos prises par le dispositif, dans lequel on observe distinctement un homme cagoulé et armé chercher dans le jardin de quoi obstruer l’objectif. D’après les enquêteurs, les deux extraits ont été « récupérés de data résiduelles restées dans les systèmes backend ». Google aurait eu besoin de plusieurs jours pour remettre la main dessus.

Sur le perron de la maison de Nancy Gutrhie, un homme cagoulé utilise des plantes pour obstruer l’objectif d’une caméra Google Nest / Vidéo publiée par le FBI, capture Next

L’épisode rappelle néanmoins qu’en cas de stockage de données dans un cloud – c’est-à-dire, concrètement, sur les serveurs de quelqu’un d’autre, en l’occurrence d’un géant numérique –, ce n’est pas parce que l’internaute a supprimé ou perdu l’accès à ses données que celles-ci ont entièrement disparu. Dans le cas des caméras Google Nest, même avec un abonnement gratuit, les flux vidéos sont envoyés sur les serveurs, et donc accessibles à Google.

Dans le cas présent, Google a indiqué à Ars Technica ne pas utiliser les vidéos enregistrées pour d’autres services internes (par exemple : pour entraîner ses modèles d’intelligence artificielle). L’entreprise s’intéresse néanmoins à la manière dont les internautes interagissent avec tous ses services pour améliorer la manière dont elle les construit.

Cette affaire rappelle une réalité que les géants du Net évitent de mettre en avant : toutes les données envoyées sur leurs serveurs leur sont accessibles. Avec des lois étasuniennes telles que le Cloud Act et FISA, les autorités peuvent tout à fait demander à récupérer des données stockées par des sociétés locales, quelle que soit la localisation géographique des serveurs. L’occasion de rappeler l’importance de chiffrer ses données avant de les envoyer dans le cloud.

Que l’on utilise Google Nest Cam ou Amazon Ring, pour ne citer que ces deux exemples, ce n’est pas parce que les vidéos ne sont plus visibles pour l’utilisateur qu’elles n’existent plus dans les serveurs des fournisseurs de services de stockage.

☕️ Elon Musk repousse son narratif de la conquête de Mars

12 février 2026 à 09:36

Une semaine après avoir annoncé la fusion de ses deux entreprises SpaceX et xAI, Elon Musk a repoussé ses plans messianiques de conquête de Mars.

Dans un message envoyé sur X dimanche, le milliardaire semble s’être rendu compte, au bout de près de 25 ans, qu’ « il n’est possible de se rendre sur Mars que lorsque les planètes s’alignent tous les 26 mois (durée du voyage : six mois), alors que nous pouvons nous rendre sur la Lune tous les 10 jours (durée du voyage : 2 jours) ». Il confirme donc ce que le Wall Street Journal annonçait deux jours plus tôt.

Elon Musk affirme que son entreprise « s’est déjà tournée vers la construction d’une ville autonome sur la Lune, car nous pouvons potentiellement y parvenir en moins de 10 ans, alors que Mars prendrait plus de 20 ans ».

Et il ajoute, comme une évidence : « cela signifie que nous pouvons itérer beaucoup plus rapidement pour achever une ville lunaire qu’une ville martienne ».

Pourtant, l’année dernière, il affirmait encore : « Non, nous allons directement sur Mars. La Lune est une distraction ».

Comme l’explique ArsTechnica, « À court terme, cela ne change pas grand-chose. […] SpaceX n’était pas en mesure d’envoyer un vaisseau spatial vers Mars en 2026, et l’échéance de 2028 semblait également peu probable. Mars a toujours été un objectif lointain, et cela restera le cas ».

Mais ça replace SpaceX dans les traces du projet Artemis étatsunien d’établir des missions habitées vers la Lune. L’entreprise participe déjà au projet mais Elon Musk était, en décembre 2024, très critique sur la manière dont il était géré.

C’est en tout cas une nouvelle promesse du milliardaire dont la date est repoussée. En 2024, il lançait sur son réseau social que « les premiers Starship à destination de Mars seront lancés dans deux ans, lorsque la prochaine fenêtre de transfert Terre-Mars s’ouvrira ».

SFR se montre sous son meilleur jour et lance un « pack ado protégé »

12 février 2026 à 09:14
Regardez comme elle est belle, ma marque !
SFR se montre sous son meilleur jour et lance un « pack ado protégé »

SFR montre son plus beau sourire et affirme que « les résultats sont là », sur tous les plans (financier, satisfaction clients…). Le calendrier n’est pas anodin puisque l’opérateur est en train d’être scruté à la loupe par ses concurrents en vue d’un rachat à la découpe. SFR en profite pour lancer une nouvelle offre destinée aux adolescents avec un smartphone « sans réseaux sociaux ni navigateur internet ».

En pleine négociations pour son rachat, SFR affirme être « revenu à l’équilibre commercial courant 2025 avec une baisse historique de ses taux de churn (jusqu’à – 6 points) », dans un communiqué publié ce 11 février. On parle aussi de « taux d’attrition », qui correspond à la perte d’abonnés sur une période donnée. La fin de l’hémorragie ?

L’opérateur évoque un « marché très concurrentiel où les prix attractifs restent la norme »… alors que ce n’est pas le dernier à jouer des promotions avec sa marque low cost RED by SFR. Mais la marque au carré rouge préfère mettre en avant un autre aspect : son forfait SFR Fibre Premium à 45 euros par mois avec sa Box10+ lancée en juillet 2025, qui « représente désormais 25 % des ventes ».

SFR affirme aussi que, suite aux différents changements mis en place ces dernières années, « les résultats sont là ». L’entreprise met notamment en avant le NPS (Net Promoter Score), un « indicateur mesurant le score de recommandation des clients » : il a progressé de 14 points en un an, selon le communiqué.

L’opérateur évoque aussi des améliorations sur deux de ses points noirs : « les appels au service client et le taux de SAV ont été divisés par deux », tandis que « les incidents réseaux ont diminué de 20 % ». En 2026, « l’entreprise amplifiera ce mouvement de reconquête ». Affaire à suivre.

Regardez comme elle est belle ma marque SFR !

Une telle communication n’est pas anodine : il s’agit pour la maison mère Altice d’« habiller la mariée », en l’occurrence SFR. L’opérateur est en effet au cœur des discussions de Bouygues Telecom, Free et Orange qui ont déjà déposé officiellement une offre de rachat en octobre dernier, offre refusée dans la foulée, car jugée trop basse.

C’était la première manche d’une partie qui devrait encore durer encore des mois. Certains aimeraient que l’opération soit bouclée avant les présidentielles. Il y a quelques semaines, les trois comparses indiquaient officiellement que les discussions continuaient avec « des travaux de due diligence ont été engagés depuis début janvier 2026 ».

Dessin de presse de Flock titré

Selon La Lettre, cette procédure « a été menée en cinq semaines seulement » et le « consortium composé d’Orange, de Free et de Bouygues Telecom devrait présenter une offre ferme d’ici à la fin avril », ajoutent nos confrères. De 17 milliards, certaines rumeurs font état d’une proposition à venir aux alentours des 20 milliards d’euros.

Pack ado protégé avec un smartphone sans réseau social ni navigateur

L’entreprise annonce aussi son « pack ado protégé » composé d’un smartphone Neow Safe Plus « pensé pour accompagner les adolescents » et d’un forfait mobile sans engagement. Le terminal mobile est fabriqué « par une marque française » et le pack a été initialement lancé à la Réunion.

Ce smartphone est vendu 149,90 euros par le fabricant sur son site Internet, tandis que SFR le propose à 129 euros avec un forfait sans engagement (6 euros par mois pour 2 h et 1 Go, 16 euros pour 60 Go, 20 euros pour 200 Go ou 27 euros pour 250 Go).

Il est pensé pour les jeunes à partir de 14 ans, avec un SoC huit cœurs Unisoc Tiger T606, 4 Go de mémoire, 128 Go de stockage, des capteurs de 13 et 8 Mpixel, de la 4G, une batterie de 5 150 mAh… La fiche technique est disponible par ici. Rien d’exceptionnel pour un smartphone dans cette gamme de prix.

Côté logiciel, le fabricant explique que vous pouvez gérer les applications dans le Store, géolocaliser le smartphone, « bloquer l’accès à Internet et aux moteurs de recherche », qu’il n’y a « aucun accès aux réseaux sociaux », voir les applications installées, gérer le temps d’écran, couper à distance des fonctionnalités (appels, Wi-Fi, etc.), passer par une validation obligatoire pour installer une nouvelle application, etc.

L’offre de SFR est un pack smartphone avec forfait, mais rien ne vous empêche évidemment de prendre le smartphone dans une autre boutique en ligne et d’y ajouter le forfait de n’importe quel opérateur. Selon les propres mots de SFR, ce pack a pour but de renforcer « les services de SFR relancés l’année dernière ».

❌