↩ Accueil

Vue normale

index.feed.received.yesterday — 3 avril 2025Next

Les crawlers des IA deviennent un sérieux problème pour le web, même pour Wikimédia

3 avril 2025 à 17:06
DDoS généré pour IA
Les crawlers des IA deviennent un sérieux problème pour le web, même pour Wikimédia

Pour entrainer et tenir à jour leurs intelligences artificielles, les crawlers des entreprises d’IA parcourent le web en permanence et sont suspectés de ne pas respecter les fameux robots.txt censés permettre leur blocage. Leur activité va jusqu’à mettre en péril des sites web de projets de logiciels libres ou toucher fortement les activités de Wikimédia.

Les entreprises qui ont mis en place des IA génératives comme OpenAI, Meta, Anthropic, Mistral ou encore Amazon, Google et Microsoft ont besoin d’indexer des contenus sur le web en permanence pour entrainer leurs grands modèles de langage (LLM), récupérer les nouvelles informations afin que leurs outils soient capables de répondre aux demandes de leurs utilisateurs.

Un trafic difficile à gérer, même pour la fondation Wikimédia

Mais en venant en permanence sur les sites web, ils ajoutent du trafic important à leur bande passante, au point de saturer certains. La fondation Wikimédia a publié un billet pour expliquer à quel point ces robots ont un impact sur ses projets : « Notre infrastructure est conçue pour supporter des pics soudains de trafic d’origine humaine lors d’événements très intéressants, mais le volume de trafic généré par les robots scrapeurs est sans précédent et présente des risques et des coûts croissants ».

En effet, ces entreprises récupèrent ces contenus à l’aide de « crawlers », des robots d’indexation, ou plutôt ici de récupération de données. OpenAI a officiellement donné le nom de son robot, GPTBot, en aout 2023, suscitant immédiatement la réaction de RSF qui a rapidement invité « tous les médias à configurer leurs sites pour éviter qu’OpenAI ne récupère leur contenu gratuitement ». C’est ce qu’ont fait beaucoup de sites web.

Un blocage pas si efficace

Pour cela, il « suffit » de lister dans le fichier robots.txt de son site les robots dont on ne veut pas. Mais, comme l’ont démontré récemment des chercheuses, certains robots récupèrent des informations de sites qui, pourtant, les ont ajoutés dans leurs listes. De plus, l’outil d’IA générative de Microsoft, Copilot, utilise BingBot, le robot d’indexation du moteur de recherche de l’entreprise. Un site qui voudrait bloquer l’IA de Microsoft ne serait plus indexé dans le moteur de recherche Bing.

Et, comme on l’a vu récemment, certains sites peuvent être visités 2 millions de fois par un bot en un trimestre. Il est déjà difficile pour des infrastructures comme celles de la Fondation Wikimédia de faire face à cet afflux « artificiel » pour gérer sa bande passante, mais ça l’est encore plus pour des projets qui ont moins de moyens.

Certains expriment leur ras-le-bol

Plusieurs responsables de projets de logiciels libres se sont plaints du problème, expliquait récemment ArsTechnica. Le développeur Xe Iaso a, par exemple, exprimé son ras-le-bol en janvier face au crawler d’Amazon : « À la personne qui gère AmazonBot, veuillez ajouter git.xeserv.us à votre liste de domaines bloqués. Si vous connaissez quelqu’un chez Amazon, merci de lui transmettre ce message et de lui demander de le transmettre à l’équipe d’AmazonBot » alors qu’il avait radicalement bloqué tous les robots dans son fichier robots.txt.

TheLibre.News a aussi recensé plusieurs infrastructures de logiciels libres touchés par ce problème. Le GitLab des développeurs de KDE a, par exemple, été touché par des crawlers ayant des IP détenues par Alibaba, ce qui l’a rendu temporairement inaccessible. L’un des administrateurs systèmes du projet Pagure de Fedora a, lui aussi, constaté un afflux massif de robots de récupération de données venant du Brésil. Il explique avoir décidé de bloquer temporairement toutes les IP brésiliennes pour en venir à bout tout en sachant bien que ce n’était pas une solution de long terme.

Gergely Orosz, qui publie la newsletter The Pragmatic Engineer, explique sur LinkedIn que le site d’un de ses projets personnels qui déclinait a reçu récemment un trafic important « lorsque le crawler AI de Meta et d’autres bots comme Imagesiftbot ont commencé à crawler le site sans réfléchir : ça a poussé le trafic à plus de 700Go par mois » alors qu’il était aux alentours de 100Go par mois un peu avant.

« Le site est hébergé sur Render où 500Go/mois sont inclus, au-delà c’est 30 $ pour 100Go. Ce mois-ci, je paie donc 90 $ pour l’entrainement de ces LLM », commente-t-il. Et lui aussi pointe que « l’ironie est que les robots – y compris Meta ! – ignorent manifestement le fichier robots.txt du site qui leur dit de « s’il vous plait, restez à l’écart » ».

Drew DeVault, le fondateur de la plateforme d’outils open source Source Hut, a publié un billet de blog le 17 mars dernier demandant aux entreprises d’IA génératives d’ « arrêter d’externaliser [leur] coûts directement sur [lui] ». « Au lieu de travailler sur nos priorités à SourceHut, j’ai passé entre 20 et 100 % de mon temps à atténuer les crawlers LLM hyper-agressifs », s’y lamente-t-il. Il explique que Source Hut subit des « dizaines de brèves pannes par semaine » et qu’il doit chercher tous les jours de nouvelles solutions pour ne pas voir la situation empirer. Le même jour, son entreprise expliquait que des crawlers de LLM continuaient à provoquer un DDoS sur SourceHut.

Des solutions pour piéger les crawlers d’IA

Elle expliquait avoir décidé de déployer Anubis pour essayer de bloquer les bots des entreprises d’IA. « Ce logiciel présente à certains utilisateurs un défi de preuve de travail qui est résolu par le navigateur de l’utilisateur à l’aide de JavaScript », explique SourceHut. C’est en fait une solution qu’a développé Xe Iaso après avoir publié son raz-le-bol.

D’autres solutions commencent à être développées, notamment en essayant de piéger les IA dans un labyrinthe de liens. Nepenthes, par exemple. Sa documentation explique que le logiciel « fonctionne en générant des séquences infinies de pages, chacune contenant des dizaines de liens, qui retournent simplement dans un piège ». Nepenthes ajoute des petits détails comme un délai ou une fausse apparence de fichiers statiques pour tromper le crawler.

De son côté, Cloudflare a aussi pensé à une solution de labyrinthe, explique-t-elle dans un billet de blog. Celle-ci « utilise du contenu généré par l’IA pour ralentir, embrouiller et gaspiller les ressources des AI Crawlers et d’autres robots qui ne respectent pas les directives « no crawl » ». L’entreprise, connue pour vendre des solutions pour augmenter la sécurité et les performances des sites internet, propose pour le moment à tous ses utilisateurs la possibilité d’activer gratuitement cette fonctionnalité.

☕️ Le noyau Linux 6.15 permet à exFAT de supprimer les fichiers bien plus vite

3 avril 2025 à 14:42

exFAT est un système de fichier créé par Microsoft en 2006 pour les supports amovibles, particulièrement les cartes SD, avec un accent mis sur la gestion des métadonnées. Il s’agissait alors d’un système de fichiers propriétaire. Les spécifications ont finalement été ouvertes en 2019 et la propriété des brevets transférée à l’Open Invention Network. Ce n’est cependant pas une technologie ouverte.

Son support dans Linux a toujours été bancal, malgré des améliorations notables de temps en temps. La version 6.15 du noyau devrait cependant donner un gros coup de fouet, notamment lors de la suppression de fichiers, quand l’option de montage « discard » est active. Cette dernière signifie qu’une opération informe le périphérique de stockage que les blocs sous-jacents ne sont plus utilisés. Supprimer un fichier envoie ainsi un signal pour passer ces blocs du statut « occupé » à « libre ».

Disque dur

C’est un ingénieur de Sony, Yuezhang Mo, qui a apporté la modification. Il explique ainsi qu’en mode discard, les clusters sont éliminés un par un quand l’utilisateur déclenche une suppression de fichiers. Plus le nombre et le poids des fichiers augmente, plus l’opération prend de temps. Au point que ce dernier peut devenir excessif et entrainer un plantage des composants logiciels impliqués, jusqu’au blocage parfois de la machine. Sa modification a donc consisté à permettre le traitement par lots des clusters impliqués, comme le rapporte notamment Phoronix.

Pour donner un ordre d’idée, la suppression d’un fichier unique de 80 Go prenait la bagatelle de 286 secondes, un temps que l’on peut considérer comme « fou ». Avec le noyau Linux 6.15, la même opération prend… 1,6 seconde.

Les droits de douane Trump relancent l’hypothèse d’une taxe GAFAM européenne

3 avril 2025 à 14:06
Seul contre tous
Les droits de douane Trump relancent l’hypothèse d’une taxe GAFAM européenne

Donald Trump a tenu parole, en annonçant, mercredi, de nouveaux droits de douane exceptionnels, censés favoriser selon lui la réindustrialisation des États-Unis. Si la sidération domine encore sur les marchés financiers, les réactions politiques ne se sont pas fait attendre. L’Europe et la France défendent déjà l’idée de contre-mesures, parmi lesquelles l’hypothèse d’une taxe GAFAM, appliquée sur les flux financiers des géants du numérique, risque de s’imposer comme une évidence.

L’incertitude a duré jusqu’aux dernières heures : jusqu’où Donald Trump allait-il mettre à exécution ses menaces de droits de douane ? Le président des États-Unis n’a finalement pas mis d’eau dans son vin. Il a annoncé mercredi, à l’occasion de ce qu’il qualifie de « Liberation Day », un jeu de mesures exceptionnelles, qui instaurent des droits de douane particulièrement lourds pour les marchandises importées aux États-Unis. La Chine et les autres pays de l’Asie manufacturière sont particulièrement touchés, tout comme l’Union européenne.

Outre une taxe plancher sur les importations de 10 %, valable pour tous les pays – une approche systématique qui conduit à introduire des droits de douane sur des archipels peuplés uniquement de manchots et d’oiseaux, Trump prévoit des droits de douane individualisés et réciproques plus élevés pour les pays avec lesquels les États-Unis entretiennent une balance commerciale déficitaire.

Présentés à grands renforts de tableaux pendant une conférence de presse, ces droits de douane se montent à 20 % pour l’Union européenne, 54 % pour la Chine (en intégrant les précédentes taxes de 20 % entrées en vigueur début mars), 32 % pour Taïwan, 24 % pour le Japon, 49 % pour le Cambodge ou 46 % pour le Vietnam, 48% pour le Laos, 47% pour Madagascar, 44% pour le Sri Lanka, etc.

Ils ne préjugent pas, par ailleurs, d’éventuelles taxes spécifiques, comme les 25 % désormais prélevés sur l’importation de véhicules produits en dehors des États-Unis.

Une méthodologie qui interroge

Outre les cas particuliers comme le Canada, le Mexique ou la Chine, pourquoi de telles variations entre, disons, le Vietnam et le Cambodge ? Après analyse des chiffres, l’économiste américain James Surowiecki a remarqué une corrélation entre le déficit commercial des États-Unis avec le pays concerné et le niveau de droits de douane appliqué. Une hypothèse qu’a partiellement confirmée le bureau du représentant américain au commerce (USPTR), en publiant, jeudi, l’équation ayant soi-disant présidé au calcul.

Si les modalités de ce calcul interrogent, c’est aussi parce que Donald Trump parle de droits de douane réciproques, comme si les États-Unis ne faisaient que réagir aux pressions commerciales que lui font subir les autres pays du monde. L’Europe est dans ce contexte accusée de taxer à hauteur de 39 % les importations venues de l’autre côté de l’Atlantique, mais d’où vient ce chiffre ?

De façon empirique, un journaliste de Wired vérifie, sur 182 des 185 pays concernés, l’hypothèse de Surowiecki : « pour chaque pays, ils ont simplement pris notre déficit commercial avec ce pays et l’ont divisé par les exportations de ce pays vers nous ». En 2024, l’Union européenne a, par exemple, exporté l’équivalent de 605 milliards de dollars vers les États-Unis, mais importé uniquement 370 milliards de dollars, soit une balance déficitaire de 236 milliards de dollars… qui représente 39 % de ce que les États-Unis ont consommé en provenance de l’Europe.

Quel impact sur le secteur de la tech ?

Jeudi matin, les marchés européens ont vu rouge, très rouge, et l’ouverture de Wall Street s’annonce difficile. Bien que Trump défende l’impact positif de ses mesures pour l’économie américaine, ces droits de douane risquent en effet de soulever de nombreuses difficultés pour les sociétés qui produisent ou s’approvisionnent dans le reste du monde. Apple, qui fabrique massivement en Asie (Chine, Inde, Vietnam) ou Amazon, dont les rayons virtuels débordent de produits manufacturés à l’étranger, figurent parmi les acteurs de premier plan les plus exposés.

Les répercussions à plus long terme sont toutefois difficiles à mesurer. D’abord, parce que l’économie de la tech repose sur une infinité d’interdépendances entre composants, technologies, logiciels et flux financiers mondialisés. Ensuite, parce que la manœuvre de Donald Trump recèle une part variable non négligeable.

« Ces droits de douane resteront en vigueur jusqu’à ce que le président Trump détermine que la menace posée par le déficit commercial et le traitement non réciproque sous-jacent est satisfaite, résolue ou atténuée », expose clairement la Maison blanche. Le président ne s’en cache pas : il cherche à faire pression sur les états comme sur les acteurs économiques, pour obtenir des mesures favorables à l’économie des États-Unis, et ramener sur son sol des investissements, des usines et des emplois.

Vers une guerre commerciale ?

Droits de douane contre droits de douane, l’hypothèse laisse supposer une hausse généralisée des prix avec, à la clé, un risque de récession de l’économie américaine, dont la consommation des ménages représente près de 70 %. Un risque assumé par Donald Trump. « Ce que nous faisons est grand, nous rapportons la richesse à l’Amérique, et il y aura une période de transition. Il faut du temps », déclarait-il le 9 mars dernier, au micro de NBC.

En attendant, une forme de riposte s’organise, même si les contours en sont encore flous. Ursula Von der Leyen, présidente de la Commission européenne, a rappelé jeudi matin que l’Union préparait déjà un lot de mesures visant à taxer les marchandises venues des États-Unis, en réponse aux droits de douane déjà instaurés par Donald Trump sur les produits contenant de l’acier et de l’aluminium. « Et nous nous préparons maintenant à de nouvelles contre-mesures pour protéger nos intérêts et nos entreprises si les négociations échouent », a-t-elle ajouté lors de sa déclaration.

Le retour d’une taxe GAFAM européenne ?

Il est toutefois probable que d’autres mesures, moins « réciproques », soient aussi envisagées, et l’hypothèse d’une taxe GAFAM suscite déjà, dans ce contexte, de premières déclarations. Elle apparaît en effet comme une mesure de rétorsion relativement évidente, du fait de la part prépondérante des services, et donc de l’économie numérique, dans la balance commerciale états-unienne. Un point que Donald Trump omet sciemment dans ses propres chiffres et déclarations, qui ne raisonnent que sur la base des biens matériels.

En 2023, l’Europe exportait par exemple 503 milliards d’euros de marchandises vers les États-Unis, et en importait 347 milliards d’euros. Or la situation s’inverse quand on regarde les services : l’Union européenne exportait l’équivalent de 319 milliards d’euros vers les États-Unis, alors que ces derniers génèraient 427 milliards d’euros à partir du marché européen. En matière de services, les États-Unis bénéficient donc d’un excédent commercial significatif vis à vis de l’Europe.

La France semble déjà pencher en faveur de l’idée d’une taxe GAFAM, comme l’a laissé entendre Sophie Primas, porte-parole du gouvernement, sur RTL. Rappelant le premier volet de la riposte européenne relative à l’aluminium et à l’acier, elle évoque un second volet, plus large, « probablement prêt à la fin du mois d’avril sur l’ensemble des produits et des services, et j’insiste bien sur les services, avec de nouveaux outils » réglementaires, dits anti-coercition.

Spam : l’Arcep confirme une explosion des appels et messages abusifs en 2024

3 avril 2025 à 11:22
Oui allo ? Alors je sais, vous avez sûrement…
Spam : l’Arcep confirme une explosion des appels et messages abusifs en 2024

En 2024, comme les années précédentes, le nombre de plaintes envoyées à l’Arcep est en hausse. Les alertes concernant la fibre optique sont sans surprise les plus importantes. Sur le mobile, on note aussi une explosion des spams téléphonique. Dans le même temps, l’Observatoire de la satisfaction client 2025 est aussi disponible.

L’Arcep (régulateur des télécoms) vient de publier le bilan annuel de sa plateforme J’alerte l’Arcep. Lancée fin 2017, elle permet à tout un chacun (particuliers et professionnels) de lui signaler un problème. « Les alertes recueillies permettent de suivre en temps réel les difficultés rencontrées par les utilisateurs, d’identifier les dysfonctionnements récurrents ou les pics d’alertes », explique l’Autorité.

En 2024, le gendarme des télécoms a reçu plus de « 57 000 [+ 8% par rapport à 2023, ndlr] alertes dont environ 49 000 directement sur la plateforme ». Sans surprise, « l’utilisation de j’alerte l’Arcep, en hausse constante, reflète les évolutions des problèmes rencontrés depuis 2018 ».

Le nombre d’alertes sur les réseaux hors fibre décroit (sauf un petit rebond en 2023), tandis que celui sur la fibre optique représente désormais plus de la moitié des signalements. On peut également voir (zone rose) une forte hausse des appels/messages non sollicités ou abusifs sur le mobile, nous allons y revenir.

Signalements : Free (en tête) vs les trois autres opérateurs

Au niveau des opérateurs, Free se démarque à la fois sur le fixe et sur le mobile, mais pas de la meilleure des manières :

« Les signalements reçus concernant les opérateurs Orange, SFR et Bouygues sont en baisse en 2024 et compris entre 75 et 100 pour 100 000 utilisateurs, ceux pour Free sont stables aux alentours de 150 pour 100 000 utilisateurs.

Sur le marché mobile, les signalements reçus concernant les opérateurs Bouygues, Orange et SFR sont plutôt stables depuis 3 ans et sont compris entre 5 et 10 pour 100 000 utilisateurs, ceux pour Free sont en hausse et sont compris entre 10 et 15 pour 100 000 utilisateurs ».

Satisfaction client : Free aussi en tête

Si Free arrive premier sur le nombre de signalements, l’opérateur est aussi en tête sur les notes de satisfaction attribuées par les utilisateurs au service client, avec 2,8/5. Bouygues Telecom et Orange sont deuxièmes avec 2,4/5 et SFR dernier avec 2,2 sur 5.

Autre indicateur : la satisfaction globale des abonnés à un réseau fixe et/ou mobile. Elle « est en légère hausse, pour l’ensemble des opérateurs, par rapport à l’année précédente ». Free est en tête avec 8,1 sur 10, Orange deuxième avec 8,0, Bouygues Telecom troisième avec 7,8 et SFR encore dernier avec 7,5.

« La satisfaction des utilisateurs vis-à-vis des opérateurs mobiles (notés 7,9/10 en moyenne) est
équivalente à celle vis-à-vis des fournisseurs d’accès à internet fixe (notés 7,8/10 en moyenne)
 », ajoute l’Arcep.

Le bilan complet de la satisfaction des utilisateurs vis-à-vis des opérateurs mobiles et Internet est disponible ici. Le document (PDF) fait pas moins de 111 pages. C’était un questionnaire en ligne auto-administré d’une quinzaine de minutes réalisé entre le 23 septembre et le 11 octobre sur un échantillon de 4 006 consommateurs âgés de 18 ans et plus.

Grogne sur les déploiements

Les alertes sur le fixe sont encore et toujours majoritaires avec 85,4%, contre 14,6 % pour le mobile. Néanmoins, « les signalements relatifs au marché fixe ont, pour la première fois depuis le début du lancement de la plateforme de « J’alerte », diminué en 2024 », avec presque deux points de moins.

Dans le détail, sur le fixe chez le grand public, le déploiement des réseaux et la qualité de services et du SAV représentent 94,7 % des signalements. Entre 2023 et 2024, il y a eu un fort mouvement : les plaintes sur les déploiements ont augmenté de presque 50 %, tandis que celles sur la qualité de service ont baissé de 67 %.

Spam téléphonique : explosion des alertes

Cela ne surprendra personne : « en 2024, le volume des signalements relatifs au phénomène d’usurpation de numéro a été multiplié par 16 passant approximativement de 500 alertes en 2023 à 8500 en 2024 ». L’Arcep note une forte fluctuation durant l’année, avec un pic au mois de septembre avec près de 1 500 alertes.

Au global, c’est l’ensemble de la catégorie des alertes liées aux appels et messages non sollicités ou abusifs qui est en très forte augmentation : de 2 029 alertes en 2023, l’Arcep en a reçu 10 973 en 2024, soit plus de cinq fois plus.

Quasiment tous les indicateurs sont en très forte hausse par rapport à 2023 si on se base sur le nombre d’alertes. Par exemple, le démarchage téléphonique abusif est passé de 1 094 à 1 517 alertes, mais ne représentent plus que 13,8 % de l’ensemble à cause de l’explosion du nombre d’usurpations de numéro.

Les opérateurs mettent en place des protections… encore partielles

La lutte s’est intensifiée fin 2024 et début 2025 avec le Mécanisme d’Authentification des Numéros (MAN) en place depuis 1ᵉʳ octobre sur le fixe et sur le mobile chez les quatre opérateurs depuis le début de l’année. Cela pourrait expliquer l’intensification de septembre, avec un dernier tour « d’honneur » ?

Il faudra attendre le prochain observatoire pour juger d’éventuels effets sur le mobile, mais il reste un important trou dans le filet de protection du MAN, comme nous l’expliquions récemment : « les appels en roaming (depuis l’étranger) avec un numéro français ne sont pas concernés ».

Sur le graphique de droite ci-dessous, ne vous fiez pas uniquement à la longueur des barres qui représentent la répartition des alertes (en pourcentage), pas le nombre de signalements.

L’Agence spatiale européenne alerte encore sur la prolifération des débris

3 avril 2025 à 10:55
Dirty space
L’Agence spatiale européenne alerte encore sur la prolifération des débris

Le rapport annuel de l’ESA sur l’environnement spatial alerte sur l’augmentation toujours plus importante du nombre de débris. Et l’orbite terrestre basse est de plus en plus encombrée. Pourtant, l’agence européenne constate une meilleure prise en compte des directives de réduction des débris spatiaux par les différents acteurs. Mais celle-ci va moins vite que l’augmentation du nombre de lancements.

L’ESA a publié son rapport annuel sur l’environnement spatial [PDF]. L’agence spatiale européenne y explique que le monde du spatial commence à prendre en compte le fait que « l’environnement orbital de la Terre est une ressource limitée » comme l’indiquait l’ONU en 2019 dans ses recommandations sur la durabilité de l’espace extra-atmosphérique.

Trop lents

Mais cette prise en compte est encore beaucoup trop lente. Nous augmentons moins rapidement le nombre d’objets en orbite autour de la Terre, mais nous l’augmentons toujours : « si la croissance exponentielle du nombre de nouvelles charges utiles s’est ralentie en 2024, le nombre de lancements a continué d’augmenter et, en termes de masse et de superficie, le nombre de lancements est toujours le plus élevé jamais enregistré jusqu’à présent ».

De la même façon, les directives établies pour pousser au désorbitage sont de mieux en mieux suivies mais ça ne va pas encore assez vite :

« Alors que l’adoption et le respect des pratiques de réduction des débris spatiaux au niveau mondial augmentent lentement, il est important de noter que la mise en œuvre réussie de l’un ou l’autre des seuils de durée de vie est encore trop faible pour garantir un environnement durable à long terme. Notamment, une partie de l’augmentation de l’adoption des mesures de réduction […] comme les rentrées contrôlées de corps de fusée ou les taux de réussite de l’élimination des charges utiles en orbite terrestre basse après la mission, est liée au déploiement et à la mise hors service de grandes fusées et d’engins spatiaux de grande taille », explique l’agence européenne.

Des politiques mises en place mais un futur incertain aux États-Unis

C’est d’ailleurs en ce sens qu’elle a augmenté ses exigences en 2023, avec un objectif « zéro débris » d’ici à 2030. L’ESA s’engageait à :

  • limiter la quantité de débris spatiaux créés par les opérations normales ;
  • réduire au minimum le risque de désintégration en orbite ;
  • prévenir les collisions en orbite ;
  • mettre en œuvre l’élimination après la mission.

Du côté américain, la FCC infligeait en 2023 sa première amende pour mauvais désorbitage. Mais la nouvelle administration Trump et la suppression de l’indépendance de l’agence américaine qui régule les satellites risquent de changer la donne.

Autant de débris que de satellites actifs sur l’orbite terrestre basse

« Le nombre de débris spatiaux en orbite continue d’augmenter rapidement. Environ 40 000 objets sont actuellement suivis par les réseaux de surveillance de l’espace, dont environ 11 000 sont des charges utiles actives », explique l’agence.

Elle ajoute qu’il y en a beaucoup en orbite qui pourraient causer des accidents : « le nombre réel de débris spatiaux d’une taille supérieure à 1 cm – suffisamment grands pour être capables de causer des dommages catastrophiques – est estimé à plus de 1,2 million, dont plus de 50 000 objets d’une taille supérieure à 10 cm ».

L’orbite terrestre basse est celle qui inquiète le plus l’agence. Elle fait remarquer qu’ « à environ 550 km d’altitude, le nombre de débris constituant une menace est aujourd’hui du même ordre de grandeur que celui des satellites actifs ».

☕️ 50 ans plus tard, Bill Gates publie le code source de l’Altair BASIC

3 avril 2025 à 09:11

Alors que Microsoft célèbrera vendredi 4 avril les cinquante ans de sa création en tant que société, Bill Gates est revenu cette semaine sur ce qui constitue sans doute l’épisode fondateur de son aventure entrepreneuriale : l’écriture avec Paul Allen, en un temps record, d’un interpréteur BASIC destiné à l’Altair 8800 de MITS (basé sur le CPU 8080 d’Intel).

Il a dans le même temps publié, pour la première fois, le code source de ce fameux interpréteur, le premier produit commercial vendu par les deux fondateurs de Microsoft : 150 pages de sorties d’imprimante scannées, qui révèlent (PDF) un code dûment commenté, écrit en seulement trente jours (et trente nuits) au printemps 1975.

« Avant Office, Windows 95, la Xbox ou l’IA, il y avait Altair BASIC », attaque joliment Bill Gates, avant de retracer plus en détail le déroulé des faits. D’abord, la découverte de cette nouvelle machine, l’Altair 8800, affichée en couverture du magazine Popular Electronics, qui augurait l’avènement d’une informatique personnelle. Puis cette idée en forme de défi, vendue sur papier à MITS, le fabricant de l’Altair : développer un interpréteur BASIC, capable d’offrir une alternative au langage assembleur de base de la machine. Sans accès direct à cette dernière, Gates et Allen durent utiliser un simulateur.

« Enfin, après de nombreuses nuits blanches, nous fûmes prêts à montrer notre interpréteur BASIC à Ed Roberts, le président de MITS. La démonstration se révéla un succès, et MITS accepta de nous acheter le logiciel. Ce fut un moment pivot pour Paul et moi. Altair BASIC devint le premier produit de notre nouvelle société, que nous avions décidé d’appeler Micro-soft (nous avons abandonné plus tard le tiret) », écrit Bill Gates.

☕️ Qualcomm veut aussi sa part du gâteau de l’IA générative et rachète MovianAI

3 avril 2025 à 08:57

Qualcomm vient d’annoncer le rachat de MovianAI Artificial Intelligence Application and Research JSC (alias MovianAI), l’ancienne division d’IA générative du conglomérat privé vietnamien Vingroup. Cette branche était dirigée par Hung Bui (il en était également le fondateur), un ancien de chez Google DeepMind où il a passé 16 mois comme chercheur.

« Cette acquisition souligne notre engagement à consacrer les ressources nécessaires à la R&D, ce qui fait de nous la force motrice de la prochaine vague d’innovation en matière d’IA », explique Jilei Hou, vice-président sénior de l’ingénierie chez Qualcomm.

Le montant de la transaction n’est pas précisé. Qualcomm ajoute que Hung Bui rejoindra ses effectifs, sans en dire davantage sur son poste. « Nous sommes prêts à contribuer à la mission de Qualcomm qui consiste à réaliser des avancées majeures dans la recherche fondamentale en intelligence artificielle et à les déployer dans tous les secteurs, notamment les smartphones, les ordinateurs, les véhicules assistés par informatique, etc. », explique-t-il.

Puce Snapdragon X Plus
index.feed.received.before_yesterdayNext

☕️ Nintendo lancera la Switch 2 le 5 juin, à partir de 470 euros

2 avril 2025 à 17:49

Nintendo a dévoilé mercredi, lors d’une conférence diffusée en direct, les grandes lignes et les premiers jeux de sa future console hybride (mi portable, mi console de salon), la Switch 2. Son lancement est désormais officiellement programmé au 5 juin prochain, avec un prix de départ fixé à 469,99 euros et des précommandes ouvertes à partir du 8 avril.

Sur le plan matériel, Nintendo valide ou précise la plupart des éléments déjà évoqués en janvier, lors de la première confirmation officielle de la console. La Switch 2 conserve le même schéma de fonctionnement que celui du modèle originel (un écran central autonome, des manettes amovibles sur le côté, une station d’accueil pour relier l’ensemble à une TV).

Le fabricant japonais livre quelques premiers détails techniques : la Switch 2 s’articule autour d’un écran LCD (et non OLED) de 7,9 pouces, délivrant 1920 x 1080 pixels avec une fréquence d’affichage variable pouvant monter à 120 Hz et prise en charge du HDR10.

Une fois connectée en USB-C à son dock, ce dernier autorise, via HDMI, un affichage 3840 x 2160 (4K) à 60 images par seconde (fps). Pour aller chercher les 120 fps, il faudra basculer sur une résolution inférieure (1920 x 1080 ou 2560 x 1440).

Huit ans après la Switch première du nom, qui utilisait un dérivé de la puce Tegra, Nintendo reste fidèle à NVIDIA. La Switch 2 exploite une nouvelle fois un design personnalisé, dont les caractéristiques n’ont pas encore été dévoilées. La console bascule pour le reste sur 256 Go de stockage (contre 32 Go sur la première Switch et 64 Go sur sa variante OLED), avec Bluetooth et Wi-Fi 6, ou liaison réseau filaire via un port LAN quand elle est rangée sur son dock.

Nintendo évoque deux ports USB type-C (l’un sert à la connexion au dock, l’autre aux accessoires, les deux permettent la recharge) et un emplacement pour cartes microSD Express, format auquel seront distribués les jeux, jusqu’à 2 To. La console, qui pèse 401 grammes sans ses manettes et présente 13,9 mm d’épaisseur, dispose d’une batterie de 5 520 mAh qui autorise une autonomie théorique comprise entre « 2 et 6,5 heures ».

Les manettes Joy-Con, connectées en Bluetooth 3.0 et désormais dotées d’une attache magnétique, prennent un peu d’embonpoint. Elles inaugurent un capteur optique, permettant de les utiliser comme une souris d’ordinateur. Elles gagnent également un bouton C, dédié aux nouvelles fonctionnalités de discussion en jeu implémentées par Nintendo dans son environnement logiciel, baptisées GameChat. Entre autres accessoires, une caméra sera proposée en option, avec la promesse d’interactions au sein de certains jeux.

Du côté des jeux justement, c’est la grande offensive. Nintendo mise en premier lieu sur ses propres licences, à commencer par un nouvel épisode de Mario Kart, qui sera proposé avec la console en bundle au lancement, ou Donkey Kong Bananza, attendu pour mi-juillet. Entre nouveautés et rééditions, la firme convoque sans surprise ses licences les plus iconiques.

Elle y ajoute une forte dimension rétrocompatibilité, avec la prise en charge annoncée de la plupart des jeux Switch et l’ajout de jeux Gamecube au sein de l’abonnement Nintendo Switch Online.

Enfin, Nintendo promet pléthore de titres émanant d’éditeurs tiers, incluant de nombreux titres de premier plan (AAA), même et y compris popularisés par des plateformes concurrentes, PC ou consoles. Dans le lot figurent des jeux tels que Elden Ring, Cyberpunk 2077, Final Fantasy 7 Remake, Star Wars Outlaws, Fortnite, Hogwarts Legacy, EA Sports FC, etc. FromSoftware signera par ailleurs une exclusivité dédiée à la Switch 2, attendue pour 2026 : un jeu d’action ambiance vampire en monde ouvert avec dimension multijoueurs baptisé The Duskbloods.

Bref, un programme musclé, pour une console qui aura la lourde tâche de succéder à une Switch, première du nom, vendue à plus de 150 millions d’exemplaires dans le monde depuis son lancement en 2017.

Avec Thunderbird Pro, Mozilla veut partir à l’assaut de Gmail et Microsoft 365

2 avril 2025 à 16:23
👀
Avec Thunderbird Pro, Mozilla veut partir à l’assaut de Gmail et Microsoft 365

Si le client Thunderbird pour la gestion des e-mails est en perte de vitesse, l’équipe qui en a la charge a de grandes ambitions. Ainsi, une initiative nommée « Thunderbird Pro » évoque la création d’un bouquet de services, pour se battre plus frontalement avec des offres comme Gmail et Microsoft 365.

Depuis que le projet Thunderbird est revenu sous l‘égide de Mozilla, l’ancien client e-mail a rattrapé une partie de son retard. En plus des fonctions ajoutées, son interface a été modernisée via le projet Supernova, même si le logiciel garde une apparence « datée » pour une partie des utilisateurs. Thunderbird se prépare également pour les environnements mobiles, sur Android d’abord via le rachat de K-9. iOS est également concerné, mais le travail sera plus long, car l’équipe de développement ne dispose d’aucune base de départ.

Les webmails plus attractifs

Malgré ces efforts, Thunderbird est en perte de vitesse. « Thunderbird perd chaque jour des utilisateurs au profit d’écosystèmes riches qui sont à la fois des clients et des services, tels que Gmail et Office 365 », indique Ryan Sipes dans un message sur le groupe de planification de Thunderbird.

Pourquoi une telle perte ? On pourrait évoquer les offres plus complètes, les nombreux liens entre services, la possibilité de tout faire au même endroit, la pression des pairs, ou encore la vision très intégrée. De fait, Sipes évoque deux types de verrouillages : « durs », quand ils touchent des problèmes techniques (comme l’interopérabilité avec les clients tiers) et « doux » quand il s’agit de commodités et d’intégration.

Et pour cause, un compte Google ou Microsoft donne accès d’une traite à de nombreux services « gratuits ». En outre, le compte synchronisé permet de s’assurer que l’on verra la même chose sur tous les appareils. Thunderbird, en revanche, fait partie de la vieille école : il faut configurer le logiciel sur chaque ordinateur et ces réglages ne peuvent pas suivre les utilisateurs sur les plateformes mobiles.

La solution ? Un bouquet de services réunis sous la bannière « Thunderbird Pro ».

Le client Thunderbird actuellement

Thunderbird aura son propre bouquet de services

La vision présentée par Ryan Sipes est celle d’une offre de services en lignes rattachée à Thunderbird et portant l’étendard « Pro ». Pour l’instant, on en compte quatre.

Appointment est ainsi un outil de planification permettant d’envoyer des invitations. Les réponses données sont directement reprises et intégrées au calendrier. Le service est développé depuis environ un an et est actuellement disponible sous forme de bêta depuis son dépôt GitHub, même s’il n’est pas exploitable directement. Les personnes intéressées peuvent cependant l’installer sur un serveur, notamment via Docker.

Vient ensuite Thunderbird Send, qui est la « renaissance » de Firefox Send, de l’aveu même de l’équipe. Il s’agit donc d’un service permettant l’envoi de fichiers, reprenant le même principe, mais dont le code a profondément changé pour être modernisé. Le dépôt GitHub attenant a été ouvert la semaine dernière, avec là encore la possibilité d’aller examiner le code.

Assist sera un assistant IA. Ryan Sipes trace directement un parallèle avec la vision d’Apple. Ainsi, les requêtes seront idéalement traitées en local pour les appareils assez puissants. Dans le cas contraire, les développeurs veulent se servir de la fonction Confidential Computing de NVIDIA pour créer des instances temporaires et anonymes de calculs. Une approche retenue par Apple avec son Private Cloud, même si l’entreprise se sert de Mac pour l’instant et non de GPU NVIDIA. Assist serait purement optionnel et n’a pas encore de dépôt.

Thundermail, le webmail maison

Dernier service, et sans doute le plus important : Thundermail. Il sera le webmail accompagnant l’offre, le pendant en ligne de Thunderbird. Et pour répondre à la question qui vient immanquablement aux lèvres : oui, cela signifiera la création de comptes e-mails.

Selon Sipes, l’équipe expérimente la question « depuis un certain temps », sur la base d’un serveur e-mail existant nommé Stalwart. Ce dernier, en plus de gérer IMAP et POP3, a la particularité de supporter JMAP (JSON Meta Application Protocol). Ce dernier a été pensé pour prendre la relève d’IMAP, mais sa prise en charge reste relativement rare. JMAP est ouvert et normalisé, se veut plus rapide et sécurisé, et propose une approche modernisée capable de donner le change aux technologies propriétaires. On le trouve notamment dans les produits de Fastmail.

« Avec Thundermail, notre objectif est de créer une expérience de messagerie de nouvelle génération qui soit complètement, 100 % open source et construite par nous tous, nos contributeurs et la communauté plus large des contributeurs », affirme ainsi Ryan Sipes. Il ajoute cependant qu’il n’y aura pas de dépôt unique pour concentrer les travaux sur Thundermail. En revanche, certains pans de développement donneront lieu à des partages.

Si le travail a été lancé, le domaine n’a pas encore été choisi. Il s’agira probablement de thundermail.com ou de tb.pro. L’équipe a ouvert une page pour s’inscrire sur liste d’attente et participer à la bêta, bien qu’aucune date n’ait été indiquée.

Comment se différencier ?

Dans le descriptif, les notions d’ouverture et de valeur reviennent régulièrement. Dans un monde largement dominé par les offres de Google et Microsoft, il n’est pas certain en effet qu’un Thunderbird Pro soit réellement visible. D’autant que le projet Thunderbird a besoin d’argent et vit de dons. Mozilla ne lui en donne pas directement, même si la fondation aide le projet par ses infrastructures et autres ressources indirectes.

En conséquence, l’offre Thunderbird Pro sera payante. Dans un premier temps, elle sera offerte aux personnes ayant contribué régulièrement à Thunderbird. Puis des offres payantes seront proposées, même si aucun détail n’est donné. Il n’y a donc pas de fourchette de prix, et on ne sait pas non plus si Mozilla lancera une offre unique comprenant tous les services, ou si ces derniers pourront être choisis à la carte. Si le nombre d’abonnés est suffisant, une offre gratuite verra le jour avec des limitations, comme un espace moindre pour Send (notamment pour éviter les abus).

Pour Ryan Sipes, l’annonce de Thunderbird Pro est la « réalisation d’un rêve ». Il se dit « convaincu que tout cela aurait dû faire partie de l’univers Thunderbird il y a une dizaine d’années », mais qu’il « vaut mieux tard que jamais ». Il exprime des regrets, notamment sur l’importance que l’équipe accorde « aux logiciels libres, aux normes ouvertes, à la protection de la vie privée et au respect [des] utilisateurs », et que l’on ne retrouve pourtant pas dans les services en ligne. À cause de cette carence, Sipes estime que les internautes sont obligés de faire des compromis.

L’orientation générale serait donc le respect de la vie privée, les services étant prévus pour n’effectuer aucun traitement sur les données autres que ceux découlant des tâches déclenchées par les internautes. Des produits développés sur la base de technologies et normes ouvertes, pour combler le fossé avec les offres propriétaires.

Rien de décidé sur le chiffrement et l’emplacement des données

The Register s’est entretenu avec Ryan Sipes au sujet de Thunderbird Pro. Plusieurs informations intéressantes ont ainsi été données, notamment sur le chiffrement. La question est d’autant plus importante que Microsoft et plus récemment Google ont annoncé des simplifications en ce sens, mais il s’agit encore une fois de technologies propriétaires.

Selon Sipes, rien n’est encore décidé. Dans les tests, le chiffrement de bout en bout serait simple, mais se heurterait à la nécessité de fournir un système suffisamment simple et compréhensible aux internautes pour en assurer le succès. « Nous avons quelques idées, mais nous allons demander à notre communauté ce qu’elle pense être la meilleure approche », a ajouté Sipes.

Dans une optique de protéger au mieux les données, la question du stockage est encore ouverte. Elle est étudiée « très sérieusement ». À l’heure actuelle, l’infrastructure de test se situe dans l’Union européenne, mais ce choix ne préfigure pas du produit final. L’équipe réfléchit également à permettre de sélectionner soi-même la région dans laquelle entreposer ses données, à la manière de ce que proposent aux entreprises les grands acteurs du cloud.

Michael Waltz utiliserait Gmail dans ses activités de conseiller à la sécurité de Trump

2 avril 2025 à 14:23
Ils avaient dit "don't be evil"
Michael Waltz utiliserait Gmail dans ses activités de conseiller à la sécurité de Trump

Quelques jours après le « SignalGate », une enquête du Washington Post révèle que Michael Waltz, conseiller à la sécurité nationale de la Maison blanche, aurait utilisé son adresse Gmail pour orchestrer certaines de ses activités professionnelles. Il avait déjà été épinglé quelques jours plus tôt pour avoir laissé en accès public la liste de ses contacts sur l’application de paiement Venmo.

La Maison-Blanche n’en a manifestement pas tout à fait fini avec ses problématiques de shadow IT. Une enquête du Washington Post, publiée mardi 1er avril, affirme en effet que Michael Waltz, conseiller à la sécurité nationale du Président, a utilisé une messagerie commerciale, en l’occurrence un compte Gmail, pour échanger avec des membres de son équipe et d’autres représentants de l’administration Trump.

Des échanges liés à la sécurité nationale sur Gmail

Cette fois, il n’est pas question de préparatifs liés à une action militaire imminente, mais les échanges diffusés sur cette adresse personnelle présentent toutefois un réel enjeu de confidentialité, estime le Washington Post. « Un assistant senior de Waltz a utilisé [Gmail] pour des conversations hautement techniques avec des collègues d’autres agences gouvernementales impliquant des positions militaires sensibles et des systèmes d’armes de premier plan liés à un conflit en cours », écrit ainsi le quotidien américain.

Il affirme avoir eu accès à des captures d’écran illustrant cette utilisation de Gmail par ou au nom de Waltz. Le recours à une messagerie personnelle aurait également été confirmé par trois officiels de l’administration Trump, non cités. Le header des courriers envoyés au nom de Waltz révèle que ses destinataires utilisent, eux, des comptes de messagerie fournis par l’administration, note encore le Washington Post.

Négligence ou contournement délibéré ?

Dans le contexte de la Maison blanche, cette utilisation de Gmail soulèverait deux problèmes principaux, à commencer, bien sûr, par la question de la sécurité, puisque la messagerie ne garantit pas, par défaut, un chiffrement de bout en bout des échanges (Google vient d’ailleurs précisément d’annoncer l’introduction prochaine d’un chiffrement bout en bout simplifié à destination de sa clientèle entreprise).

Le second relève d’une exigence réglementaire : les officiels de l’administration états-unienne doivent utiliser les outils internes pour leur correspondance de façon à ce que cette dernière puisse être archivée, en vertu du Freedom of Information Act (FOIA). Brian Hughes, porte-parole de la sécurité nationale à la Maison-Blanche, récuse auprès du Washington Post l’hypothèse d’un contournement intentionnel de cette exigence, formulée par certains commentateurs sur les réseaux sociaux après l’épisode du SignalGate.

L’approche quelque peu laxiste de Waltz quant aux outils de communication commence toutefois à soulever des questions au sein du Bureau ovale, remarque par ailleurs le Wall Street Journal. Le quotidien économique rapporte ainsi, dans un article daté du 30 mars, que l’intéressé n’en serait pas à sa première boucle Signal. Il en aurait ainsi créé et animé plusieurs, autour de sujets aussi explosifs que le règlement du conflit entre l’Ukraine et la Russie, ou d’autres opérations militaires (non précisées).

Le précédent Venmo

Quelques jours plus tôt, Michael Waltz s’était déjà vu épingler par Wired. Le magazine explique comment il a découvert le compte Venmo (un service d’envoi d’argent en ligne appartenant à Paypal) du conseiller de Donald Trump, avec photo et liste de contacts accessibles publiquement. Le compte en question aurait été basculé en privé peu de temps après que les journalistes de Wired ont contacté la Maison blanche pour une demande de réaction.

Que Waltz utilise Venmo pour partager l’addition d’un restaurant avec ses amis n’est pas problématique en soi, mais Wired explique comment l’analyse des contacts directs du conseiller, puis l’étude de leurs propres réseaux, permet d’identifier des profils stratégiques ou d’établir des connexions entre personnalités de premier plan.

La découverte se révèle d’autant plus croustillante qu’il ne s’agit pas d’une première. En août 2024, Wired avait ainsi déjà découvert, et analysé, le réseau de contacts Venmo associé au compte de J. D. Vance, devenu depuis vice-président des États-Unis. L’exercice avait permis de révéler l’identité de certains des architectes du projet stratégique de Donald Trump et des artisans de sa campagne de réélection.

Cette nouvelle charge contre Michael Waltz intervient quelques jours après l’épisode du SignalGate, qui a défrayé la chronique fin mars. Un journaliste de The Atlantic avait alors révélé avoir été invité dans une conversation Signal réunissant la garde rapprochée de Donald Trump et dédiée aux préparatifs d’une attaque militaire au Yémen contre les Houthis. Les officiels concernés, de la Défense à la CIA, avaient ensuite cherché à minimiser la portée de l’incident, en déclarant notamment que les informations diffusées sur ce canal ne relevaient pas du secret défense. En réaction, le magazine américain a pris le parti de publier l’intégralité des échanges.

Gmail : du chiffrement de bout en bout pour les entreprises ? Pas si vite

2 avril 2025 à 11:47
Simplicité ou sécurité ?
Gmail : du chiffrement de bout en bout pour les entreprises ? Pas si vite

Google vient d’annoncer l’arrivée du chiffrement coté client dans Gmail. Cette fonction va dans un premier temps être proposée aux messageries internes des entreprises. Bien que l’apport de cette technologie soit toujours un pas en avant vers une meilleure sécurité, il ne s’agit pas stricto sensu d’un chiffrement de bout en bout.

Le 1ᵉʳ avril, Gmail a fêté ses 21 ans. Ce qui était apparu initialement comme un poisson est devenu l’un des produits les plus emblématiques de Google. Hier soir, pour marquer l’évènement, la firme a annoncé une amélioration importante : l’arrivée du chiffrement de bout en bout, dans un format présenté comme simple à exploiter, sans nécessiter de gestion des certificats. Explications.

Le chiffrement de bout en bout vu par Google

Depuis hier soir, Gmail propose aux entreprises disposant de comptes professionnels payants une version bêta. À l’intérieur se trouve une nouveauté : la possibilité d’envoyer des e-mails « chiffrés de bout en bout » à d’autres membres de leur organisation via un système simplifié. Rappelons en effet que Gmail pouvait déjà le faire via S/MIME (Secure/Multipurpose Internet Mail Extensions), mais la configuration de ce dernier n’a rien de simple.

Il s’agit d’une première phase dans le plan de déploiement. Cette version bêta, limitée à un périmètre réduit, va permettre de tester le fonctionnement de ce nouveau chiffrement décrit comme E2EE (End-to-End Encryption). Dans le cas où la personne contactée fait partie de la même entreprise, le contenu du message est automatiquement chiffré. Côté destinataire, il est automatiquement déchiffré.

Comme on peut le voir dans la capture fournie par Google, il faut d’abord activer la fonction, via l’icône de cadenas située en haut à droite de la fenêtre de composition. En bas, un message apparait pour indiquer que l’ouverture de l’e-mail sur l’application mobile Gmail ou une autre plateforme de messagerie affichera un lien invitant à se connecter pour voir le contenu du message sur une version restreinte de Gmail. Le système rappelle le fonctionnement des partages de fichiers dans Google Docs et Sheets. Quand ce système de chiffrement est utilisé, il se substitue à S/MIME.

Durant une deuxième phase, qui commencera dans quelques semaines, le système sera étendu à l’ensemble des adresses Gmail, mais toujours pour les entreprises uniquement. Plus tard dans l’année, sans plus de précision pour l’instant, il pourra être appliqué aux envois vers toutes les plateformes. On retrouvera alors la présentation sous forme d’invitation à se connecter pour lire le message. À noter que si le ou la destinataire de l’e-mail a configuré S/MIME et n’est pas sur Gmail, ce dernier se servira de S/MIME pour envoyer le courrier, comme il le faisait déjà.

Google peu satisfaite du système actuel

L’entreprise rappelle les bienfaits du chiffrement, mais note qu’il est trop souvent complexe à mettre en place. « Alors que de plus en plus d’organisations ont des besoins réels en matière de courrier électronique E2EE, peu d’entre elles disposent des ressources nécessaires pour mettre en œuvre S/MIME », affirme Google.

La société indique ainsi que les entreprises intéressées par le chiffrement de bout en bout font alors face à la complexité de gestion des certificats, qu’il faut notamment déployer auprès de chaque personne dans l’entreprise. Côté grand public, il faut avoir activé S/MIME soi-même et vérifier que les destinataires l’ont fait également, « puis se soumettre aux tracas de l’échange de certificats avant de pouvoir échanger des courriels chiffrés ». Google, qui met bien sûr en avant la simplicité de son approche, évoque les nombreuses « frustrations » qui en découlent.

« Cette capacité, qui ne demande qu’un minimum d’efforts de la part des équipes informatiques et des utilisateurs finaux, fait abstraction de la complexité informatique traditionnelle et de l’expérience utilisateur médiocre des solutions existantes, tout en préservant la souveraineté des données, la confidentialité et les contrôles de sécurité », claironne ainsi Google.

Du chiffrement côté client

La solution de Google est effectivement de considérer l’e-mail comme un document stocké dans Google Drive. Les administrateurs peuvent alors appliquer des règles supplémentaires, par exemple en exigeant que l’ensemble des destinataires externes passent par la version restreinte de Gmail pour lire le contenu, même s’ils ne sont pas eux-mêmes utilisateurs de Gmail.

Pour gérer plus simplement le chiffrement de bout en bout, Google a choisi Client Side Encryption (CSE). La technologie n’est pas nouvelle : la firme la fournit déjà depuis quelques années aux éditions Enterprise Plus, Education Standard et Education Plus de son Workspace. Comme indiqué sur la page du CSE, les données sont chiffrées côté client avant leur envoi, supprimant la possibilité de les lire pour les intermédiaires, y compris Google. Les organisations l’utilisant peuvent fournir leurs propres clés. C’est sur ce paramètre que les administrateurs peuvent agir, en forçant CSE pour l’ensemble des membres de l’organisation.

Attention toutefois : bien que l’on parle de chiffrement de bout en bout, ce n’est pas 100 % vrai. CSE chiffre bien les données avant leur envoi, mais les clés sont gérées de manière centralisée par l’équipe d’administration, qu’elles soient générées par le service ou fournies directement par l’organisation. Traduction, les administrateurs seront en mesure de voir le contenu des e-mails.

Peu importe pour Google, qui parle surtout de simplification et d’élimination des frictions. Cette solution de chiffrement ne sera d’ailleurs pas activée par défaut et est présentée comme un moyen supplémentaire d’augmenter la sécurité des échanges.

Une question de confiance

Au-delà de la confiance qu’une entreprise peut accorder à ce type de système, la solution retenue par Google interroge : les destinataires utilisant d’autres plateformes vont-ils faire confiance à ces e-mails ?

La question est loin d’être anodine, car le message ne sera pas directement affiché. Si vous recevez un tel courrier, vous verrez simplement quelques lignes d’explications sur le contexte et un bouton vous invitant à cliquer pour aller lire le contenu. Or, ce fonctionnement en rappelle un autre : les tentatives d’hameçonnage.

Google a conscience que sa solution peut ne pas inspirer confiance. Si vous utilisez par exemple Outlook.com sans avoir mis en place S/MIME, vous verrez ce type de message, avec l’invitation à cliquer. Google a « prévu le coup » : dans le texte, un passage explique qu’il est conseillé de ne cliquer que si vous avez une entière confiance en l’expéditeur. Mais même ainsi, il est possible qu’une partie des destinataires suppriment le courriel sans vraiment lire l’avertissement, tant le contenu pourrait ressembler à une tentative de phishing.

Et si ce déploiement semble familier, c’est que Microsoft a déployé exactement la même capacité en janvier, nommée Purview Message Encryption. Le fonctionnement, réservé aux entreprises abonnées à la formule E5, est identique, avec une lecture directe des courriels tant que l’on reste dans Outlook, mais affiche un lien sur les autres plateformes. Et même si Google applique la même stratégie que Microsoft dans ce domaine, les deux systèmes sont bien sûrs incompatibles.

Michael Waltz, le conseiller à la sécurité de Donald Trump, n’a en tout cas pas attendu l’arrivée du CSE pour se servir de Gmail dans des échanges gouvernementaux, comme l’a révélé hier le Washington Post. Nous reviendrons plus en détail sur ce sujet plus tard dans la journée.

Quand une antenne 5G cessait de fonctionner car elle ne savait plus quelle heure il était

2 avril 2025 à 09:49
Quand une antenne 5G cessait de fonctionner car elle ne savait plus quelle heure il était

Lorsque des brouillages et/ou des perturbations sont rencontrés par des opérateurs, ils peuvent demander l’ouverture d’une enquête auprès de l’ANFR. Des agents se déplacent alors sur place, et l’Agence nationale des fréquences en profite parfois pour raconter ces histoires (qui se terminent bien). Il y a quelques mois, l’ANFR expliquait par exemple comment des étiquettes RFID (passives) arrivaient à perturber des antennes 3G/4G.

Aujourd’hui, il est de nouveau question de téléphonie mobile, mais en 5G, avec une antenne dysfonctionnelle à Alençon (61) à cause d’un brouillage. Pourquoi seulement la 5G ? À cause du TDD (time division duplexing) bien évidemment.

TDD vs FDD : de la 2G à la 5G les technologies ont évolué

Pour rappel, de la 2G à la 4G en France, la séparation entre l’envoi et la réception des données reposait sur un découpage en fréquences appelé FDD, pour frequency domain duplexing. Sur la bande allouée à l’opérateur, une partie est utilisée pour le téléchargement, une autre pour l’upload, avec une « bande centrale » pour assurer la séparation et éviter les perturbations.

Pour des appels audio, c’est très efficace comme partage puisque les échanges sont à peu prés les mêmes dans les deux sens. Par contre pour accéder à Internet, c’est différent : le gros du trafic est généralement dans le sens descendant. « Or, il est impossible de modifier le sens affecté à chaque voie sans réallouer les fréquences attribuées aux opérateurs ; d’où un usage moins efficace du spectre disponible à mesure que l’usage descendant s’intensifie », explique l’ANFR.

En 5G, le découpage change : on passe du FDD au TDD. Cette fois-ci la fréquence est la même dans les deux sens, la séparation se fait avec une division temporelle : « À intervalles réguliers, après une pause très brève, le sens s’inverse », entre download et upload.

Un besoin de précision de l’ordre de la microseconde

L’utilisation du spectre est donc améliorée avec la possibilité de « jouer » sur les intervalles temporels, mais il y a une contrepartie : « le fonctionnement du TDD nécessite néanmoins une gestion du temps très rigoureuse ». Le temps de trajet d’une trame (c’est elle qui contient les données) est de « quelques microsecondes, mais il faut pouvoir les décompter avec précision ».

Maintenant, imaginez que plusieurs antennes fonctionnent dans la même zone : « étant donné le volume de trafic intense dans les sens montant puis descendant qui circule constamment sur des bandes de fréquences proches, il est important que les antennes soient synchronisées ». Si une antenne envoie des signaux vers les smartphones pendant qu’une voisine est en mode upload, « elle ne pourrait plus entendre ses terminaux, car rendue sourde par la puissance rayonnée par la première antenne ».

La synchronisation est donc primordiale, y compris quand les antennes « sont exploitées par des opérateurs concurrents ». Pour donner quelques chiffres, l’ANFR explique que le mode TDD nécessite une synchronisation précise de tous les réseaux mobiles, « avec une tolérance inférieure à 1,5 µs (microseconde) ».

Les horloges atomiques des satellites « GPS » à la rescousse

Les antennes relais disposent évidemment d’une horloge interne, mais la précision n’est pas suffisante et elle dépasse rapidement les 1,5 µs. Il faut donc trouver une source capable de proposer une excellente précision, partout sur le territoire. Il n’y a pas à chercher bien loin : levez les yeux au ciel et la solution apparait : les satellites Global Navigation Satellite System (GNSS). Deux exemples : le GPS américain et Galileo européen.

Vous ne le saviez peut-être pas, mais tous les satellites GNSS embarquent des horloges atomiques de très haute précision… qui ont d’ailleurs donné quelques sueurs froides à l’Agence spatiale européenne sur Galileo) On parle de données PNT pour « position, navigation et temps ». Pour fonctionner correctement avec ses petits camarades, chaque station de base 5G en TDD est équipée d’un récepteur GNSS.

Un brouillage de 8 h à 00 h

Revenons au brouillage du jour sur une antenne 5G : « entre 8 heures et minuit, presque tous les jours, le nombre de satellites vus par ce récepteur passait brusquement d’une dizaine à zéro, provoquant ainsi la perte de la synchronisation ». Un comble pour une antenne immobile.

L’enquête commence. Avant de se rendre sur place, les agents vérifient qu’il n’y a pas de brouillage de grande envergure (même si on peut se douter qu’en pareille situation les alertes auraient été plus nombreuses). Sur une station à 18 kilomètres de l’antenne, rien à signaler sur la réception des signaux GNSS.

Sur place, au pied du site de l’opérateur, les agents de l’ANFR font de nouveau chou blanc : aucun brouillage n’est détecté. Alors qu’ils sont au pied du pylône, ils demandent confirmation : au même instant, il y a sans aucun doute possible une perturbation en cours sur le récepteur.

Le récepteur était saturé par les antennes relais

La solution est finalement trouvée : le récepteur GPS de l’opérateur n’est pas brouillé, mais saturé. L’antenne du récepteur se trouve « dans une zone de champs forts dûs aux multiples opérateurs colocalisés sur le même pylône. Or, un récepteur GPS n’apprécie guère ce type d’environnement, car il se doit d’être très sensible. Et pour cause : il doit extraire du bruit ambiant des signaux GPS qui arrivent de l’espace avec un niveau très faible, environ un million de fois plus faible que le signal qui sort d’un téléphone mobile ».

Cela colle aux observations : le signal est coupé aux heures d’utilisation maximales de la téléphonie mobile (du matin au soir), il s’atténuait certains jours fériés et le brouillage ne cessait finalement que la nuit.

ANFR - Antennes installées sur pylône à Alençon
ANFR – Antennes installées sur pylône à Alençon

La densification des sites radioélectriques

Une observation rapide confirme : le récepteur GNSS est « au faîte de l’antenne, dangereusement entouré de plusieurs émetteurs ». La résolution du problème était des plus simples : le récepteur a été repositionné plus bas sur le pylône. Tout est alors rentré dans l’ordre.

« Cette enquête montre que la densification des sites radioélectriques peut provoquer des interactions entre les différents équipements radio qui y sont installés », explique l’Agence nationale des fréquences en guise de conclusion.

☕️ Un guide de l’ANSSI sur l’homologation de sécurité des systèmes d’information

2 avril 2025 à 08:25

Le guide, coécrit par l’ANSSI et la DINUM permet « de comprendre et de détailler la démarche permettant aux organisations d’homologuer leurs systèmes d’information ». Mais de quoi parle-t-on exactement ? Une homologation de sécurité est « un acte formel qui engage l’autorité qui la prononce ».

L’Agence rappelle que ce passage est « rendu obligatoire par un grand nombre de textes officiels est appelée « décision d’homologation » ». Et pour bien comprendre les enjeux, elle ajoute que « dans certains pays, le principe d’homologation existe et peut-être appelé « accréditation » ou « autorisation » ».

Ce guide s’adresse donc « à toutes les personnes devant réaliser, porter ou accompagner une démarche d’homologation ». L’ANSSI ajoute qu’une homologation n’est pas permanente et « doit être reconduite au maximum tous les trois ans ».

Quatre documents sont mis en ligne. Le gros morceau est le guide de 88 pages, accompagné de trois fiches méthodes, notamment une pour les décideurs, afin de leur rappeler les enjeux et les bénéfices… mais aussi certainement donner des billes aux responsables informatiques qui chercheraient à convaincre leur patron.

☕️ US : les réseaux sociaux utilisés pour tenter de déjouer les expulsions de Trump

2 avril 2025 à 08:00

« Ice cream truck in NYC » (« camion de glace à New-york ») : par ce jeu de mot relevant de l’algospeak (langage inventé pour contourner la modération des plateformes), une internaute états-unienne signale à ses followers avoir repéré des agents de l’Immigration and Customs Enforcement (ICE).

Comme de nombreux autres usagers de TikTok, Reddit, YouTube ou X, elle participe à l’effort collectif renforcé ces dernières semaines pour éviter à toute personne immigrée, légalement ou non, les déportations ordonnées par Donald Trump et quelquefois menées en dehors des cadres légaux.

Si le phénomène n’est pas neuf, le Washington Post relève une multiplication par cinq des discussions relatives à l’ICE sur X, Reddit et YouTube depuis début mars.

De nombreuses fausses informations se glissent parmi les alertes. Des soutiens de la démarche de déportation promue par Trump ont aussi mis à mal certains réseaux d’alertes – le compte Instagram Libs of Reddit a par exemple publié le nom, le visage et l’adresse du modérateur de r/LaMigra, un subreddit dédié au partage d’informations sur la localisation des agents de l’ICE.

Cela n’a pas empêché les efforts de suivi des agents de se multiplier en ligne, prenant quelquefois la forme de cartographies collectives, comme dans le cas de People over Papers. Si le projet est devenu viral sur TikTok, explique sa créatrice au quotidien états-unien, « c’est parce qu’il répond à un réel besoin ».

Elle aussi a été visée par des violences numériques : le 14 février, le compte très suivi Libs of TikTok a partagé son nom et son handle à son public, déclarant qu’elle aidait des criminels à échapper aux forces de l’ordre.

Firefox 137 sait enfin grouper les onglets

1 avril 2025 à 17:10
Garanti sans poisson
Firefox 137 sait enfin grouper les onglets

Mozilla vient de publier la version 137 de son navigateur. Firefox se dote pour l’occasion d’une capacité présente chez les concurrents depuis longtemps : la possibilité de grouper les onglets. Avec d’autres améliorations, la mouture est à ranger parmi les versions marquantes.

La nouveauté la plus visible de Firefox 137 est donc le regroupement d’onglets. C’est aussi celle que tout le monde ne verra pas tout de suite, car elle est en déploiement, Mozilla l’activant petit à petit. Il existe cependant des méthodes pour l’obtenir tout de suite (nous y reviendrons).

Enfin des groupes d’onglets

Comment fonctionne le regroupement d’onglets dans Firefox 137 ? Exactement comme partout ailleurs. Il y a deux façons principales de créer des groupes : soit en déplaçant un onglet par-dessus un autre, soit en faisant une sélection de plusieurs onglets et en choisissant « Ajouter les onglets à un nouveau groupe ».

Dans les deux cas, un liseré coloré apparait sous les onglets pour les lier. La couleur du groupe peut être personnalisée, de même que le nom. Depuis l’étiquette colorée du groupe, un clic droit permet d’autres actions, autrement accessibles par des mouvements de souris. Par exemple, on peut saisir une étiquette pour faire sortir tout le groupe d’onglets vers une autre fenêtre ou pour en créer une nouvelle.

Si vous ne voyez pas encore la fonction et que vous ne souhaitez pas attendre, il y a une solution. Rendez-vous dans la barre d’adresse et entrez about:config. Cherchez l’entrée « browser.tabs.groups.enabled » en passant par le champ de recherche. Double-cliquez sur le résultat et passez la valeur à « True ». Il suffira de redémarrer Firefox pour que la fonction soit disponible. Autre solution, moins fiable : passer par le canal bêta, où les groupes d’onglets sont activés d’origine.

Du neuf dans la barre de recherche

Plusieurs améliorations importantes également pour faciliter l’utilisation de la barre de recherche. Firefox 137 permet ainsi de changer le contexte en cliquant à gauche de la barre, sur le bouton Google ou correspondant au moteur par défaut. Dans la liste, en plus des moteurs, on peut maintenant choisir entre les marque-pages, les onglets, l’historique et les actions. On peut même sélectionner les paramètres de recherche.

Cette bascule entre les éléments est d’ailleurs accompagnée d’une persistance : changer le contexte de recherche ou le moteur n’efface pas les termes entrés dans la barre.

Firefox 137 peut aussi détecter si la page sur laquelle vous êtes dispose d’un champ de recherche. Auquel cas, écrire dans la barre de recherche peut suggérer de lancer l’action sur le site en cours, plutôt que dans le moteur par défaut. Du moins en théorie, car cette capacité est loin de fonctionner partout. On peut la voir par exemple sur iMDB, mais pas sur Allociné. Si vous vous servez deux fois de cette fonction, Firefox finira par vous proposer d’ajouter ce moteur de recherche à la liste intégrée.

On peut également se servir du symbole @ pour ajouter un contexte spécifique à la recherche. Par exemple, @google pour lancer une recherche sur Google, @onglets pour retrouver un onglet, etc. Pratique quand on préfère ne pas lâcher son clavier.

Enfin, la barre de recherche permet de réaliser des opérations mathématiques, le résultat s’affichant dans le menu en-dessous.

D’autres nouveautés bienvenues

Firefox 137 est également une version importante pour Linux, car le codec HEVC (H.265) y est maintenant pris en charge, logiciellement et matériellement. Mozilla en profite pour étendre ce support à sa version Android, mais uniquement à travers le matériel.

Le support des PDF fait également un petit bond avec le support des signatures, que l’on peut enregistrer pour plus tard. En outre, le lecteur intégré sait détecter les liens dans le texte pour les rendre exploitables.

On note plusieurs changements pour les développeurs, dont le support des méthodes Math.sumPrecise() et Atomics.pause(). Signalons aussi le respect du quota de 10 Mo pour l’API storage.session ainsi que l’affichage des métadonnées dans le panneau Fonts de l’Inspecteur. Le panneau Réseau autorise de son côté le contournement des réponses aux requêtes avec des fichiers locaux.

Enfin, Firefox 137 corrige huit failles de sécurité, dont trois critiques. L’installation est donc chaudement recommandée.

Windows 11 rend encore un peu plus obligatoire l’utilisation d’un compte Microsoft

1 avril 2025 à 16:42
Libérés de la liberté de choisir
Windows 11 rend encore un peu plus obligatoire l’utilisation d’un compte Microsoft

L’entreprise compte verrouiller encore un peu plus la création de compte sur Windows 11, pour rendre obligatoire le compte Microsoft. La dernière préversion du système bloque ainsi l’utilisation d’une méthode courante pour contourner cette étape. Mais ce court-circuit a déjà son propre court-circuit.

L’année dernière, Microsoft avait expliqué pourquoi un compte maison était si important pour Windows 11. Il déverrouille de nombreuses fonctions, dont la synchronisation des fichiers, des paramètres et autres, l’intégration de Microsoft 365, la sauvegarde des licences et de certaines clés de chiffrement, etc.

Problème, une partie des utilisateurs préfère utiliser un compte local. Tout le monde ne court pas après la synchronisation des informations. Ou, pour être plus précis, la synchronisation par Microsoft, avec le stockage des données personnelles chez l’éditeur américain. Pendant longtemps, les Windows ont permis la création d’un compte local. Mais Windows 11 a commencé à serrer la vis, avec des méthodes de contournement, comme la coupure de la connexion internet pendant la première configuration du système.

Nouveau tour de vis

Dans un billet, Microsoft a présenté récemment les préversions 26200.5516 et 26120.3653, respectivement pour les canaux Dev et Beta. Les nouveautés présentées sont nombreuses : recherche sémantique pour les PC Copilot+ équipés de processeurs AMD et Intel, récapitulatif écrit pour le Narrateur, ou encore des améliorations pour l’écran d’erreur vert en cas de redémarrage forcé, le Copilot et la fenêtre de partage.

Mais parmi les changements, on trouve également le blocage du contournement par BypassNRO. Les deux listes incluent en effet le message suivant : « Nous supprimons le script bypassnro.cmd de la version de base afin d’améliorer la sécurité et l’expérience utilisateur de Windows 11. Ce changement garantit que tous les utilisateurs sortent de la configuration avec une connectivité Internet et un compte Microsoft ».

Cette commande pouvait être utilisée depuis une invite de commande (Maj + F10) pendant la première configuration de la machine, après installation du système. Il suffisait alors d’entrer « oobe\bypassnro » pour contourner l’exigence d’un compte Microsoft, autorisant la création d’un compte local. Le script créait une clé dans la base de registre.

Contourner le contournement

Si Microsoft a bloqué le script pendant l’installation des préversions, la clé de registre peut toujours être créée. La méthode consiste à déclencher directement l’opération par la ligne de commande, même si cette dernière est nettement plus longue à écrire que le simple script bypassnro.cmd.

Il faut saisir deux commandes :

reg add HKLM\SOFTWARE\Microsoft\Windows\CurrentVersion\OOBE /v BypassNRO /t REG_DWORD /d 1 /f
shutdown /r /t 0

Si la ligne de commande vous semble trop rébarbative, il est également possible de le faire à la souris dans l’éditeur de registre. Pour cela, depuis l’invite de commande (toujours Maj + F10), entrez « regedit » et validez. Rendez-vous dans HKLM\SOFTWARE\Microsoft\Windows\CurrentVersion, puis créez la clé OOBE si elle n’existe pas. Là, dans ce dossier, créer une valeur DWORD 32 bits nommée « BypassNRO » et affectez lui la valeur 1. Il faudra ensuite redémarrer la machine.

Attention toutefois, Microsoft pourrait également bloquer cette possibilité. Le changement étant apparu dans des préversions, il serait simple pour l’éditeur d’insérer un nouveau blocage dans les prochaines semaines.

Ajoutons également que ce « bypass » reste fonctionnel sur les révisions stables de Windows 11, y compris la dernière 24H2.

Enfin, une autre méthode est apparue il y a six mois environ, comme relevé par Neowin notamment. Elle passe par l’utilisation de la console de développement juste avant de choisir une deuxième disposition pour le clavier pendant l’assistant de première configuration. Bien que la méthode soit clairement expliquée sur un dépôt GitHub, elle n’a pas fonctionné chez nous sur une installation neuve de Windows 11 24H2, malgré de multiples tentatives.

Notez qu’en passant par l’utilitaire Rufus, il reste possible pour l’instant de créer une clé d’installation Windows 11 sans le verrouillage sur le compte Microsoft. Pour mémoire, ce même utilitaire peut aussi être utilisé pour désactiver la vérification de la présence de la puce TPM 2.0, comme nous l’indiquions en février.

[Outil Next] Générez des images « style Flock » grâce à notre IA maison !

1 avril 2025 à 16:07
Flock 2.0 pour vous servir
[Outil Next] Générez des images « style Flock » grâce à notre IA maison !

Vous en rêviez ? Next vous propose un nouvel outil : avec un simple prompt, générez des images dans le « style des dessins de Flock ». Là encore, nous avons mis à contribution l’IA générative, mais en local. Explications.

Quand Flock a vu la semaine dernière des images « style Ghibli » générées par l’intelligence artificielle d’OpenAI, il était assez dubitatif. Mais il s’est vite rendu compte du potentiel de cette fonctionnalité, d’autant qu’elle a été reprise à tour de bras par des internautes et politiciens, sans plus de réflexion que « c’est beau ».

Bref, il veut croquer sa part du gâteau et Next pourrait de son côté profiter d’une belle exposition médiatique. Un combo gagnant-gagnant ?

Autant prendre les devants, avec une IA maison

Il a donc décidé de prendre les devants et de se lancer, avec l’aide de l’IA générative. Comme nous l’expliquions récemment, il utilisait déjà un peu l’IA, mais il passe clairement une nouvelle étape… sans doute un peu poussé par Sébastien qui s’en sert largement pour développer des extensions et d’autres applications.

Ce n’est pas tout. Flock dresse un constat triste, mais réaliste de la situation : il y a des chances que des IA génératives se nourrissent déjà de son travail, bien que l’indexation de nos contenus ne soit pas autorisée par notre fichier robots.txt. Ce dernier n’engage malheureusement que ceux qui y croient et veulent bien jouer le jeu. « Il est important de comprendre qu’il ne s’agit là que d’une indication sur ce que doivent faire les robots bienveillants, ce n’est en aucun cas un élément de sécurité. En effet, certains robots ignorent ce fichier », rappelle à juste titre Wikipédia.

On a fait chauffer les serveurs de moji

Il a donc profité d’une réunion d’équipe pour lancer une idée : que Next propose des dessins dans le « style Flock » aux lecteurs. Une fonctionnalité qui serait évidemment réservée à nos abonnés.

Sans attendre, on se lance, d’autant que moji dispose d’un datacenter, avec des serveurs et des GPU que nous pouvons utiliser pour divers projets. L’investissement pour Next est quasi nul, autant en profiter sans attendre ! Pour la phase d’entrainement, nous avons utilisé près de 3 000 dessins de Flock sur nos serveurs, et il nous a fourni près de 5 000 brouillons supplémentaires, tous réalisés pour Next.

Il faut bien le reconnaitre : c’est encore un peu juste pour arriver à un résultat parfait, mais c’est déjà largement exploitable pour une première version. L’outil est donc en bêta pour le moment. Nous le laissons ouvert à tous pour le moment, afin d’avoir un maximum de retours avant de le finaliser.

Un outil en bêta, accessible à tous pour l’instant

Pendant ce temps, l’IA génère des dessins supplémentaires de Flock. Ils serviront ensuite à réaliser une seconde phase d’apprentissage sur la base de dessins plus nombreux. Tous les GPU n’étant pas encore disponibles pour la génération d’images, le résultat peut mettre jusqu’à une trentaine de secondes à s’afficher. Patience donc.

En attendant, prenez ce nouvel outil en main, testez et faites-nous part de vos retours !

La suspension de TikTok en Nouvelle-Calédonie jugée illégale, mais pas impossible

1 avril 2025 à 15:45
Democracy
La suspension de TikTok en Nouvelle-Calédonie jugée illégale, mais pas impossible

Le Conseil d’État déclare illégal le blocage de TikTok imposé à la Calédonie en mai 2024. Il précise les conditions dans lesquelles une telle suspension pourrait être légale.

En pleines émeutes de contestation du projet gouvernemental de dégel électoral, en Nouvelle-Calédonie, le gouvernement avait déclaré l’état d’urgence et suspendu l’accès à TikTok. À partir du 15 mai 2024 à 20 heures et pendant deux semaines, le réseau social n’était plus accessible depuis la collectivité d’outre-mer.

La Quadrature du Net, la Ligue des droits de l’homme, ainsi que des particuliers avaient rapidement attaqué la décision de blocage en justice, le qualifiant de « coup inédit et particulièrement grave à la liberté d’expression en ligne ». Ce 1ᵉʳ avril, le Conseil d’État a rendu sa décision, dans laquelle il annule le blocage de TikTok.

Il souligne notamment que l’autorité administrative ne peut normalement interrompre un tel service « que si la loi le prévoit compte tenu des atteintes qu’une telle mesure porte aux droits et libertés (notamment liberté d’expression, libre communication des pensées et des opinions, droit à la vie privée et familiale, liberté du commerce et de l’industrie). »

Trois conditions à la suspension

Au passage, l’institution précise les conditions dans lesquelles un Premier ministre pourrait légalement interrompre « provisoirement » l’accès à un réseau social, « même si la loi ne le prévoit pas ». Ces conditions sont au nombre de trois.

La suspension peut être décidée « si la survenue de circonstances exceptionnelles la rend indispensable ». Elle ne peut l’être « qu’à titre provisoire », à condition « qu’aucun moyen technique ne permette de prendre immédiatement des mesures alternatives moins attentatoires aux droits et libertés que l’interruption totale du service pour l’ensemble de ses utilisateurs ». Enfin, cette suspension ne peut être mise en œuvre que « pour une durée n’excédant pas celle requise pour rechercher et mettre en œuvre ces mesures alternatives ».

Durée indéterminée

En l’occurrence, si le Conseil d’État admet que la situation en Nouvelle-Calédonie relevait bien des « circonstances exceptionnelles », dans la mesure où les émeutes ont entraîné des décès et des atteintes aux personnes et aux biens « d’une particulière gravité », il souligne que la suspension de TikTok décidée par le Premier ministre d’alors, Gabriel Attal, l’a été sans indication de durée, et « sans subordonner son maintien à l’impossibilité de mettre en œuvre des mesures alternatives ».

Le Conseil d’État juge ce blocage illégal, car ayant porté « une atteinte disproportionnée aux droits et libertés invoqués par les requérants ».

☕️ Derrière la viralité d’une fausse vidéo du Figaro, une possible évolution de l’opération Matriochka

1 avril 2025 à 14:43

Diffusée le 20 mars, une fausse vidéo du Figaro a rencontré un écho inédit sur les réseaux X et TikTok. Alors qu’Emmanuel Macron et Vladimir Poutine s’opposent, la vidéo affirme que « 71 % des Français sont convaincus que leur vie serait meilleure si le président français était Poutine ».

Le logo, la charte éditoriale… la vidéo est en tout point similaire à une production du Figaro, mais tout est faux, comme le soulignera le journaliste en charge des réseaux sociaux du Figaro Jean-Baptiste Semerdjian.

Matriochka version Flock

Copier des médias installés pour diffuser de la désinformation, le modus operandi est typique de l’opération Matriochka, qui sévit depuis un an et demi dans l’espace informationnel français.

Mais le projet d’opposants russes Bot Blocker (@antibot4navalny / @antibot4navalny.bsky.social), qui œuvre régulièrement à documenter ces opérations, relève ici une spécificité : la réponse d’un internaute réel, trompé par la vidéo, est rapidement devenue plus virale que la publication initiale du faux.

En effet, « pour la première fois, la réponse d’un utilisateur en tant que telle a été amplifiée par les robots Matrioshka, alors qu’auparavant, ils se concentraient exclusivement sur les faux visuels qu’ils créaient eux-mêmes », indique @antibot4navalny.

En pratique, les bots liés aux comptes pilotant l’opération sont allés démultiplier l’audience de publication d’internautes légitimes sur Telegram, TikTok et Twitter, pour augmenter la portée de leurs réactions, entrainant à leur suite d’autres internautes légitimes.

☕️ Les PowerToys 0.90 se dotent d’une nouvelle palette de commandes

1 avril 2025 à 11:34

Nouvelle mouture pour la suite d’outils. Le plus gros apport de cette version 0.90 est la version 2 de Run, désormais renommé Command Palette (ou Palette de commandes). La palette fonctionne comme ce que l’on connait dans d’autres applications, comme Visual Studio Code. Son interface a été enrichie, son système d’extensions retravaillé et un accent particulier a été mis sur les performances.

Le Color Picker, qui permet de sélectionner la couleur d’un pixel n’importe où dans l’écran, a été remanié sous le capot. .NET WPF remplace ainsi WPFUI, ce qui doit apporter une meilleure compatibilité à l’outil et un support amélioré des thèmes.

Parmi les autres nouveautés, on peut citer également la possibilité d’effacer directement un fichier dans Peek (Aperçu), le support des variables dans les noms de fichiers dans New+, la correction de plusieurs bugs dans FancyZones, ainsi qu’une autre pour Espaces de travail, qui ne parvenait parfois pas à capturer certaines applications minimisées.

La mise à jour est disponible depuis la fenêtre principale des PowerToys. Pour les personnes qui voudraient essayer la suite d’outils (bien pratique), l’installeur se récupère depuis le Microsoft Store ou le dépôt GitHub associé. Rappelons que ces applications sont open source (licence MIT).

US : le DOGE veut migrer le code de la Sécurité sociale en urgence. Il est écrit en COBOL.

1 avril 2025 à 10:13
Mainframe
US : le DOGE veut migrer le code de la Sécurité sociale en urgence. Il est écrit en COBOL.

Le DOGE veut migrer les systèmes de la Sécurité sociale des États-Unis en quelques mois. Ces derniers sont codés en COBOL, un langage ancien et désormais peu programmé, mais réputé pour sa robustesse.

Le « département de l’efficacité gouvernementale » des États-Unis (DOGE) est en train de constituer une équipe pour migrer l’intégralité des systèmes de la Sécurité Social locale en quelques mois. L’idée : se défaire des langages de programmation anciens sur lesquels ces systèmes reposent.

Le risque, comme le rapporte Wired : menacer l’intégrité de la totalité de l’architecture, et les allocations perçues par des dizaines de millions de personnes au passage. En pratique, le fidèle d’Elon Musk Steve Davis travaille déjà à sortir les systèmes de leur dépendance au langage COBOL.

COBOL : 66 bougies

À la suite des censures opérées par le gouvernement Trump, au moins un des sites qui saluait le travail de Grace Hopper est désormais hors ligne. Mais c’est bien cette docteure en mathématiques devenue informaticienne dans la Marine états-unienne qui a créé en 1959, avec les équipes du consortium sur les langages de systèmes de données (CODASYL), le COBOL (Common business oriented language). Comme son nom l’indique, il s’agissait de fournir un langage commun aux applications professionnelles.

Dans les vingt années qui suivent, le COBOL, standardisé en 1968, est adopté dans les administrations, le secteur bancaire, l’aviation, et ailleurs. 66 ans plus tard (et deux ans après sa dernière mise à jour ISO/IEC 1989:2023), il a été délaissé au profit de langages plus simples à manier pour quantités d’applications. Il garde toutefois de fidèles adeptes dans des secteurs critiques, dont les banques ou les administrations (y compris nos impôts ou notre Caisse d’Allocations familiales). En 2020, 80 % des transactions interpersonnelles réalisées aux États-Unis reposaient sur du COBOL, d’après Wealthsimple Magazine.

Les raisons du maintien du langage sont doubles : des enjeux de sécurité et de performance – COBOL a notamment été créé pour gérer rapidement de très grosses sommes de « transactions » – et son usage même, qui concerne généralement des applications centrales, vouées à rester en place une fois créées.

Le problème que cela pose : la pénurie de connaisseurs du COBOL force certaines entreprises à sortir d’anciens programmeurs de leur retraite pour les aider à faire évoluer leurs systèmes. Pour se représenter l’enjeu, des personnes qui sortaient du lycée en 1969 et devenaient programmeuses de COBOL partaient généralement à la retraite à la fin des années 2000, une fois la soixantaine atteinte.

5 ans pour le précédent projet de migration

C’est pour toutes ces raisons que le projet du DOGE soulève des questions. Auprès de Wired, de nombreux experts soulignent qu’une migration de l’ampleur prévue serait, de toutes manières, un projet énorme et risqué – l’infrastructure de la Sécurité sociale contient plus de 60 millions de lignes de codes en COBOL. Sa logique interne – c’est-à-dire les procédés qui fournissent des codes de Sécurité sociale, gèrent les paiements et calculent les montants à verser – est elle-même écrite en COBOL.

Dans le contexte actuel, la Sécurité sociale états-unienne est déjà sous pression : visée par des accusations de fraudes par Elon Musk lui-même – dont plusieurs des allégations se sont néanmoins prouvées, au mieux, trompeuses –, l’institution est spécifiquement visée par d’intenses coupes budgétaires. Depuis quelques semaines, son site web se retrouve fréquemment hors ligne, et l’attente téléphonique s’allonge, au point que le Washington Post parle de « chaos ».

Surtout, de précédents projets de migration ont déjà été envisagés, et la tâche s’avérait alors bien plus ardue qu’un projet de quelques mois. En 2017, l’agence avait elle-même annoncé un projet de remplacement de son système cœur, pour lequel elle cherchait des financements de centaines de millions de dollars. La durée annoncée du chantier, remplacé par des projets plus orientés vers le public en raison de la pandémie, était de cinq ans.

Et puis vient la question de l’efficacité, comme le détaille le journaliste Clive Thompson. Si des acteurs bancaires ou administratifs maintiennent leurs activités en COBOL malgré son ancienneté, c’est bien qu’ils ont pesé les risques. Le langage, on l’a dit, est très rapide. Par ailleurs, un nouveau système créé en quelques mois pour la Sécurité sociale a toutes les chances d’être plein de bugs, donc de planter en de multiples endroits. L’ancienneté du COBOL, en la matière, joue en sa faveur : au fil des décennies, les programmeurs ont eu le temps de débuger régulièrement.

Chez Next, on aimerait bien discuter avec des mainteneurs de mainframes et autres adeptes de COBOL français ou européens. Des contacts à nous recommander ?

OpenAI lève 40 milliards de dollars et promet un modèle partiellement ouvert

1 avril 2025 à 09:41
OpenAI lève 40 milliards de dollars et promet un modèle partiellement ouvert

OpenAI a formalisé un nouveau tour de table à hauteur de 40 milliards de dollars, amenés principalement par Softbank. Pour conclure sa levée de fonds, la société doit cependant achever sa bascule vers un modèle « for profit ». Sam Altman annonce en parallèle la sortie prochaine d’un modèle à poids ouverts, une démarche qu’OpenAI n’avait pas engagée depuis 2019.

Un tour de table à 40 milliards de dollars, calculé sur la base d’une valorisation d’entreprise désormais estimée à 300 milliards de dollars  : OpenAI a annoncé lundi ce qui devrait devenir la plus importante levée de fonds jamais réalisée par une entreprise de la tech. Cette manne doit permettre à l’entreprise de « repousser encore plus loin les frontières de la recherche en IA, faire évoluer notre infrastructure de calcul et fournir des outils de plus en plus puissants aux 500 millions de personnes qui utilisent ChatGPT chaque semaine », affirme-t-elle dans un bref communiqué.

Une levée de fonds assortie de conditions

Le groupe japonais Softbank représente le principal contributeur à ce tour de table, qui sera cependant réalisé en deux temps, et soumis à plusieurs conditions suspensives. Le premier round, programmé pour le mois d’avril, porte sur une enveloppe de 10 milliards de dollars.

Le second round est quant à lui attendu pour fin 2025 ou début 2026, et peut atteindre 30 milliards de dollars si et seulement si OpenAI parvient à boucler la restructuration de son capital, pour parvenir à devenir une entité commerciale classique, sans limitation liée à sa composante non-profit (sans but lucratif) historique.

La société dirigée par Sam Altman repose aujourd’hui sur une structure dite « capped profit », dont les bénéfices sont plafonnés (l’excédent devant, statutairement, remonter vers la structure à but non lucratif). OpenAI travaille depuis des mois à l’évolution de sa gouvernance, précisément pour répondre aux exigences de Softbank et préparer ce tour de table.

Sur cette deuxième phase, Softbank prévoit de laisser de la place à de potentiels co-investisseurs, à hauteur de 10 milliards de dollars. D’après CNBC, le tour de table inclurait Microsoft, soutien historique d’OpenAI, ainsi que les fonds Coatue, Altimeter Capital et Thrive Capital. Une partie des fonds levés aurait vocation à alimenter la contribution d’OpenAI au projet Stargate, qui ambitionne pour mémoire de fédérer 500 milliards de dollars pour construire des infrastructures dédiées à l’IA aux États-Unis.

Sam Altman annonce un modèle à poids ouverts

OpenAI a, en parallèle, lancé un appel à contributions en direction des développeurs, pour recueillir leurs suggestions relatives à un futur modèle de langage à poids ouvert. La page dédiée propose un formulaire via lequel l’entreprise demande quels sont les modèles ouverts avec lequel la personne a déjà travaillé, et quelles seraient ses attentes quant à un modèle open-weight signé OpenAI.

« Nous prévoyons de publier notre premier modèle de langage à poids ouvert depuis GPT-2. Nous y réfléchissons depuis longtemps mais d’autres priorités ont pris le pas. Maintenant, cela nous semble important de le faire », commente Sam Altman sur X. Il annonce que des événements dédiés aux développeurs seront organisés prochainement, d’abord à San Francisco, puis en Europe et en Asie, pour recueillir les retours de la communauté et présenter les premiers prototypes.

« Nous sommes impatients de voir ce que les développeurs construiront et comment les grandes entreprises et les gouvernements l’utiliseront là où ils préfèrent exécuter eux-mêmes un modèle », se réjouit-il encore. À ce stade, OpenAI ne livre aucune information précise quant à la nature exacte de ce futur modèle. L’engagement porte simplement sur l’ouverture des poids, c’est-à-dire les paramètres définis au cours de l’entraînement qui conditionnent l’exécution du modèle.

☕️ France2030 : 50 millions d’euros pour la « SupraFusion »

1 avril 2025 à 09:30

C’est un projet financé par le plan d’investissement France2030, avec 50 millions d’euros sur sept ans. Il est piloté par le CEA et le CNRS. Il « vise à accélérer le développement de supraconducteurs à haute température pour répondre aux défis énergétiques et sociétaux de demain, grâce notamment à l’énergie de fusion ».

Si la fission nucléaire consiste à casser un noyau atomique pour créer de l’énergie, la fusion associe deux noyaux légers pour en faire un plus lourd. C’est le type de réaction que l’on retrouve au cœur des étoiles.

Attention à ne pas vous laisser avoir par la « haute température critique », il s’agit de 80 kelvins soit - 193 °C, mais on est loin des 4 kelvins (- 269 °C) des supraconducteurs traditionnels. Les supraconducteurs ont des « propriétés électriques et magnétiques particulières, qui les rendent aptes à supporter des courants d’intensité très élevée », explique le CNRS. Mais aussi sans perte, ajoute le CEA.

Ces matériaux pourraient être cruciaux en fusion nucléaire, mais ils « présenteraient également un grand potentiel dans de nouvelles applications comme la production d’électricité éolienne, le transfert d’électricité ou la mobilité lourde bas-carbone (avions, bateaux) ».

Le programme de recherche s’articule autour de trois axes : « développer les briques technologiques des supraconducteurs haute température critique, démontrer leur fiabilité technologique à grande échelle autour d’un démonstrateur d’électro-aimant d’envergure, et explorer les applications de rupture, en particulier les centrales de fusion compactes électrogènes ».

Ciblage pub et ATT : Apple condamné à une amende de 150 millions d’euros en France

31 mars 2025 à 17:35
Trop de consentement tue le consentement
Ciblage pub et ATT : Apple condamné à une amende de 150 millions d’euros en France

L’Autorité de la concurrence a condamné Apple à une amende de 150 millions d’euros en raison de son dispositif App Tracking Transparency (ATT). Elle considère que cet écran, qui demande à l’utilisateur s’il accepte la collecte de ses données personnelles lors de l’installation d’une application, porte préjudice aux mécaniques de consentement implémentées par les éditeurs tiers dans leurs propres interfaces. Les représentants du monde de la publicité et les éditeurs de services en ligne saluent la décision.

Imposer un consentement supplémentaire aux éditeurs tiers quand un seul suffit au regard de la loi constitue une forme d’abus de position dominante, estime l’Autorité de la concurrence. Dans une décision rendue le 28 mars dernier, elle condamne Apple à 150 millions d’euros, en raison de la mise en œuvre du dispositif App Tracking Transparency (ATT) au sein de son App Store entre avril 2021 et juillet 2023. « L’Autorité adjoint à cette sanction pécuniaire une obligation pour Apple de publication du résumé de la décision sur son site internet pendant une durée de sept jours consécutifs », précise-t-elle encore.

ATT : un consentement préjudiciable aux éditeurs tiers ?

Introduit au printemps 2021 avec iOS 14.5, après avoir été annoncé à l’été 2020, l’App Tracking Transparency est le dispositif par lequel Apple demande à l’utilisateur s’il accepte que son appareil iOS communique son identifiant dédié au ciblage publicitaire (le code IDFA, pour Identifier for Advertisers) à un éditeur tiers.

En pratique, il prend la forme d’un écran de recueil du consentement, qui s’affiche après l’installation d’une application téléchargée sur l’App Store. « Autoriser (l’application) à suivre vos activités dans les apps et sur les sites Web d’autres sociétés ? », demande cet écran. Deux options sont proposées : « Demander à l’app de ne pas me suivre » et « Autoriser ».

Le dispositif avait été attaqué dès 2020, avant même son déploiement effectif, au travers d’une action entamée devant l’Autorité de la concurrence par une coalition d’éditeurs de services en ligne et d’acteurs du monde de la publicité.

Ces derniers dénonçaient alors le caractère asymétrique de l’écran ATT : « il ne s’applique qu’aux situations dans lesquelles un éditeur serait amené à partager des données avec ses fournisseurs de services publicitaires autres qu’Apple. Ce dernier se réservant le droit de détenir, collecter et utiliser les données sans devoir recueillir un consentement supplémentaire pour ses activités publicitaires ».

« Les saisissantes reprochaient principalement à Apple d’imposer aux éditeurs d’applications de manière inéquitable une sollicitation superfétatoire et non conforme au RGPD et ePrivacy, tout en s’affranchissant de ces mêmes restrictions, favorisant ainsi son propre écosystème fermé, ses propres applications et ses services publicitaires », résument lundi les plaignants dans un communiqué commun.

Alliance Digitale, le Syndicat des Régies Internet (SRI), l’Union des entreprises de conseil et d’achat média (Udecam) et le Groupement des éditeurs et services en ligne (Geste) y saluent une « victoire importante », pour un écosystème dont les modèles économiques et les revenus auraient été « gravement affectés par l’ATT ».

L’Autorité de la concurrence n’a pas encore publié le texte intégral de la décision, mais elle en commente la teneur dans un communiqué.

Deux consentements ne valent pas mieux qu’un

Elle y remarque que l’ATT n’est pas nécessaire au regard de la loi dans la mesure où il ne permet pas « le recueil d’un consentement valable au regard du droit applicable tel qu’il résulte, notamment de la loi Informatique et Libertés ».

Dans ce contexte, Apple reste « libre d’édicter des règles de protection des consommateurs supplémentaires à celles imposées par la réglementation », souligne le gendarme de la concurrence. À condition toutefois que cet objectif légitime soit mis en œuvre dans le respect du droit de la concurrence, compte tenu de la position dominante de l’entreprise sur le marché de la distribution d’applications à destination des terminaux iOS.

Or, décrit l’Autorité, les modalités de fonctionnement de l’ATT « compliquent artificiellement le parcours des utilisateurs d’applications tierces et faussent la neutralité du dispositif au détriment des petits éditeurs se finançant par la publicité ».

« En effet, si le refus d’une opération de traçage publicitaire ne doit être effectué qu’une fois, l’acceptation d’une telle opération doit, quant à elle, toujours être confirmée une seconde fois par l’utilisateur », précise encore l’Autorité. Selon elle, cette asymétrie empêcherait « le recueil d’un consentement éclairé que l’ATT est pourtant censé favoriser ». Si l’utilisateur refuse le transfert de ses données au niveau de l’ATT, le consentement obtenu par l’éditeur au niveau de sa propre plateforme de gestion n’aura en effet aucune valeur.

La CNIL suggère une fusion des autorisations

Sollicitée pour avis, la CNIL remarque quant à elle que « la sollicitation ATT pourrait aisément, sous réserve de quelques modifications, servir également à recueillir les consentements requis par la loi française et le RGPD ». Autrement dit, Apple pourrait modifier son dispositif de façon à ne proposer qu’un unique panneau de consentement, valable aussi bien au niveau d’iOS qu’au sein de l’application tierce.

L’Autorité prend par ailleurs en compte dans sa décision l’asymétrie de traitement constatée entre les services publicitaires d’Apple et ceux des éditeurs tiers. Jusqu’à iOS 15, la firme de Cupertino n’utilisait en effet pas l’ATT pour ses propres applications, ce qui lui avait déjà valu une condamnation de la part de la CNIL en janvier 2023.

Si elles saluent la décision, les organisations plaignantes regrettent que l’Autorité de la concurrence n’ait imposé aucune modification du dispositif à Apple. « Par conséquent, si aucun changement n’est apporté dans les prochaines semaines, l’illégalité persiste », affirment-elles, demandant la suspension immédiate d’ATT en attente des modifications nécessaires.

« Bien que nous soyons déçus par la décision d’aujourd’hui, l’Autorité de la concurrence française n’a pas exigé de changements spécifiques à l’App Tracking Transparency », remarque de son côté Apple, dans une réaction reproduite par l’AFP.

Le sujet n’a sans doute pas fini de faire des vagues. Mi-février, l’Autorité de la concurrence allemande a elle aussi estimé dans un avis préliminaire que le dispositif ATT présentait un caractère abusif et anticoncurrentiel. Comme en France, elle avait été saisie par un consortium de médias et d’acteurs de la publicité en ligne.

L’usage « inconséquent » du « style Ghibli » généré par OpenAI par les politiques

31 mars 2025 à 17:03
« Le vent se lève, il faut tenter de vivre »
L’usage « inconséquent » du « style Ghibli » généré par OpenAI par les politiques

Des politiques ont surfé sur la vague d’images générées par IA au style très proche de celui de Hayao Miyazaki, utilisé par OpenAI pour faire la promotion de son nouveau modèle. Du RN à Renaissance en passant par LFI, plusieurs s’en sont aussi servi pour leur propre promotion, celle d’autres personnalités de leurs mouvements ou d’actions politiques.

Des personnalités politiques ont diffusé en fin de semaine dernière des portraits d’eux-mêmes ou des illustrations de communication politique surfant sur la vague d’images générées par le modèle 4o Image Generation d’OpenAI. Elles reprenaient le style de Hayao Miyazaki et de ses collègues du studio Ghibli.

L’incarnation de la Protection Civile par une image générée par une IA

Ainsi, Emmanuel Macron a publié samedi soir sur Twitter, un message sur la Protection Civile. Mais, pour illustrer les 32 000 bénévoles qui « veillent, secourent, forment et protègent » et à qui il adresse la phrase « vous incarnez le faire Nation et la Fraternité », le président de la République a préféré illustrer cette « incarnation » par une image générée par IA reprenant un style manga.

Gabriel Attal avec un mouton, Manon Aubry le poing levé ou Marine Le Pen sur le perron de l’Élysée

D’autres personnalités politiques ont, en fin de semaine, publié sur leurs réseaux sociaux des images de ce style : l’ancienne porte-parole du gouvernement et députée Renaissance Prisca Thevenot, et le Secrétaire général du même parti, Gabriel Attal, n’ont pas résisté à l’autopromotion.

Manon Aubry a, elle aussi, publié sur son compte Instagram des images la mettant en scène, dont l’une avec le leader de son mouvement, Jean-Luc Mélenchon. Mais finalement, la députée européenne LFI a peu de temps après supprimé ces images de son compte, alors que des utilisateurs du réseau social critiquaient cette utilisation. Le même week-end, le think tank Institut La Boétie de LFI proposait un colloque intitulé « L’intelligence artificielle, un nouveau champ de batailles ».

Du côté du RN, le député Alexandre Sabatou, qui se présente sur son compte X « pour une IA française et souveraine », a publié mardi 26 sur Twitter une image du même style mettant en scène Marine Le Pen montant les marches du perron de l’Élysée. C’était avant que Marine Le Pen soit condamnée pour détournement de fonds publics à deux ans de prison ferme et cinq ans d’inéligibilité avec application immédiate dans l’affaire des assistants européens du FN.

« Inconséquence des politiques »

Pour la correspondante au Japon de Libération, Karyn Nishimura, cette vague de communication exprime une « étrange inconséquence des politiques français postant des pseudo-images Ghibli générées via OpenAI ». Karyn Nishimura a, elle, bel et bien été l’héroïne du manga « Ivre du Japon », publié par son mari et auteur de mangas J.P. Nishi.

Pour Karyn Nishimura, « la question est éthique plus que juridique ». Elle dénonce le fait qu’OpenAI « ne voit aucun problème moral à entraîner sans vergogne son IA avec des œuvres de renom pour mieux commercialiser sa technique » mais aussi « que des personnalités politiques trahissent leur devoir en adressant aux artistes déjà démoralisés le pire des messages : « On peut se passer de vous, qui plus est avec des outils qui pillent votre travail. » ».

Finalement, après avoir laissé entendre que son entreprise maitrisait très bien la communication autour de cette vague d’images, Sam Altman a encore joué sur le storytelling d’un usage dépassant ses attentes. Après avoir tweeté un message demandant aux utilisateurs de se calmer, il a restreint la génération d’images aux comptes payants de son chatbot. Il a ainsi fait baisser, par la même occasion, la vague d’images au style Ghibli qui aura déferlé sur les réseaux sociaux pendant une semaine.

Obsolescence : 2 personnes sur 5 vivraient avec un smartphone dysfonctionnel en France

31 mars 2025 à 15:32
Right to repair
Obsolescence : 2 personnes sur 5 vivraient avec un smartphone dysfonctionnel en France

42 % des répondants à une étude menée par le projet Limites Numériques vivent avec un téléphone dysfonctionnel, le plus souvent à cause de problématiques d’obsolescence logicielle.

En France en 2023, 42 % des gens vivaient avec un smartphone dysfonctionnel, selon un sondage Médiamétrie mené auprès de 1 000 personnes « représentatives d’une population de 50 000 personnes au sein de la population française » pour Télécom Paris, l’Université de Toulouse, De Vinci Research Center et Limites Numériques, un projet qui s’intéresse « aux choix de conception, aux usages et aux fonctions d’un numérique s’inscrivant dans les limites planétaires ».

Dans près de deux cas sur trois, ces dysfonctionnements sont dus aux applications et logiciels installés sur les smartphones.

Des problèmes qui surviennent tôt

Constatant que la fabrication est à l’origine de la majeure partie de l’empreinte carbone des terminaux numérique, Limites Numériques s’est penché sur les raisons pour lesquelles nombre d’entre eux étaient remplacés dans les deux ans et demi suivant leur acquisition. En 2023, la designeuse Léa Mosesso contestait en effet, dans un mémoire de recherche, l’hypothèse selon laquelle ces smartphones cessaient brusquement de fonctionner en raison d’une panne unique.

Avec 87 % de détenteurs de smartphone de moins de 3 ans parmi les personnes interrogées, le présent sondage montre que les problèmes logiciels apparaissent tôt. Si 58 % des sondés n’ont rencontré aucun problème, 42 % déclarent donc subir des problématiques logicielles, 34 % des enjeux matériels, et 23 % des problèmes complexes à classer.

Les enjeux de batterie dégradée, de stockage saturé et de lenteur sont en tête des problèmes relayés par les répondants.

Surtout, ces problèmes surgissent tôt : parmi l’intégralité des problématiques relevées, la moitié est apparue dès la première année, près du quart dans la deuxième année. Au-delà de la quatrième année, où environ 50 % des répondants déclarent avoir rencontré au moins un problème de smartphone, la probabilité de subir de nouveaux dysfonctionnements n’évolue quasiment plus, relève encore Limites Numériques.

Des difficultés à réparer

Face à ces désagréments, les sondés semblent relativement désemparés : les propriétaires des smartphones n’ont pas tenté de résoudre 42 % des problèmes relevés. Dans 43 % des cas, ils ont tenté de résoudre leurs difficultés (le type d’enjeux que les usagers tentent le plus de résoudre sont ceux liés au stockage de leurs appareils). Dans plus de la moitié des cas, l’opération s’est soldée par un échec.

Enfin, 15 % des problèmes se sont résolus par eux-mêmes.

Des chiffres qui, en définitive, traduisent la résolution de seulement un tiers des problèmes rencontrés sur les smartphones des personnes interrogées. Parmi les plus complexes à résoudre : tous les enjeux liés à l’écran, à l’affichage et à la dégradation de la batterie.

14,7 % des téléphones remplacés réellement inutilisables

Si 32 % des répondants ayant rencontré au moins un problème qualifient ces désagréments qu’ils rencontrent de « très gênants » et 47 % de « plutôt gênants », beaucoup cohabitent avec. Principales raisons évoquées : vouloir faire durer l’appareil le plus longtemps possible, et des enjeux de coûts (trop élevés pour réparer ou remplacer l’appareil).

Cela dit, l’étude relève une chute marquée de la cohabitation des propriétaires de smartphone avec leur appareil au-delà d’un mois lorsqu’ils ont tenté de résoudre le problème sans y parvenir. Cela « peut signifier qu’une partie des smartphones sont remplacés, et pas réparés », écrivent les auteurs. Lorsque le téléphone finit par être remplacé, indiquent encore les répondants, il n’est totalement inutilisable que dans 14,7 % des cas.

En conclusion de son étude, Limites Numériques formule plusieurs recommandations, parmi lesquelles celle de demander aux fabricants une garantie logicielle de plusieurs années ; celle de produire des applications plus légères pour éviter la saturation du stockage des appareils ; proposer des paramètres permettant de contourner certains dysfonctionnements (comme les écrans en partie cassés), et faciliter maintenance et réparation matérielle et logicielle.

☕️ Recherchés par le FBI, deux informaticiens états-uniens disparaissent dans la nature

31 mars 2025 à 14:39

Xiaofeng Wang, un informaticien spécialisé depuis vingt ans dans la cryptographie, la cybersécurité et la protection de la vie privée a disparu des radars. 


Ses comptes et téléphones professionnels ont été supprimés par son employeur, l’université de l’Indiana.

L’université a aussi supprimé toutes les informations relatives à sa femme Nianli Ma, qui travaillait comme analyste système principale et programmeuse au département des Library Technologies. 


Le FBI s’est par ailleurs rendu à leur domicile le 28 mars, sans que les raisons n’en soient connues, rapporte Ars Technica.

« Nous avons mené des opérations de maintien de l’ordre, autorisées par le tribunal, dans des domiciles de Bloomington et de Carmel, a confirmé une porte-parole du bureau du FBI à Indianapolis, auprès d’une radio locale. Nous n’avons aucun autre commentaire à faire pour le moment. »

Une illustration d'aigle du FBI emportant clavier et souris

Xiaofeng Wang était doyen associé de la recherche à la Luddy School of Informatics, Computing and Engineering de l’université de l’Indiana, et fellow de l’Institute of Electrical and Electronics Engineers et de l’American Association for the Advancement of Science.

Il a par ailleurs signé de nombreux articles de recherche en cryptographie, sécurité des systèmes, protection des données et protection des données génomiques.

Ce week-end, plusieurs des collègues du couple ont déclaré leur inquiétude sur les réseaux sociaux, et leur incompréhension de voir toutes les informations qui leur étaient relatives disparaître du site de leur employeur.

[#Offert] Flock : Invasion, exploitation, liquéfaction

Par :Flock
29 mars 2025 à 13:37
et le respect bon sang ?
[#Offert] Flock : Invasion, exploitation, liquéfaction

[Mise à jour ] : Exceptionnellement, la rédaction décide de rendre la rubrique hebdomadaire de Flock disponible à tous nos lecteurs, même ceux qui ne sont pas encore abonnés. Au regard de l’actualité concernant Open Ai et le Studio Ghibli et par cette libération de ce contenu, nous voulons rappeler que si l’intelligence artificielle sait copier, elle n’a toujours pas craqué les concepts mis en évidence par Bergson : l’humour artificiel n’est pas encore au goût du jour. Enjoy !

Ah mes chers amis, nous voilà envahis par la connerie et c’est un véritable piège qui se referme sur nous. Si ça peut vous rassurer, c’est un phénomène mondial et personne n’y échappe. Se faire des ennemis à l’autre bout du monde ou à la maison, les lister, montrer les muscles en retour, considérer leur prochain comme de la matière première à business lucratif, d’une façon ou d’une autre, pas besoin de sortir les pincettes : ce n’est plus une épine dans le pied quand on n’a pas le cul sorti des ronces. Pour ça, il faudrait replacer le cerveau au-dessus du bulbe et miser sur la recherche de savoir et sagesse : la cour des comptes nous dira que c’est pas gagné. Allez, on en aura bien profité. Bon weekend ! 🙂

La fusée Spectrum s’écrase après 30s… mais ce premier lancement est « un franc succès »

31 mars 2025 à 12:00
Lancer, exploser, apprendre, répéter
La fusée Spectrum s’écrase après 30s… mais ce premier lancement est « un franc succès »

La fusée Spectrum a décollé hier soir du nord de la Norvège. Elle n’a pas atteint l’espace et a explosé 30 secondes après son décollage. Son fabricant Isar Aerospace et le port spatial d’Andøya parlent d’un « succès ». Le temps est maintenant à l’analyse des données, avant de procéder à de nouveaux essais.

Hier, la société allemande Isar Aerospace faisait décoller pour la première fois sa fusée Spectrum, depuis la base norvégienne de l’île d’Andøya. Elle est située à l’intérieur du cercle polaire, au nord des îles Lofoten, une position idéale pour lancer des satellites sur des orbites polaires ou héliosynchrones.

Une orbite polaire (basse altitude) survole chaque jour la surface complète de la terre. Elle peut être héliosynchrone, les satellites observant alors toujours chaque région du globe à la même heure locale solaire. Pour en savoir plus sur ces deux orbites, vous pouvez lire notre dossier sur Ariane 6.

« Peu importe jusqu’où nous irons »

De son côté, Isar Aerospace, acteur du new space européen, a été sélectionné par l’Agence spatiale européenne dans le cadre du programme Boost!.

Le 14 mars, l’entreprise recevait le feu vert de la Norwegian Civil Aviation Authority (NCAA) pour son premier vol d’essai. Le 17 mars, Isar Aerospace expliquait que « l’objectif de ce premier test du lanceur est de collecter autant de données et d’expérience que possible ». L’entreprise ajoutait que sa fusée avait été « conçue, développée et construite presque entièrement en interne ».

Baptisée « Going Full Spectrum », cette première mission d’Isar Aerospace ne disposait d’aucune charge utile de partenaires. L’espoir d’atteindre l’orbite était assez faible : « Notre objectif est de tester chaque composant et système du lanceur […] Peu importe jusqu’où nous irons avec ce vol d’essai », affirmait Alexandre Dalloneau, vice-président de la société, avant le lancement.

Même son de cloche quelques jours avant le lancement de la part de Daniel Metzler (CEO et co-fondateur d’Isar Aerospace) : « Nous ne nous attendons pas à atteindre l’orbite avec ce test. En réalité, aucune entreprise n’a encore réussi à placer son tout premier lanceur orbital en orbite. SpaceX a eu besoin de quatre tentatives, mais nous voulons aller plus vite », expliquait-il à l’AFP.

30 secondes de vol avant une explosion

Une diffusion officielle et en direct du lancement était au programme. Si la fusée a décollé correctement, elle s’est retournée après seulement 30 secondes de vol avant de venir s’écraser dans l’eau avec une belle explosion à la clé. La base d’Andøya parlait poliment d’un « incident » sur les réseaux sociaux, ajoutant que « la gestion de crise a été activée ».

Andøya s’est ensuite fendu d’un communiqué, depuis retiré mais toujours visible sur Webarchive : « le vol d’essai a été interrompu par le port spatial d’Andøya, conformément à nos procédures de sécurité […] Le lanceur s’est écrasé dans la mer. Personne n’a été blessé et les travaux d’évaluation des dommages environnementaux et matériels sont en cours ». Dans le vocabulaire de SpaceX, on parlerait de Rapid Unscheduled Disassembly (RUD).

« Notre premier vol d’essai a répondu à toutes nos attentes »

« Pour le port spatial d’Andøya et Isar Aerospace, ce vol d’essai a été un succès. Toutes les procédures et tous les systèmes ont été validés, et nous sommes impatients de planifier la prochaine tentative de lancement », ajoutait le communiqué désormais passé dans les oubliettes.

Chez Isar Aerospace aussi, on utilise à plusieurs reprises le mot « succès » pour parler de cette mission : « Le véhicule a quitté avec succès la rampe de lancement, a été arrêté à T+30 secondes et est tombé directement dans la mer de manière contrôlée ». La rampe de lancement du port spatial d’Andøya est « intacte ».

Daniel Metzler, CEO et co-fondateur d’Isar Aerospace se félicite aussi : « Notre premier vol d’essai a répondu à toutes nos attentes et a été un franc succès. Nous avons décollé sans encombre, avons effectué 30 secondes de vol et avons même pu valider notre système de terminaison de vol ». Quelques jours avant le lancement, il expliquait à l’AFP que « trente secondes de vol seraient déjà un vrai succès ».

Bülent Altan, président d’Isar Aerospace et ancien dirigeant de SpaceX, y va aussi de son analyse : « Comme je l’ai déjà expérimenté, il faut normalement quelques tentatives pour atteindre l’orbite, mais après le vol d’essai d’aujourd’hui, je suis très confiant qu’Isar Aerospace sera l’un des plus rapides à le faire ».

Isar Aerospace prévoit jusqu’à 40 lanceurs Spectrum par an

Dans un message sur X, accompagné d’un résumé vidéo de sa première mission, décrit la suite des événements : « Lancer, apprendre, répéter ». On y voit le lanceur décoller puis terminer sa courte vie dans une explosion dans la mer de Norvège.

Forte de son « succès », la société se tourne vers l’avenir : « Les lanceurs pour les deuxième et troisième vols du Spectrum d’Isar Aerospace sont déjà en production ». Elle ajoute que dans son usine de Munich (Allemagne), elle « sera en mesure de produire jusqu’à 40 lanceurs Spectrum par an à l’avenir ».

☕️ Aux États-Unis, Signal voit une augmentation « époustouflante » de ses téléchargements

31 mars 2025 à 11:32

Le SignalGate a d’heureuses conséquences pour Signal. L’application de messagerie sécurisée a été utilisée par plusieurs membres éminents du gouvernement américain pour discuter d’un plan d’attaque au Yémen. Michael Waltz, conseiller à la sécurité de Donald Trump, a cependant invité par erreur un journaliste dans la conversation. Le contenu de la conversation a été publié par The Atlantic depuis.

Même si la Maison-Blanche minimise depuis l’incident, la bourde reste monumentale. Comme on l’a vu en fin de semaine dernière, l’évènement a beaucoup attiré l’attention sur Signal. Une médiatisation pas toujours bienveillante et qui a poussé la fondation à prendre la parole, pour expliquer comment fonctionne sa plateforme. On a également vu sa présidente, Meredith Whittaker remettre quelques pendules à l’heure dans les comparaisons avec WhatsApp.

Les icones des applications telegram signal whatsapp line et wechat affichées sur un écran de smartphone.

À Wired, la fondation a indiqué en fin de semaine dernière que le nombre quotidien de téléchargements avait doublé. Il s’agirait de la plus forte augmentation jamais constatée par Signal en 11 ans d’existence. « Dans l’histoire de Signal, c’est le moment où la croissance aux États-Unis a été la plus forte, et de loin. C’est époustouflant, même pour nous », a ainsi déclaré Jun Harada, responsable croissance et partenaires à la fondation Signal.

Signal ne fournit aucun chiffre précis, mais ajoute que l’explosion a commencé juste après la publication de The Atlantic. Mieux, les chiffres se maintiendraient depuis. Wired cite les chiffres de Sensor Tower, qui vont dans le sens des déclarations de Signal, avec un boum de 105 % des téléchargements d’une semaine sur l’autre, et de 150 % par rapport à une semaine moyenne en 2024. Dans le reste du monde, l’augmentation serait d’environ 21 %.

☕️ L’intelligence artificielle s’attaque à la mort subite d’origine cardiaque

31 mars 2025 à 11:02

Dans un communiqué, l’Inserm rappelle que « la mort subite d’origine cardiaque est responsable de plus de 5 millions de décès à travers le monde ». Dans un bon nombre de cas, cela arrive « sans signe précurseur identifiable », parfois sur des individus sans antécédents connu de maladie cardiaque.

C’est là que l’intelligence artificielle entre en jeu : elle « pourrait permettre de mieux anticiper les arythmies, des troubles inexpliqués du rythme du cœur dont les formes les plus sévères peuvent provoquer un arrêt cardiaque fatal ». C’est en tout cas le sens d’une étude entre des chercheurs de l’Inserm et de l’Université Paris Cité et de l’AP-HP, « en collaboration avec des chercheurs américains ».

Ils ont développé un réseau de neurones et l’ont entrainé avec « plusieurs millions d’heures de battements du cœur grâce aux données de 240 000 électrocardiogrammes ambulatoires recueillies dans six pays (États-Unis, France, Royaume-Uni, Afrique du Sud, Inde et République tchèque) ». Les algorithmes ont identifié de « nouveaux signaux faibles annonçant un risque d’arythmie ».

Les premiers résultats sont encourageants : le réseau de neurones « est encore en phase d’évaluation, mais, dans le cadre de cette étude, il a montré qu’il était capable de détecter les patients à risque dans 70 % des cas, et les patients sans risque dans 99,9 % des cas ».

« Jusqu’à présent, nous essayions d’identifier les patients à risque sur le moyen et long terme, mais nous étions incapables de prédire ce qui pouvait se passer dans les minutes, les heures ou les jours précédant un arrêt cardiaque. Aujourd’hui, grâce à l’intelligence artificielle, nous sommes capables de prédire ces événements à très court terme et, potentiellement, d’agir avant qu’il ne soit trop tard », explique Eloi Marijon, directeur de recherche à l’Inserm au sein du laboratoire Paris.

L’Inserm se projette dans le futur : « cet algorithme pourrait servir à surveiller les patients à risque à l’hôpital. À condition d’affiner ses performances, il pourrait aussi être intégré à des dispositifs comme les holters ambulatoires qui mesurent la pression artérielle pour mettre en évidence les risques d’hypertension, voire à des montres connectées ».

IA, consentement et pixels espion : la CNIL veut renforcer son « droit souple »

31 mars 2025 à 10:05
Souplesse avec nos données
IA, consentement et pixels espion : la CNIL veut renforcer son « droit souple »

L’autorité de protection des données revendique promouvoir « un juste équilibre entre la voie répressive et l’accompagnement ». En ce sens, elle indique qu’elle publiera en 2025 des documents destinés à aider les professionnels dans leur mise en conformité au RGPD concernant notamment l’IA, la santé, le consentement multi terminaux et les pixels espion.

La CNIL l’a déjà dit, elle veut une « innovation responsable » et n’envisage pas son rôle comme une autorité de répression : elle le martèle depuis longtemps, elle veut promouvoir « un juste équilibre entre la voie répressive et l’accompagnement ».

Pour cela, elle crée régulièrement des documents dits « de droit souple » : des référentiels, des recommandations, des lignes directrices, des guides pratiques, etc. Pour 2025, l’autorité annonce concentrer ces contenus « de droit souple » sur quelques thématiques connues à l’avance « pour que les professionnels concernés puissent se préparer aux concertations ou aux consultations à venir », explique-t-elle.

Encore et toujours l’IA

D’abord, et ça n’étonnera que les personnes qui ne se sont pas connectées à Internet depuis trois ans, elle veut poursuivre ses travaux « de clarification afin d’aider les professionnels à concilier innovation et respect des droits des personnes pour un développement innovant et responsable de leurs systèmes d’IA ». Bref, l’autorité va proposer des fiches sur la bonne façon de citer l’intérêt légitime dans les CGU des modèles d’IA pour être en règle avec le RGPD. Elle proposera aussi des fiches sur leur sécurisation et leur annotation.

Elle va aussi publier des conseils concernant le déploiement des IA dans le secteur de l’éducation, du travail et des collectivités locales.

Sous-traitants, assouplir l’utilisation des données de santé et clarification sur l’octroi de crédit

Pour aider les entreprises à faire respecter le RGPD par leurs sous-traitants, l’autorité construit plusieurs référentiels. La CNIL espère que les entreprises s’en saisiront et qu’elle n’aura donc pas à enquêter puis sanctionner ensuite. C’est pourtant un sujet déjà ancien et l’autorité a déjà dû infliger des amendes à des entreprises comme Darty, Infogreffe ou encore Pap.fr pour négligence auprès de leurs sous-traitants. Elle a mis en place une consultation publique sur le sujet qu’elle a clôturée fin février et va maintenant construire la version définitive de son référentiel.

La CNIL veut aussi mettre à jour ses référentiels sur les traitements de données de santé. Alors qu’elle exige actuellement une demande d’autorisation préalable auprès d’elle, l’autorité affirme vouloir modifier son parcours concernant le traitement de ces données en s’appuyant sur la base d’une déclaration de conformité. Elle explique vouloir s’adapter aux demandes des acteurs et aux pratiques professionnelles dans le secteur de la recherche en santé exprimées lors de la consultation publique qu’elle a menée en 2024.

L’autorité planifie aussi de publier un référentiel sur l’octroi de crédit par les banques, alors que celles-ci s’appuient de plus en plus sur des algorithmes utilisant les données de leurs (futurs) clients pour prendre leurs décisions.

Enfin deux référentiels sur la conservation des données sont au planning de cette année pour les activités commerciales et marketing et pour celles des ressources humaines.

Le consentement se fait-il pour tous les terminaux utilisés ?

L’autorité affiche sa volonté de renforcer ses textes de recommandation sur le consentement multi terminaux. En effet, la multiplication des appareils pour chaque utilisateur fait qu’on peut très régulièrement être connecté avec un même compte sur différents appareils. Mais, est-ce qu’en acceptant des conditions sur l’un d’eux (comme le dépôt de cookies), on les accepte sur tous ? Est-ce qu’en me logguant sur mon téléphone personnel, je donne le même consentement qu’en le faisant sur mon ordinateur professionnel ? Questions intéressantes auxquelles l’autorité veut s’atteler.

La CNIL veut aussi profiter de l’année 2025 pour publier un projet de recommandation concernant l’utilisation des pixels dans les courriels « dont l’usage est en forte croissance ». « L’objectif est de préciser les cas dans lesquels le consentement est nécessaire et guider les acteurs sur les modalités de son recueil », indique-t-elle.

Protéger les séniors et se pencher sur les dashcams

Elle veut aussi cibler le champ de l’économie des séniors, marché très « porteur » mais qui demande attention car le public peut être plus vulnérable. « La nature des données traitées et le ciblage en fonction de l’âge, notamment, soulèvent d’importants enjeux en matière de protection des données », affirme l’autorité.

Enfin, la CNIL veut se pencher sur les dashcams, les caméras embarquées dans les véhicules mis en place par certains automobilistes pour constituer des preuves en cas d’accident, lutter contre le vol ou diffuser des images spectaculaires sur les réseaux sociaux. Le « club conformité » mis en place par l’autorité et dédié aux acteurs du véhicule connecté et de la mobilité doit proposer des recommandations sur l’utilisation des ces caméras.

☕️ Google propose Gemini 2.5 Pro aux utilisateurs gratuits

31 mars 2025 à 09:09

Lancé la semaine dernière, le modèle Gemini 2.5 Pro Experimental représente la dernière offensive de l’éditeur dans le domaine de l’IA générative. Il s’agit d’un modèle de « raisonnement », capable de s’arrêter après chaque étape du processus de réponse pour examiner la précision des informations. Ces modèles sont plus précis et se trompent moins, surtout en mathématiques et en développement, mais ils sont plus longs à répondre.

Les modèles de raisonnement coutant plus cher à faire fonctionner, ils sont souvent réservés aux abonnements payants ou alors mettent du temps à être proposés au grand public gratuitement. Mais – surprise ! – Google a décidé que tout le monde devait avoir son Gemini 2.5 Pro Experimental.

L’annonce a été faite sur X samedi, avec une disponibilité du modèle sur la version web. Hier, Google annoncé que le déploiement avait aussi commencé sur les applications mobiles. L’entreprise n’a fourni aucune date ni fenêtre. Sur nos smartphones, l’application Gemini ne proposait pas encore Gemini 2.5 Pro.

Cela ne signifie pas pour autant que les utilisateurs gratuits peuvent utiliser le nouveau modèle de raisonnement autant qu’ils le souhaitent. L’usage est limité (on ne sait pas exactement dans quelle mesure), l’abonnement Gemini Advanced faisant sauter ces limites, en plus de fournir un contexte d’un million de jetons.

☕️ IA, cybersécurité : la Commission européenne va investir 1,3 milliard d’euros

31 mars 2025 à 08:40

Cette manne financière s’inscrit dans le cadre du programme pour une Europe numérique (DIGITAL) qui s’étend sur les deux prochaines années. Il est « axé sur le déploiement de l’intelligence artificielle (IA) et son adoption par les entreprises et l’administration publique, le cloud et les données, la cyberrésilience et les compétences numériques ».

La Commission donne quelques pistes prioritaires : « améliorer la disponibilité et l’accessibilité des applications d’IA génératives », améliorer « la résilience et la sécurité des infrastructures critiques, y compris les hôpitaux et les câbles sous-marins », développer « les capacités des établissements d’enseignement et de formation de l’UE ».

En creux, évidemment, la question de l’autonomie et de la souveraineté, comme l’explique Henna Virkkunen (vice-présidente exécutive chargée de la souveraineté technologique, de la sécurité et de la démocratie) : « Pour garantir la souveraineté technologique européenne, il faut d’abord investir dans les technologies de pointe et permettre aux citoyens d’améliorer leurs compétences numériques ». Le prochain appel à projets dans le cadre du Digital Europe Programme (DIGITAL) sera lancé en avril.

☕️ Broadcom resserre encore la vis sur les licences VMware

31 mars 2025 à 08:18

Suite au rachat de VMware par Broadcom (pour 61 milliards de dollars), les conditions d’utilisation des produits de l’éditeur ont largement évolué, au grand dam des utilisateurs : suppressions de produits, disparition des licences perpétuelles, regroupement, prix des abonnements…

Un nouveau changement a été annoncé par le distributeur Arrow à ses clients, avec une mise en place à partir du 10 avril : le nombre de cœurs minimum pour les licences VMware passe de 16 à 72. Si vous avez une machine avec un seul CPU de huit cœurs, la licence sera la même qu’avec deux bi-CPU de 16 cœurs (72 au total). Le minimum de facturation était auparavant de 16, soit quatre fois moins.

« En parallèle de cette évolution, le message ajoute une autre mauvaise nouvelle, cette fois-ci pour les clients qui n’auraient pas renouvelé leur contrat à la date anniversaire. Ils se verront appliqués des pénalités pouvant représenter 20 % du prix de la première année de souscription et seront appliquées rétroactivement », ajoute le Monde Informatique.

Enfin, Broadcom ajoute que les mises à jour des produits ne seront plus accessibles via une adresse publique, mais via des URL uniques pour chaque client (avec des jetons d’identification). Tous les détails se trouvent sur les instructions de mise à jour de la configuration des téléchargements authentifiés VCF.

Ubuntu 25.04 : une version solide derrière un calme apparent

31 mars 2025 à 08:02
Force tranquille
Ubuntu 25.04 : une version solide derrière un calme apparent

Après la bêta de Fedora 42 la semaine dernière, c’est au tour de Canonical de présenter la préversion de son Ubuntu 25.04, alias Plucky Puffin (macareux moine). Le système, dont la version finale est prévue le 17 avril, comporte une série d’améliorations plus discrètes que sa concurrente, mais dispose quand même de composants très récents.

La nouvelle mouture d’Ubuntu sera bientôt disponible, même si elle ne concernera qu’une partie du parc installé. Il ne s’agit en effet pas d’une version LTS (Long Term Support). Par défaut, les personnes utilisant Ubuntu 24.04 LTS resteront donc sur cette plateforme. Seuls les utilisateurs ayant choisi de rester sur le cycle semestriel recevront la mise à jour.

Contrairement à Fedora qui sert de laboratoire à Red Hat, les nouveautés des Ubuntu sont souvent plus discrètes. Dans le cas de la prochaine 25.04 cependant, les composants fournis sont les derniers (dans l’immense majorité des cas), y compris pour le noyau Linux.

Des composants très récents

Cette bêta intègre les dernières briques disponibles, y compris le très récent noyau Linux 6.14. Publié il y a quelques jours, il comporte des améliorations majeures. Par exemple, le pilote NTSYNC simulant les primitives de synchronisation du noyau Windows est terminé, avec des gains de performances dans certains jeux. Le pilote AMDXDNA permet quant à lui l’exploitation du NPU des processeurs Ryzen AI. Citons également une suspension et une reprise plus rapides pour certains systèmes, des opérations cryptographiques plus rapides pour AES-GCM et AES-XTS sur les processeurs AMD modernes ou encore une avancée pour la prise en charge des pilotes écrits en Rust.

Sans surprise, l’édition principale d’Ubuntu est fournie avec GNOME 48. Nous n’allons pas refaire toute la liste des apports. Rappelons simplement que cette version présente une nouvelle police par défaut, de nombreuses mises à jour pour les applications internes, une nouvelle liseuse de documents (Papers, qui remplace Evince), un meilleur support de Temps d’écran à travers tout l’environnement, ou encore le regroupement des notifications selon la source.

Côté composants système, on peut citer l’intégration de systemd 257.4, Mesa 25.0.x, PipeWire 1.2.7, BlueZ 5.79, Gstreamer 1.26, Power Profiles Daemon 0.30, OpenSSL 3.4.1 et GnuTLS 3.8.9. Pour le développement, on pourra compter sur Python 3.13.2, GCC 14.2 (malgré la disponibilité de GCC 15, déjà présent dans Fedora 42), glib 2.41, binutils 2.44, Java 24 GA, Go 1.24, Rust 1.84 (par défaut, plus ancien disponible), LLVM 20 et .Net 9.

Pour ce qui est des applications, on retrouve la « bande » habituelle : Firefox 136, Thunderbird 128, GIMP 3.0 (fraichement sorti), LibreOffice 25.2.2, VLC 3.0.21, Blender 4.3.2 (mais pas la 4.4) ou encore Audacity 3.7.3.

Quelques changements sous le capot

Les nouvelles versions d’Ubuntu ont beau être discrètes sur les changements visibles, elles comportent souvent une longue liste d’améliorations ou modifications internes. On commence avec un cas pratique : le service de géolocalisation. Ubuntu a longtemps utilisé celui fourni par Mozilla. La fondation a cependant annoncé son arrêt il y a un plus d’un an, pour laisser le temps de trouver des solutions alternatives. Dans le cas d’Ubuntu, il s’agit de BeaconDB, toujours expérimental. Il est utilisé pour la détection du fuseau horaire, la météo et la fonction Lumière nocturne.

Ubuntu 25.04 prend également en charge le Dynamic Boost de NVIDIA, activé par défaut pour les machines compatibles. Cette fonction est responsable de l’allocation dynamique des calculs au CPU ou au GPU en fonction des besoins. C’est elle qui permet notamment cette bascule vers le GPU lorsqu’un jeu est détecté. La fonction existe depuis un certain temps sur Linux, mais n’avait pas encore été intégrée dans Ubuntu. C’est désormais le cas, via le service nvidia-powerd (automatiquement désactivé sur les configurations non compatibles).

On reste dans la partie graphique avec le support « officiel » du HDR. Les guillemets sont de rigueur, car si le réglage est disponible, il n’est pas activé par défaut. Il n’apparait d’ailleurs dans Paramètres > Affichage que si un écran compatible est détecté. En outre, il s’agit d’un travail en cours, qui ne fonctionnera pas toujours et qui – pour l’instant – coupe malheureusement les raccourcis clavier pour modifier la luminosité de l’écran.

On note aussi la dernière révision de NetworkManager (1.52) avec plusieurs ajouts notables. Par exemple, le support de DNS over TLS (DoT), le support des configurations Oracle Cloud et d’ethtool FEC, ou encore la possibilité de prioriser IPv6 lorsque possible. Puisque l’on parle de réseau, signalons le support de wpa-psk-sha256 pour les connexions Wi-Fi, la possibilité de configurer une politique de routage, ou encore celle d’attendre que des serveurs DNS soient configurés (et joignables) pour considérer qu’une interface est effectivement en ligne.

Des améliorations dans l’installeur

Sans partir sur une base totalement neuve comme dans Fedora 42, l’installeur d’Ubuntu 25.04 comporte plusieurs améliorations sympathiques. Il est notamment capable de détecter les installations existantes d’Ubuntu. Il ne propose pas de mettre à jour par ce biais, mais on peut choisir d’installer Plucky Puffin aux côtés du système actuel, sans y toucher, tant qu’il y a suffisamment d’espace disponible non partitionné.

Cette détection améliorée s’étend aux systèmes Windows en place et prend donc mieux en charge le dual boot, y compris quand la partition Windows est chiffrée via BitLocker. Dans ce cas, Ubuntu peut être installée sans « casser » le boot, là encore à condition qu’il y ait suffisamment d’espace disque non partitionné.

Le support des configurations ARM64 fait également un bond, grâce justement à des améliorations dans l’installeur. La préversion du système prend ainsi en charge l’ensemble des configurations Windows on ARM à base de puces SnapDragon, y compris les PC Copilot+ intégrant des SnapDragon X. Attention cependant, cette version nécessite encore du travail et est fournie surtout pour rendre compte de l’avancée des travaux. En outre, la logithèque est nettement moins fournie.

Petits ajouts et téléchargement

Comme toujours, on trouve un peu partout de petites améliorations, mais qui ont parfois un impact important. Par exemple, le paquet xdg-terminal-exec est installé par défaut. Conséquence ? On peut désormais appeler le terminal par le raccourci clavier Ctrl + Alt + T. D’ailleurs, les nouvelles fenêtres s’ouvrent maintenant au centre de l’écran.

On note aussi une série de nouvelles icônes pour des applications comme Logiciels et EarTag. Puisque l’on parle d’icônes, Ubuntu 25.04 corrige un petit problème apparu avec la version précédente du système, où certaines applications avaient une icône légèrement plus grande que d’autres. Plucky Puffin a bien sûr un nouveau fond d’écran mettant en avant le macareux.

Le téléchargement de l’image ISO peut se faire depuis cette page pour la distribution principale, ou depuis celle-ci pour l’une de ses variantes. Comme d’habitude, on rappellera qu’il s’agit d’une préversion et qu’elle peut contenir des bugs et autres incompatibilités.

Les personnes intéressées par des tests (notamment pour vérifier la compatibilité des applications) ont trois semaines avant que la version finale soit proposée en téléchargement. Dans la foulée, toutes les installations ayant actuellement Ubuntu 24.10 recevront la mise à jour.

Elon Musk revend X à xAI, valorisée à 80 milliards de dollars

29 mars 2025 à 11:14
Pour le meilleur ou pour le pire ?
Elon Musk revend X à xAI, valorisée à 80 milliards de dollars

Elon Musk (patron de X) revend le réseau social X à xAI (dont le patron est Elon Musk). Il fusionne les deux sociétés pour « accélérer activement le progrès humain ».

C’est évidemment sur le réseau social que l’annonce a été faite : « xAI a acquis X dans le cadre d’une transaction entièrement en actions. Cette opération valorise xAI à 80 milliards de dollars et X à 33 milliards de dollars (45 milliards de dollars moins 12 milliards de dollars de dette) ». On pourrait presque parler de transaction interne puisque xAI est la société d’intelligence artificielle créée par Elon Musk en 2023 et dont il est le patron.

1 milliard de dollars de plus qu’au rachat de Twitter par Elon Musk

Le calendrier et le montant de la transaction ne doivent certainement rien au hasard : X est revenu récemment à son niveau de capitalisation au moment du rachat par Elon Musk. En accord avec lui-même, il a donc décidé de vendre le réseau social pour 45 milliards de dollars (dette comprise). La valorisation du réseau social est ainsi de 33 milliards de dollars une fois les 12 milliards de dollars de dette enlevés.

Linda Yaccarino, CEO de X, s’est fendue d’un court message pour saluer cette fusion : « L’avenir ne pourrait pas être plus radieux ». Elon Musk de son côté termine par : « cela nous permettra de construire une plateforme qui ne se contente pas de refléter le monde, mais qui accélère activement le progrès humain ».

X et xAI fusionnent pour le meilleur et pour… ?

« L’avenir de xAI et de X sont étroitement liés. Aujourd’hui, nous prenons officiellement l’initiative de combiner données, modèles, calcul, distribution et talents. Cette fusion libérera un immense potentiel en alliant les capacités et l’expertise avancées de xAI en IA à la portée considérable de X », précise Elon Musk.

Il revendique au passage « plus de 600 millions d’utilisateurs actifs », mais sans préciser la fréquence à laquelle ils sont présents (par jour, semaine, mois ?)

xAI se positionne pour rappel en face d’OpenAI… dont Elon Musk était un des cofondateurs avant de partir en 2018 à cause de conflits internes et potentiels conflits d’intérêt. Il avait ensuite attaqué l’entreprise pour rupture de contrat, puis décidé d’abandonner le procès. Plus récemment, Elon Musk mettait 97,4 milliards de dollars sur la table pour racheter OpenAI.

xAI propose un modèle de langage que l’on pourrait qualifier de « rebelle » – c’est-à-dire sans les garde-fous habituels. Il était d’ailleurs au cœur de la polémique d’un portrait de Cyril Hanouna réalisé via Grok. Nous avions pour rappel testé d’autres IA génératives qui avaient refusé de générer des portraits d’autres personnalités.

« Une partie de la croissance est stimulée par la peur »

Depuis le rachat de Twitter, Elon Musk a rebaptisé le réseau social X et l’a profondément remanié, notamment sur les règles de modération en misant sur les Community Notes. Le Monde explique qu’il a « autorisé les propos haineux et la désinformation au nom de la liberté d’expression, faisant fuir une partie des marques inquiètes du contexte dans lequel leurs messages apparaissent ». La capitalisation de X était alors en baisse.

Depuis le retour de Donald Trump au pouvoir avec les coudées franches d’Elon Musk à la tête du DOGE (qui licencie à tour de bras des fonctionnaires américains), les publicitaires sont de retour, mais c’est un peu le « salaire de la peur » selon certains analystes, dont Jasmine Enberg :

« Une partie de la croissance est stimulée par la peur. De nombreux annonceurs considèrent désormais les dépenses pour X comme un « coût pour faire des affaires » et éviter d’éventuelles représailles juridiques ou financières, en partie à cause des liens de Musk avec l’administration Trump ».

On serait ainsi passé de l’inacceptable à l’inévitable, selon l’analyste. Elle ajoute que ce ne serait pas le seul vecteur de croissance de l’entreprise. X aurait aussi « réussi à s’assurer une nouvelle base d’annonceurs, notamment des PME », alors que c’était une cible compliquée pour Twitter.

L’IA générative au renfort de la censure chinoise

28 mars 2025 à 15:02
Censure hyper moderne
L’IA générative au renfort de la censure chinoise

Une fuite de données montre qu’un système entraîné sur 133 000 exemples de messages étiquetés renforce le système de censure chinois, lui permettant d’aller bien au-delà d’une censure des principaux filtres mis en place au fil des années.

Le régime chinois censure depuis longtemps l’accès à Internet de toute personne se trouvant sur son territoire. Encore récemment, on apprenait que Facebook aurait créé un outil de censure pour pouvoir entrer dans ce marché, ou encore que des chercheurs chinois se servaient de Llama pour des usages militaires. Les modèles de langage peuvent aussi permettre au pays dirigé par Xi Jinping d’aller encore plus loin dans la surveillance des communications.

Un serveur non sécurisé

Sur Substack, une personne sous le pseudonyme de NetAskari expliquait en janvier avoir récupéré un jeu de données « fascinant » d’une taille d’environ 300 Go de fichiers JSON. Ceux-ci provenaient d’une base de données Elasticsearch stockée sur un serveur Baidu non sécurisé, précise TechCrunch qui a pu avoir accès aux fichiers. Le média américain ajoute que cela ne prouve pas l’implication de Baidu dans le projet, puisque la base peut provenir de n’importe quel client de l’entreprise.

« Chaque fichier comprend un prompt de classification ainsi qu’une chaîne de contenu correspondante, que j’appellerai la « cible de contenu ». L’entrée la plus récente de cette base de données est datée de décembre 2024 », ajoutait NetAskari.

Nos confrères expliquent que celle-ci « révèle que la Chine a mis au point un système d’intelligence artificielle qui renforce sa machine de censure déjà redoutable, allant bien au-delà des tabous traditionnels comme le massacre de la place Tian’anmen ».

133 000 exemples pour entrainer la censure

L’un de ces fichiers contient un prompt avec la définition d’un rôle du LLM lui donnant comme instruction : « en tant qu’analyste méticuleux des données d’opinion publique, tu dois analyser de manière exhaustive le contenu des articles et déterminer la catégorie à laquelle ils appartiennent. L’objectif final est de filtrer l’information pour le travail sur l’opinion publique, les informations importantes étant classées en trois catégories principales : « Dynamique sociale », « Dynamique politique » et « Dynamique militaire » ».

Ces catégories sont définies comme relatives à l’opinion publique et classées en priorités les plus hautes. D’autres catégories sont ensuite définies.

Il est accompagné par une collection de 133 000 exemples de contenus à trier. TechCrunch a publié un extrait de 10 que le média considère comme représentatif. On peut y voir un message déplorant la pauvreté rurale en Chine, un autre de la corruption systémique de la police, un autre soulignant la sévérité des restrictions militaires dans les mers de Chine orientale et méridionale, ou encore la volonté de la Chine d’intercepter les navires revendiquant la « liberté de navigation » dans le détroit de Taïwan.

« Les « contenus cibles » englobent un large éventail de sujets, y compris des titres d’actualité, des commentaires de type médias sociaux, des déclarations gouvernementales et des articles sur les voyages et les loisirs », précise NetAskari.

Peu d’informations ont été trouvées sur les origines de cette base de données. Mais le « travail sur l’opinion publique » fait référence à la propagande et à la censure et est supervisé par l’Administration du cyberespace de Chine, explique à TechCrunch le responsable du programme Asie de l’organisation de défense des droits Article 19, Michael Caster.

Pour la promotion de ses modèles, OpenAI se sert du style du réalisateur anti-IA Miyazaki

28 mars 2025 à 14:13
« Nous, les humains, perdons la foi en nous-mêmes »
Pour la promotion de ses modèles, OpenAI se sert du style du réalisateur anti-IA Miyazaki

Une vague d’images générées par IA au style très proches de celui de Hayao Miyazaki, ayant pourtant clairement exprimé son aversion pour l’intelligence artificielle dans la création artistique, a déferlé sur les réseaux sociaux ces derniers jours. En cause, la sortie du modèle 4o Image Generation d’OpenAI qui permet de créer facilement ce genre d’images. Le CEO de l’entreprise Sam Altman en joue sur les réseaux sociaux et s’enorgueillit d’avoir bien choisi les exemples initiaux pour présenter le modèle.

OpenAI a mis un coup de fouet à sa génération d’images en rendant GPT-4o multimodal. Celui-ci peut donc créer des images à la volée, comme beaucoup de ceux de ses concurrents, dont Grok qui est très utilisé pour ça, puisqu’il n’a aucun garde-fou.

Des mèmes et des scènes de films en anime

Pour lancer la promo et l’utilisation massive de son nouveau générateur, le CEO d’OpenAI, Sam Altman a, entre autres, twitté une image au style manga le représentant, posant avec deux de ses collègues comme des start-upeurs heureux de présenter leur nouveau projet :

Tweet de @sama :
this was a real labor of love from @gabeeegoooh
. congrats gabe; excellent work!

here is what we generated during the livestream:

Suivi d'une image générée par IA représentant dans un style manga 3 personnes reprenant les codes de manga et titrée « Feel the AGI ». La pause des trois reprend par contre les codes des startupers contents d'eux-mêmes se prenant en selfie.

On peut remarquer que la main de Gabriel Goh, au centre de l’image, est composée de quatre doigts seulement et celle de Sam Altman de six.

Depuis, de nombreuses personnes ont essayé la nouvelle fonctionnalité du modèle, devenu le générateur d’image par défaut dans ChatGPT pour les utilisateurs gratuits. Ils ont notamment essaimé les réseaux sociaux d’innombrables images dans le style du Studio Ghibli et de son co-créateur Hayao Miyazaki. Certains reproduisant des mèmes, d’autres des scènes iconiques de la culture populaire :

Storytelling bien ficelé

Surfant sur cette vague, le CEO d’OpenAI a repris la balle au bond. Il a rajouté une couche de storytelling en se peignant, dans un tweet, en ingénieur incompris qui, depuis une décennie, essaye « d’aider à créer une superintelligence pour guérir le cancer ou ce genre de chose » dont presque personne se soucie pendant des années puis qui est détesté par tout le monde « pour n’importe quoi », et qui se réveille un jour avec des centaines de messages lui montrant ce genre d’images utilisant le style du studio d’animation. L’homme d’affaires a même généré son propre avatar dans le style de Ghibli.

Miyazaki, connu pour son opposition à l’utilisation de l’IA dans l’animation

Si Sam Altman est autant fan du Studio Ghibli, il doit connaitre l’extrait du documentaire dans lequel Hayao Miyazaki exprime son opposition à l’utilisation d’une IA (non générative) pour faire de l’animation de modèles en 3D :

Le réalisateur s’exprimait sur les résultats d’une expérimentation particulière qui lui était montrée en la qualifiant d’ « insulte à la vie elle-même », mais il en concluait néanmoins de façon plus générale : « J’ai l’impression que nous approchons de la fin des temps. Nous, les humains, perdons la foi en nous-mêmes ». Le studio et le réalisateur n’ont, semble-t-il, pas encore réagi à cette vague de reproduction de leur style.

OpenAI assume ouvrir les vannes de la reproduction des styles de studio

À la réaction d’un utilisateur de X affirmant « honnêtement, openai est incroyablement chanceux que les vibrations positives de ghibli aient été la première utilisation virale de leur modèle et non une horrible absurdité deepfake », Sam Altman a laissé entendre que son entreprise maitrisait très bien la communication autour de cette vague de générations d’images reprenant le style du Studio Ghibli :

« Croyez-le ou non, nous réfléchissons beaucoup aux premiers exemples que nous montrons lorsque nous introduisons une nouvelle technologie ».

« Notre objectif est de donner aux utilisateurs autant de liberté créative que possible », a répondu OpenAI interrogé par 404 Media, ajoutant « Nous continuons à empêcher les générations dans le style des artistes vivants, mais nous autorisons des styles de studio plus larges que les gens ont utilisés pour générer et partager des créations originales de fans vraiment délicieuses et inspirées. Nous apprenons toujours de l’utilisation réelle et des commentaires, et nous continuerons à affiner nos politiques au fur et à mesure ». Et, en effet, les générations qui circulent ne mentionnent pas d’auteur mais bien le « style Ghibli ».

Rappelons qu’OpenAI n’en est pas à son premier coup concernant la reproduction de contenus de la culture populaire sans le consentement des artistes pour faire la promotion de son modèle GPT4-o : en mai 2024, l’entreprise avait utilisé une voix proche de celle de Scarlett Johansson qui avait interprété la voix de l’IA dans le film « Her ».

D’autres outils d’IA générative génèrent aussi des images d’œuvres protégées. En janvier 2024, Midjourney recrachait, entre autres, des images Pixar et parfois même sans qu’on le lui demande. L’artiste C215 expliquait que la copie, l’imitation, le plagiat, « c’est un débat vieux comme l’antiquité, dans le monde artistique ».

L’avocat Matthieu Quiniou affirmait : « si, en sortie, le résultat est reconnaissable, quand on fait « à la manière de » sans avoir demandé les droits à l’auteur, on produit de la contrefaçon ».

☕️ Pas Sage en Seine annule son édition 2025, l’avenir du festival est compromis

28 mars 2025 à 11:29

Pas Sage en Seine 2025 n’aura pas lieu. « Nous sommes contraint d’annuler le festival PSES 2025 », a signalé ce jeudi l’organisation de l’événement sur ses réseaux sociaux.

« Pour des raisons exceptionnelles, le festival PSES 2025 ne se tiendra pas. Et ne se tiendra très certainement plus », commente-t-elle plus en détails, en introduction d’un long billet (non signé) dédié à l’explication de cet arrêt.

« Depuis 2017, le festival, et certains de ses organisateurs, sont la cible de campagnes de diffamation et de calomnie, dans le cadre ou non du festival, allant jusqu’à du harcèlement et des menaces de morts », écrit l’organisation, avant d’évoquer un regain de harcèlement survenu en 2023, puis une campagne de doxing (divulgation d’informations personnelles) survenue en début d’année à l’encontre d’un de ses membres.

« Le festival avait déjà du mal à reprendre après deux ans d’arrêt dus au COVID. Les derniers événements risquent d’être le clou de son cercueil. »

Le 18 mars dernier, Pas Sage en Seine indiquait son intention d’organiser l’événement sur deux jours, contre trois prévus initialement, faute d’un volume suffisant de conférences.

Initié en 2009 dans le Sentier « pour discuter bricole et bidouille dans une ambiance hackerspace », avant de s’ouvrir plus largement au grand public et de prendre ses quartiers annuels dans l’Est de la région parisienne, à Choisy-le-Roi, PSES explorait, chaque année, les questions de société et démocratie numérique, avec la culture hacker, l’informatique et une vision libertaire comme fil rouge.

« Tu défends une cause, quelle qu’elle soit ? Humanitaire, immigration, toxico, travail du sexe, hôpital, éducation, prison… On a envie d’entendre un peu ce que les autres préfèrent souvent taire ! », résumait par exemple l’appel à contributions 2019.

Les vidéos de ses précédentes conférences sont consultables sur son instance Peertube.

❌