↩ Accueil

Vue normale

index.feed.received.today — 11 avril 2025Next

☕️ Linux Mint va prendre en charge les expressions régulières pour la recherche de fichiers

11 avril 2025 à 10:29

Après une version 22.1 en janvier, l’équipe de développement de Linux Mint prépare la suite, dont une version 7 pour LMDE, Linux Mint Debian Edition. Celle-ci supportera pleinement les installations de type OEM, permettant en fait une pré-installation du système. Au premier lancement, l’utilisateur est alors invité à configurer la machine, avec création de compte et ainsi de suite.

Linux Mint va également prendre en charge les expressions régulières pour la recherche de fichiers dans Nemo. Comme on peut le voir dans ce commit sur le dépôt GitHub du projet, l’équipe prévoit d’ajouter un interrupteur pour les utiliser dans le champ de recherche.

Les expressions régulières peuvent être comparées à des formules, permettant d’afficher dans le cas présent tous les fichiers dont les noms correspondent à des critères. La fiche Wikipédia permet de comprendre le fonctionnement. Nemo sera également capable d’indiquer quand les expressions ne sont pas valides.

Le support de Wayland dans Cinnamon va en outre être amélioré. Clément Lefebvre, développeur principal de la distribution, « espère » que la prochaine version de Linux Mint supportera ainsi les dispositions de claviers et les méthodes d’entrées. Cette prise en charge est actuellement fonctionnelle, mais n’est pas considérée comme prête. Elle engendre notamment des incompatibilités avec certains toolkits et les langues asiatiques.

Enfin, sous le capot, Lefebvre indique que Cinnamon JavaScript (CJS), l’interpréteur JavaScript utilisé dans l’environnement, aligne désormais ses versions avec celles du moteur SpiderMonkey de Mozilla, qu’il utilise. Le changement devrait permettre des mises à jour plus fréquentes, une intégration plus rapide des améliorations dans le moteur JavaScript et le support des versions multiples sans devoir attendre les nouvelles moutures de la distribution.

La prochaine mouture, justement, sera la 22.2. Elle devrait être disponible cet été, probablement en juillet. Comme nous l’indiquions il y a un mois, on y trouvera un menu principal redessiné, avec des noms affichés intégralement dans la zone latérale, la présence du nom d’utilisateur et de l’avatar, ou encore la présence des dossiers courants.

☕️ Un plan de départs volontaires de 2 800 salariés chez STMicroelectronics

11 avril 2025 à 10:07

L’entreprise de semi-conducteurs européenne a annoncé ce jeudi 10 avril un « plan de transformation » prévoyant 2 800 départs volontaires sur trois ans à l’échelle mondiale, explique le journal Les Echos.

L’entreprise prévoit de recentrer ses investissements sur des plaques de silicium de plus grande taille (300 mm) afin d’améliorer l’efficacité des chaînes de production, notamment à Crolles (Isère) et Agrate (Lombardie), note le quotidien économique.

Le PDG Jean-Marc Chéry se justifie dans un communiqué : « en nous concentrant sur des infrastructures de fabrication de pointe et sur les technologies mainstream, nous continuerons à tirer parti de tous nos sites existants, avec des missions redéfinies pour certains d’entre eux afin de soutenir leurs succès à long terme ».

Interrogé par le journal, le représentant syndical CFDT Yan Meroth alerte : « Avec l’attrition naturelle, on arrive à un chiffre de 5.000 à 10.000 départs en trois ans. De tels niveaux posent la question de la continuité de l’activité dans les prochaines années ».

L’entreprise détaille son plan : « au cours des trois prochaines années, la réorganisation de l’empreinte industrielle de ST permettra de concevoir et de renforcer les écosystèmes complémentaires de ST : en France autour des technologies numériques, en Italie autour des technologies analogiques et de puissance et à Singapour autour des technologies matures ».

La direction affirme notamment que « l’usine de Crolles (France) de 300 mm sera consolidée en tant que cœur de l’écosystème des produits numériques de ST ». Celle de 200 mm du même site doit être convertie « pour prendre en charge la fabrication de gros volumes et les technologies d’advance packaging, en hébergeant des activités qui n’existent pas aujourd’hui en Europe ».

Quel est le niveau d’exposition aux ondes à votre adresse ? L’ANFR propose un simulateur

11 avril 2025 à 08:42
Pas de carton rouge pour simulation, seulement des jaunes
Quel est le niveau d’exposition aux ondes à votre adresse ? L’ANFR propose un simulateur

Vous avez envie de connaitre le niveau d’exposition aux ondes de votre domicile, de votre lieu de travail ou de n’importe quelle adresse en France ? L’Agence nationale des fréquences propose des niveaux simulés sur Cartoradio.

L’Agence nationale des fréquences (ANFR) permet depuis des années à tout un chacun de faire mesurer par des experts le niveau d’exposition aux ondes. C’est un dispositif gratuit, que nous avons déjà longuement détaillé. Les mesures sont ensuite publiées sur le site cartoradio permettant à tout le monde de les consulter.

L‘Agence apporte une attention particulière aux points atypiques qui, sans dépasser le seuil réglementaire – entre 28 et 87 V/m suivant les fréquences et même 36 à 61 V/m pour la seule téléphonie mobile –, sont largement au-dessus des autres mesures. Pour l’ANFR, un point atypique dépasse 6 V/m. En 2023, il y en avait 92 en France, dont 70 concernaient des nouveaux lieux.

Les niveaux simulés partout en France

L’ANFR propose désormais « des cartes de niveaux simulés de l’exposition aux champs électromagnétiques », là encore via sa plateforme Cartoradio.fr, mais aussi sur son application mobile OpenBarres (AndroidiOS). « Ces cartes à vocation pédagogique permettent de visualiser l’exposition créée à l’extérieur des bâtiments par les stations de téléphonie mobile sur le territoire métropolitain ». Comme toujours en pareille situation, les calculs sont théoriques et seules les mesures sur le terrain permettent d’avoir un niveau réel.

En voici un exemple au niveau de La Rochelle :

130 milliards de points calculés par mois

L’Agence prévoit d’actualiser sa carte tous les mois afin de tenir compte de l’évolution des réseaux et des déploiements des opérateurs de téléphonie mobile. Ce sont ainsi plus de « 130 milliards de points » qui sont calculés à chaque fois.

« Ces cartes sont issues de calculs modélisant la propagation des ondes dans un environnement en trois dimensions intégrant les données des bases cartographiques de l’IGN (sol et bâtiments) ainsi que des caractéristiques des stations de téléphonie mobile situées en extérieur et autorisées par l’ANFR. Les couleurs permettent d’estimer le niveau de champ électrique calculé à 1,5 m au-dessus du sol, exprimé en Volt par mètre (V/m) », explique l’Agence.

Uniquement les antennes et les niveaux en extérieur

Dans la foire aux questions, on apprend que les mesures ne concernent que les extérieurs et qu’à ce titre « les stations implantées en intérieur (couloirs ou quais des métros, gares, centres commerciaux, parkings, centres de conférences, etc.) » ne sont pas prises en compte pour les simulations. Ces stations peuvent néanmoins figurer dans Cartoradio au niveau de la liste des sites radioélectriques.

Pas moins de 11 couleurs différentes permettent de voir l’estimation du niveau d’exposition. On débute avec du violet foncé pour les points entre 0 et 0,4 V/m (médiane nationale des mesures effectuées jusqu’en 2023). Les couleurs intermédiaires tirent vers le vert à mesure que le niveau augmente pour arriver sur du jaune à partir de 12 V/m et du orange au-dessus de 24 V/m (mais toujours en dessous de la limite légale). Les zones en jaune et en orange sont, sans surprise, généralement situées à proximité des antennes.

Les simulations != du monde réel

Les simulations ne permettent pas non plus de définir des points atypiques, puisque seule des mesures sur place permettent une telle qualification. Néanmoins, « lorsqu’un niveau élevé apparaît dans les simulations, l’ANFR réalise une mesure de terrain pour disposer de la valeur réelle d’exposition ».

Sur Cartoradio, les mesures en conditions réelles sont indiquées par des ronds violets avec un chiffre dedans (indiquant le nombre de mesures). Cliquez dessus pour accéder au(x) rapport(s) et voir le niveau global d’exposition relevé par des mesures sur site. Vous pouvez évidemment afficher les mesures d’expositions aux ondes et les simulations sur une même carte afin de comparer les résultats. C’est le cas dans notre exemple ci-dessous :

Cette simulation est l’occasion pour l’Agence de rappeler un point important : « Il existe toujours autour de chaque antenne un périmètre de quelques mètres où les niveaux d’exposition dépassent les valeurs limites ».

On parle d’un « périmètre de sécurité » qui est généralement délimité « par une chaîne qui matérialise une zone interdite ». Pour les antennes sur les pylônes, la zone de sécurité est par nature inaccessible. « Ces périmètres de sécurité, qui ne sont pas des lieux accessibles au public, ne figurent pas sur ces cartes de simulation ».

Enfin, l’Agence nationale des fréquences invite toute personne souhaitant signaler une « anomalie » au sens large (antenne qui n’apparait pas sur la carte, mal positionnée…) à se manifester via ce formulaire.

☕️ La solution de Free pour le problème de Wi-Fi avec un HDD USB 3 : passer en USB 2.0

11 avril 2025 à 08:20

Cela fait maintenant plus d’un an que des utilisateurs de Freebox Ultra font état de problèmes avec le Wi-Fi lorsqu’un disque dur externe (ou une clé) est branché sur leur Freebox. Plus précisément, c’est la bande des 2,4 GHz qui est fortement perturbée, comme l’expliquait Numerama en février 2024.

Hier, Free a mis en ligne une mise à jour 4.9.2 du boitier Server de ses Freebox Révolution, Pop, Delta et Ultra. Il suffit comme toujours de redémarrer sa box pour l’installer. Il y a quatre corrections de bugs, dont celui affectant la découverte de la Freebox dans le réseau local de Windows.

Freebox Ultra démontée
Freebox Ultra démontée

Mais il y a surtout une nouveauté pour les personnes concernées par le bug que nous venons d’évoquer : « la possibilité de désactiver l’USB3 sur certaines Freebox via Freeboxos ». Le problème serait ainsi corrigé, explique Free : « l’USB3 fonctionne à une fréquence qui se trouve dans la plage d’opération du Wi-Fi 2.4 GHz. C’est pourquoi certains appareils en USB3 peuvent perturber ou complètement empêcher l’utilisation de celui-ci ».

Le fournisseur d’accès ajoute que « les périphériques USB (comme les disques durs) continueront de fonctionner mais en USB2 ». Un petit lot de consolation, car la bande passante théorique en USB2 est de 480 Mb/s, soit 60 Mo/s, mais en pratique on est toujours largement en dessous.

index.feed.received.yesterday — 10 avril 2025Next

☕️ Windows 11 : vers un menu Démarrer enfin pratique ?

10 avril 2025 à 17:13

Dans notre dossier sur l’histoire de Windows 11, nous rappelions l’une des principales critiques adressées au système : sa rigidité. C’est particulièrement vrai avec le menu Démarrer et la barre des tâches. Or, Microsoft expérimente un nouveau menu, qui devrait répondre à une partie des critiques, même si on approche des quatre ans d’existence pour le système (oui, déjà).

Le nouveau menu a été repéré par phantomofearth, qui a publié sur Bluesky une vidéo de démonstration. On y voit un menu Démarrer plus grand et organisé différemment, la seconde moitié étant occupée par des dossiers d’applications.

Surtout, ce nouveau menu semble nettement plus personnalisable, avec une volonté de tout afficher dans un seul espace. Toutes les recommandations peuvent enfin être désactivées, aussi bien les documents fréquemment utilisés que les applications nouvellement installées ou semblant pertinentes sur l’instant.

Par défaut, ce nouveau menu n’affiche que deux lignes d’éléments épinglés, même si elles sont plus grandes, avec un bouton pour afficher le reste. Dans les options, on peut toutefois choisir de toujours afficher la liste complète.

Dans les options, on trouve aussi quelques nouveautés pour la barre des tâches. On ne peut toujours pas la placer sur les autres bords de l’écran, mais un réglage permet de forcer l’affichage de toutes les applications en bas à droite. Actuellement, au-delà d’un certain nombre, elles sont rassemblées dans un tiroir qu’il faut systématiquement ouvrir.

Pour les personnes testant actuellement la dernière préversion du canal Beta ou Dev, on peut activer ce nouveau menu en se servant de VivoTool, dont nous avions parlé. La référence de la fonction est 49402389, mais il faut que 4922133 et 47205210 soient également activées, si ce n’est pas déjà fait. Selon l’auteur, 48433719 peut être nécessaire si l’ensemble ne fonctionne pas.

IA chez Google : des annonces, des annonces, mais quelle stratégie ?

10 avril 2025 à 16:43
M. Anderson, surpris de me voir ?
IA chez Google : des annonces, des annonces, mais quelle stratégie ?

Google a ouvert hier soir sa conférence Next Cloud 25. L’entreprise avait pris le train de l’IA avec un peu de retard, mais semble aujourd’hui à nouveau sur les rails. Elle dispose désormais d’une offre complète et structurée et compte faire savoir qu’elle est prête pour « l’ère de l’inférence », avec un accent mis sur les agents.

Pour l’édition 2025 de la conférence Cloud Next, l’entreprise avait de quoi être plus sereine que l’année dernière. La situation de Google a été assez complexe jusqu’à présent, donnant l’impression que la firme courait systématiquement après Microsoft. En un an pourtant, la donne a quelque peu changé et Google peut se targuer d’avoir rejoint les hautes sphères avec les performances de son Gemini 2.5 Pro. Ce dernier est d’ailleurs disponible depuis peu pour Deep Research chez les personnes abonnées à Gemini Advanced.

La conférence est cependant là pour montrer aux entreprises et développeurs indépendants que Google est un acteur plus que crédible dans le domaine de l’IA, et plus particulièrement dans celui des agents. Ces derniers, fonctionnant comme des modules autonomes et indépendants capables de réaliser des missions, sont désormais au cœur de la stratégie du géant de la recherche, qui se rêve champion de l’IA.

Agents : la grande offensive

Une partie des annonces à la Google Cloud Next 25 était liée au matériel, avec notamment l’annonce de son nouveau TPU Ironwood. Nous avons détaillé hier soir les progrès réalisés par Google, même si la firme s’est servie de gros chiffres qui, sans précision, ne veulent pas dire grand-chose pour l’instant.

En revanche, autour des agents, les annonces sont nombreuses, particulièrement les systèmes multi-agents, qui semblent être désormais au cœur de la stratégie de Google. On commence par une série d’améliorations pour Agentspace, service lancé l’année dernière pour simplifier la création d’agents par les utilisateurs finaux. Par exemple, l’intégration avec Chrome Enterprise, permettant l’utilisation d’Agentspace depuis la barre de recherche.

Surtout, Google lance plusieurs services pour fluidifier encore un peu la création d’agents. Agent Gallery permet ainsi de parcourir et adopter les modules disponibles. La galerie fonctionne comme une place de marché, les agents pouvant être construits par Google, des sociétés partenaires ou même d’autres employés. Agent Designer est de son côté une interface no-code pour créer des agents, à partir de modèles et avec possibilité de connecter le tout aux données de l’entreprise.

On continue avec AI Agent Marketplace, qui est cette fois une vraie place de marché. Contrairement à la Gallery, les sociétés tierces pourront proposer leurs propres agents et éventuellement les facturer. Enfin, un agent Deep Research est disponible en version finale, avec les mêmes missions d’exploration des sujets et de synthèse de rapports, tandis qu’un agent Idea Generation, se destine au développement et à l’évaluation des idées.

Tout ce qui touche à Gemini et à Agentspace sera bientôt disponible sur Google Distributed Cloud.

Et du côté développeurs ?

Si Agentspace vise les utilisateurs finaux, Google avait aussi des annonces pour les développeurs, en particulier Vertex AI Agent Builder. Le nom ne représente pas tout à fait ce que fait le service. S’il s’agit bien de construire des agents, c’est aussi une plateforme d’orchestration pour les systèmes multi-agents. Google glisse au passage que la plateforme Vertex AI a vu son utilisation multipliée par 20 au cours de l’année écoulée.

Agent Builder table sur l’existant et vient se présenter comme une pièce manquante du puzzle. Il met l’accent sur les frameworks open source et peut bien sûr se connecter aux données de l’entreprise, y compris avec des sources comme BigQuery et AlloyDB. Les agents peuvent être construits sur du stockage NetApp existant, sans duplication de données et Google fournit une centaine de connecteurs pour des applications d’entreprise. Agent Builder intègre également Agent Garden, une réserve de modèles, exemples, outils et autres composants prêts à l’emploi. Sont aussi présentes des capacités de débogage, de traçage et d’optimisation.

Google a présenté dans la foulée son propre framework open source, l’Agent Development Kit (licence Apache 2.0). Il n’est pour l’instant prévu que pour Python, mais d’autres langages seront supportés plus tard. Google affirme que l’ADK permet de créer un agent en moins de 100 lignes de code, mais encore faut-il savoir de quel type d’agent on parle. L’ADK joue lui aussi la carte de l’ouverture avec la possibilité de se connecter à Google Search, des moteurs RAG, tous les outils Google Cloud, tous les outils conformes MCP (Model Context Protocol) ou encore à des outils tiers comme LangChain, CrewAI et GenAI Toolbox for Databases. Lui aussi intègre l’Agent Garden.

Un runtime dédié et un protocole pour l’interopérabilité

Si vous en avez assez des agents, ce n’est pas fini. Google a en effet un runtime dédié pour les agents en production. Nommé simplement Agent Engine, un moteur entièrement géré intégrant la galaxie Vertex AI. Il doit servir à déployer, gérer et mettre à l’échelle les agents construits avec l’ADK ou d’autres frameworks comme LangGraph et Crew AI. Il intègre également des outils pour l’évaluation des performances, la surveillance et le traçage des comportements.

Mais c’est surtout le nouveau protocole Agent2Agent (A2A) qui résume le mieux la stratégie de Google. Ce protocole ouvert (lui aussi sous licence Apache 2.0) a été développé avec une cinquantaine de partenaires, dont Atlassian, Box, Cohere, Intuit, Langchain, MongoDB, PayPal, Salesforce, SAP, ServiceNow, UKG, Workday, ou encore des cabinets de conseil comme McKinsey.

A2A permet aux agents d’exposer leurs capacités, de négocier les modalités de collaboration avant d’interagir puis d’établir une communication sécurisée après accord. Google le présente comme le complément naturel du protocole MCP, qui lui a été pensé pour la connexion des modèles aux outils et données (OpenAI le comparait récemment à un hub USB pour l’IA). On pourrait également comparer A2A à Matter. Sans surprise, Agentspace et tous les autres produits annoncés prennent en charge A2A.

Une série d’agents prêts à l’emploi

Si Google a largement orienté sa conférence sur la facilité à créer des agents, la firme avait les siens propres à mettre en avant, notamment deux dédiés à la sécurité. Alert Triage est ainsi chargé d’enquêter sur les alertes, d’analyser le contexte et de fournir une conclusion. Malware Analysis fait ce que son nom annonce : analyser le code potentiellement malveillant. Il peut lancer des scripts de désobfuscation et présente un rapport. Tous deux font partie de la plateforme Google Unified Security.

On trouve également tout une série d’agents pour les données. Google en propose ainsi pour la création de catalogues, la génération de métadonnées et de pipelines, le maintien de la qualité, pour servir de partenaire de codage dans les notebooks ou encore l’analyse conversationnelle dans Looker.

Côté développement, Gemini Code Assist dispose désormais d’agents pouvant décomposer les requêtes faites en langage naturel en solutions à étapes et fichiers multiples. Une interface de type Kanban permet d’interagir avec les agents et de surveiller leur travail. Des intégrations sont en outre possible avec Atlassian, Sentry et Sneak.

Google propose aussi des agents pour l’engagement client, notamment la Customer Engagement Suite. On y retrouve des outils pour créer des agents virtuels, donc en interface directe avec la clientèle. Les points mis en avant sont très semblables à ceux récemment abordés par Amazon Web Services pour son modèle Nova Sonic : voix plus humaines, support de la vidéo en streaming, compréhension des émotions pour adapter la conversation, etc.

Gemini 2.5 Flash entre en piste

Alors que Gemini 2.5 Pro Experimental vient d’arriver dans Deep Search avec, selon Google, des gains très significatifs sur les résultats d’analyse, l’éditeur lance la version Flash de son modèle. On reste sur un modèle de « raisonnement », mais il propose une solution plus efficace – donc moins onéreuse – au détriment de la précision.

Google met en avant un calcul « dynamique et contrôlable », avec la possibilité pour les développeurs d’ajuster le temps de traitement en fonction de la complexité des requêtes. La société affirme que le nouveau modèle est idéal pour les applications à haut volume et fonctionnant en temps réel, notamment le service client et l’analyse de documents.

On a en outre appris que les modèles Gemini seront bientôt proposés sur la solution sur site Google Distributed Cloud. La firme indique à ce sujet que les clients ayant des exigences strictes en matière de sécurité pourront profiter des derniers apports de ses modèles.

Des doutes planent toujours sur la stratégie de Google

Les annonces présentent un visage stratégique cohérent, avec de nombreux produits conçus pour fonctionner ensemble, à l’instar de ce que Microsoft sur Azure ou Amazon Web Services. Pour autant, on peut émettre les mêmes doutes.

Google a ainsi beau fournir une multitude d’outils et services pour avancer sa vision d’un monde fonctionnant avec de multiples agents, les entreprises doivent avancer avec précaution. Le déploiement, la gestion, la surveillance et surtout l’optimisation d’un tel système demandent une planification soignée. C’est un défi opérationnel majeur, dans le sens où l’on ne peut pas transiter d’une traite vers un tel écosystème sans en mesurer les risques, notamment parce que le TCO (coût total de possession) peut être difficile à évaluer.

Outre les questions classiques de bénéfice attendu et d’enfermement dans un seul écosystème, la facilitation mise en avant par Google pose aussi question. Particulièrement Agentspace, que la firme imagine entre toutes les mains. Or, si créer des agents devient très simple, les risques liés sont toujours là, surtout s’ils sont connectés aux données de l’entreprise. Il est possible de faire fuiter par mégarde des informations, surtout avec l’arrivée d’A2A. Une entreprise pourrait se retrouver avec tout un lot d’agents plus ou moins bien pensés, qui nécessiteront tous du temps de calcul, avec les frais que cela suppose.

Il est difficile pour l’instant de savoir si la vision de Google correspond à une vraie demande, tant l’éditeur semble vouloir induire une envie de changement. Encore faut-il que les avantages soient clairs et que les clients s’y retrouvent. Au-delà de l’enthousiasme affiché par Google et des travaux et coûts engendrés, la question du retour sur investissement reste centrale. Elle s’accompagne d’ailleurs d’autres interrogations sur la fiabilité de l’ensemble, la sécurité des données, voire l’impact social d’un tel chantier.

☕️ #LIDD CSS Clicker, le jeu incrémental qui n’aimait pas JavaScript

10 avril 2025 à 15:49

Avec un site mis en ligne un 1er avril, on aurait pu croire à une blague. Mais non, CSS Clicker est parfaitement fonctionnel, et se propose de vous faire perdre votre temps, oui, mais sans recourir à JavaScript !

Le principe ? CSS Clicker est ce que l’on appelle un jeu incrémental : un compteur tourne et l’on peut contribuer à accélérer sa rotation en cliquant, cliquant, cliquant. Le fait d’atteindre des paliers débloque des options qui, ici, permettent de construire pas à pas un véritable site Web.

Glisser déposer, lecteur audio, édition en direct, menus d’options… tout est écrit en HTML et CSS !

Design, navigation, livre d’or, intertitres, logos vintage, tous les éléments sont réunis pour créer un ensemble de pages relativement abouti, avec même quelques widgets venus d’un autre temps, comme un lecteur Winamp intégré (et fonctionnel).

Le concept, popularisé par des jeux tels que Cookie Clicker, ou la célèbre usine à trombone, se double ici d’un tour de force technique : comme son nom l’indique, CSS Clicker ne s’appuie que sur des feuilles de style (CSS) pour toutes ses interactions, or celles-ci sont nombreuses !

« C’est un jeu purement CSS, ce qui signifie qu’il n’exécute ni JavaScript ni code côté serveur », précise Rebane2001, qui signe le jeu. « Je voulais créer quelque chose en CSS qui ressemble à un jeu complet, voilà le résultat. De plus, je déteste quand les gens insistent sur le fait que HTML/CSS ne sont pas des langages de programmation, car c’est souvent fait pour dévaloriser certains groupes de personnes », détaille la FAQ.

Le projet est hébergé sur Github. Et le jeu est à découvrir via ce lien.

Dans la série Les lecteurs de Next ont du talent… crédit @Fdorin

L’UE a un plan pour devenir « le continent de l’IA »

10 avril 2025 à 14:45
Reste à ce qu'il se déroule sans accroc
L’UE a un plan pour devenir « le continent de l’IA »

La Commission européenne a présenté ce mercredi 9 avril son « plan d’action pour le continent de l’IA » qui a pour objectif de pousser l’Europe à devenir un leader mondial de l’intelligence artificielle. Cinq axes sont mis en avant : plus d’infrastructures sur le continent, l’accès à des données massives et de haute qualité, un encouragement à l’adoption de l’IA partout, des formations encore plus tournées vers le sujet et une simplification de la régulation.

La Commission européenne a adopté la vision des industriels du secteur : l’Europe doit combler l’écart qui s’est creusé entre les leaders de l’IA, les États-Unis et la Chine d’un côté et le Vieux continent de l’autre.

La Commissaire à la souveraineté technologique, Henna Virkkunen, a présenté son « AI Continent Action Plan », ce mercredi 9 avril. Le texte [PDF] affirme que « la course mondiale au leadership dans le domaine de l’IA est loin d’être terminée » et affiche l’espoir de faire de l’Union Européenne « un continent leader en matière d’IA ».

Pour cela, la Commission veut accélérer et intensifier ses efforts dans cinq domaines clés : les infrastructures sur le sol européen pouvant proposer une puissance de calcul massive, la gestion de données de qualité à l’échelle européenne, l’adoption de la technologie partout, la formation à l’IA et la simplification de la législation.

Des projets d’usines d’IA et de gigafactories sur tout le continent

Concernant les infrastructures, la Commission affirme vouloir renforcer sur son sol le réseau de ce qu’elle appelle des « usines d’IA » (AI factories, en anglais), qu’elle définit comme des « écosystèmes dynamiques qui favorisent l’innovation, la collaboration et le développement dans le domaine de l’IA » qui « intègrent des superordinateurs optimisés pour l’IA, de grandes ressources de données, des installations de programmation et de formation, ainsi que du capital humain pour créer des modèles et des applications d’IA de pointe ».

13 projets d’ « usines d’IA » ont été sélectionnés pour être financés. Par exemple, l’un d’eux est basé en France, l’AI2F. Celui-ci rassemble un consortium géré par le GENCI, en collaboration avec l’AMIAD, le CEA, le Cines, le CNRS, France Universités, Inria, la French Tech, Station F, et HubFranceIA. Il est censé s’appuyer sur le supercalculateur Alice Recoque qui doit mobiliser à lui seul un budget de 542 millions d’euros sur cinq ans et doit être pourvu d’au moins 15 000 GPU. Mais, annoncé en 2023 pour une ouverture fin 2025, celui-ci, n’ouvrira pas avant fin 2026, selon les informations de Capital.

Pour la Commission, ces 13 projets ont vocation à jouer un rôle central dans l’avancement des applications de l’IA dans de nombreux secteurs stratégiques :

Rappelons que la communauté scientifique n’est pas unanime sur le rôle prépondérant de l’IA dans les découvertes scientifiques futures. Certains argumentent même qu’elle pourrait faire « plus de mal que de bien ».

Au-delà de ce réseau d’ « usines d’IA », la Commission veut mettre en place ce qu’elle appelle des « gigafactories », des infrastructures à visées plurielles de l’ordre de 100 000 GPU. En février dernier, elle dévoilait déjà sa volonté de former un investissement public-privé susceptible d’atteindre 200 milliards d’euros nommé InvestAI (dont 20 milliards d’euros venant d’un nouveau fonds européen). Cinq « gigafactories » devraient en profiter, précise maintenant la Commission.

Des textes pour mettre en place un écosystème favorable

Du côté textes légaux pour favoriser l’implantation d’infrastructures, la Commission prévoit l’adoption de « la loi sur le développement du cloud et de l’IA » fin 2025 ou début 2026. Elle doit « créer les conditions adéquates pour que l’UE encourage les grands investissements dans le cloud et les capacités de périphérie ».

Une « feuille de route stratégique pour la numérisation et l’IA dans le secteur de l’énergie » doit être présentée en 2026. Elle devra « proposer des mesures visant à faciliter l’intégration durable des centres de données dans le système énergétique et à traiter d’autres questions liées à l’énergie résultant du déploiement à grande échelle des centres de données dans l’UE, telles que l’optimisation du réseau électrique, l’efficacité énergétique dans les bâtiments et l’industrie et la flexibilité du côté de la demande ».

La Commission veut aussi aider à l’amélioration des données que pourront utiliser les entreprises européennes du secteur. Elle veut « améliorer l’interopérabilité et la disponibilité des données dans tous les secteurs, afin de répondre à la pénurie de données solides et de haute qualité pour l’entraînement et la validation des modèles d’IA » et prévoit de mettre en place une stratégie de l’Union pour les données fin 2025 après avoir consulté les entreprises sur leurs besoins.

Un simple centre d’assistance pour aider à se conformer à l’AI Act

Celles-ci, via leurs différents lobbys, attendaient de ce plan la simplification de la législation mise en place au sein de l’Union européenne et notamment celle de l’AI Act. La Commission propose comme « première étape », la création d’un « centre d’assistance » (AI Act Service Desk) au sein du bureau de l’IA de l’UE, « pour aider les entreprises à se conformer à l’AI Act. Il servira de point de contact central et de plaque tournante pour les informations et les conseils relatifs » à cette loi.

Selon Contexte, les lobbys du secteur jugent que le plan alloue une maigre place à la simplification. « Le niveau d’ambition doit être plus élevé » car « l’incertitude juridique continue de peser lourdement sur les développeurs et déployeurs d’IA », affirme par exemple Boniface de Champris du lobby de la tech américaine CCIA à nos confrères.

« La course mondiale à l’IA est loin d’être terminée, Il est temps d’agir », lance de son côté Henna Virkkunen. « Le présent plan d’action décrit les domaines clés dans lesquels les efforts doivent être intensifiés pour faire de l’Europe un continent de pointe en matière d’intelligence artificielle. Nous travaillons à un avenir où l’innovation technologique fait progresser l’industrie et les services publics, apportant des avantages concrets à nos citoyens et à nos entreprises grâce à une IA digne de confiance », ajoute la Commissaire à la souveraineté technologique.

Livebox S et 7 v2 d’Orange : Wi-Fi 7, hausse des débits et… frais de mise en service

10 avril 2025 à 14:05
49 euros de frais de mise en service en « cadeau »
Livebox S et 7 v2 d’Orange : Wi-Fi 7, hausse des débits et… frais de mise en service

Orange lance deux nouvelles box : les Livebox 7 v2 et Livebox S. Elles proposent du Wi-Fi 7 (mais sur deux bandes seulement), avec une empreinte écologique revue à la baisse. Orange en profite évidemment pour revoir ses forfaits. Nous sommes par contre toujours sans nouvelle du nouveau système d’exploitation prplOS.

Après Free le mardi, c’est au tour d’Orange d’annoncer ses nouveautés ce jeudi. Chacun reste donc fidèle à ses habitudes. C’était un secret de polichinelle : Orange passe (enfin) aussi au Wi-Fi 7, avec deux box : la Livebox 7 « v2 » et une nouvelle Livebox S.

Deux box certifiées Wi-Fi 7, mais sans la bande des 6 GHz

Elles sont toutes les deux certifiées par la Wi-Fi Alliance (ici et ), contrairement aux Freebox, attaquées par Bouygues Telecom en justice. Ne reste donc que SFR à ne pas encore avoir sauté le pas du Wi-Fi 7, du moins en France, car Altice propose déjà des Box en Wi-Fi 7 ailleurs en Europe.

Point commun des deux nouvelles box d’Orange : elles ne prennent en charge que les bandes 2,4 et 5 GHz, laissant de côté celle des 6 GHz (du Wi-Fi 6E). Dommage, car celle-ci est généralement bien moins utilisée et permet donc d’éviter les encombrements sur les ondes. Ils sont surtout présents dans les zones très denses. Dans les immeubles parisiens vous captez certainement des dizaines de Wi-Fi (la bande 6 GHz est alors bien utile), tandis qu’à la campagne, vous êtes parfois seul au monde.

Livebox 7 : 10 GbE et Wi-Fi intelligent

Hormis le passage au Wi-Fi 7, la nouvelle Livebox 7 ne semble pas avoir eu droit à d’autres changements importants. On retrouve toujours un port 10 Gb/s Ethernet et quatre ports à 1 Gb/s, avec de l’USB 3.x et deux prises RJ11.

Orange met en avant un Wi-Fi intelligent sur la Livebox 7, « qui désactive automatiquement le 5 GHz quand il n’est pas indispensable pour réduire la consommation électrique jusqu’à 30 % ». Elle n’intègre pas de ventilateur, sa coque est en plastique recyclé et son écran basse consommation. Cette box permet toujours des débits symétriques de 8 Gb/s.

Livebox S : 2 Gb/s et recyclage des blocs d’alimentation

La Livebox S est une version d’entrée de gamme, avec du Wi-Fi 7 donc. Elle vient franchement jouer sur les platebandes de la Freebox Pop (également en Wi-Fi 7 depuis plus d’un an). Les débits sont de 2 Gb/s en téléchargement et 800 Mb/s en upload.

Quatre ports Ethernet à 1 Gb/s sont présents, exit donc le multi-GIG. Le 2 Gb/s doit se lire sous la forme de 2x 1 Gb/s. Orange met aussi en avant une écoconception, avec notamment une « réutilisation des blocs d’alimentation » des Livebox 5.

Écoconception améliorée, prplOS aux abonnés absents

Orange met en avant son écoconception : « Ces nombreuses initiatives permettent à Orange de réduire l’empreinte carbone des deux nouvelles Livebox sur l’ensemble de leur cycle de vie de 8% pour la nouvelle Livebox 7 par rapport à l’ancien modèle [et de] 14% pour la Livebox S par rapport à la Livebox 5 ».

Orange ne dit par contre un mot sur son nouveau système d’exploitation prpl (purple) présenté lors des OpenTech 2024 : « présent au cœur des derniers modèles de Livebox. Celui-ci favorise l’installation des services au sein du réseau local des particuliers et rend les box internet beaucoup plus évolutives, stables et sécurisées ». prplOS est présenté comme « un système d’exploitation open source léger et sécurisé pour les passerelles résidentielles (ou box internet) ».

Toujours cinq forfaits Livebox, de 1 à 8 Gb/s

Du côté des forfaits, Orange propose toujours cinq offres : la Série Spéciale Just Livebox Fibre en Livebox 5 (comme La Boîte Sosh), les Série Spéciale Livebox Fibre et Livebox Fibre en Livebox S, enfin les Livebox Up Fibre et Livebox Max Fibre avec une Livebox 7 v2.

Qui dit nouvelle Livebox, dit changement sur les forfaits. Il serait plus juste de parler d’ajustement d’ailleurs. Juste Livebox prend du galon avec 1 Gb/s en téléchargement et 700 Mb/s en upload, le plaçant au niveau de l‘offre Spéciale Fibre.

Sur le reste de la gamme aussi, il y a des hausses de débits : Livebox Fibre passe à 2 Gb/s et 800 Mb/s, Livebox Up à 8 Gb/s symétrique tandis que Livebox Max reste à 8 Gb/s symétrique, soit le maximum proposé par l’opérateur.

Voici un résumé des anciennes offres (à gauche) et des nouvelles (à droite) :

Statu-quo sur les tarifs… hors promotions et hors « frais »

Au niveau des tarifs par contre, c’est plus compliqué. Les prix hors promotions restent exactement les mêmes. Orange affirme d’ailleurs qu’avec sa « Nouvelle Livebox 7, les offres triple play Livebox Up Fibre et Livebox Max Fibre s’enrichissent, sans aucune augmentation du prix mensuel ». Pas si vite.

Tout d’abord, une nouveauté sur les frais fixes avec l’apparition de « frais de mise en service : 49 euros », alors qu’il n’y en avait pas auparavant.

L’engagement est toujours d’un an sur toutes les offres Livebox. Ensuite, l’opérateur supprime les deux mois offerts sur l’ensemble de sa gamme.

Pour « compenser », les réductions sont plus agressives et sur 12 mois au lieu de 6 mois auparavant… exception faite de la série Spéciale Just Livebox Fibre (toujours en Livebox 5 et Wi-Fi 5). Elle garde son prix de 33,99 euros par mois avec une promotion de 19,99 euros par mois pendant un an au lieu de 28,99 euros par mois pendant six mois.

Voici un résumé des tarifs et des principales options :

5 nouvelles chaines, Paramount+ prend la place de HBO Max

Orange annonce enfin que « le Décodeur TV 6, lancé en 2024, est désormais disponible sur l’offre Livebox Up Fibre en plus de l’offre Livebox Max Fibre ». Enfin, toujours sur la partie multimédia, Orange offre cinq nouvelles chaînes à tous ses clients : RTL9, MCM, E !, RFM, M6 Music.

Paramount+ prend la place de HBO Max dans la liste des plateformes de streaming avec 5 euros de remise par mois avec l’offre Livebox Max (c’est aussi le cas de Disney + et Netflix).

Avec Copilot Autofix, GitHub part à la chasse de vos secrets

10 avril 2025 à 08:30
Un ptit (Auto)fix ?
Avec Copilot Autofix, GitHub part à la chasse de vos secrets

GitHub a annoncé plusieurs améliorations et changements importants. Parmi les ajouts, un renforcement de la fonction Copilot Autofix, au centre de campagnes de sécurité désormais poussées par l’entreprise. Sur Windows, Copilot reçoit également deux fonctions attendues.

Ces derniers jours, GitHub a annoncé plusieurs évolutions significatives, et certaines nécessiteront de payer. On commence avec la sécurité, pour laquelle l’entreprise avait préparé le terrain. Il y a une semaine, elle communiquait ainsi sur les 39 millions de secrets que son service Secret Scanning avait trouvés jusqu’à présent. L’outil sert à analyser le code pour y trouver des clés d’API, mots de passe, jetons et autres informations ne devant pas se retrouver devant les yeux des utilisateurs.

Sécurité en services détachés

GitHub indiquait alors qu’en dépit des améliorations continuelles sur la sécurité, le désir de productivité et de confort prendraient le dessus. Par commodité, des secrets peuvent ainsi fuiter pendant les commits. L’autre source de fuite selon GitHub réside dans l’historique git, qui peut révéler accidentellement des informations sensibles dans le dépôt.

En conséquence, GitHub a annoncé hier soir plusieurs changements. Le plus important est la disponibilité des services Secret Protection et Code Security en produits autonomes. Selon l’entreprise, leur disponibilité limitée aux abonnements les plus onéreux était un frein pour nombre d’entreprises. En outre, une fonction d’évaluation gratuite des risques est proposée pour tous les dépôts GitHub, basée sur l’organisation et les éventuels secrets révélés. Cette recherche de secrets a également été intégrée dans Copilot pour les données non structurées (comme les mots de passe) et renforcée dans l’analyse des pushs.

GitHub pousse vers des campagnes de sécurité

La société, filiale de Microsoft, pousse depuis vers une hausse de la sécurité du code et des dépôts associés. Hier soir, elle a même appelé à des campagnes de sécurité, destinées à tous les clients disposant d’une offre Advanced Security ou Code Security. Elles avaient été lancées en préversion l’année dernière. Objectif : réduire la dette de sécurité.

Les campagnes doivent permettre aux équipes produits et sécurité de mieux communiquer. La direction est donnée par l’équipe de sécurité, qui définit les risques à traiter en priorité. Ce référentiel sert de cadre à la campagne et peut être accompagné d’un modèle prédéfini, comme le Top 10 des types de failles par MITRE. GitHub remonte également des statistiques, sur lesquelles l’équipe peut s’appuyer.

Après quoi, la campagne est lancée avec un calendrier. Les développeurs concernés reçoivent une notification, selon le contexte (place dans l’équipe, section du projet, etc.). Les tâches dévolues peuvent se traiter comme « n’importe quel autre travail de fonctionnalité ». À ceci près que l’assistant Copilot Autofix fait partie intégrante du processus. Il commence alors à suggérer des corrections pour l’ensemble des alertes de la campagne, accompagnées d’un « texte personnalisé ». Chaque campagne a au moins un ou une responsable pour faciliter les échanges avec l’équipe produit.

Par rapport à la préversion lancée l’année dernière, les campagnes ont plusieurs nouvelles fonctions. L’équipe de sécurité peut notamment itérer sur la portée des campagnes et les enregistrer sous forme de campagnes provisoires, avant leur lancement effectif. Les responsables peuvent aussi créer automatiquement des enjeux dans les dépôts à partir des alertes présentes dans la campagne. Surtout, ils ont maintenant accès à des statistiques agrégées reflétant la progression générale de toutes les campagnes, en cours ou passées.

Copilot : des agents partout

GitHub a annoncé il y a quelques jours plusieurs améliorations aussi pour son Copilot, tout particulièrement sur les agents, notamment la disponibilité en version stable du Mode Agent, qui avait été présenté en février.

On note aussi le lancement d’une préversion pour Model Context Protocol (MCP), conçu pour compléter le Mode Agent avec du contexte et des capacités, à la manière d’un hub où viennent se brancher des aides externes, explique GitHub. L’entreprise fournit une liste de serveurs MCP, permettant au Mode Agent de gagner en fonctions comme la recherche à travers des dépôts multiples, dans l’idée de le transformer en aide de camp.

Un nouveau forfait Pro+ avec des requêtes premium

GitHub Copilot dispose en outre désormais des modèles Claude 3.5, 3.7 Sonnet et 3.7 Sonnet Thinking d’Anthropic, Gemini 2.0 Flash de Google et o3-mini d’OpenAI pour les développeurs disposant d’un abonnement payant.

Pour compenser l’arrivée des nouveaux modèles et outils, l’entreprise impose quelques limites. Toutes les tâches et actions faisant appel aux derniers modèles ajoutés, comme Claude 3.7 Sonnet, sont soumises à un plafond de « requêtes premium ». Le nombre de requêtes disponibles dépend de la formule d’abonnement : 300 pour Pro et Business, 1 000 pour Enterprise. Ces réserves seront appliquées respectivement les 5, 12 et 19 mai.

GitHub précise que ces limites ne s’appliquent qu’aux nouveaux modèles. Pour les personnes se servant de l’actuel GPT-4o, rien ne change. En outre, un nouveau forfait Pro+ est proposé avec 1 500 requêtes premium pour 39 dollars par mois. Il sera nécessaire pour accéder aux « meilleures modèles, comme GPT-4.5 ». Enfin, il est possible d’acheter des requêtes premium supplémentaires à raison de 0,04 dollar l’unité quand la réserve est épuisée.

Copilot devient plus intéressant sur Windows

Si Microsoft a décliné son Copilot pour presque tous les usages, l’assistant n’a jusqu’à présent pas marqué les esprits sur Windows, où ses capacités pourraient pourtant faire quelques étincelles.

Plusieurs améliorations sont désormais disponibles sur l’ensemble des canaux de préversion pour Windows, via une mise à jour de l’application par le Microsoft Store. Toutefois, ces fonctions ne sont accessibles qu’aux États-Unis pour l’instant.

La première est une recherche détaillée pour les fichiers. Le type de recherche que l’on attend sans doute d’un système moderne aujourd’hui. Les requêtes peuvent se faire en langage naturel, par exemple « Peux-tu retrouver mon CV ? » ou « Ouvre le document de planification de voyage sur lequel je travaillais la semaine dernière ». La plupart des types de fichiers sont pris en charge, dont les .docx, .xlsx, .pptx, .txt, .pdf et .json.

L’autre fonction, Copilot Vision, permet en théorie à l’assistant de venir donner un coup de main dans n’importe quelle application tierce. Depuis Copilot, on commence par cliquer sur l’icône représentant une paire de lunettes, puis on sélectionne la fenêtre d’application ou du navigateur sur laquelle on veut pouvoir agir. Après quoi, on rédige sa demande dans Copilot, l’assistant effectuant l’opération sur la base des renseignements présents dans l’application surveillée.

Trump a-t-il commis le plus grand délit d’initié de tous les temps ?

10 avril 2025 à 08:07
Buy the dip
Trump a-t-il commis le plus grand délit d’initié de tous les temps ?

Sans crier gare, Donald Trump a annoncé mercredi la suspension des droits de douane dits réciproques qu’il venait de mettre en œuvre contre des dizaines de pays, entraînant l’envol immédiat de tous les indices boursiers américains. Problème : le président des États-Unis avait incité, quatre heures plus tôt, ses abonnés à acheter des actions…

+ 12 % pour le Nasdaq, l’indice de référence de la bourse américaine.+ 15 % pour Apple.+ 18 % pour NVIDIA.+ 22,7 % pour Tesla, etc. Après plusieurs jours d’une extrême volatilité sur les marchés, Donald Trump peut se targuer d’avoir relancé la machine : mercredi soir, le président des États-Unis a en effet annoncé la suspension immédiate, pour 90 jours, des droits de douane dits réciproques, qu’il avait plus ou moins arbitrairement décrétés une semaine plus tôt.

C’est, une fois de plus, via les réseaux sociaux que Donald Trump a formulé son annonce. Dans un long message publié sur son propre réseau, Truth, il partage sa satisfaction d’avoir été contacté par des dizaines de pays engagés dans une recherche de négociation avec les États-Unis. Il signale le maintien d’une taxe plancher de 10 % pour tous les pays du monde, et enfonce le clou avec la Chine, annonçant que les droits de douane exceptionnels allaient désormais monter à 125 %.

Sur les marchés financiers américains, le soulagement est immédiat. Bien sûr, il ne s’agit que d’une suspension, bien sûr le conflit commercial avec la Chine risque de s’intensifier, mais la double menace d’une économie américaine paralysée et d’une récession imminente s’éloigne un peu. Immédiatement, les investisseurs retrouvent le chemin du bouton achat, soit par regain de confiance, soit par volonté de jouer le rebond, c’est-à-dire de profiter d’un mouvement de hausse soudain pour enregistrer une plus-value rapide.

Difficile de savoir si l’effet de consolidation sera durable… mais en attendant, ceux qui se sont positionnés au bon moment ont pu engranger des fortunes, et d’aucuns estiment que Donald Trump pourrait les y avoir aidés.

« C’est un bon moment pour acheter !!! »

L’annonce de Donald Trump a pris le monde par surprise. Howard Lutnick, secrétaire au commerce, affirme sur X qu’il était aux côtés du président quand ce dernier a rédigé son message, soulignant implicitement le caractère spontané de la décision. D’autres s’inquiètent toutefois de messages publiés quelques heures plus tôt par Donald Trump.

« THIS IS A GREAT TIME TO BUY!!! DJT », s’est exclamé ce dernier, mercredi à 15h37 (heure de Paris, soit 9h37 sur la côte Est, sept minutes après l’ouverture des marchés boursiers de Wall Street), quatre heures avant l’annonce de sa volte-face sur les droits de douane.

À première vue, le message ne détonne pas particulièrement au milieu du flux parfois décousu des publications de Donald Trump sur son réseau social. Il se démarque toutefois par l’usage de ces trois points d’exclamation, ou par la signature DJT, qui correspond au symbole boursier de la holding du président, Trump Media & Technology Group. Il a largement suffi pour que beaucoup d’internautes réagissent, sur les réseaux sociaux, en criant au délit d’initié.

« Constitue un délit d’initié le fait, en toute connaissance de cause et pour une personne disposant d’une information privilégiée, d’en faire un usage en réalisant, pour elle-même ou pour autrui, soit directement, soit indirectement, une ou plusieurs opérations ou en annulant ou en modifiant un ou plusieurs ordres passés sur l’émetteur ou l’instrument financier concerné par cette information privilégiée », rappelle Dalloz.

Très vite, des observateurs décèlent des mouvements suspects sur des produits financiers complexes (des options d’achat), qui permettent de parier sur la hausse (ou la baisse) d’un cours en bourse, en ajoutant un effet de levier significatif à la transaction. D’autres remarquent que la très MAGA Marjorie Taylor Greene, représentante de la Géorgie au Congrès américain, a procé (PDF) à de nombreux achats en bourse le 4 avril dernier.

Pas de quoi, à ce stade, étayer une accusation de délit d’initié ou, pour être plus précis, de manipulation de marché, mais la question risque de se poser en des termes plus officiels.

Plusieurs représentants des deux chambres du Parlement états-unien ont en effet d’ores et déjà appelé à l’ouverture d’une enquête. C’est le cas par exemple du sénateur démocrate de Californie Adam Schiff. « Qui, au sein de l’administration, était au courant du dernier revirement de Trump sur les droits de douane ? Quelqu’un a-t-il acheté ou vendu des actions, et en a-t-il tiré profit aux dépens du public ? J’écris à la Maison-Blanche : le public a le droit de savoir », s’inquiète-t-il sur Bluesky.

Pendant ce temps, à Vera Cruz

Un autre politique s’en est ému mercredi, dans une séquence qui fera date. Jamieson Greer, représentant pour le commerce extérieur de la Maison-Blanche depuis le 26 février dernier, passait en effet une audition devant le House Ways and Means Committee, la commission en charge des affaires fiscales de la Chambre des représentants, précisément au moment où Donald Trump annonçait la suspension des droits de douane.

Et le sénateur démocrate Steven Horsford, qui préside ladite commission, n’a pas ménagé ses remarques quand l’information est tombée : « On dirait que votre patron vient de vous couper l’herbe sous le pied et de suspendre les droits de douane, les impôts sur le peuple américain. Il n’y a aucune stratégie. Vous venez de l’apprendre il y a trois secondes, assis ici, on vous a vu… », a-t-il déclaré, avant d’à son tour faire part de ses soupçons.

« Si c’était un plan, si cela a toujours été le plan, comment pourrait-on dire qu’il ne s’agit pas de manipulation de marché ? » a demandé Horsford. « Ce n’est pas une manipulation de marché, Monsieur », a répondu Greer. « Ce n’est pas une stratégie », a ajouté Horsford. « Nous essayons de repenser le système commercial mondial », s’est finalement défendu le (soi-disant ?) chargé du commerce extérieur.

Ce nouveau rebondissement boursier intervient deux jours après la diffusion d’une fake news, qui avait provoqué une envolée soudaine des marchés boursiers. Elle concernait déjà l’hypothèse d’une suspension des taxes pour 90 jours.

Il rappelle aussi d’autres suspicions de malversations, liées notamment à l’univers des cryptomonnaies. L’annonce selon laquelle la Maison-Blanche allait lancer la création d’une réserve stratégique de bitcoins, début mars, avait ainsi permis à une « baleine » (un gros investisseur) de réaliser un coup particulièrement lucratif.

index.feed.received.before_yesterdayNext

Avec Nova Sonic, Amazon a enfin un modèle d’IA pour le traitement vocal

9 avril 2025 à 16:19
Don't Call Me Baby
Avec Nova Sonic, Amazon a enfin un modèle d’IA pour le traitement vocal

Amazon a présenté hier soir un nouveau venu dans sa famille de modèles d’IA générative Nova. Nommé Sonic, il est spécialisé dans le speech-to-speech et se veut idéal pour les bots dédiés à la relation client.

Amazon renforce et complète actuellement sa gamme Nova. On a ainsi vu récemment la version 1.1 de Nova Reel, destinée à la génération de vidéos pouvant aller jusqu’à 2 minutes. Nova Sonic, le nouveau venu, est un modèle destiné à l’audio, plus précisément dans la catégorie speech-to-speech. Il est donc conçu pour donner des réponses vocales à des invites tout aussi vocales.

Destinations chatbots et streaming

Sans surprise, le modèle Sonic est fait avant tout pour les interfaces permettant les discussions à haute voix. C’est la réponse d’Amazon au Voice Mode de ChatGPT et autres technologies équivalentes. L’entreprise sait d’ailleurs qu’elle arrive assez tard sur ce marché. Elle déclenche donc une guerre des prix, avec une tarification agressive, environ 80 % moins chère que l’équivalent dans GPT-4o, en tout cas selon Amazon.

Amazon qualifie son Nova Sonic de modèle vocal « le plus rentable » du marché. Il serait également le plus rapide, avec une latence moyenne perçue de 1,09 seconde, contre 1,18 pour GPT-4o. Ces performances lui ouvrent – comme son concurrent – les portes d’une utilisation en direct sur du streaming.

Capter l’attention l’intention

Et si vous vous en doutiez, Sonic est bien le modèle utilisé par Amazon dans son assistant Alexa+ lancé récemment.

Selon l’entreprise, Sonic est particulièrement doué pour « comprendre » l’intention des utilisateurs. Il examine notamment les pauses et interruptions de l’interlocuteur et tâche de répondre « au moment opportun ». En d’autres termes, Nova Sonic tente de prendre en compte la prosodie et le sentiment, comme on peut le voir dans la démonstration ci-dessous.

Selon Amazon cependant, la plus grande force de Nova Sonic est son agilité au sein d’un environnement hétérogène. Il achemine ainsi les demandes vers différentes API, lui permettant d’aller chercher des informations sur internet, d’analyser des sources de données propriétaires et même d’agir dans d’autres applications.

Permission de marmonner

Sonic serait également doué dans sa gestion des erreurs de reconnaissance vocale. Dans le benchmark Multilingual LibriSpeech, le taux d’erreur rencontré serait de seulement 4,2 % pour l’anglais, le français, l’italien, l’allemand et l’espagnol. Cette précision le rendrait performant dans des situations de faible articulation, d’environnement bruyant ou même de « marmonnement ». Ces performances seraient atteintes grâce à l’union des capacités de compréhension et de génération en un seul modèle.

Nova Sonic est disponible depuis Amazon Bedrock, mais uniquement en anglais pour l’instant. Le modèle sait générer une transcription texte à des fins de développement. La fenêtre de contexte est de 300 000 jetons et une connexion peut durer 8 minutes, à raison de 20 connexions concurrentes par client à la fois. En revanche, cette disponibilité est limitée pour l’instant à l’anglais (accents anglais et américain inclus), et pour la seule région US East.

Enfin, Amazon parle d’IA « responsable », avec des protections incluses pour la modération de contenu et l’ajout de filigranes (watermarks).

☕️ Airbnb condamnée à verser plus de 8 millions d’euros à l’île d’Oléron

9 avril 2025 à 15:32

Oléron a gagné son procès en appel contre la plateforme de location Airbnb.

Mardi 8 avril, la cour d’appel de Poitiers a confirmé les jugements rendus en 2023 et 2024 par le tribunal judiciaire de La Rochelle et augmenté le montant de ses condamnations au titre de manquements au versement de 7 410 taxes de séjour à 5 millions d’euros pour l’année 2021 et 3,5 millions d’euros pour 2022, précise Sud-Ouest.

Phare de Chassiron, Saint-Denis d’Oléron / Lucas Gallone

La Cour d’Appel a estimé le « manquement (…) d’autant plus grave que le recouvrement de la taxe de séjour représente une part non négligeable du budget de la Communauté de Communes de l’île d’Oléron pour financer les dépenses liées à l’afflux de touristes sur la période estivale. »

D’après l’AFP, Airbnb envisage un nouveau recours, jugeant les amendes « disproportionnées ». L’île d’Oléron reste en procédures avec deux autres plateformes : Booking et Leboncoin.

Datacenters pour l’IA : le protocole ouvert UALink lance l’offensive contre NVIDIA

9 avril 2025 à 14:55
À l’attaqueeeeeeee !
Datacenters pour l’IA : le protocole ouvert UALink lance l’offensive contre NVIDIA

UALink 200G est disponible en version 1.0. Elle se présente comme une « norme ouverte » pour interconnecter les GPU dans les centres de calcul pour l’intelligence artificielle. Elle est établie à partir d’Infinity Fabric d’AMD et vient se placer en concurrent de NVLink de NVIDIA.

En fin d’année dernière, nous vous parlions de deux protocoles « next-gen » en préparation chez les fabricants : Ultra Ethernet et Ultra Accelerator Link (UALink). Dans les deux cas, il s’agit de venir jouer sur les platebandes de NVIDIA en visant respectivement ses technologies InfiniBand (et son Remote Direct Memory Access, ou RDMA) ainsi que NVLink. L’image ci-dessous résume assez bien la cible des deux protocoles.

L’Ultra Accelerator Link 200G 1.0 est disponible

Avec du retard sur le calendrier, l’UALink Consortium a mis en ligne la version 1.0 des caractéristiques de l’Ultra Accelerator Link 200G. Cette norme « définit une interconnexion à faible latence et à large bande passante pour la communication entre les accélérateurs et les switchs dans les modules de calcul d’IA ».

La version 1.0 de l’Ultra Accelerator Link 200G est disponible par ici (pdf de 253 pages). Comme on pouvait s’en douter, il est expliqué que le 200G fait référence à la bande passante d’une ligne UALink : 200 GT/s (GT pour GigaTransfers, une unité pour mesurer le débit d’un bus de données). La liaison est même à 212,5 GT/s pour laisser de la place à de la correction d’erreur par exemple. Jusqu’à quatre lignes peuvent être agrégées pour obtenir 800 GT/s.

Pour passer des GT/ à des Gb/s, la formule est la suivante : Largeur du canal (nombre de bits par transfer) x nombre de transfers par seconde. On obtient bien des b/s, une fois le calcul effectué. On parle aussi de GT/s pour la bande passante des bus PCIe et de la mémoire vive par exemple.

Débit, latence, efficacité énergétique et sécurité

Comme prévu, cette première version permet de connecter jusqu’à 1 024 accélérateurs. Le consortium affirme que son protocole autorise des échanges de données « avec la même vitesse brute qu’Ethernet et la latence du PCIe ». UALink vise des câbles de moins de 4 mètres de longueur pour avoir une latence aller/retour inférieure à la μs.

Il met aussi l’accent sur l’efficacité énergétique et sur l’utilisation d’un die « nettement plus petit ». Dernier point et pas des moindres : le protocole est « ouvert et standardisé », contrairement au NVLink de NVIDIA. Astera, membre du consortium, ajoute que « la norme UALink a été développée à partir du protocole éprouvé Infinity Fabric d’AMD ».

Le consortium met aussi en avant une fonction de sécurité simplement baptisée UALinkSec avec du chiffrement de bout en bout et de l’authentification.

Plus de 85 membres, Synopsys déjà dans les starting-blocs

Le consortium compte plus de 85 membres, dont Alibaba, AMD, Apple, Astera Labs, AWS, Cisco, Google, HPE, Intel, Meta, Microsoft et Synopsys comme « promoter members ». Dans les contributeurs, on retrouve Arm, Broadcom, Dell, Juniper, Marvell, Mediatek, Qualcomm, Tencent, ZTE, etc. La liste complète est disponible par là. Sans surprise, NVIDIA est absente.

Synopsys a déjà répondu présent à l’appel d’UALink et prévoit de lancer des produits durant la seconde moitié de l’année. Maintenant que la version 1.0 de la norme est disponible, d’autres devraient rapidement lui emboiter le pas.

Souveraineté numérique : les entreprises européennes s’inquiètent mais ne la priorisent pas

9 avril 2025 à 14:00
How do you say "souveraineté" in american english ?
Souveraineté numérique : les entreprises européennes s’inquiètent mais ne la priorisent pas

Si de nombreux professionnels européens se déclarent préoccupées par les questions de souveraineté numérique, à peine un tiers font de l’adoption de solutions européennes une priorité.

La souveraineté numérique, enjeu majeur pour les entreprises, dans le contexte géopolitique tendu ? C’est ce que laissent entendre les résultats d’un sondage réalisé par Ipsos et Yougov, dans lequel 78 % des décideurs européens interrogés déclarent important de choisir des outils numériques locaux, notamment pour des raisons de cybersécurité.

Mais il y a un mais : si la préoccupation des dirigeants d’entreprise transparait de façon évidente, elle ne se transforme pas nécessairement en acte. En 2025, 53 % d’entre eux prévoient en effet de maintenir leur budget cybersécurité inchangé. Surtout, seulement 32 % font de l’adoption de solutions technologiques européennes une priorité.

Des coûts plus élevés ?

4 000 actifs Français, Espagnols, Allemands et Italiens de 18 à 75 ans ont été sondés pour les besoins de cette étude. Chacun relève de l’un des statuts d’emploi suivants : professions indépendantes, cadre supérieurs, professions intermédiaires et employés, et tous travaillent dans des secteurs variés (banque/assurance, immobilier, finance, tech, retail, ressources humaines ou éducation).

Parmi eux, 46 % se déclarent préoccupés « par la dépendance aux plateformes comme Google, Microsoft ou Amazon ». Un sujet, légèrement contrasté selon les pays : si 54 % des Italiens se déclarent préoccupés, seulement 36 % des Allemands le sont (et 43 % des Français).

Parmi les explications de ces considérations, 28 % des répondants « ne perçoivent aucun obstacle majeur » à l’utilisation de solutions européennes. Une proportion équivalente les juge en revanche plus coûteuses que les solutions non européennes, et malgré les cadres réglementaires, 20 % doutent de la fiabilité et des performances des solutions locales.

Critères de choix

Leviers potentiels : 69 % des professionnels interrogés déclarent que l’éthique des prestataires technologique est un critère essentiel (33 %) ou important (36 %) dans leur processus de choix. Un enjeu bien plus fréquemment cité en Espagne (par 79 % des répondants) qu’en Allemagne (52 %). En France, 71 % des répondants font de l’éthique de leurs prestataires un enjeu essentiel ou important.

La localisation des serveurs est un autre axe que 58 % des personnes interrogées qualifient d’important, et 23 % de primordiale. Les Français sont les plus attentifs à la question : 30 % des interrogés estiment qu’une localisation en Europe est primordiale.

Cela dit, près de 4 personnes interrogées sur 10 ne savent pas où les serveurs de leurs outils sont localisés – une problématique qui, pour des fournisseurs états-uniens, n’empêche de toute manière pas leurs autorités de surveillance nationales d’exiger l’accès aux données d’un serveur.

Souveraineté vs réalité

Évoquer les enjeux de souveraineté sans la prioriser, la logique des professionnels interrogés ressemble fort à celle… des institutions françaises, où des accords avec des fournisseurs états-uniens continuent d’être conclus malgré les préoccupations affichées.

Les solutions ne manquent pourtant pas : mi-mars, 80 entreprises et représentants de la tech appelaient la Commission européenne à soutenir EuroStack, une série de solutions européennes permettant de couvrir toute l’infrastructure numérique. À leurs côtés, chercheurs et professionnels du secteur publiaient différents répertoires de solutions – Euro-stack alternatives, european alternatives – pour faciliter la recherche et la transition vers des services numériques européens.

Le Royaume-Uni développe un programme de prédiction des meurtres

9 avril 2025 à 11:58
Minority Report
Le Royaume-Uni développe un programme de prédiction des meurtres

Le ministère de la Justice britannique développe, sans en avoir parlé, un projet de prédiction des meurtres utilisant des données personnelles. L’information a été révélée via des demandes de documents en vertu de la liberté d’information. Le programme serait pour l’instant un projet de recherche.

S’appuyant sur plusieurs documents officiels, l’association StateWatch a révélé le 31 mars dernier un « Projet de prédiction des homicides ». Mis en place par le gouvernement britannique, il utilise les données de certaines polices du pays et du ministère de la Justice pour « prédire » quelle personne a « des risques » de commettre un meurtre.

StateWatch a pu connaître et confirmer l’existence de ce projet en faisant plusieurs requêtes au nom du Freedom of Information Act, la loi britannique qui permet d’accéder à des informations et des documents détenus par l’administration.

« Explorer le pouvoir prédictif des ensembles de données »

Dans l’un de ces documents, au format Excel (xlsx), ce programme est décrit comme « un projet pilote de sciences des données visant à :

  • examiner les caractéristiques des délinquants qui augmentent le risque de commettre un homicide
  • explorer des techniques alternatives et innovantes de science des données pour la prédiction du risque d’homicide,
  • explorer le pouvoir prédictif des ensembles de données Oasys, Delius et Nomis (ensembles de données du ministère de la Justice disponibles sur la plateforme analytique) en ce qui concerne le risque d’homicide,
  • explorer le pouvoir prédictif supplémentaire de l’ensemble de données national PNC (ensemble de données du ministère de la Justice hébergé sur un terminal AirGap sécurisé et séparé du système analytique) en ce qui concerne le risque d’homicide,
  • explorer le pouvoir prédictif supplémentaire des données de la police locale (Greater Manchester) par rapport au risque d’homicide,
  • fournir des preuves pour améliorer la prédiction des crimes graves et, en fin de compte, contribuer à la protection du public grâce à une meilleure analyse ».

Selon le Guardian, le projet a changé de nom en cours de route et est passé de « projet de prédiction des homicides » à « partage des données pour améliorer l’évaluation des risques ».

Des données qui concernent de 100 000 à 500 000 personnes

StateWatch explique que l’accord de partage des données entre le ministère de la Justice britannique et la police locale de Greater Manchester « indique que des données concernant entre 100 000 et 500 000 personnes ont été partagées par les forces de police pour développer l’outil ».

L’association ajoute que les données de cette police locale utilisées « comprennent des informations sur des centaines de milliers de suspects, de victimes, de témoins, de personnes disparues et de personnes pour lesquelles il existe des préoccupations en matière de protection ». Celles-ci incluraient des « marqueurs de santé […] censés avoir un pouvoir prédictif important » et notamment « des données sur la santé mentale, la toxicomanie, l’automutilation, le suicide, la vulnérabilité et le handicap », selon StateWatch.

Interrogées par le Guardian, les autorités responsables nient fermement et insistent sur le fait que seules les données de personnes ayant fait l’objet d’au moins une condamnation pénale ont été utilisées.

Confirmation de l’existence du projet par les autorités

Les autorités confirment donc l’existence du projet, en insistant sur la dimension de recherche. Néanmoins, selon le ministère de la Justice britannique cité par le Guardian, le projet doit bien « examiner les caractéristiques des délinquants qui augmentent le risque de commettre un homicide » et « explorer des techniques alternatives et innovantes de science des données pour l’évaluation du risque d’homicide ». Il ajoute qu’il doit « fournir des éléments permettant d’améliorer l’évaluation des risques de criminalité grave et contribuer en fin de compte à la protection du public grâce à une meilleure analyse ».

« La tentative du ministère de la Justice de mettre en place ce système de prédiction des meurtres est le dernier exemple effrayant et dystopique de l’intention du gouvernement de mettre au point des systèmes de « prédiction » de la criminalité », juge pour sa part Sofia Lyall, chercheuse au sein de StateWatch. Elle ajoute que « ce dernier modèle, qui utilise les données de notre police et de notre ministère de l’Intérieur institutionnellement racistes, renforcera et amplifiera la discrimination structurelle qui sous-tend le système juridique pénal. Comme d’autres systèmes de ce type, il codera les préjugés à l’égard des communautés racialisées et à faibles revenus ». L’association demande au ministère britannique d’arrêter immédiatement tout développement de cet outil.

☕️ WhatsApp colmate une importante faille de sécurité dans son application Windows

9 avril 2025 à 10:50

Les utilisateurs du client WhatsApp pour Windows sont invités à installer rapidement la dernière version de l’application, soit depuis le site officiel, soit depuis le Microsoft Store.

L’application a en effet un problème assez sérieux sur la gestion des fichiers. Quand une personne reçoit un fichier en pièce jointe dans un message, WhatsApp se sert en effet des MIME (Multipurpose Internet Mail Extensions) pour déterminer de quel type de données il s’agit. Ces extensions peuvent par exemple signaler que l’on a affaire à une image, WhatsApp préparant donc sa prévisualisation en miniature.

WhatsApp

C’est justement ce mécanisme que des pirates réussissent actuellement à abuser. Car un fichier reconnu comme image peut cacher un exécutable. Tant que le fichier se trouve dans WhatsApp, ce dernier n’affiche qu’une miniature. Mais si on double-clique pour l’ouvrir, c’est bien un programme qui se lance.

La faille, estampillée CVE-2025-30401, est décrite par Meta comme pouvant être utilisée par des pirates pour distribuer des logiciels malveillants. L’entreprise n’indique cependant pas si elle est déjà exploitée.

« Un problème d’usurpation d’identité dans WhatsApp pour Windows avant la version 2.2450.6 affichait les pièces jointes en fonction de leur type MIME mais sélectionnait le gestionnaire d’ouverture de fichier en fonction de l’extension du nom de fichier de la pièce jointe. Une erreur malveillante pourrait amener le destinataire à exécuter par inadvertance un code arbitraire au lieu de visualiser la pièce jointe lors de l’ouverture manuelle de cette dernière dans WhatsApp », indique Meta dans son billet.

Il est donc recommandé d’installer la dernière version au plus vite.

Pédopornographie : les plateformes poussent-elles au crime ?

9 avril 2025 à 10:30
Culture du V*0l
Pédopornographie : les plateformes poussent-elles au crime ?

La multiplication d’affaires de pédopornographie et le rajeunissement de ceux qui en possèdent et en diffusent oblige à s’interroger sur le rôle des usages numériques dans l’explosion de ce type de contenus criminels.

« Je n’ai aucune excuse (…). Mais je n’ai pas commencé par vouloir voir des enfants. J’étais accro au porno et je me suis totalement désensibilisé. » Tels sont les propos de l’un des 850 hommes arrêtés chaque mois en Angleterre et aux Pays de Galles pour avoir consommé ou échangé des contenus pédopornographiques en ligne.

Ils sont enseignants, policiers, chauffeurs de bus, médecins. Ils sont de plus en plus jeunes, aussi.

The Guardian en a interrogé plusieurs, pour tenter de répondre à une question complexe : les logiques de recommandations des plateformes sur lesquelles nous consommons toutes et tous des contenus de tous types se contentent-elles d’alimenter tout une génération de pédophiles, ou la créent-elles ?

Pente glissante

La plupart des pédocriminels interrogés par le média britannique décrivent un usage incontrôlé de la pornographie, consommée pour gérer du stress, tromper l’ennui ou la solitude, quelquefois jusqu’à l’addiction.

Condamné pour possession des trois catégories d’images catégorisées comme pédocriminelles dans le droit britannique, dont la plus grave, l’un d’eux indique : « La police n’a jamais trouvé une seule recherche d’images d’enfants : tout s’est fait en cliquant sur des liens – ce que les algorithmes me proposaient. Les sites pornographiques ont un bouton qui dit “Voir d’autres images de ce genre”. J’étais désensibilisé, j’avais regardé tellement de porno pour adolescents. »

Le phénomène est multiforme et international : Europol opérait en mars un coup de filet dans 19 pays, démantelant un réseau dédié à la génération de pédopornographie par IA, le mois précédant, elle alertait sur l’essor de communautés dédiées à la torture de mineurs, en décembre, la gendarmerie française arrêtait 95 membres d’un réseau pédocriminel opérant via Signal…

Pour comprendre les motivations des auteurs, le groupe finnois Protect Children a lancé une étude de deux ans impliquant de poster des questionnaires sur le dark web pour toucher des internautes consommateurs de contenus illégaux dans différents pays. Sur les plus de 4 500 personnes interrogées, un tiers se déclarent clairement intéressées par la pédopornographie. Les deux tiers déclarent un intérêt pour les mineurs, principalement les 15 à 17 ans.

Quant au rôle des plateformes, et au lien qui pourrait unir pornographie classique et pédopornographie, il est lui-même controversé. Mais plus de 50 % des répondants au questionnaire de Protect Children déclarent ne pas avoir cherché d’images pédopornographiques lorsqu’ils y ont été confrontés pour la première fois.

Si de nombreux hommes adultes arrêtés pour de tels actes posent un réel danger aux mineurs, le psychologue Michael Sheath explique au Guardian avoir vu, en 14 ans de carrière, une évolution dans les profils arrêtés. Parmi ces derniers, il rencontre désormais régulièrement « des hommes qui ont suivi ce que j’appelle une « pente glissante » ». Une explication similaire à celle du « trou du lapin » (rabbit hole), décrite pour expliquer la radicalisation d’internautes vers des idées complotistes ou haineuses.

Suspension de tabous protecteurs

Pour Michael Sheath, le lien entre pornographie classique et pédopornographie est « sans ambiguïté ». Il l’illustre notamment par l’évolution des tabous sociaux qui, pendant longtemps, protégeaient les mineurs. « Autrefois, explique-t-il au média britannique, il était difficile de trouver du matériel pédopornographique et il était extrêmement risqué d’en regarder. L’état d’esprit d’une personne qui cherchait du matériel pornographique était “je suis un vrai criminel sexuel” — elle savait qu’elle sortait des normes de la société. »

Aujourd’hui, la plupart des sites pornographique grand public proposent des titres évoquant clairement de la pédopornographie et des relations incestueuses, du type « Les garçons dépucelés par leur tante » ou « beau-père et belle-fille ».

Selon une étude menée en 2021 par l’université de Durham, un titre sur huit en page d’accueil des principales plateformes pornographiques montre des formes de violences sexuelles contre les filles et les femmes. L’équipe de chercheurs constatait par ailleurs que les vidéos étiquetées « teens » (adolescents/adolescentes) montraient plus fréquemment de la violence.

La plupart des plateformes grand public, comme Pornhub, ont des règles de modération interdisant la représentation d’activités sexuelles non consensuelles, agressions sexuelles et viols compris. PornHub a d’ailleurs conclu un partenariat avec l’Internet Watch Foundation et la Fondation Lucy Faithfull, qui a conduit à l’ajout de pop-up pour signaler à l’internaute britannique qu’il semble en train de chercher des contenus pédopornographiques.

Mais comme sur n’importe quelle plateforme sociale, cette modération est imparfaite. Et les contenus s’échangent aussi ailleurs, dans des boucles de discussion ou des forums fermés.

Enjeu de santé publique

L’enjeu, alertent les spécialistes, est aussi celui d’une forme d’addiction. Dès 2013, des études montraient que la dopamine reçue au visionnage régulier de pornographie modifie peu à peu les goûts des personnes concernés. Le mois dernier, une autre publication constatait qu’au fil du temps, un consommateur de pornographie sur cinq glissait vers des contenus plus extrêmes.

Et la tendance n’est pas prête de s’améliorer : en 2023, devant la jeunesse accrue des personnes recourant à ses services, la Lucy Faithfull Foundation, qui lutte contre les violences pédopornographiques, s’est trouvée obligée d’ouvrir un service d’accueil des adolescents. De même, du côté de la police de Worcester, l’enquêteur Tony Garner déclare recevoir de plus en plus d’adolescents, quelquefois âgés d’à peine 18 ans, mais déjà « exposés pendant 10 ans à du porno hardcore ».

☕️ Médias, matières premières… : l’Europe renforce son filtrage des investissements étrangers

9 avril 2025 à 10:03

Dans un communiqué publié hier, la commission du commerce international du Parlement européen annonce que, « en vertu des nouvelles règles, un plus grand nombre de secteurs, comme ceux des médias, des matières premières critiques et des infrastructures de transport feront l’objet d’un filtrage obligatoire par les États membres, afin de détecter et de traiter les risques en matière de sécurité ou d’ordre public liés aux investissements étrangers ». Une annonce faite dans un contexte géopolitique tendu avec les États-Unis, qui se sont lancés dans une guerre commerciale avec le reste du monde, Europe comprise.

Le Parlement ajoute que la Commission européenne aura ainsi « le pouvoir d’intervenir de sa propre initiative ou en cas de désaccord entre les États membres ». Et si l’investissement étranger est susceptible « de porter atteinte à la sécurité ou à l’ordre public, elle pourra soit autoriser le projet sous réserve de mesures d’atténuation, soit l’interdire ». En clair, elle pourra avoir le dernier mot. Il s’agit donc de fortement renforcer le cadre actuel sur le filtrage des investissements étranger, qui date d’octobre 2020.

La proposition a été adoptée avec 31 voix pour, 7 voix contre et 3 abstentions en commission du commerce international. Maintenant, le Parlement dans son ensemble devra la voter lors d’une session plénière, « après quoi les négociations avec les États membres sur la forme finale du texte pourront commencer ».

IA Act

☕️ Patch Tuesday : un avril copieux, avec 134 failles corrigées, dont une déjà exploitée

9 avril 2025 à 09:14

Comme chaque deuxième mardi de chaque mois, Microsoft a publié hier soir ses correctifs de sécurité pour Windows et plusieurs autres produits. Le lot d’avril 2025 est particulièrement riche en corrections, avec un total de 134 vulnérabilités colmatées, dont 11 sont critiques et une est même déjà activement exploitée. C’est la deuxième fois depuis le début de l’année que Microsoft dépasse les 100 failles corrigées en un seul mois.

Cette dernière est estampillée CVE-2025-29824 et permet, quand elle est exploitée, d’entrainer une élévation de privilèges dans le pilote Windows Common Log File System (CLFS). L’exploitation doit se faire localement, donc avec un accès physique au système, ou à la suite de l’exploitation d’une autre faille donnant un premier accès. La faille CVE-2025-29824 permet alors d’obtenir des droits SYSTEM. La gravité de la faille est considérée comme importante, et non critique. Quand bien même, elle est au cœur d’un ransomware actuellement utilisé, nommé PipeMagic et créé par le groupe de pirates Storm-2460.

Vitrée brisée

La société Tenable note que Microsoft a corrigé 32 failles dans CLFS depuis 2022. Elle observe également un changement de fond dans le type de failles corrigées chaque mois, avec une prévalence désormais des vulnérabilités débouchant sur des élévations de privilèges. Ce mois-ci, elles comptent en effet pour 40 % de l’ensemble, là où les exploitations à distance (RCE) étaient auparavant majoritaires, du moins dans Windows.

Au sujet des failles critiques, cinq concernent Office et sont justement de type RCE. Deux résident dans le service de passerelle de bureau à distance, une dans l’hyperviseur Hyper-V, deux dans Windows LDAP et une dernière dans la pile TCP/IP du système.

Le nombre élevé de failles colmatées et la présence d’une brèche activement exploitée encouragent à l’installation rapide de la mise à jour associée. Notez que les correctifs sont d’ailleurs légèrement différents entre Windows 11 et 10. Ce dernier recevra ainsi le patch pour la faille CVE-2025-29824 qu’un peu plus tard, sans que l’on sache ni quand ni pourquoi. Microsoft indique simplement que le bulletin CVE sera mis à jour dès que la solution sera disponible. Attention donc à PipeMagic.

Comme toujours, l’installation prendra plus ou moins de temps, selon la configuration et surtout les performances de la machine. Le redémarrage de l’ordinateur sera obligatoire pour finaliser le processus.

☕️ Donald Trump menace TSMC de taxer ses produits à 100 %

9 avril 2025 à 08:29

Donald Trump a donc annoncé des droits de douane particulièrement lourds pour les marchandises importées aux États-Unis.

Mais le dirigeant étasunien ne s’est pas arrêté là. Il a aussi affirmé avoir menacé l’entreprise taïwanaise de semi-conducteur TSMC d’une taxe de 100 % sur ses produits si elle ne construisait pas les usines qu’elle s’était engagée à implanter aux États-Unis, explique Reuters.

Crédits : 李 季霖 (CC BY-SA 2.0)

« TSMC, je ne leur ai pas donné d’argent […] tout ce que j’ai fait, c’est dire que si vous ne construisez pas votre usine ici, vous allez payer une grosse taxe », a affirmé Donald Trump.

Donald Trump a aussi critiqué l’administration de l’ancien président Joe Biden pour avoir accordé une subvention de 6,6 milliards de dollars à l’unité américaine de TSMC pour la production de semi-conducteurs à Phoenix, en Arizona, affirmant que les entreprises de semi-conducteurs n’avaient pas besoin de cet argent, relève Reuters.

Au total, TSMC a prévu d’investir environ 165 milliards de dollars sur quatre ans dans trois usines de fabrication et deux de conditionnement aux États-Unis.

☕️ Infineon veut racheter l’Automotive Ethernet de Marvell pour 2,5 milliards de dollars

9 avril 2025 à 08:17

Infineon, une société allemande spécialisée dans les semi-conducteurs (spin-off de Siemens), vient d’annoncer « un accord pour l’acquisition de l’activité Ethernet automobile de Marvell Technology pour 2,5 milliards de dollars américains ». Le financement, en cash, viendra de liquidités existantes et d’une dette supplémentaire.

Jochen Hanebeck, CEO d’Infineon, parle d’un « choix stratégique pour Infineon en tant que premier fournisseur mondial de solutions de semi-conducteurs pour l’industrie automobile […] Nous tirerons parti de cette technologie Ethernet […] pour les véhicules conçus autour du logiciel ».

Infineon
Infineon

On parle de Software Defined Vehicle dans la langue de Shakespeare. Il s’agit de la « capacité à faire évoluer une voiture tout au long de sa vie, grâce à une architecture centralisée, en la mettant à jour et en y installant de nouvelles applications pour étoffer ses fonctions », rappelle Renault.

« Parmi les clients de l’activité Ethernet automobile de Marvell, figurent plus de 50 constructeurs automobiles, dont huit des dix principaux OEM », précise le communiqué. Infineon voit aussi des avancées possibles dans le monde des robots humanoïdes grâce à cette acquisition.

Comme toujours, cette transaction est soumise aux approbations des autorités compétentes. Elle devrait être finalisée cette année. Infineon comptait environ 58 060 employés dans le monde fin septembre 2024

Meta étend ses comptes restreints pour adolescents à Facebook et Messenger

8 avril 2025 à 17:26
Presque de bon cœur
Meta étend ses comptes restreints pour adolescents à Facebook et Messenger

Meta commence à appliquer ses « Teen Accounts », inaugurés sur Instagram, à Facebook et Messenger. L’entreprise débute par plusieurs pays anglo-saxons, mais tous les marchés seront concernés. Elle fait toujours face à de multiples plaintes portant sur des questions de santé mentale.

En septembre 2024, Meta a débuté une bascule importante sur Instagram : tous les jeunes âgés de moins de 18 ans sont passés automatiquement sur un nouveau type de compte. Il était impossible de refuser le changement et plusieurs restrictions étaient mises en place. Par exemple, tous ces comptes étaient privés par défaut et il était notamment impossible de leur envoyer un message privé si l’on n’était pas déjà « amis ».

Une extension des restrictions à Facebook et Messenger

Aujourd’hui, Meta annonce que le même type de compte commence à être appliqué pour l’ensemble des jeunes utilisateurs sur Facebook et Messenger. Cette bascule débute aux États-Unis, au Royaume-Uni, en Australie et au Canada, puis devrait être appliquée au reste du monde au cours des prochains mois, sans calendrier précis pour le moment.

La transformation des comptes peut se révéler assez radicale pour les personnes mineures concernées. Comme pour Instagram, les comptes sont ainsi privés par défaut, et il est impossible de les contacter si l’on n’est pas déjà amis ou qu’une conversation n’a pas eu lieu avant ce changement.

Il y a également une grande différence entre les mineurs de 16 - 17 ans et ceux ayant moins de 16 ans. Pour ces jeunes personnes, les restrictions grimpent d’un cran. Seuls d’autres utilisateurs identifiés comme amis pourront voir les Stories et y répondre. Mêmes limitations pour les mentions, commentaires et autres tags. Si les personnes âgées d’au moins 16 ans pourront elles-mêmes modifier les paramètres, celles ayant entre 13 (âge minimal requis sur ces plateformes) et 15 ans auront besoin d’une autorisation parentale.

Renforcement des barrières sur Instagram

Ce n’est pas tout, car les plus jeunes recevront également des notifications les invitant à quitter les réseaux sociaux au bout d’une heure d’utilisation par jour. La coupure n’est cependant pas forcée et les parents devront s’appuyer sur d’autres outils, comme ceux intégrés en standard dans Android et iOS notamment, s’ils veulent l’imposer. En outre, les applications couperont automatiquement leurs notifications durant la nuit. Là encore, pour les moins de 16 ans, la modification de ces réglages réclamera une autorisation parentale.

Meta en profite d’ailleurs pour renforcer les restrictions sur son Instagram. Les moins de 16 ans ne peuvent ainsi pas se produire en Live, sauf accord parental une fois de plus. Et tant qu’à réclamer ce dernier, un autre réglage est concerné : il n’est plus possible de désactiver soi-même la fonction de floutage des contenus suspectés comme contenant de la nudité.

Meta glisse dans son billet de blog les résultats d’un sondage réalisé par Ipsos à sa demande. D’après l’enquête, qui s’est déroulée aux États-Unis, 94 % des parents interrogés ont estimé utile ce type de compte pour les adolescents, 85 % estimant que la fonction les aide à faire en sorte que leurs enfants aient « une expérience positive » sur Instagram. 90 % ont également trouvé les réglages par défaut « bénéfiques ».

Une situation tendue pour Meta

Ces changements n’ont pas été entièrement à l’initiative de Meta cependant. Aux États-Unis notamment, l’entreprise a fait l’objet d’un nombre croissant d’attaques sur les questions de santé mentale et l’aliénation engendrée par les réseaux sociaux. Tout particulièrement quand ils sont équipés d’un « mur infini » que l’on peut faire défiler sans jamais s’arrêter, le flux étant alimenté par les algorithmes. En octobre 2023, un total de 41 États américains avaient ainsi déposé plainte contre Meta, accusant Facebook et Instagram de favoriser une addiction toxique (33 en commun et 8 dans des plaintes séparées).

Ce sujet de la santé mentale, particulièrement chez les adolescents, est devenu prégnant. Quelques mois avant la plainte des États américains, on avait ainsi 2 000 familles étasuniennes faire de même contre un lot de réseaux sociaux (TikTok, Snapchat, YouTube, Roblox et Meta). Un an plus tard, TikTok faisait directement face à une plainte de 14 États américains, le réseau étant accusé de nuire à la santé mentale des jeunes utilisateurs. L’Europe s’est également emparée de cette question.

☕️ L’État veut recenser les solutions IA dédiées au secteur public

8 avril 2025 à 16:42

L’État, par l’intermédiaire de la Direction interministérielle du numérique (DINUM), lance un appel aux éditeurs proposant des briques applicatives d’intelligence artificielle générative. Objectif affiché ? « Recenser et valoriser des solutions (…) qui répondent aux besoins du secteur public ».

La démarche prend la forme d’un appel à manifestation d’intérêt (AMI), ouvert jusqu’au 15 mai prochain, au terme duquel les lauréats feront « l’objet d’un recensement dans le socle interministériel de briques technologiques d’IAG, publié par la DINUM, et alimenteront la réflexion pour étoffer le socle technologique d’IAG Albert (API Gateway) déjà en développement et proposé par la DINUM ».

Autrement dit, participer à cet AMI doit permettre aux éditeurs concernés de faire référencer leurs solutions auprès de la DINUM et des services de l’État, sans autre promesse plus concrète à ce stade. Il pourrait toutefois contribuer à donner un peu de visibilité aux lauréats, puisque la liste de ces derniers sera présentée en juin prochain, à l’occasion du salon VivaTech.

Le règlement de l’AMI ratisse volontairement large : « toutes les solutions développées et disponibles sur le marché » sont les bienvenues, qu’elles se présentent comme une application complète ou comme une brique technologique dédiée à un aspect plus particulier du déploiement de l’IA générative comme l’inférence de modèles, la gestion de bases de données vectorielles ou l’apprentissage spécialisé.

L’AMI n’établit pas de préférence entre open source et logiques propriétaires. Il réclame en revanche que les solutions candidates soient adaptées à un environnement SecNumCloud en France ou dans l’Union européenne, et conformes à l’objectif de maîtrise, de pérennité et d’indépendance des systèmes d’information de l’État. L’acte de candidature suppose par ailleurs que l’éditeur soit prêt à détailler sa proposition technique et les ordres de grandeur de coûts associés.

L’État a déjà réalisé un premier AMI intitulé « IA au service de l’efficience » dont les enseignements ont été rendus publics le 11 février dernier, à l’occasion du Sommet pour l’action sur l’IA. Plus qu’un annuaire de solutions, le livrable prend la forme d’un catalogue de projet IA menés principalement par des entreprises, avec un objectif affiché d’efficience (principalement économique).

Clearview : outil de reconnaissance faciale tourné dès l’origine contre les migrants

8 avril 2025 à 15:45
Qui aurait pu prévoir ?
Clearview : outil de reconnaissance faciale tourné dès l’origine contre les migrants

Dès la création de l’entreprise en 2017, le co-fondateur de Clearview, Hoan Ton-That, avait en tête la reconnaissance faciale des immigrants et la surveillance des frontières étasuniennes. L’entreprise s’appuie sur des milliards d’images récupérées sur Internet, très souvent sans aucun consentement. Elle a aussi essayé de récupérer des millions de données de police comprenant des photos de suspects.

L’entreprise américaine Clearview est connu pour son web scraping sauvage pour obtenir des milliards d’images, ceci à fin de créer un logiciel proposé aux forces de l’ordre pour résoudre des enquêtes criminelles. Sur son site web, elle propose aux autorités d’ « exploiter le pouvoir de la reconnaissance faciale dans les enquêtes criminelles ».

Ses méthodes de scraping ont été reconnues illégales en Europe par la CNIL, mais aussi par ses homologues britannique, grecque, italienne et néerlandaise, entre autres. En tout, ces autorités de contrôle ont prononcé un peu plus de 100 millions d’amendes, sans pour autant avoir les moyens de contraindre l’entreprise de payer.

Du côté étasunien, un juge s’est prononcé le 20 mars dernier sur un règlement unique de class-action sans compensation financière immédiate et spécifique pour les victimes. Mais ce règlement pourrait, à terme, mener à un fond de compensation basé sur la valeur de Clearview et atteindre 23% de celle-ci, ce qui équivaudrait à 51,75 millions de dollars si on prend la valeur actuelle de l’entreprise.

Un pitch pour le contrôle aux frontières dès 2017

Le co-fondateur de l’entreprise, Hoan Ton-That, a, dès la création de l’entreprise en 2017, présenté le projet de Clearview comme une technologie de surveillance des frontières étasuniennes, selon une enquête du média américain Mother Jones.

Dans un email obtenu par Mother Jones et envoyé à des partenaires commerciaux en mars 2017, alors que l’entreprise n’avait pas encore adopté le nom de Clearview, il proposait un « pitch sur les patrouilles aux frontières ». Il y expliquait vouloir convaincre le gouvernement fédéral américain d’intégrer à ses caméras de surveillance des frontières son logiciel pour utiliser la « détection des visages » sur les immigrants entrant aux États-Unis.

Celui qui a récemment laissé sa place de CEO à un proche de Donald Trump est pourtant lui-même un immigrant venant d’Australie, tout en se réclamant d’une descendance royale vietnamienne. Après des études à San Francisco, « il s’est ensuite rapproché des néoréactionnaires de la Silicon Valley qui ont adopté une vision technocratique et d’extrême droite de la société », commente Mother Jones, et est devenu un « partisan inconditionnel de Donald Trump ». L’entreprise a été financée, dès ses débuts, par Peter Thiel.

Dans son pitch, Hoan Ton-That proposait de comparer les images des étrangers venant aux États-Unis avec des photos de suspects pour déterminer s’ils avaient déjà été arrêtés dans ce pays, selon le média. Récemment, 404 Média révélait que l’entreprise avait dépensé près d’un million de dollars en 2019 pour acheter « 690 millions de dossiers d’arrestation et 390 millions de photos d’arrestation » à une entreprise de renseignement nommée Investigative Consultant.

Surveillance des réseaux sociaux des migrants

Toujours dans cette présentation, l’ancien CEO de Clearview proposait d’analyser les médias sociaux des personnes migrantes pour connaître leur « sentiment à l’égard des États-Unis ». Cette proposition rappelle le système appelé « Catch and Revoke » que le secrétaire d’État des États-Unis, Marco Rubio, veut mettre en place afin de traquer les étudiants étrangers et révoquer leurs visas.

Hoan Ton-That proposait d’analyser les médias sociaux des migrants à la recherche de « messages disant “Je déteste Trump” ou “Trump est une puta” » et de cibler les personnes ayant des « affinités avec des groupes d’extrême-gauche », en donnant comme seul exemple UnidosUS, « l’une des plus grandes organisations hispaniques de défense des droits civiques du pays », explique Mother Jones.

Comment un simple tweet a fait tanguer les marchés à hauteur de 2 000 milliards de dollars

8 avril 2025 à 15:02
Down Rodeo
Comment un simple tweet a fait tanguer les marchés à hauteur de 2 000 milliards de dollars

Un simple tweet, publié par un compte X « certifié », a mis le feu aux marchés lundi, entraînant une hausse momentanée de quelque 2 000 milliards de dollars de la capitalisation boursière mondiale. L’incident, survenu dans un contexte de fébrilité exceptionnel, souligne à quel point les marchés restent vulnérables à des tentatives de manipulation délibérées.

Plus volatil, tu meurs. Sur les forums spécialisés comme sur les réseaux sociaux, l’annonce d’une embellie s’est propagée comme une traînée de poudre lundi après-midi (heure de Paris) : après trois jours de baisse continue, l’heure du rebond est arrivée, et les indices repartent à la hausse ! Pendant vingt minutes, une forme d’euphorie gagne les investisseurs.

Entre le moment où la contagion a débuté et celui où le feu de paille s’est éteint, les places boursières ont regagné lundi l’équivalent de quelque 2 000 milliards de dollars de capitalisation perdus depuis le 3 avril et l’annonce de la mise en place des droits de douane exceptionnels décidés par Donald Trump. Avant de les reperdre, tout aussi rapidement. Que s’est-il donc passé ?

Une interview détournée

Le phénomène débute avec un tweet massivement relayé par de nombreux comptes présentant des affinités avec les thématiques de l’investissement en bourse ou des cryptomonnaies. Écrit tout en majuscules, il affirme : « Trump envisage une pause de 90 jours dans la mise en place des droits de douane pour tous les pays sauf la Chine ». Souvent, il est assorti d’un nom propre, Hassett, en référence à Kevin Hassett, le conseiller économique de Donald Trump à la Maison-Blanche.

Une heure plus tôt, la question d’une possible pause dans la mise en œuvre des droits de douane lui avait bien été posée au micro de Fox News, mais Kevin Hassett avait alors botté en touche, indiquant que le président déciderait… ce qu’il déciderait.

Une intox particulièrement virale

C’est cette déclaration, plutôt prudente, qui semble avoir servi de point de départ à la diffusion d’une fausse information. D’après le déroulé retracé par NPR, la fake news aurait d’abord été propagée par un compte X baptisé Hammer Capital, et doté de la coche bleue (accessible en souscrivant un abonnement payant) qui permet de disposer de la mention « certifié » à côté de son pseudonyme et offre une portée supérieure aux messages. Le compte initial affiche environ 1 100 followers, mais la fausse information gagne rapidement en visibilité grâce au relais de nombreux autres comptes.

Quelques minutes plus tard, elle gagne une nouvelle caisse de résonance : le message est repris par le compte @DeItaone, qui compte pour sa part quelque 850 000 abonnés, et adopte « Walter Bloomberg » comme pseudonyme sur le réseau social X.

Officiellement, le compte n’a aucun lien avec la célèbre agence d’actu financière Bloomberg, mais il relaie fréquemment les alertes de cette dernière, ce qui explique vraisemblablement sa popularité. Le flux de dépêches de Bloomberg est très prisé des investisseurs particuliers, dans la mesure où il permet d’être alerté très en avance de phase d’éventuelles informations susceptibles d’influencer la bourse, mais il est payant (et facturé très cher).

Une caution journalistique

À ce stade, ni Bloomberg, ni la Maison-Blanche, ni Fox News n’ont confirmé la soi-disant pause sur leurs propres canaux, et même si la rumeur a déjà entraîné un début de hausse sur les marchés, son effet reste encore limité. Le véritable déclencheur intervient peu après 16 heures (heure de Paris), quand CNBC relaie l’intox – via son bandeau d’informations écrites – sur son direct. Cinq minutes plus tard, l’agence Reuters envoie à son tour une dépêche, qui confère, aux yeux de nombreux investisseurs, une légitimité à l’information… jusqu’à ce que la Maison-Blanche démente.

« Alors que nous suivions l’évolution du marché en temps réel, nous avons diffusé des informations non confirmées dans une bannière. Nos reporters ont rapidement corrigé l’information à l’antenne », précise une porte-parole de CNBC au Wall Street Journal. « La Maison-Blanche a démenti ces informations. Reuters a retiré cette information erronée et regrette son erreur », réagit Reuters dans la même veine.

CNBC a démenti vers 16h33 (heure de Paris)

Immédiatement, les investisseurs qui avaient acheté des titres ou des fonds cotés pour essayer de profiter de la hausse s’extraient du marché, provoquant la fin de l’embellie. Dans le lot, d’aucuns s’estiment toutefois heureux : la hausse a été si fulgurante que celui qui a acheté et vendu au bon moment a pu, en quelques minutes, réaliser un gain à deux chiffres.

La martingale est d’ailleurs si belle qu’elle devrait, en théorie, motiver l’ouverture d’une enquête, notamment aux États-Unis, où Donald Trump a récemment renforcé son pouvoir de contrôle sur le gendarme de la bourse, la SEC.

☕️ Avec son modèle Nova 1.1, Amazon permet de générer des vidéos jusqu’à 2 min

8 avril 2025 à 14:44

En décembre dernier, Amazon lançait sa nouvelle famille de modèles d’IA générative Nova. On y trouvait cinq variantes : Micro, Lite, Premier, Canvas et Reel, tous conçus pour une finalité spécifique. Le modèle principal et multimodal Premier est actuellement le plus grand modèle de l’entreprise. Micro est par exemple beaucoup plus petit et ne prend en charge que le texte.

Reel, lui, était conçu pour permettre la génération de vidéos d’un maximum de 6 secondes, à partir d’un texte et/ou d’images. Amazon promettait alors une extension de cette durée à 2 min dans le courant 2025, dont acte.

Nova Reel 1.1 est disponible depuis Amazon Bedrock et permet effectivement de générer des vidéos d’une durée maximale de 2 min. Dans son mode automatisé, la société a recours à une petite « astuce » : ces 2 minutes sont composées de plans de 6 secondes. Toutefois, Reel 1.1 est capable de maintenir « un style cohérent d’un plan à l’autre », selon Amazon. Dans ce mode, l’invite peut grimper jusqu’à 4 000 caractères, mais aucune image n’est acceptée en entrée.

Le modèle peut également fonctionner en mode manuel. Dans ce cas, on peut envoyer une invite – texte ou images cette fois – spécifique pour chaque plan. Attention cependant, la limite de caractères descend à 512, et la définition des images ne peut pas dépasser 1 280 x 720.

Le tarif du service est le même que pour la première version, avec une facturation de 0,08 dollar par seconde de vidéo générée.

☕️ Le patron de Shopify oblige ses équipes à prouver qu’une tâche ne peut être faite par IA

8 avril 2025 à 12:04

Dans un memo rendu public sur X, le directeur général de Shopify Tobi Lutke a déclaré modifier l’approche de son entreprise en termes de ressources humaines.

Il intime à ses équipes de prouver que des tâches ne peuvent être réalisées à l’aide de l’intelligence artificielle avant de demander une augmentation de ressources ou d’équipes.

Et de préciser que l’usage de l’IA est une « attente fondamentale » envers les équipes de Shopify, dans la mesure où elle aurait « multiplié » la productivité de ceux qui l’utilisent.

Comme le relève CNBC, la directive est formulée alors que les entreprises du numérique investissent des milliards de dollars dans le développement de l’intelligence artificielle, en même temps qu’elles licencient régulièrement. 


En 2024, selon le décompte de Layoffs.fyi, 152 000 postes ont été supprimés dans 549 entreprises de la tech.

Chez Shopify, les équipes totalisaient 8 100 personnes au mois de décembre, contre 8 300 plus tôt en 2024. L’entreprise avait supprimé 14 % de ses équipes en 2022 et 20 % en 2023.

Des associations demandent un débat sur la création des datacenters en France

8 avril 2025 à 11:43
Stockera, stockera pas
Des associations demandent un débat sur la création des datacenters en France

Dans le cadre du projet de loi de simplification de la vie économique, un groupe d’associations appellent les députés à supprimer l’article 15, qui faciliterait la construction de centres de données, pour laisser le temps d’organiser un débat citoyen sur la multiplication de ces entrepôts.

De ce 8 avril jusqu’à vendredi 11 avril, les députés examinent le projet de loi « de simplification de la vie économique ». De mesure de simplification du quotidien des très petites entreprises à la simplification des démarches pour accéder aux marchés publics, le texte prévoit une variété de mesures, dont la facilitation de l’obtention de licences IV dans les petites villes.

Mais son article 15, qui vise à faciliter la construction de centres de données, inquiète la Quadrature du Net, le collectif marseillais le Nuage était sous nos pieds et la coalition Hiatus, qui réunit une vingtaine d’associations françaises aux mandats variés. Ils appellent les députés à soutenir un moratoire de deux ans « sur la construction des plus gros data centers » en France, le temps d’organiser un débat public.

Début février, en amont du Sommet sur l’intelligence artificielle organisé à Paris, le Premier ministre avait en effet annoncé l’identification de 35 sites industriels déclarés propices à l’installation de centres de données, à la fois en termes de surface foncière, de disponibilité et d’accès à l’énergie. Matignon précisait que les surface allaient de « 18 à 150 hectares et plus », pour une surface totale de l’ordre de 1 200 hectares.

« Projet d’intérêt national majeur »

Or, l’article 15 du projet de loi de simplification de la vie économique permettrait précisément d’accorder le statut de « projet d’intérêt national majeur » (PINM) à des centres de données de ce genre. L’intérêt pour leurs porteurs : accélérer l’implantation des bâtiments et les procédures – de gestion des documents d’urbanisme, de raccordement au réseau électrique, de reconnaissance de raisons impératives d’intérêt public majeurs.

Créé dans la loi sur l’industrie verte de 2023, le statut de « projet d’intérêt national majeur » (PINM) introduit dans le code de l’urbanisme a en effet été pensé pour faciliter l’implantation de projets industriels dans le pays. En juillet 2024, il a été accordé par décret à plusieurs projets, souvent liés à l’industrie numérique : une usine de fabrication de cellules et modules photovoltaïques de la société Holosolis, une de production de panneaux photovoltaïques de la société Carbon, une usine Eastman de recyclage moléculaire des plastiques, une usine Gravithy de production de minerai de fer réduit et d’hydrogène et un site d’extraction et de transformation de lithium d’Imerys, dans l’Allier.

Moratoire de deux ans pour une convention citoyenne

L’un des problèmes que pointent les associations : le statut PINM permettrait notamment de déroger à l’obligation de protection des espèces protégées, alors que la multiplication de data centers pose de multiples enjeux environnementaux de bétonisation des sols et de concurrence dans l’usage des terres et de l’eau.

À l’heure actuelle, la France compte environ 315 data centers, dont la grande majorité est concentrée en Île-de-France (la région concentre 60 % de la puissance de la capacité nationale, selon Knight Frank), suivie par Marseille et la région PACA, où aboutissent 18 câbles sous-marins.

Détaillant l’empreinte environnementale de ces infrastructures, la Quadrature du Net et ses partenaires, rappellent que les hyperscalers, ces data centers extrêmement grands poussés par les acteurs états-uniens du numérique, recourent massivement à l’eau pour refroidir leurs serveurs. Google a ainsi révélé avoir consommé 28 milliards de litres d’eau en 2023, dont les deux tiers d’eau potable, suscitant de telles tensions que le Chili a freiné l’un de ses projets.

Les associations notent que l’expansion de ces projets en France, y compris lorsqu’elle est réalisée par étapes, comme dans la ville de Wissous, créent déjà des oppositions au niveau local. Enfin, elles interrogent les effets de ces édifices en termes de création d’emploi, un enjeu sur lequel le sociologue Clément Marquet revenait à notre micro.

En écho aux experts de l’ADEME, qui soulignent la nécessité de planifier et réguler le déploiement des centres de données, les associations incitent les députés à rejeter l’article 15 du projet de loi en cours de discussion. Elles demandent aussi un moratoire sur la construction des plus gros data centers, le temps de permettre à « une convention citoyenne de penser les conditions d’une maîtrise démocratique des data centers ».

Alertes sur les sites GenAI : pourquoi notre extension affiche-t-elle des faux positifs ?

8 avril 2025 à 10:50
Ça Bloom ?
Alertes sur les sites GenAI : pourquoi notre extension affiche-t-elle des faux positifs ?

Next utilise un filtre de Bloom pour afficher des alertes sur les médias utilisant de l’IA générative pour tout ou partie de ses articles. Comment fonctionne notre algorithme de détection et pourquoi y a-t-il des faux positifs ? On vous explique.

Notre extension Chrome et Firefox pour alerter les visiteurs des sites d’information utilisant l’IA générative pour tout ou partie de leurs articles utilise une liste de plus de 3 000 noms de domaines identifiés « à la main et de visu » (sans recours à des outils de vérification algorithmique et automatisé) par notre journaliste Jean-Marc Manach. Le code source est disponible sur GitHub.

Cachez cette liste que je ne saurais voir…

Nous ne souhaitons pas diffuser publiquement la liste des domaines (et des entreprises), pour plusieurs raisons que nous avons déjà expliquées dès la première partie de notre enquête :

« Nous ne voulons pas, d’une part, que cette base de données puisse aider ceux qui voudraient améliorer leurs générateurs d’articles automatisés, et qui se targuent de ne pas être reconnus comme GenAI (nous y reviendrons). Nous ne voulons pas non plus faire de « name and shame » et mettre sur le même plan des auto-entrepreneurs SEO ayant créé quelques sites de façon opportuniste et les entreprises (y compris individuelles) en ayant créé plusieurs dizaines ».

Nous avons donc utilisé une méthode d’obfuscation pour masquer la liste. Un développeur de moji – Hasnaine – nous a grandement épaulés pour cette tâche. Il a développé le code de cette partie de l’extension, ainsi qu’un script pour transformer notre liste de manière irréversible. La méthode utilise un filtre de Bloom, mais qu’est-ce que c’est et qu’est-ce que cela implique ?

Comme l’explique Bioinfo-fr, « le filtre de Bloom ne vous permet pas vraiment de “stocker” des données à proprement parler ; le filtre est là pour vous permettre de tester l’appartenance d’un élément à un ensemble de données ». Parfait, c’est exactement ce que l’on cherche.

Contre les faux positifs, la liste blanche

Un filtre de Bloom est une structure probabiliste. Dans la pratique, c’est un tableau de n bits qui est initialement à 0 sur toutes ses entrées. « Nous allons utiliser plusieurs fonctions de hachage indépendantes qui retourneront une suite de bits correspondant à des adresses mémoires : au lieu d’effectivement stocker les données, on ne stockera ainsi que quelques bits d’information », explique Bioinfo-fr.

L’exemple parle du stockage de séquences ADN (logique pour un site dédié à la biologie), mais cela fonctionne à peu près pour n’importe quoi. L’algorithme a deux résultats possibles lors d’un test : l’élément est probablement dans la liste, ou il n’est pas présent (cette fois-ci avec certitude), comme le résume Wikipédia :

« Plus précisément, un test d’appartenance renvoie soit « peut-être dans l’ensemble » ou « assurément pas dans l’ensemble ». Dit autrement, il n’y a jamais de faux négatif mais il peut y avoir des faux positifs. »

Il a donc l’avantage de ne pas produire de faux négatif (un site qui serait dans la liste, mais non identifié comme tel). Toutefois, il a l’inconvénient de générer des faux positifs. Et plus la liste d’éléments de base est grande, plus le risque de faux positifs augmente. Raison pour laquelle certains sites sont parfois identifiés à tort par notre extension.

Un faux positif arrive donc lorsque l‘algorithme identifie à tort un site comme étant « peut-être » dans notre liste, quand bien même il n’y figure pourtant pas. Pour contrer cette problématique inhérente au fonctionnement du filtre de Bloom, nous avons mis en place depuis quasiment le début une liste blanche d’URL à ne pas identifier.

Nous tâchons d’ajouter au plus vite les éléments dans notre liste pour corriger les faux positifs quand ils nous sont signalés. Depuis peu, l’application télécharge sa liste blanche sur les serveurs de Next, ce qui évite d’avoir à la pousser manuellement à chaque nouvelle mise à jour (encore à déployer sur Chrome, ça arrive).

Notre algorithme, côté technique

Pour en revenir à notre filtre de Bloom, nous vous donnons les principaux paramètres de notre formule pour calculer la taille de notre tableau (en bits), à partir du nombre d’éléments et du taux de faux positif spécifié. Attention, plus le taux est faible, plus la taille du tableau est importante, il faut donc choisir avec précaution ce paramètre.

const expectedElements = strings.length;
const falsePositiveRate = 0.00000001; 
const size = Math.ceil(-(expectedElements * Math.log(falsePositiveRate)) / (Math.log(2) ** 2));
const numHashes = Math.max(1, Math.ceil((size / expectedElements) * Math.log(2)));

Une fois la taille de notre tableau obtenu, nous calculons le nombre de hachages pour notre filtre de Bloom.

L’influence de la précision

Voici quelques résultats en fonction de la précision (falsePositiveRate) demandée sur les faux positifs (il s’agit ici de quelques exemples, d’autres combinaisons sont possibles) :

1 % (0.01):

  • Taille : 32 772 bits
  • Nombre de fonctions de hash : 7

0,01 % (0.0001) :

  • Taille : 65 543 bits
  • Nombre de fonctions de hash : 14

0,0001 % (0.000001) :

  • Taille : 98 314 bits
  • Nombre de fonctions de hash : 20

0.000001 % (0.00000001) :

  • Taille : 131 086 bits
  • Nombre de fonctions de hash : 27

Afin de limiter le nombre de faux positifs, nous avons augmenté la précision dans la dernière mise à jour de notre extension.

Meta accusée d’avoir triché sur les performances de ses modèles Llama 4

8 avril 2025 à 09:42
Sous son meilleur jour
Meta accusée d’avoir triché sur les performances de ses modèles Llama 4

L’entreprise a été épinglée hier pour des résultats de Llama 4 peu en phase avec ce qu’elle proclamait avoir obtenu dans plusieurs benchmarks. Une déception générale semble se manifester sur l’utilisation des modèles en conditions réelle, tandis que des soupçons de triche apparaissent. Meta nie avoir voulu tromper la communauté.

Meta a lancé samedi sa nouvelle famille de modèles de fondation Llama 4. Trois variantes ont été présentées, selon les cas d’usage envisagés : Scout, Maverick et surtout Behemot. Ce dernier, avec ses 2 000 milliards de paramètres, 288 milliards de paramètres actifs et 16 experts, est un colosse dont les résultats seraient pratiquement au niveau de Gemini 2.5 Pro, alors que ce dernier « raisonne » et pas Llama 4.

Pourtant, si plusieurs personnes ont commencé à s’interroger dès le dimanche, une polémique est apparue progressivement hier. Au centre de l’attention, le modèle intermédiaire Maverick, dont le score sur LMArena (1 417) ne semble pas se refléter dans les tests réalisés par un nombre croissant de chercheurs et autres experts.

Meta épinglée par LMArena

Dans son communiqué, Meta indiquait discrètement avoir utilisé une version expérimentale du modèle pour réaliser ses tests. La version mise à disposition samedi n’est cependant pas celle utilisée sur LMArena. Au point que l’équipe du site s’est fendu d’un message sur X hier après-midi pour pester contre Meta :

« L’interprétation de notre politique par Meta ne correspond pas à ce que nous attendons des fournisseurs de modèles. Meta aurait dû préciser que « Llama-4-Maverick-03-26-Experimental » était un modèle personnalisé visant à optimiser les préférences humaines. En conséquence, nous mettons à jour nos politiques de classement pour renforcer notre engagement en faveur d’évaluations équitables et reproductibles, afin d’éviter que ce genre de confusion ne se reproduise à l’avenir ».

Hier, une rumeur a également pris de l’ampleur : Meta aurait triché. Relevant qu’une publication un samedi était étrange (nous l’avions effectivement signalé), plusieurs personnes affirment que Meta aurait spécifiquement entrainé ses modèles pour les benchmarks, signale The Verge. Le cas serait semblable à celui des constructeurs de smartphones accusés d’optimisations pour les benchmarks pour mieux mettre en avant les performances de leurs produits. Performances que l’on ne retrouvait pas en utilisation réelle.

Meta nie tout en bloc

Au point qu’Ahmad Al-Dahle, ingénieur en chef sur l’intelligence artificielle chez Meta, a fini par prendre la parole hier soir pour démentir. « Comme nous avons lancé les modèles dès qu’ils ont été prêts, nous nous attendons à ce qu’il faille plusieurs jours pour que toutes les implémentations publiques se mettent en place. Nous continuerons à travailler à la correction des bogues et à l’intégration des partenaires », a-t-il déclaré pour expliquer la variabilité des résultats. Explication qui a valu au responsable quelques moqueries.

Concernant les accusations de tricherie, il réfute en bloc : « Nous avons également entendu dire que nous nous étions entraînés sur des ensembles de tests – ce n’est tout simplement pas vrai et nous ne ferions jamais cela. Nous pensons que les modèles Llama 4 représentent une avancée significative et nous sommes impatients de travailler avec la communauté pour libérer leur potentiel ».

Les commentaires en réponse font souvent état de performances médiocres, tout particulièrement dans Meta AI, censé utiliser Llama 4 dans WhatsApp, Threads et Facebook. Quelques jours avant la publication des nouveaux modèles, The Information indiquait que leur genèse avait été particulièrement complexe. Le lancement aurait été repoussé à plusieurs reprises à cause de performances inférieures aux attentes de l’entreprise.

Free lance sa Freebox Pop S « 100 % Internet » : 5 Gb/s et Wi-Fi 7 pour 24,99 € par mois

8 avril 2025 à 09:35
Elle a popé un mardi, quelle surprise :D
Free lance sa Freebox Pop S « 100 % Internet » : 5 Gb/s et Wi-Fi 7 pour 24,99 € par mois

Une nouvelle Freebox est dès à présent disponible : la Freebox Pop S, en réponse à la Pure Fibre de Bouygues Telecom. Pour 24,99 euros par mois, vous avez un accès à Internet jusqu’à 5 Gb/s partagés, du Wi-Fi et… aucun service de télévision.

Les amateurs de la marque l’auront certainement compris à la lecture du titre de cette actualité : la Freebox Pop S est à la Freebox Pop ce que la Delta S était à la Delta : « une offre 100 % Internet sans TV ». La Freebox Pop S ne propose donc qu’un accès à Internet (en fibre optique FTTH ou en xDSL), sans service supplémentaire. Il s’agit évidemment de venir jouer sur les platebandes de la box Pure Fibre de Bouygues Telecom.

Jusqu’à 5 Gb/s partagés et 900 Mb/s en upload

La Freebox Pop S reprend le boîtier de la Freebox Pop et propose donc « des débits Fibre jusqu’à 5 Gb/s partagés en téléchargement et jusqu’à 900 Mb/s en envoi ». Le mot important est « partagés », puisque la Freebox Pop ne dispose pas de port à 5 ou 10 Gb/s (ni de cage SFP+).

Pour atteindre les 5 Gb/s, il faut combiner plusieurs solutions : 2,5 Gb/s sur un port Ethernet, 1 Gb/s sur deux autres ports Ethernet et enfin 0,5 Gb/s en Wi-Fi, soit 5 Gb/s au total. Sur une seule machine, vous ne pouvez pas dépasser les 2,5 Gb/s par contre.

Avec sa Pure Fibre, Bouygues Telecom propose pour rappel un port 10 GbE (Ethernet, via un connecteur RJ45). Nous avions déjà détaillé les différents ports multi-GIG des principales box des FAI dans un précédent dossier.

Wi-Fi 7 jusqu’à 2,2 Gb/s

Comme la Freebox Pop depuis mars 2024, la version S dispose du Wi-Fi 7 avec « jusqu’à 2,2 Gb/s, soit des débits jusqu’à 2 fois plus rapides que le Wi-Fi 6). Sur demande, un répéteur Wi-Fi 7 est proposé par le fournisseur d’accès. Bouygues Telecom a pour rappel attaqué Free devant le tribunal de commerce de Paris sur son Wi-Fi 7, qui n’est pas certifié par la Wi-Fi Alliance.

Pas de boitier TV, ni d’appels vers les mobiles en France

La Freebox Pop ne dispose pas de Player (le boitier multimédia) et ne permet pas d’accéder à des chaines de télévision. Oqee et Free Foot ne sont pas non plus inclus.

Une autre différence existe entre les deux Freebox Pop : les appels ne sont illimités que vers les fixes en France et les DOM, pas vers les mobiles en France et DOM (c‘est le cas sur Freebox Pop).

24,99 euros par mois, sans engagement, avec Free Family

« La nouvelle offre Freebox Pop S est une exclusivité web au prix de 24,99 euros par mois seulement. Comme toutes les offres Freebox, elle est sans engagement », ajoute enfin l’opérateur. L’option Free Family est disponible, permettant d’avoir jusqu’à quatre lignes mobiles à 9,99 euros par mois pendant 1 an, puis à 15,99 euros par mois (sans engagement), au lieu de 19,99 euros par mois.

La Freebox Pop S est donc à 15 euros de moins que la Freebox Pop classique. Cette dernière bénéficie d’une remise de 10 euros par mois la première année, ramenant la différence à 5 euros pendant 12 mois. Nous mettrons à jour notre tableau comparatif dans la journée. Dans les deux cas, les frais de résiliation sont de 59 euros et ceux de mise en service de 49 euros.

« Les abonnés existants éligibles seront informés par email ou directement dans leur Espace Abonné de la possibilité de changer pour la Freebox Pop S », indique le fournisseur d’accès, sans plus de détails.

Par rapport à la Pure Fibre, la Freebox Pop S est donc un euro plus cher par mois, avec un débit inférieur. Elle propose toutefois des appels vers les fixes et du Wi-Fi 7, en plus de l’écosystème Free (l’application Freebox Files par exemple).

Freebox Pop, Révolution et Delta passent à 900 Mb/s en upload

Enfin, « Free booste la connectivité Fibre de ses Freebox : les débits maximum théoriques montants de la Freebox Pop, de la Freebox Révolution et de la Freebox Delta passent à 900 Mbit/s. Ces évolutions se font automatiquement et sans surcoût pour tous les abonnés existants et les nouveaux abonnés ».

C’est la confirmation d’une hausse que certains avaient déjà remarqué depuis mi-mars.

☕️ Hausse de 20 % des demandes d’autorisation pour des traitements de données de santé

8 avril 2025 à 09:17

La CNIL explique qu’en 2024 il y a eu 619 demandes d’autorisation pour des traitements de données de santé, ce qui représente une hausse de 20 % par rapport à 2023.

L’autorité chargée de la protection des données en France ajoute que les deux tiers (397) de ces demandes ont reçu une autorisation. Les trois quarts des demandes concernaient des projets de recherche.

À côté d'une patiente âgée, un médecin observe une radio dentaire.

174 dossiers sont des demandes classées sans suite (en baisse de 7 %), la plupart du temps car ce sont des « demandes relatives à des traitements non soumis à formalité préalable, des dossiers incomplets (par exemple ceux relatifs à des projets de recherche pour lesquels l’avis du comité compétent n’a pas été transmis) ou qui sont conformes à un référentiel de la CNIL et ne nécessitent donc pas d’autorisation spécifique ».

La CNIL explique cette légère baisse par une « amélioration de la qualité des dossiers reçus », notamment grâce à « l’accompagnement accru » qu’elle a mis en place.

Et sur ces 619, seulement 3 ont fait l’objet d’un refus de la part de l’autorité. Ceux-ci sont émis « principalement sur les mesures techniques et organisationnelles visant à assurer la sécurité des données comme la pseudonymisation des données et le respect du principe de minimisation ».

Avec 192 Gb/s et 480 W, le GPMI veut concurrencer le HDMI ou le DisplayPort

8 avril 2025 à 08:21
Du tout-en-un, manque plus que la version Wi-Fi !
Avec 192 Gb/s et 480 W, le GPMI veut concurrencer le HDMI ou le DisplayPort

Un consortium d’une cinquantaine d’entreprises chinoises planche sur la mise au point d’un nouveau standard d’interface numérique. Baptisé GPMI, il offrirait jusqu’à 192 Gb/s de bande passante et autoriserait une alimentation électrique pouvant atteindre 480 W, soit des performances deux fois supérieures aux meilleurs connecteurs actuels. Un premier processeur est déjà compatible chez HiSilicon.

GPMI, pour General Purpose Media Interface : voilà peut-être le nouvel acronyme qui figurera à l’arrière des écrans de TV ou des moniteurs PC d’ici quelques années. Il désigne un nouveau standard dédié à la transmission de données et d’images, qui viendrait donc directement concurrencer le HDMI et le DisplayPort.

Des performances doublées par rapport aux standards actuels

Le GPMI avance avec deux arguments clés. D’abord, une bande passante capable d’atteindre 192 Gb/s, à comparer aux 80 Gb/s du DisplayPort ou aux 96 Gb/s de la récemment officialisée norme HDMI 2.2. Il intègre ensuite une possibilité d’alimentation électrique, avec une puissance maximale (théorique à ce stade) de 480 W. Là encore, le GPMI doublerait la donne, non pas par rapport au HDMI (qui n’a pas vocation à alimenter ou recharger), mais par rapport à Power Delivery (USB Type-C), qui permet de délivrer jusqu’à 240 W.

Deux connecteurs, Type-B et Type-C. La ligne du bas souligne en bleu la possibilité d’une alimentation électrique

Pour atteindre ce plein potentiel, il faudrait recourir à un connecteur dédié, le GPMI type-B, qui se présente sur un format semblable à celui du HDMI ou du DisplayPort. Le consortium prévoit toutefois une deuxième implémentation via un connecteur USB type-C. Dans ce contexte, les performances seraient divisées par deux, soit tout de même 96 Gb/s et 240 W d’alimentation, comme en USB avec Power Delivery 3.1.

Le standard prévoit par ailleurs un bus secondaire, qui complète le flux principal de transmission pour toutes les opérations de contrôle, ainsi qu’un port de type CEC, pour le contrôle des appareils connectés.

Le connecteur intègre plusieurs ports spécialisés

Un projet encore discret mais déjà bien avancé

Le GPMI et son double connecteur ont récemment fait une apparition sur un salon, repérée par IT Home. S’il était resté relativement discret jusqu’ici, le standard fait l’objet de travaux préparatoires depuis 2019. Et il peut compter sur des soutiens de poids. La Shenzhen 8K UHD Video Industry Cooperation Alliance (SUCA), consortium qui porte le GPMI, réunit en effet un aréopage varié d’industriels avec des grands noms des télécoms (China Mobile, Tencent), des fabricants d’électronique grand public (Haier, Hisense, TCL, Huawei), des acteurs de la télédiffusion et des équipementiers spécialisés.

Dans le lot, on trouve HiSilicon, filiale de Huawei dédiée aux semi-conducteurs, qui développe ses propres processeurs sur base ARM, et dispose déjà, à son catalogue, d’une puce tout-en-un destinée aux marchés des téléviseurs connectés affichant sa compatibilité avec le GPMI, la V660. D’après la SUCA, deux autres puces dotées de la nouvelle interface sont attendues en 2025.

L’alliance SUCA s’est par ailleurs félicitée en novembre dernier d’avoir obtenu le SVID (Standard or Vendor ID) par lequel l’USB Implementers Forum valide la compatibilité de la connectique avec ses propres normes.

Un connecteur dédié au marché chinois ?

Une connectique bidirectionnelle, à très grande bande passante, avec une alimentation électrique suffisante pour alimenter un ordinateur, une console de jeux ou une set-top box, le tout sur un seul et unique câble : le GPMI a sur le papier de quoi devenir le connecteur idéal… s’il s’impose sur le marché. L’USB Type-C le permet aussi dans un moindre mesure avec l’Alternate Mode du DisplayPort annoncé en 2020 (sur de l’USB4).

Or à ce niveau, la SUCA et les industriels concernés ne font pour l’instant pas beaucoup d’efforts pour que le GPMI rayonne hors de leur marché domestique. Le format semble n’avoir été présenté que sur des événements chinois. Les rares documentations accessibles en ligne (à l’image de ce livre blanc chez HiSilicon, accessible uniquement après avoir rempli le formulaire de contact) mettent par ailleurs en avant la prise en charge d’une norme de protection baptisée ADCP, présentée comme une alternative au HDCP, et fonctionnant à l’aide des algorithmes de chiffrement SM3 et SM4, couramment utilisés en Chine.

Face au HDMI (sous licence) et surtout au DisplayPort (sans redevance), il faudra donc attendre de voir quelle est la logique de diffusion adoptée par la SUCA, et surtout dans quelle mesure elle arrive à fédérer un écosystème complet de produits estampillés GPMI, des téléviseurs aux ordinateurs ou aux cartes graphiques. Tout comme il conviendra d’étudier les performances réelles de la transmission et ses exigences en matière de câbles…

☕️ Aux États-Unis, Meta met officiellement fin à sa vérification des faits

7 avril 2025 à 17:31

La décision aura fait couler beaucoup d’encre et avait notamment provoqué chez Bloomberg une grande enquête sur les données des notes de communauté. Mais cette fois ça y est : dans quelques heures, le programme de vérification professionnelle des faits de Meta sera officiellement terminé.

Comme nous le rappelions le mois dernier, Mark Zuckerberg avait fait une annonce fracassante sur le sujet. Selon le CEO, cette vérification prenait trop de temps et était trop « politisée », rejoignant en filigrane la grande chasse au « wokisme » tant propulsée par Donald Trump et Elon Musk.

Les logos de Facebook et Meta dans des carrés en 3D sur un fond grisé dégradé
Photo de Dima Solomin sur Unsplash

À la place, Meta applique désormais les mêmes notes de la communauté. Toutes les personnes utilisant Facebook pourront ainsi faire une proposition de note, pour expliquer en quoi le contenu est problématique. Comme sur X, il est recommandé d’ajouter un ou plusieurs liens pour étayer son propos. La validation de la note est ensuite soumise à approbation d’autres membres de la communauté.

Les premières notes devraient apparaitre « progressivement sur Facebook, Threads et Instagram », a indiqué vendredi Joel Kaplan, responsable des affaires mondiales chez Meta. Rappelons une différence majeure entre l’ancien processus de vérification et les notes de la communauté : les publications épinglées par des notes resteront en ligne, ces dernières n’étant là que pour fournir du contexte.

Dans son enquête, basée sur plus d’un million de notes récupérées sur X, Bloomberg reconnaissait plusieurs vertus au système, dont une plus grande réactivité. Cependant, il n’est en rien une solution vraiment efficace de modération à une telle échelle. Surtout, le média critiquait aussi bien que X que Meta en pointant que la rémunération des publications revenait à encourager la viralité, donc à accentuer les problèmes de modération.

Précisons enfin que les changements évoqués ici ne sont pour l’instant valables qu’aux États-Unis. En Europe notamment, rien n’a encore été annoncé.

☕️ OpenAI : o3 et o4-mini arrivent finalement, GPT-5 repoussé de quelques mois

7 avril 2025 à 16:59

Alors que l’actualité sur l’intelligence artificielle générative se déchaine avec les nouvelles versions de DeepSeek V3, Gemini 2.5 Pro ou encore le très récent Llama 4, OpenAI annonce du retard du GPT-5.

« Nous allons être en mesure de rendre le GPT-5 bien meilleur que ce que nous pensions au départ. Nous avons également constaté qu’il était plus difficile que nous le pensions de tout intégrer en douceur », a ainsi indiqué Sam Altman, CEO d’OpenAI, dans une publication sur X le 4 avril.

En conséquence, GPT-5 n’arrivera que dans quelques mois, donc avec du retard. Altman ajoute que l’entreprise veut s’assurer qu’elle disposera « d’une capacité suffisante pour répondre à ce [qu’elle prévoit] être une demande sans précédent ».

La société avait expliqué plus tôt dans l’année que son modèle serait disponible pour tous, mais que le degré de précision se ferait en fonction de la formule utilisée. Sans abonnement payant, le niveau d’intelligence sera ainsi « standard ». La formule ChatGPT Plus aura droit à « un niveau d’intelligence plus élevé », tandis que ChatGPT Pro donnera accès au niveau le plus élevé. On ignore concrètement à quoi correspondent ces paliers.

« L’un de nos principaux objectifs est d’unifier nos modèles en créant des systèmes capables d’utiliser tous nos outils, de savoir s’il faut réfléchir longtemps ou non, et d’être utiles pour un large éventail de tâches », précise également Sam Altman. GPT-5 sera un modèle unifié : il sera multimodal et intègrera la voix, Canvas, la recherche approfondie et d’autres outils.

Si GPT-5 sera en retard, il en va autrement des modèles « o ». Contrairement à ce qui avait été indiqué en février, o3 va finalement sortir « dans quelques semaines », accompagné d’un o4-mini. On apprend également qu’un modèle o3-pro est en préparation, sans plus de détails. Aucune précision technique n’a été donnée sur ces futurs modèles de raisonnement.

Meta dégaine ses Llama 4 multimodaux, dont un Behemot de 2 000 milliards de paramètres

7 avril 2025 à 16:52
It really kicks
Meta dégaine ses Llama 4 multimodaux, dont un Behemot de 2 000 milliards de paramètres

Dans la longue quête des modèles d’IA générative toujours plus puissants, c’est au tour de Meta de dégainer avec la quatrième version de son Llama. Il est décliné en trois versions, selon le cas d’usage, et tous sont multimodaux. Alors que Meta se lance pour la première fois dans les « mélanges d’experts », l’Europe continue d’être privée des nouveautés.

Meta veut frapper fort avec son modèle Llama 4. Dans son annonce, publiée samedi (c’est la première fois que l’entreprise lance un modèle majeur durant le week-end), Meta explique qu’il a été entrainé sur « de grandes quantités de textes, d’images et de données vidéo non étiquetés » et qu’il dispose d’une « large compréhension visuelle ».

Llama 4 est décliné en trois versions : Scout, Maverick et Behemot. Précisons d’emblée que si les deux premiers sont disponibles, ils ont été distillés depuis Behemot qui, lui, est toujours en cours d’entrainement.

Des paramètres et des experts

Llama 4 Scout est le plus petit modèle, avec 16 experts. Ces derniers représentent des sous-sections spécifiques du modèle, conçues pour traiter des tâches particulières. Ils sont la conséquence de l’approche MoE (Mixture of Experts), utilisée pour la première fois chez Meta. Chaque expert représente un réseau neuronal pouvant être entrainé séparément, permettant un entrainement global du modèle nettement plus rapide, comme l’expliquait déjà Hugging Face fin 2023.

En fonction de la tâche, c’est le modèle qui « décide » ensuite à quel expert envoyer les jetons. Conséquence, si Llama 4 Scout a 109 milliards de paramètres, 17 milliards « seulement » sont actifs en même temps.

Même cas de figure pour Maverick, le modèle principal. Cette fois, le nombre de paramètres est de 400 milliards, mais le modèle dispose de 128 experts, toujours avec la même technique. Comme pour Scout, le nombre de paramètres actifs est de 17 milliards.

Selon Meta, ces deux modèles sont tout simplement les meilleurs modèles multimodaux de leur catégorie respective. Scout fournit ainsi une fenêtre contextuelle de 10 millions de jetons, peut fonctionner sur un seul GPU H100 de NVIDIA et fournit de meilleurs résultats que Gemma 3, Gemini 2.0 Flash-Lite et Mistral 3.1 « dans une large gamme de tests de référence », selon Meta.

Maverick, qui doit devenir le principal modèle poussé par Meta, est présenté comme surpassant GPT-4o et Gemini 2.0 Flash. Sur LMArena, le modèle se classe deuxième avec un score de 1417. Point intéressant, Meta évoque directement DeepSeek, car les résultats obtenus par Maverick sont décrits comme « comparables » au dernier modèle chinois. Selon Meta, Maverick peut fonctionner sur un seul système H100 DGX de NVIDIA.

L’énorme Behemot toujours en formation

Dans la nouvelle trilogie de Meta, Scout et Maverick sont les étudiants. L’enseignant se nomme Behemot, à partir duquel ils ont été distillés. Le modèle porte a priori bien son nom : on ne joue plus du tout dans la même cour.

Ce mastodonte, dont l’entrainement est toujours en cours, affiche la bagatelle de 2 000 milliards de paramètres. Bien sûr, tous ne fonctionnent pas en même temps, mais le modèle, doté de 16 experts, dispose quand même de 288 milliards de paramètres actifs. De fait, il est présenté comme le modèle « de pointe » pour tout ce qui touche aux mathématiques, au multilinguisme et aux images. Pour économiser les coûts, la distillation du modèle a été réalisée pendant la phase de pré-entrainement, précise Meta.

Évidemment, les performances d’un tel modèle sont annoncées comme supérieures à tout ce qui existe. Ou presque. Dans le tableau donné par Meta, on peut voir que les notes obtenues par son Behemot sont largement supérieures globalement que les modèles concurrents. Mais si Meta a fait combattre son modèle face à Claude Sonnet 3.7 et GPT-4.5 – qui sont effectivement les dernières versions des modèles – l’entreprise a choisi de se limiter à Gemini 2.0 Pro, alors que la 2.5 est disponible.

How to train a behemot

L’entrainement d’un tel modèle aurait « constitué un défi de taille ». Pendant celui de Maverick, Meta dit s’être aperçue de plusieurs problèmes, au point de changer toute sa chaine de traitements post-entrainement. Le réglage fin supervisé (SFT) et l’optimisation des préférences directes (DPO) ont ainsi été allégés. 50 % des données jugées « faciles » ont été supprimées, en se servant d’autres modèles Llama comme juges. L’étape intermédiaire d’apprentissage par renforcement (RL) est restée entière, bien qu’avec des prompts « plus difficiles ».

Concernant Behemot, Meta a appliqué une version extrême de cette recette, puisque 95 % des données « faciles » ont été élaguées pour la phase SFT. « Nous avons également constaté que l’exécution d’un SFT léger suivi d’un apprentissage par renforcement (RL) à grande échelle produisait des améliorations encore plus significatives dans les capacités de raisonnement et de codage du modèle », affirme Meta.

Même l’étape d’apprentissage par renforcement a nécessité des travaux. L’entreprise dit avoir dû passer par une refonte de son infrastructure : nouvelle conception de la parallélisation MoE pour des itérations plus rapides et un nouveau cadre asynchrone pour l’apprentissage par renforcement. Pour ce dernier, Meta dit avoir développé un système d’allocation flexible des modèles à des GPU distincts. Cette amélioration aurait « multiplié par 10 l’efficacité de l’entrainement », comparé à l’ancienne méthode qui consistait à « empiler tous les modèles en mémoire ».

Meta précise enfin que tous les entrainements de Llama 4 ont été réalisés en précision FP8. Dans le cas de Behemot, l’entreprise s’est servie de 32 000 GPU, avec un niveau de performances de 390 TFLOPS par GPU. La réserve de données, même après le fameux élagage, représentait 30 000 milliards de jetons, plus du double de ce qui avait été utilisé pour Llama 3.

Des réponses « utiles »

Les trois nouveaux modèles annoncés sont « classiques » : ils n’opèrent aucun raisonnement. Les comparaisons sont donc d’autant plus intéressantes, surtout dans le cas de Behemot sur des domaines comme les mathématiques et le développement logiciel. Reste à savoir bien sûr le type de coût qu’un modèle aussi volumineux peut engendrer. Surtout quand la concurrence, notamment DeepSeek-V3-0324, commence à mettre un accent plus prononcé sur l’efficacité.

Meta, en tout cas, indique avoir tout mis en œuvre pour que ses modèles fournissent des réponses utiles et « factuelles ». Toutes les variantes de Llama 4 auraient été réglées pour refuser moins souvent de répondre à des questions plus « litigieuses ». Une précision intéressante, et qui rejoint Anthropic dans sa communication : c’était l’un des changements mis en avant au lancement de Claude Sonnet 3.7 fin février. Deux semaines plus tôt, OpenAI annonçait des changements en ce sens dans la manière d’entrainer ses modèles. On pourrait y voir une influence de xAI et de son Grok, qui se veut effronté dans ses réponses.

« Vous pouvez compter sur [Llama 4] pour fournir des réponses utiles et factuelles sans porter de jugement. Nous continuons à rendre Llama plus réactif afin qu’il réponde à plus de questions, qu’il puisse répondre à une variété de points de vue différents […] et qu’il ne favorise pas certains points de vue par rapport à d’autres », a ainsi déclaré Meta à TechCrunch.

Quid de la disponibilité ?

Techniquement, les nouveaux modèles Llama 4 Scout et Maverick sont disponibles depuis le site dédié et Hugging Face. Plus précisément, ce sont les modèles Llama-4-Scout-17B-16E, Llama-4-Scout-17B-16E-Instruct, et Llama 4-Maverick-17B-128E-Instruct-FP8. Ces modèles alimentent même déjà Meta AI pour WhatsApp, Messenger et Instagram pour tout ce qui touche aux conversations (du moins, sur les conversations non chiffrées de bout en bout). Les nouveaux modèles sont également disponibles dans Azure AI Foundry de Microsoft.

Mais en Europe, la situation est plus complexe. La licence associée aux modèles Llama 4 n’exclut pas les utilisateurs finaux. Ces derniers devraient donc avoir les mêmes capacités sur Meta AI que dans les autres pays où l’assistant est présent. En revanche, les personnes physiques et morales (donc les entreprises) européennes n’ont pas le droit d’accéder aux modèles.

« En ce qui concerne les modèles multimodaux inclus dans Llama 4, les droits accordés en vertu de la section 1(a) de l’accord de licence communautaire Llama 4 ne vous sont pas accordés si vous êtes une personne physique domiciliée dans l’Union européenne ou une société dont le siège social se trouve dans l’Union européenne. Cette restriction ne s’applique pas aux utilisateurs finaux d’un produit ou d’un service qui intègre de tels modèles multimodaux », indique Meta.

On retrouve une fois de plus les tensions entre Meta et l’Europe, l’entreprise ayant largement critiqué cette dernière pour ses « incertitudes réglementaires ». Elle a fustigé plus d’une fois le DMA (notamment à cause de ses abonnements supprimant la publicité), mais s’en est également prise à l’AI Act, main dans la main avec Spotify. Mais en attendant que la situation se détende, malgré un contexte géopolitique toujours plus complexe, ni les entreprises ni les chercheurs européens ne peuvent officiellement mettre la main dessus.

Ajoutons enfin que, dans le reste du monde, les applications et services tirant parti de Llama 4 devront afficher une mention « Built with Llama ».

Après avoir restructuré la dette, Patrick Drahi chercherait à vendre SFR

7 avril 2025 à 16:09
Il est pas frais mon poisson ?
Après avoir restructuré la dette, Patrick Drahi chercherait à vendre SFR

D’après le Figaro, Patrick Drahi étudierait sérieusement la possibilité de mettre en vente SFR. Particulièrement complexe sur le plan réglementaire, l’opération conduirait soit à l’arrivée d’un nouvel acteur sur le marché, soit à un retour à trois opérateurs.

L’hypothèse d’une mise en vente de SFR sera-t-elle abordée le 15 avril prochain, date à laquelle le groupe Altice organise avec ses actionnaires et ses créanciers un point d’étape sur la restructuration de sa dette et ses performances sur le quatrième trimestre 2024 ? La question sera certainement posée, mais il n’est pas dit que Patrick Drahi et la direction d’Altice France lâchent le morceau, tant le dossier risque de se révéler complexe.

C’est pourtant l’idée qui revient au goût du jour, suite à la publication, dimanche, d’une enquête du Figaro, selon laquelle SFR serait – officieusement – en quête d’un repreneur. Ironiquement, c’est du nouveau directeur financier d’Orange, Laurent Martinez, que vient la première confirmation évoquée par le Figaro. « Pour la première fois depuis quinze ans dans les télécoms françaises, nous avons un vendeur », aurait ainsi déclaré ce dernier lors d’un échange avec des analystes financiers.

Le bon moment pour vendre ?

La rumeur selon laquelle Drahi envisagerait la vente de SFR n’est pas inédite. Elle revient toutefois dans l’actualité auréolée d’un contexte particulier : le milliardaire vient en effet de réussir le tour de force de restructurer la dette financière de son groupe, sans en perdre le contrôle. Pour y parvenir, il doit toutefois abandonner 45 % d’Altice à ses créanciers, principalement des fonds d’investissement américains, parmi lesquels des géants de la gestion d’actifs comme BlackRock, Elliott Investment Management ou Pacific Investment Management.

Pour atteindre son objectif, Altice a toutefois admis qu’il lui faudrait poursuivre la vente de ses actifs non essentiels. Après plusieurs cessions récentes (Altice Medias, datacenters, La Poste Mobile), c’est désormais la filiale XP Fibre, en charge de l’infrastructure réseau du groupe, qui ferait l’objet de tractations en coulisses…

L’opération doit, selon les propres termes d’Altice, faire retrouver au groupe un niveau d’endettement conforme aux standards du marché, et donc lui redonner des marges de manœuvre pour financer son développement. Elle lui confère également une structure de dette plus saine, nettement plus compatible avec un scénario de reprise que les 24 milliards d’euros qui plombaient les comptes…

Un marché déjà en ébullition

Les trois opérateurs français restants étudieraient déjà très sérieusement la question, indique le Figaro. À grands renforts d’avocats et de banques d’affaires, ils chercheraient à déterminer les différentes modalités de rapprochement envisageables, au regard bien sûr des conditions de marché, mais aussi et surtout du cadre réglementaire, français comme européen.

En admettant qu’Orange, Free ou Bouygues Telecom souhaite se porter acquéreur des activités de SFR, les conditions d’un retour à trois opérateurs sont-elles réunies ? Rien n’est moins sûr, et le projet devrait très certainement prévoir la ventilation des actifs entre les trois, pour limiter les risques d’abus de position dominante. Au 30 septembre dernier, Altice France revendiquait pour mémoire (PDF) 6,174 millions de clients fixes (dont fibre) et 19,515 millions de clients mobiles.

En France, le cas de figure d’un retour à trois opérateurs ne s’est sérieusement présenté qu’une seule fois depuis l’entrée de Free sur le marché : l’hypothèse d’un rapprochement entre Orange et Bouygues Telecom avait longuement défrayé la chronique, avant de finalement achopper en avril 2016.

L’exemple du Royaume-Uni montre toutefois qu’une telle transaction n’est pas impossible : l’Autorité de la concurrence britannique a ainsi donné, en décembre dernier, son feu vert au projet de fusion entre Vodafone et Three, qui permettra au nouvel ensemble de devenir le premier acteur du marché, devant British Telecom et Virgin O2.

Du Nord de la France à Jakarta, Microsoft a bien arrêté plusieurs projets de data centers

7 avril 2025 à 15:51
Bubble or not?
Du Nord de la France à Jakarta, Microsoft a bien arrêté plusieurs projets de data centers

Microsoft a récemment arrêté ou reporté certains projets de construction de data centers en Indonésie, au Royaume-Uni, en Australie, aux États-Unis et en France. Alors qu’il y a encore quelques mois, la mode était à la construction d’énorme centres pour l’IA, le géant du numérique planifiait déjà de freiner ses projets.

Microsoft est bel et bien en train de revoir les plans de son installation massive de data centers dans le monde, comme le laissait déjà entendre l’annulation de contrats de location qu’avait divulguée la banque d’investissement TD Cowen.

Espoirs douchés dans le Nord

La petite commune de Quaëdypre du Nord de la France devait accueillir, sur une parcelle d’une vingtaine d’hectares, la création d’un tel centre. Enfin, c’est ce que Microsoft avait laissé entendre en aout dernier, selon La Voix du Nord. En octobre, l’entreprise avait confirmé son intention aux élus des Hauts-de-Flandre, expliquait le même quotidien régional. Deux projets étaient en discussion aussi dans l’Audomarois et le Calaisis.

Mais, finalement, Microsoft n’installera pas de data center à Quaëdypre ni sur les deux autres lieux en discussion. En février dernier, le même quotidien régional expliquait que Microsoft avait finalement fait savoir qu’elle ne viendrait pas. La communauté de communes des Hauts-de-Flandre espérait qu’une autre entreprise reprendrait le projet, sans en dire plus.

De Quaëdypre à Jakarta

Quaëdypre pourrait être un cas anecdotique dans les plans d’installation de Microsoft. Mais Bloomberg confirme que l’entreprise a réduit ses projets de centres de données dans le monde entier. Elle a arrêté les négociations ou retardé le développement de sites en Indonésie, au Royaume-Uni, en Australie et dans trois États américains (L’Illinois, le Dakota du Nord et le Wisconsin).

En avril 2024, Microsoft annonçait un investissement de 1,7 milliard de dollars dans de nouvelles infrastructures de cloud et d’IA en Indonésie. Mais l’entreprise aurait interrompu les travaux d’une partie de son futur projet de regroupement de data centers, qui devait voir le jour à environ une heure de Jakarta, selon Bloomberg.

Au Royaume-Uni, Microsoft projetait de louer une zone située entre Londres et Cambridge. Elle devait accueillir un data center équipé des « meilleures puces Nvidia ». Mais elle a, semble-t-il, abandonné les négociations. De même avec Ada Infrastructure, alors que la multinationale projetait de louer une partie de son data center 210 MW Docklands. Mais, selon Bloomberg, Microsoft a finalement renoncé et Ada Infrastructure est maintenant en négociation avec un autre client.

L’entreprise aurait aussi arrêté les négociations concernant un emplacement à côté de Chicago, son projet d’extension de son site à Mount Pleasant, dans le Wisconsin, ou laissé courir les négociations au-delà de la clause d’exclusivité pour la location d’un centre d’Applied Digital Corp dans le Dakota du Nord.

Tout va bien d’après Microsoft

Interrogée par Bloomberg, Microsoft refuse de parler de chaque implantation, mais reconnait avoir modifié ses plans en matière de data centers. Elle affirme :

« Nous planifions les besoins en capacité de nos data centers des années à l’avance pour nous assurer que nous disposons d’une infrastructure suffisante aux bons endroits. […] Alors que la demande en IA continue de croître et que notre présence dans les centres de données continue de s’étendre, les changements que nous avons apportés démontrent la flexibilité de notre stratégie ».

Microsoft, une boussole du marché de l’IA ?

Microsoft n’est pas forcément le leader de la R&D en IA générative, puisqu’elle a laissé ce rôle à OpenAI. Elle en a fait le cheval de Troie des modèles de langage en y investissant massivement. Mais l’entreprise est sans doute le leader en termes de commercialisation. La firme de Redmond a intégré l’IA générative dans ses offres logicielles et a augmenté la facture. Les investissements et abandons de l’entreprise dans le secteur sont donc scrutés avec intérêt.

Mais il est difficile de savoir de quoi ces abandons et cette pause dans les investissements sont le signe. S’agit-il de difficultés de construction, de pénuries, de coûts, de baisse des besoins en IA ou encore d’une projection de ventes de services d’IA plus faibles que prévu par l’entreprise ?

Batterie externe : attention à « l’arnaque » des mAh

7 avril 2025 à 13:47
Non, je ne ferai pas un T@LC de ton dessin @Flock !
Batterie externe : attention à « l’arnaque » des mAh

Votre smartphone a une batterie de 4 000 mAh et vous pensez qu’avec une batterie externe de 20 000 mAh, vous allez pouvoir le charger cinq fois ? Oubliez tout de suite, ce ne sera jamais le cas. Le problème ne vient pas que des pertes, mais de l’imprécision des mAh dans ce genre de situation (et ce n’est pas toujours mieux avec les Wh), on vous explique.

Dans un précédent article, nous avons posé les bases du fonctionnement du courant électrique, en expliquant notamment ce qu’étaient les mAh et les Wh. Aujourd’hui, nous allons nous attarder un peu plus sur les mAh (milliampère heure), une unité de charge électrique.

Petit rappel sémantique : l’Ah (ampère heure) n’est pas dans le Système international, mais cette unité est tout de même largement utilisée, d’autant qu’elle est en lien direct avec une autre unité du SI cette fois : le Coulomb, en hommage au physicien Charles-Augustin Coulomb. Larousse précise que 1 C est « équivalant à la quantité d’électricité transportée en une seconde par un courant d’un ampère ». Avec 3 600 secondes dans une heure, 3600 coulombs valent donc 1 Ah. Simple et il n’y a pas de piège.

Quand les Ah se marient avec les V, cela donne des Wh

Revenons aux Ah, qui permet donc de mesurer une quantité de charges électriques, ni plus ni moins. Il ne faut pas confondre les Ah avec le Wh (watt-heure) qui est une unité d’énergie, on parle de quantité d’énergie stockée. Il existe néanmoins une relation très simple entre Ah et Wh : Ah x V = Wh.

En clair, pour passer d’une quantité de charges électriques (Ah) à une quantité d’énergie (Wh), on multiplie le premier élément par la tension (V pour Volt). Corollaire, connaitre les Ah d’une batterie ne permet pas de déduire sa « capacité » en Wh si on ne connait pas sa tension.

Une batterie de 10 000 mAh sous 3,7 volts donnera 37 Wh. Une batterie de 10 000 mAh sous 5 volts donnera 50 Wh. Avez-vous remarqué que nous avons répété deux fois la phrase, sans mettre un « ou » pour passer de 3,7 à 5 volts ? Il y a une raison : on ne crée pas de la « capacité » simplement en augmentant la tension (cela se saurait, croyez-moi…).

On simplifie par l’exemple, avec une batterie de 20 000 mAh

Prenons un exemple concret d’une batterie externe de 20 000 mAh que nous utilisons lors de déplacements. Cela veut-il forcément dire que l’on a 100 Wh avec une tension de 5 volts (20 000 mAh x 5 volts) ? Bien évidemment… que non. Il faut regarder le détail (s’il est donné).

Dans notre cas, c’est 20 000 mAh sous 3,6 volts, soit 72 Wh. Le fabricant donne une autre valeur : 5 000 mAh sous 14,4 volts, soit toujours 72 Wh, jusqu’ici tout va bien. Les 14,4 volts ne sont pas choisi au hasard : c’est exactement 4x 3,6 volts, ce qui permet de garder un rendement maximal et donc d’arriver de nouveau à 72 Wh.

20 000 mAh pour 52 à 72 Wh selon les cas

Sur la boite de la batterie, d’autres valeurs sont données : 12 817 mAh sous 5 volts et 2 606 mAh sous 20 volts, soit respectivement 64 et 52 Wh. La perte est donc quasiment de 30 % dans ce dernier cas. Voici un résumé des chiffres annoncés par le fabricant :

  • 20 000 mAh avec 3,6 volts soit 72 Wh
  • 12 681 mAh avec 5 volts, soit 64 Wh
  • 5 000 mAh avec 14,4 volts, soit 72 Wh
  • 2 606 mAh avec 20 volts, soit 52 Wh

Problème, ces informations ne sont pas du tout présentes sur la fiche du revendeur chez qui nous l’avons achetée. Il est simplement précisé 20 000 mAh et 74 Wh… Oui 74 Wh, alors que le produit que nous avons reçu n’en affiche que 72 Wh. La raison : sur la fiche du revendeur, la tension prise en compte pour calculer les Wh est de 3,7 volts.

Il faudrait plus de transparence de la part des fabricants

Si vous souhaitez savoir combien de fois vous pouvez charger un smartphone et/ou un ordinateur, il faut donc regarder la tension de charge pour connaitre les Wh et comparer à ceux de vos terminaux mobiles. Si vous utilisez la batterie pour charger un ancien smartphone qui ne prend que du 5 volts, alors vous avez 64 Wh. Pour un ordinateur en 20 volts, on descend à 52 Wh. Si par contre votre machine est en 14,4 volts, alors vous avez droit au maximum : 72 Wh.

Communiquer uniquement sur les mAh est trompeur… comme le serait finalement la seule communication des Wh. Dans les deux cas, il faudrait toujours préciser la tension associée. Il faudrait que les fiches produits soient bien plus détaillées, avec au minimum les Wh en fonction de plusieurs tensions différentes, surtout pour des batteries Power Delivery, avec une plage de fonctionnement généralement comprise entre 5 et 20 volts (jusqu’à 48 volts dans la version 3.1).

Bref, on a commandé une batterie de 20 000 mAh et 74 Wh, pour se retrouver avec une 20 000 mAh et 72 Wh, mais « seulement » 52 Wh pour recharger notre ordinateur portable en 20 volts. Si ce dernier point est assez logique, nous n’avions pas moyen de connaitre cette valeur avant de passer commande, dommage.

Et encore, on parle ici de capacité théorique, dans la pratique, il y a toujours des pertes supplémentaires à prendre en compte. C’est parfaitement logique, mais à considérer lorsqu’il s’agit de choisir une batterie externe, surtout si vous avez besoin d’une quantité minimum de mAh/Wh.

100 Wh max en avion, ça fait combien de mAh ? Ça dépend…

Dans les avions, la limite pour embarquer une batterie est fixée en Wh, pour toutes les raisons que nous venons de détailler. Air France rappelle que les « batteries de rechange et batteries externes de moins de 100 Wh » peuvent être embarqué en cabine (mais pas en soute), sans accord préalable, alors que ce dernier sera nécessaire pour une batterie entre 100 et 160 Wh.

On parle aussi parfois de batterie de 27 000 mAh maximum pour une simple raison : les batteries lithium ont une tension de 3,6 ou 3,7 suivant les technologies, soit un maximum de… 99,9 Wh en 3,7 volts, juste en dessous des 100 Wh.

Mais là encore, ce n’est pas une règle et seuls les Wh comptent. Par exemple, Anker propose une batterie de 27 650 mAh et affirme qu’elle « répond aux exigences de la TSA (< 100 Wh) pour être emportée dans les avions comme bagage à main ». Le fabricant annonce, en effet, une capacité de 99,54 Wh, signifiant que la tension de base de la batterie est de 3,6 volts.

❌