↩ Accueil

Vue lecture

☕️ Apple et Google vont fluidifier la transition entre appareils iOS et Android

Google diffuse depuis hier soir aux testeurs intéressés une nouvelle version Canary d’Android. Cette mouture, estampillée 2512 et potentiellement (très) instable, intègre plusieurs améliorations d’interface et nouvelles fonctions. Par exemple, des modifications liées à la cohérence graphique de l’interface, quelques nouvelles icônes, des animations plus rapides, etc.

La mise à jour inclut cependant une nouveauté faisant le tour des médias : une nouvelle fonction permettant de passer plus facilement d’un iPhone vers Android, dès l’assistant de configuration initial. Et il ne s’agit pas d’un « hack » comme la récente compatibilité avec AirDrop diffusée par Google, mais du résultat d’un travail commun des deux entreprises.

On manque encore de détails sur la fonction, mais elle comprend a priori les données et réglages d’applications, les réglages des notifications ainsi que les paramètres clés dans les réglages du système. Cette passation d’informations se fait au niveau du système et n’a pas besoin d’une application dédiée.

Cette fonction n’est disponible pour l’instant que pour les smartphones Pixel de Google et devrait être diffusée en version stable au cours d’une prochaine mise à jour trimestrielle. 9to5Google, à l’origine de l’information, indique cependant que l’accord se fait dans les deux sens : Apple va également un processus équivalent dans iOS, pour reprendre les mêmes informations depuis un Pixel. La fonction serait ajoutée lors d’une prochaine bêta du cycle d’iOS 26, dans la version 26.3 ou 26.4 probablement.

L’ajout signale une détente progressive chez Apple, contrainte et forcée de s’ouvrir, que ce soit par la régulation (notamment en Europe) ou par pression populaire. Après avoir remporté la bataille sur le support du RCS dans iOS, Google a habilement lancé son support d’AirDrop, Apple se retrouvant « coincée » par une annonce en grande pompe, sous l’œil des régulateurs, dont une Commission européenne assumant le bras de fer.

  •  

☕️ Apple et Google vont fluidifier la transition entre appareils iOS et Android

Google diffuse depuis hier soir aux testeurs intéressés une nouvelle version Canary d’Android. Cette mouture, estampillée 2512 et potentiellement (très) instable, intègre plusieurs améliorations d’interface et nouvelles fonctions. Par exemple, des modifications liées à la cohérence graphique de l’interface, quelques nouvelles icônes, des animations plus rapides, etc.

La mise à jour inclut cependant une nouveauté faisant le tour des médias : une nouvelle fonction permettant de passer plus facilement d’un iPhone vers Android, dès l’assistant de configuration initial. Et il ne s’agit pas d’un « hack » comme la récente compatibilité avec AirDrop diffusée par Google, mais du résultat d’un travail commun des deux entreprises.

On manque encore de détails sur la fonction, mais elle comprend a priori les données et réglages d’applications, les réglages des notifications ainsi que les paramètres clés dans les réglages du système. Cette passation d’informations se fait au niveau du système et n’a pas besoin d’une application dédiée.

Cette fonction n’est disponible pour l’instant que pour les smartphones Pixel de Google et devrait être diffusée en version stable au cours d’une prochaine mise à jour trimestrielle. 9to5Google, à l’origine de l’information, indique cependant que l’accord se fait dans les deux sens : Apple va également un processus équivalent dans iOS, pour reprendre les mêmes informations depuis un Pixel. La fonction serait ajoutée lors d’une prochaine bêta du cycle d’iOS 26, dans la version 26.3 ou 26.4 probablement.

L’ajout signale une détente progressive chez Apple, contrainte et forcée de s’ouvrir, que ce soit par la régulation (notamment en Europe) ou par pression populaire. Après avoir remporté la bataille sur le support du RCS dans iOS, Google a habilement lancé son support d’AirDrop, Apple se retrouvant « coincée » par une annonce en grande pompe, sous l’œil des régulateurs, dont une Commission européenne assumant le bras de fer.

  •  

☕️ Firefox 146 supporte la mise à l’échelle fractionnée pour Wayland

La nouvelle mouture de Firefox apporte plusieurs évolutions notables. L’une des plus importantes est l’arrivée de la mise à l’échelle fractionnée pour Wayland. Dans les grandes lignes, c’est l’ensemble de l’affichage qui devrait être plus efficace et réactif sur les sessions Wayland. Un changement important, qui réjouit particulièrement Michael Larabel, de Phoronix.

Firefox 146 présente d’autres améliorations sous le capot. La version Mac contient ainsi désormais un processus GPU dédié, qui servira pour WebGPU, WebGL ainsi que le propre moteur WebRender du navigateur. Mozilla indique dans les notes de version que cet ajout permettra de redémarrer silencieusement le processus GPU en cas d’erreur fatale, plutôt que d’entrainer un plantage du navigateur. Sous Windows, le support de l’ancienne API Direct2D est supprimé (il reste disponible dans la version ESR).

Mozilla a également ajouté un système de sauvegarde sous Windows, à destination en particulier des personnes sous Windows 10. En plus du service de synchronisation habituel, Firefox peut maintenant lancer une sauvegarde une fois par jour. Le fichier comprend notamment les favoris et mots de passe, avec possibilité d’y glisser d’autres catégories de données. Il peut aussi être protégé par un mot de passe et est alors chiffré. Ce fichier peut ensuite servir pour une installation neuve du navigateur, y compris sur un autre appareil.

Parmi les autres nouveautés, signalons la disponibilité des Firefox Labs pour l’ensemble des utilisateurs, l’arrivée dans l’Union européenne d’un widget météo pour la page Nouvel onglet, une nouvelle version de la bibliothèque graphique Skia pour améliorer les performances et la compatibilité, ou encore le masquage automatique des propriétés CSS inutilisées dans l’Inspecteur pour réduire l’encombrement.

Enfin, Firefox 146 corrige treize failles de sécurité, dont cinq de gravité élevée.

  •  

Infomaniak, nouvel acteur sur la scène des chatbots avec Euria

« L’Europe doit investir »
Infomaniak, nouvel acteur sur la scène des chatbots avec Euria

Infomaniak vient de lancer son IA maison. L’entreprise suisse insiste particulièrement sur la dimension souveraine, sécurisée et autonome de son infrastructure, ainsi que sur la récupération de la chaleur générée pour chauffer des logements à Genève.

Infomaniak se présente comme un nouvel acteur dans la cour rapidement grandissante des fournisseurs de solutions IA. Le produit se nomme Euria, un chabot qui entre en concurrence directe avec ChatGPT, Claude et autre Mistral. Le nom est d’ailleurs l’acronyme de « Éthique, Universelle, Responsable, Indépendante et Autonome ». Après un lancement discret en juin dans kDrive, le chatbot prend ses aises.

Un modèle freemium et une tarification agressive

Le nouveau service est disponible via une page web, ou par l’application mobile sur Android et iOS. Comme souvent avec les chatbots, on trouve une version gratuite pour répondre aux questions, bloquée une fois un palier atteint (ce point n’est pas clairement précisé). Après quoi, il faudra l’une des formules payantes de la kSuite (à partir de 19 euros par an).

On note d’ailleurs qu’Infomaniak n’a pas créé de formule payante spécifique pour son nouveau service. On peut en outre utiliser Euria sans créer de compte, mais le chatbot en réclamera rapidement un après quelques requêtes (trois dans notre cas). On note dans l’ensemble des réponses assez rapides.

Euria est multimodal. Les demandes peuvent être faites textuellement ou par la voix, on peut lui envoyer des documents et autres fichiers, lui demander des transcriptions audio, d’interpréter des tableaux et autres graphiques, de lancer des recherches sur le web ou encore des raisonnements plus complexes. Infomaniak explique que le raisonnement et la recherche web sont utilisés automatiquement en fonction du contexte, mais on peut forcer la recherche en la demandant explicitement au chatbot. Des évolutions sont déjà prévues, dont la génération d’images, des agents et de la mémoire pour le contexte.

Infomaniak promet le respect des données

Côté sécurité et confidentialité, Infomaniak assure que des chiffrements sont appliqués « à toutes les étapes ». Il faut comprendre pendant le transport et au repos, mais Infomaniak peut accéder aux données sur ses serveurs. Point important, l’entreprise ajoute que les données traitées ne sont jamais utilisées « pour entraîner des modèles d’intelligence artificielle, établir des profils ou alimenter des systèmes tiers ».

Un mode éphémère est proposé pour aller plus loin, l’entreprise assurant alors qu’aucune trace n’est laissée et que rien ne peut être récupéré, y compris par Infomaniak. Tous les traitements ont lieu dans le datacenter D4 situé en Suisse, inauguré en début d’année.

Des modèles open source

Infomaniak n’a cependant pas développé de modèle maison. À la place, l’entreprise se sert de plusieurs modèles open source. Si l’annonce n’en parle pas, l’entreprise nous a répondu, par la voix de Thomas Jacobsen, son responsable communication et marketing : elle se sert de Mistral (Small 3.2) pour les images, Qwen3 (Alibaba) pour la partie texte, et de Whisper d’OpenAI pour l’audio.

« Notre stack évolue en permanence afin d’intégrer les meilleurs modèles open source disponibles au moment où ils deviennent pertinents. Nous contribuons et suivons de près l’évolution d’Apertus, et nous étudions déjà la possibilité d’adopter le prochain modèle de Mistral. Dans nos choix technologiques, l’impact écologique joue également un rôle essentiel : nous cherchons systématiquement le meilleur compromis entre performance et consommation de ressources »

Infomaniak en profite pour lancer un cri d’alarme à ce sujet : « À ce jour, aucun des modèles les plus performants n’est européen. Ce constat doit nous interpeller : l’Europe doit investir pour rattraper son retard et bâtir ses propres modèles d’IA souverains, éthiques et neutres en carbone. Plus les utilisateurs choisiront des acteurs locaux, plus nous aurons les moyens de construire cette indépendance technologique », a déclaré Marc Oehler, CEO d’Infomaniak.

Enfin, Infomaniak met en avant l’aspect écologique de son datacenter, utilisé par Euria, dont la chaleur est récupérée et réinjectée dans le réseau de chauffage urbain. L’objectif est d’atteindre la pleine puissance en 2028 et alors de chauffer jusqu’à 6 000 logements à Genève en hiver, de fournir jusqu’à 20 000 douches chaudes par jour et ainsi d’éviter la combustion de 3 600 tonnes de CO₂ en gaz naturel.

  •  

☕️ Pub : Meta laissera le choix aux utilisateurs européens de partager moins de données

Le contentieux entre Meta et la Commission européenne va déboucher sur un important changement. À partir du mois prochain (la date exacte reste à définir), Meta laissera le choix aux utilisateurs de l’Union européenne entre partager ses données personnelles pour obtenir des publicités ciblées et en partager moins pour des publicités plus génériques.

Le changement a été annoncé par la Commission européenne ce 8 décembre. Elle « reconnaît l’engagement de Meta à proposer aux utilisateurs de l’UE un choix alternatif de services Facebook et Instagram qui leur proposeraient des publicités moins personnalisées, afin de se conformer à la loi sur les marchés numériques (DMA). C’est la première fois qu’un tel choix est proposé sur les réseaux sociaux de Meta ».

Comme le rappelle la Commission, cette décision fait suite à la condamnation de Meta à une amende de 200 millions d’euros en avril dernier pour avoir enfreint le DMA.

En cause, la formule « Consentez ou payer », qui réclamait de payer pour supprimer les publicités personnalisées. C’était la réponse de Meta à l’obligation de laisser le choix sur le traitement des données personnelles pour personnaliser les publicités. Or, ces formules payantes (et rapidement onéreuses) ne répondaient pas aux exigences européennes, car elles ne garantissaient pas que les données personnelles n’étaient pas traitées, uniquement que les publicités n’apparaissaient plus.

Ces abonnements ne semblent pas avoir été populaires en Europe. En mai, The Verge rapportait ainsi le témoignage de l’un des responsables de Meta, John Hegeman. Selon lui, les internautes européennes n’avaient montré qu’un « très faible intérêt » pour ces formules, seuls 0,07 % des utilisateurs ayant choisi de payer.

La Commission rappelle cependant que l’enquête n’est pas close pour autant. Une fois ce changement en place, « la Commission sollicitera des retours et des preuves de Meta et d’autres parties prenantes concernées sur l’impact et l’adoption de ce nouveau modèle publicitaire ». Et de rappeler que les utilisateurs « doivent avoir un choix complet et efficace, ce qui est leur droit au titre de la DMA ».

  •  

Derrière la récente panne Cloudflare, une mesure de protection contre la faille React

Derrière la récente panne Cloudflare, une mesure de protection contre la faille React

Deux semaines après une grande panne de plusieurs heures, Cloudflare a de nouveau rencontré un problème de configuration, aboutissant à une coupure de 25 min de ses services. La faute serait relative à un changement intervenu pour combattre l’exploitation de la faille dans React.

Cloudflare a connu une panne majeure le 5 décembre 2025 qui a duré environ 25 minutes, entre 09h47 et 10h12, heure française. L’incident a affecté environ 28 % du trafic HTTP total transitant par son réseau, provoquant des erreurs HTTP 500 pour les clients concernés.

Protection lourde

La faute à un bug logiciel déclenché lors du déploiement d’une protection contre la vulnérabilité CVE-2025-55182 affectant React Server Components. Pour contrer cette faille critique (score CVSS de 10/10), Cloudflare a en effet créé de nouvelles règles dans son WAF (Web Application Firewall) et augmenté la taille du buffer d’analyse des requêtes HTTP de 128 ko à 1 Mo pour protéger ses clients utilisant Next.js.

Durant le déploiement de cette augmentation, un outil interne de test a généré des erreurs. L’équipe a alors décidé de le désactiver via son système de configuration globale, qui propage rapidement (« en quelques secondes ») les changements sur l’ensemble du réseau.

Cette modification a exposé un bug latent dans le proxy FL1 (une ancienne version). Le code Lua contenait une erreur de type « nil pointer » lors du traitement des règles du WAF avec action « execute » lorsque celles-ci étaient désactivées via le killswitch. Seuls les clients utilisant le proxy FL1 avec le Cloudflare Managed Ruleset déployé ont été touchés. Ce type d’erreur n’aurait pas pu se produire avec FL2, le nouveau proxy écrit en Rust, affirme Cloudflare.

Cloudflare se concentre sur les correctifs

Cet incident survient seulement deux semaines après une autre panne majeure le 18 novembre 2025. Cloudflare reconnaît que les modifications de sécurité promises après cette première panne n’ont pas encore été complètement déployées.

L’entreprise s’engage à publier cette semaine un plan détaillé des projets de résilience en cours, incluant des diffusions progressives améliorées avec validation automatique de la santé des services, des capacités de rollback rapide et une logique « fail-open » pour éviter que les erreurs de configuration ne bloquent le trafic. En attendant, tous les changements sur leur réseau sont mis en pause.

  •  

☕️ La distribution GLF OS reçoit une importante mise à jour, baptisée Phoenix

GLF OS, dont nous avions suivi le lancement début septembre, est une distribution Linux française spécialisée dans le jeu vidéo. Alors que les lignes commencent à bouger dans cet univers sous l’impulsion d’un Windows 10 privé de support et d’une couche d’émulation Proton ayant prouvé son efficacité, l’équipe derrière GLF OS vient de lancer une mise à jour importante.

La nouvelle mouture, nommée Phoenix, intègre le noyau Linux 6.17 et met à jour bon nombre de composants internes, dont GNOME 49.1 et KDE Plasma 6.5. Mesa passe en version 25.2.3, amenant le support de FSR4 pour les cartes AMD et Intel, ainsi qu’une meilleure stabilité pour les jeux AAA avec Proton. La distribution intègre également les pilotes NVIDIA 580.105, avec à la clé une meilleure prise en charge des GPU récents et des correctifs pour Wayland.

Plusieurs changements internes importants sont en outre à signaler. Le gestionnaire de démarrage Grub a été remplacé par systemd-boot, « garantissant l’installation de GLF OS sur un maximum de machines ». Un correctif pour l’hibernation de la machine a été implémenté, de même que la compatibilité avec le Stream Deck d’Elgato. Plusieurs extensions GNOME ont été ajoutées, comme Dash to panel, Openbar et Rounded Window Corner. Les miniatures pour les vidéos font également leur apparition dans Nautilus.

Pour les personnes souhaitant installer la version Studio, on note un temps d’installation fortement réduit. Cette variante intègre en effet plusieurs applications spécifiques, dont DaVinci Resolve, qui était compilée au dernier moment. Cette étape a été déplacée côté serveurs, aboutissant à une durée d’installation qui peut être réduite d’un facteur allant jusqu’à 6. Ce fonctionnement concerne d’ailleurs d’autres composants, comme les pilotes NVIDIA, réduisant le temps d’installation de toutes les versions, même si DaVinci était de loin le plus « gros caillou », comme nous le confirme Vinceff, fondateur du projet.

GLF OS est pour rappel développé sur la base de NixOS et est donc un système immuable. Une notification signale aux utilisateurs que des mises à jour sont en attente d’un redémarrage pour être appliquées.

  •  

Proxmox lance enfin son Datacenter Manager pour centraliser les opérations de gestion

Là ! Une porte !
Proxmox lance enfin son Datacenter Manager pour centraliser les opérations de gestion

La société autrichienne Proxmox vient de lancer la première version finale de son Datacenter Manager. Le composant était attendu, car il permet de centraliser de nombreuses opérations de gestion et de garder une vue d’ensemble sur les infrastructures Proxmox VE. Dans un contexte tendu par le rachat de VMware par Broadcom, le nouveau produit pourrait offrir une porte de sortie aux entreprises.

Dans son communiqué publié hier soir, Proxmox reconnait volontiers qu’il manquait une brique essentielle dans son offre : « Gérer des centres de données en pleine croissance, répartis sur plusieurs sites ou clusters, présente constamment des défis majeurs pour les entreprises et les équipes. L’absence de supervision globale, des indicateurs fragmentés et la nécessité d’effectuer manuellement des opérations complexes dans divers environnements peuvent rapidement entraîner des inefficacités et une plus grande susceptibilité aux erreurs ».

Le nouveau Datacenter Manager est donc une réponse à cette problématique. Il joue le rôle d’agent de liaison entre les nœuds et clusters individuels et propose une vue unifiée.

Cap sur la centralisation et le pilotage

PDM, pour Proxmox Datacenter Manager, propose ainsi un tableau de bord pour avoir un œil sur les principales informations. Le tableau affiche ainsi l’état de santé des clusters Proxmox VE et instances Backup Server, agrège l’utilisation critique des ressources (CPU, mémoire et entrées/sorties pour le stockage), fournit une vue des KPI (key performance indicators) et indicateurs de performances, avec une promesse de vision immédiate des goulots et autres problèmes. Les données sont mises en cache, pour que le dernier état connu reste accessible.

Ce dashboard général peut être accompagné d’autres tableaux personnalisés, pour cibler une partie spécifique de la structure, ou des indicateurs particuliers. Le contrôle d’accès basé sur les rôles (RBAC) permet d’accorder des accès à ces vues personnalisées sans fournir pour autant un accès aux machines virtuelles ou aux hôtes.

Migration à chaud des machines virtuelles

Autre capacité attendue, la possibilité de migrer à chaud des machines virtuelles d’un cluster à un autre, facilitant notamment les opérations de maintenance. La même interface centrale permet de réaliser d’autres opérations comme le démarrage, l’arrêt ou la configuration des machines virtuelles, conteneurs et autres ressources de stockage. Là encore, le RBAC permet d’octroyer des permissions spécifiques à des utilisateurs et de centraliser les historiques et journaux, par exemple à des fins d’audits.

Et tant qu’à y être, PDM propose d’autres fonctions, notamment un moteur de recherche décrit comme « très puissant » et inspiré de ce que l’on trouve déjà dans Elastic Search et GitHub, surtout pour filtrer et trouver des ressources. Datacenter Manager prend également en charge le réseau défini par logiciel (SDN) et centralise les mises à jour dans un panneau dédié.

Proxmox Datacenter Manager est basé sur la distribution Debian 13.2, avec un noyau Linux 6.17 et le support de ZFS 2.3. L’éditeur ajoute que sa pile logicielle centrale est écrite en Rust et que l’interface (en responsive) fournit « une expérience utilisateur optimale ». Les images ISO sont disponibles depuis le site officiel. Pour rappel, les produits sont gratuits, mais l’entreprise vend des abonnements incluant notamment le support technique.

Une porte de sortie ?

Depuis le rachat de VMware par Broadcom, la situation s’est crispée pour de nombreux clients autour de la virtualisation. Des plaintes ont été déposées et une partie des entreprises cherche à briser sa dépendance aux produits VMware en regardant vers la concurrence. Proxmox fait partie des solutions envisagées, mais l’absence d’une solution pour centraliser la gestion de nombreux nœuds était un frein.

Chez moji (la société ayant racheté Next il y a un peu plus de deux ans), le SRE (Site Reliability Engineer) Alexandre Gliganic nous indique que le produit est testé depuis les premières versions alpha et que les nouvelles fonctions font la différence, notamment le tableau de bord unifié. L’entreprise se sert largement de Proxmox depuis plusieurs années.

« Pour moi, une des fonctionnalités les plus fortes, c’est la migration live inter-clusters. Avant, pour migrer une VM du cluster A vers le cluster B, il fallait passer par une migration à froid via le système de backup Proxmox (PBS), ou utiliser des commandes QEMU (pas très user-friendly pour la plupart des gens). Avec PDM, on ajoute simplement les deux clusters au système, on sélectionne la VM et on clique sur “migrer” vers le cluster cible. Et ça fonctionne directement », s’enthousiasme l’ingénieur.

Il met également en avant les tableaux de bord personnalisés : « On peut créer des dashboards personnalisés en fonction des rôles assignés aux utilisateurs PDM. C’est très pratique. Par exemple, pour que l’équipe support voie les métriques des clusters clients, mais pas celles des clusters internes ».

« Ce qui est intéressant avec PDM, c’est qu’on retrouve enfin une logique de gestion globale qui manquait à l’écosystème Proxmox, un peu comme ce que beaucoup d’équipes infra ont toujours eu avec des plateformes comme vCenter dans le monde VMware/ESXi », ajoute Alexandre Gliganic.

  •  

Faille de gravité maximale découverte dans React, des correctifs à installer en urgence

Waf ! Waf !
Faille de gravité maximale découverte dans React, des correctifs à installer en urgence

Un chercheur a découvert dans le composant React Server Components une faille dont le score de gravité CVSS atteint la note maximale de 10. Des correctifs ont été rapidement publiés et il est recommandé de mettre à jour les applications et autres composants concernés le plus rapidement possible.

Dans une note publiée le 3 décembre, la fondation React a averti d’une faille extrêmement critique dans le framework (cadriciel) React Server Components. Estampillée CVE-2025-55182, elle a reçu la plus grande note possible au score CVSS, soit 10.

Dans son billet de blog, la fondation indique que le signalement de la faille a été fait le 29 novembre par le chercheur Lachlan Davidson. Elle réside dans les versions 19.0, 19.1.0, 19.1.1 et 19.2.0 des composants suivants : react-server-dom-webpack, react-server-dom-parcel et react-server-dom-turbopack.

Exploitée, la faille peut permettre l’exécution de commandes arbitraires à distance. Elle a même reçu un nom : React2Shell. Initialement, deux failles avaient été signalées. La seconde, dans Node.js et numérotée CVE-2025-66478, a cependant été rejetée par le NIST américain, car il s’agissait finalement du même mécanisme.

Une grande facilité d’exploitation

Selon la société Wiz qui s’est penchée sur la question, une grosse partie du problème tient à l’exploitation particulièrement simple de cette faille, faisant exploser son score CVSS. Deux composantes sont mises en avant : la faille est exploitable dans toutes les configurations, et il ne suffit que d’une requête HTTP spécialement conçue pour déclencher la suite.

La société explique qu’il s’agit d’un cas de désérialisation logique. Il découle de la manière dont les React Server Components (RSC) gèrent les requêtes. Une personne non authentifiée pourrait ainsi créer une requête HTTP malveillante à n’importe quel point de terminaison Server Function qui, au moment où React s’occupe de la désérialisation, entraine l’exécution d’un code JavaScript arbitraire sur le serveur.

Dans son billet, la fondation React n’en dit pas plus, car elle explique attendre une diffusion plus importante des correctifs avant de donner plus de détails.

Toute bibliothèque utilisant RSC (comme Vite RSC, Parcel RSC, React Router RSC preview, RedwoodJS, ou encore Waku) est concernée par la faille et il faut donc surveiller l’arrivée de mises à jour, déjà publiées dans de nombreux cas. « La vulnérabilité affecte les configurations par défaut du framework, ce qui signifie que les déploiements standards sont immédiatement exploitables sans conditions particulières », indique la société de sécurité Endor Labs.

Que faire ?

L’urgence est d’appliquer les nouvelles versions 19.0.1, 19.1.2 et 19.2.1 des trois composants react-server-dom. Jusqu’à ce qu’ils puissent être déployés, il est conseillé d’appliquer des règles WAF (Web Application Firewall).

Plusieurs entreprises de premier plan ont d’ailleurs réagi à ce sujet. Cloudflare a annoncé dès le 3 décembre avoir mis à jour son WAF pour protéger ses clients. L’éditeur ajoute que même si les nouvelles règles bloquent les éventuelles attaques, il reste recommandé de mettre à jour aussi vite que possible les composants logiciels concernés.

Même son de cloche chez Google pour sa Cloud Armor, qui décrit les nouvelles règles du pare-feu applicatif comme une mesure temporaire d’atténuation. On retrouve les mêmes éléments de langage chez Akamai et AWS.

  •  

Leroy Merlin et Médecin Direct piratés, des données médicales dans la nature

Et ça continue, encore et encore
Leroy Merlin et Médecin Direct piratés, des données médicales dans la nature

Coup sur coup, deux entreprises françaises ont reconnu des fuites de données. La quantité d’informations a priori dans la nature n’est cependant pas la même dans les deux cas, la fuite chez Médecin Direct étant la plus grave.

Alors que France Travail annonçait une nouvelle fuite de données il y a quelques jours, deux nouveaux piratages ont été confirmés en France. Pour le magasin de bricolage, SaxX a averti d’une fuite le 2 décembre. À ce moment, l’enseigne commençait à envoyer des e-mails pour prévenir les clients concernés que leurs données avaient été piratées. Dans la capture du courrier, on pouvait lire que celles-ci comprenaient le nom, le prénom, le numéro de téléphone, l’adresse e-mail, l’adresse postale et la date de naissance. Leroy Merlin précisant également que les coordonnées bancaires et les mots de passe n’étaient pas touchés.

Ce 4 décembre, Leroy Merlin a confirmé l’information au Monde, via l’AFP. « Les clients concernés ont été informés dès que nous avons pris connaissance de l’attaque », a ainsi indiqué l’enseigne, qui a ajouté que des vérifications étaient « en cours » pour mesurer l’étendue du problème. Comme toujours dans ce genre de cas, la CNIL a été prévenue (les entreprises y sont tenues par la loi) et une plainte va être déposée. Il est demandé aux clients, encore une fois, d’être vigilants sur l’usage frauduleux qui pourrait être fait de leurs données.

Médecin Direct : des données médicales dans la nature

Dans le cas de Médecin Direct, une plateforme de téléconsultation, le problème est plus grave. SaxX a publié hier la capture du courrier envoyé aux clients concernés. On peut y lire que des informations ont pu être dérobées. D’abord à caractère personnel, avec globalement les mêmes données que pour Leroy Merlin, auxquelles s’ajoute le numéro de sécurité sociale, s’il a été donné.

Surtout, des données de santé ont pu être exfiltrées : « l’objet de la téléconsultation, les données renseignées dans le questionnaire de pré-consultation, les données échangées par écrit avec le professionnel de santé », précise le courrier. « En revanche, les documents que vous avez pu transmettre ou recevoir à l’occasion de la téléconsultation ne sont pas concernés ». Le pire semble évité, mais les informations décrites peuvent quand même s’avérer très sensibles, selon les cas. On apprend également dans l’e-mail que l’intrusion aurait été détectée le 28 novembre.

À 01net, l’entreprise française a confirmé la fuite, sans développer : « Nos services fonctionnent normalement et nous avons renforcé nos mécanismes de surveillance et de protection. Notre plateforme dispose des niveaux de sécurité conformes au cadre réglementaire strict applicable à la télémédecine. Une enquête sur l’origine de cet incident a été diligentée et nous ne pouvons pas partager davantage de détails à ce stade ».

Dans les deux cas, SaxX affirme que c’est le groupe de pirates Dumpsec qui aurait revendiqué l’attaque. Ils seraient à l’origine d’une grande vague de piratages ces derniers mois, dont les 1 300 mairies que nous évoquions il y a peu.

Les risques sont toujours les mêmes. Ces informations, même quand elles ne sont pas sensibles comme peuvent l’être les données médicales, peuvent être utilisées dans le cadre de campagnes de phishing. Plus les pirates ont d’informations, plus ils peuvent personnaliser leurs tentatives. Avec suffisamment d’informations, le risque peut grimper jusqu’à l’usurpation d’identité.

  •  

☕️ Pour Linus Torvalds, Musk est « trop stupide pour travailler dans une entreprise tech »

Linus Torvalds est connu pour ses positions franches. On se souvient du doigt d’honneur fait à NVIDIA en 2012, en témoignage de sa colère face au comportement d’une entreprise très peu intéressée par l’open source. Nous avions résumé une partie de ces problèmes dans notre article sur la transition X11/Wayland.

En octobre 2024, Linus Torvalds s’en était pris à Intel et AMD, critiquant leur « matériel bogué » et l’avalanche de modifications logicielles rendues nécessaires par les multiples failles découvertes, bal ouvert début 2018 par Spectre et Meltdown. La même année, il avait d’ailleurs fait une pause pour s’occuper de son caractère, souvent jugé brutal. Mais il lui est arrivé aussi de siffler la fin de la récréation en intervenant dans des débats houleux pour calmer le jeu, notamment dans les discussions vives autour de l’intégration de Rust dans le noyau.

Cette fois, le père du noyau Linux s’en est pris à Elon Musk. Il y a quelques jours, Linus Torvalds apparaissait dans une vidéo du youtubeur Linus Sebastian (chaine Linus Tech Tips), centrée sur le montage d’un nouveau PC pour les besoins du développeur. Les deux Linus discutaient de divers sujets, dont la productivité au travail face à l’IA.

Le youtubeur a ainsi évoqué le cas d’une « grande entreprise » où les développeurs devaient indiquer leur nombre de lignes de code écrites, avec possibilité de licenciement si ce n’était pas assez. Torvalds avait bien sûr un avis très tranché sur la question : « Oh oui, non, tu ne devrais même pas être contrarié là-dessus. C’est juste de l’incompétence. Quiconque pense que c’est un indicateur valable est trop stupide pour travailler dans une entreprise tech ».

Linus Sebastian lui a alors demandé s’il savait de qui il était en train de parler. Devant le « non » de Torvalds, le youtubeur lui a répondu : « Oh. Euh… il a été une figure importante de l’amélioration de l’efficacité du gouvernement américain récemment ». Et Torvalds d’enchainer : « Oh, apparemment j’avais vu juste ».

  •  

☕️ La Russie bloque FaceTime, l’outil d’Apple servirait aux terroristes

La Russie bloque désormais les communications FaceTime sur les appareils Apple, principalement l’iPhone. FaceTime permet pour rappel des communications (réellement) chiffrées de bout en bout entre appareils frappés d’une pomme.

La nouvelle a été retransmise il y a quelques heures par Reuters, qui en a obtenu confirmation par l’agence Roskomnadzor, régulateur des télécommunications en Russie. Contactée par nos confrères, l’agence a répondu : « Selon les agences de maintien de l’ordre, FaceTime est utilisé pour organiser et mener des attaques terroristes dans le pays, recruter des auteurs et commettre des fraudes et d’autres crimes contre des citoyens russes ». Roskomnadzor n’a pas élaboré.

Toujours selon Reuters, les symptômes ont commencé aujourd’hui même. Bien qu’Apple ne vende plus ses produits depuis l’attaque contre l’Ukraine (la page officielle russe renvoie directement au support technique), de nombreux iPhone restent en circulation. Mais depuis peu, les appels FaceTime échouent, l’application indiquant « Utilisateur indisponible ». Selon un témoignage, la demande d’appel est bien émise, mais le contact ne s’établit pas une fois la communication acceptée.

Le blocage de FaceTime n’est que la dernière décision en date de la Russie contre les technologies occidentales. Au cours des trois dernières années, de nombreux services ont été concernés, avec par exemple Instagram dès mars 2022. En aout, on apprenait que l’agence Roskomnadzor avait annoncé le blocage partiel des appels sur WhatsApp et Telegram, et que le magasin d’applications RuStore devenait obligatoire sur les nouveaux smartphones.

RuStore a été développé par VK, l’entreprise russe possédant le réseau social du même nom, ce dernier ayant été créé par Pavel Durov, également fondateur de Telegram. La même entreprise a développé la messagerie Max, que le gouvernement russe met largement en avant désormais. Selon Reuters, de nombreuses critiques se sont élevées pour dénoncer un outil de surveillance des citoyens russes, accusations réfutées par la presse d’État.

  •  

Microsoft colmate une brèche exploitée depuis 2017 dans les fichiers LNK

« Pas une faille », selon l’éditeur
Microsoft colmate une brèche exploitée depuis 2017 dans les fichiers LNK

Dans le Patch Tuesday de novembre, Microsoft a corrigé une faille exploitée depuis des années. Non-critique, l’entreprise ne la considérait d’ailleurs même pas comme une vulnérabilité. Elle a pourtant été utilisée très activement dans plusieurs campagnes.

Microsoft a discrètement corrigé une faille dans les fichiers raccourcis Windows (LNK) qui était exploitée activement depuis 2017 par de nombreux acteurs malveillants, rapporte ACROS Security (relayé par The Hacker News).

Dangerosité variable

Estampillée CVE-2025-9491, cette vulnérabilité permettait de cacher des commandes malveillantes dans les fichiers LNK en exploitant une limitation de l’interface Windows : la boîte de dialogue des propriétés n’affichait que les 260 premiers caractères du champ « Target », alors que la structure du fichier autorise jusqu’à 32 000 caractères. Les pirates pouvaient ainsi créer des raccourcis contenant des commandes arbitraires invisibles à l’inspection visuelle, en utilisant des caractères d’espacement et en plaçant le code malveillant au-delà de la limite d’affichage.

La dangerosité de cette faille varie selon les acteurs l’ayant cataloguée. Le NIST lui a donné un score CVSS de 7,8, lui affectant une dangerosité élevée. Même dangerosité pour la Zero Day Initiative de Trend Micro (qui en a parlé la première en mars dernier), avec un score de 7. La CISA (Agence de cybersécurité et de sécurité des infrastructures) américaine ne lui accorde en revanche qu’un score de 3.

Une faille exploitée activement

Cette vulnérabilité a été exploitée par au moins 11 groupes APT chinois, iraniens, nord-coréens et russes dans des campagnes d’espionnage et de vol de données, selon Trend Micro. Le groupe XDSpy l’a notamment utilisée pour distribuer le malware XDigo contre des entités gouvernementales d’Europe de l’Est en juin 2025, et des acteurs chinois ont ciblé des entités diplomatiques et gouvernementales européennes avec PlugX en octobre 2025, selon des rapports de HarfangLab et Arctic Wolf.

À l’époque, Microsoft avait refusé de la corriger, arguant qu’elle ne justifiait pas un correctif immédiat car elle nécessitait une interaction utilisateur et que Windows affichait déjà des avertissements sur les fichiers non fiables. Dans une note publiée le 1ᵉʳ novembre, Microsoft explique ne même pas considérer CVE-2025-9491 comme une faille, considérant que l’utilisateur est prévenu plusieurs fois avant de continuer.

Quoi qu’il en soit, le correctif modifie le comportement de la boîte de dialogue des propriétés pour afficher l’intégralité de la commande Target, quelle que soit sa longueur.

  •  

☕️ Sur Steam, Linux confirme sa croissance avec 3,2 % de parts de marché

Il y a un mois, Linux dépassait pour la première fois les 3 % de parts de marché sur Steam. Le mouvement était d’autant plus intéressant qu’il intervenait quelques semaines après la fin de support de Windows 10. La question restait cependant en suspens : s’agissait-il d’un simple pic ou la dynamique allait-elle être confirmée ?

Dans les derniers chiffres publiés par la plateforme de Valve, on peut voir que Linux confirme bien cette tendance. Sa part de marché, toutes distributions confondues, est en légère augmentation avec 3,2 %.

Le score fait toujours pâle figure devant un Windows triomphant et ses 94,79 %, mais il témoigne d’un changement qui semble s’inscrire dans le temps, entre joueurs et joueuses gardant leurs installations et nouveaux arrivants.

Comme pour les chiffres du mois dernier, SteamOS est la distribution la plus utilisée, avec 26,4 %, grâce au Steam Deck. Les trois autres distributions les plus utilisées restent Arch Linux (9,97 %), Linux Mint 22.2 (7,36 %) et CachyOS (6,74 %), une distribution spécialisée dans le jeu vidéo. Dans ce domaine d’ailleurs, Bazzite fait un bond de 1,29 point pour atteindre 5,53 %. Debian 13 est référencée pour la première fois avec 1,58 %.

Si les chiffres ne témoignent pas d’un séisme, ils restent intéressants à surveiller par leurs implications. Le jeu vidéo a été jusque-là une chasse gardée de Microsoft, l’immense majorité des jeux étant bâtis pour DirectX et autres technologies Windows. Les agacements autour de Windows 11 et l’obsession de Microsoft pour l’IA pourraient encore influer sur les parts de marché, mais il est probable que les nouveaux PC soient encore vendus avec Windows pour longtemps.

  •  

re:Invent : AWS lance sa famille de LLM Nova 2 et une Forge pour créer ses propres modèles

re:Inventer toujours la même chose
re:Invent : AWS lance sa famille de LLM Nova 2 et une Forge pour créer ses propres modèles

Dans le cadre de sa conférence annuelle re:Invent 2025, AWS a une nouvelle fois annoncé une longue suite d’améliorations liées à l’IA, dont sa famille de modèles Nova 2. De nouveaux agents ont également été présentés, ainsi que le service Forge, qui doit permettre la création de modèles Nova personnalisés.

La grand-messe annuelle d’AWS pour les développeurs bat actuellement son plein à Las Vegas (elle finit le 5 décembre). Comme toujours depuis quelques années, il n’est pratiquement question que d’intelligence artificielle, avec notamment le lancement de la famille Nova 2 pour cette cuvée 2025. On trouve aussi une flopée d’annonces pour les agents, et le lancement de la puce Trainium3 via des offres maison, comme nous l’avons déjà indiqué.

La famille Nova 2 débarque avec quatre modèles

La famille Nova, un lot de modèles maison, revient cette année dans une version 2. Contrairement à l’année dernière où seuls des modèles texte avaient été lancés, AWS couvre cette fois tous les angles.

L’entreprise met particulièrement en avant son Nova 2 Lite, un petit modèle de raisonnement multimodal placé en face de Haiku 4.5 chez Anthropic, GPT 5 Mini chez OpenAI et Gemini 2.5 Flash chez Google (Gemini 3 n’a pour l’instant qu’une version Pro). Ce modèle Lite est présenté comme une alternative solide, pas un vainqueur toutes catégories, même s’il prend la tête dans environ deux tiers des benchmarks présentés.

Si Lite est surtout présenté comme le modèle plus rentable par AWS, d’autres sont présents. On trouve ainsi Nova 2 Pro, orienté vers les tâches complexes, tandis qu’Omni est la version à tout faire, capable de générer tous types de contenus. Ce modèle dispose notamment d’une fenêtre contextuelle d’un million de jetons, prend plus de 200 langues en compte en entrée et une dizaine en sortie. Comme toujours dans ces gammes de modèles, le prix grimpe avec les capacités et le nombre de paramètres.

On se souvient également qu’en avril dernier, AWS avait ajouté Nova Sonic à ses modèles pour viser les échanges vocaux. L’entreprise n’attend pas un an cette fois, Nova Sonic 2 prend déjà la relève. De manière prévisible, la nouvelle mouture présente des voix plus naturelles, de meilleures performances et une meilleure ouverture sur les agents. Comme pour Lite, AWS ne revendique pas la couronne dans tous les tests pour Sonic 2, mais une version plus aboutie du modèle et gérant un plus grand nombre de langues.

« Pour les développeurs, cela signifie que vous pouvez créer des applications qui servent des audiences mondiales sans avoir besoin de modèles vocaux distincts pour chaque langue. Une application de support client pourrait gérer un dialogue qui commence en anglais et passe à l’espagnol en plein milieu d’une conversation, tout en conservant le même flux et les mêmes caractéristiques vocales tout au long de la conversation », indique AWS dans un billet de blog.

En parallèle de ces nouveaux modèles, AWS a présenté Nova Forge, un service permettant aux clients de créer leurs propres modèles Nova. Selon AWS, Forge vient combler un vide, car les approches habituelles pour personnaliser les modèles – ingénierie des prompts, RAG, ajustement fin personnalisé, apprentissage par renforcement… – ont toutes des limites. Forge se propose donc de créer des modèles entrainés sur les données spécifiques de l’entreprise cliente pour obtenir de « vrais modèles personnalisés ». Toutes les étapes seront prises en charge selon AWS, dont le pré-entrainement, l’entrainement intermédiaire et l’affinage supervisé. Forge n’est pour l’instant disponible que dans la région US East (Virginie du Nord), celle-là même qui avait provoqué une vaste panne en octobre.

À noter qu’AWS annonce aussi la disponibilité sur Bedrock de 18 nouveaux modèles open source, dont ceux de la famille Mistral 3, tout juste lancée.

Alors que revoilà les agents

La guerre sur les capacités agentiques continue, avec d’abord un renforcement de la plateforme AgentCore AI, qui sert à les construire chez Amazon. L’un des principaux ajouts est la fonction Policy, qui permet aux utilisateurs de définir des limites pour les interactions avec les agents ou entre eux. Ces barrières sont ensuite intégrées à AgentCore Gateway, chargé de connecter les agents aux outils externes et désormais de vérifier que chaque action opère dans le cadre souhaité.

Gateway se dote d’ailleurs d’une suite de 13 systèmes d’évaluation préconçus pour les agents. Ils vérifient les opérations des agents sur des aspects standards, comme la sécurité et la précision des choix opérés. Des alertes peuvent être émises, mais AWS les présente également comme une manière de se faire la main en attendant la création de règles personnalisées.

On note aussi l’apparition de AgentCore Memory, qui vient ajouter de la mémoire aux agents. La fonction est faite pour autoriser ces derniers à bâtir un contexte autour de chaque utilisateur dans le temps. Les informations prises en compte peuvent être récupérées automatiquement (dates et heures des déplacements, préférences pour les hôtels…) ou imposées.

Kiro et ses compères

AWS en profite bien sûr pour lancer plusieurs nouveaux agents spécifiques, baptisés « agents frontières » : un pour l’écriture de code, un autre pour les processus de sécurité associés et un dernier pour automatiser les tâches de DevOps.

Le premier, Kiro, est le plus mis en avant. Il est censé apprendre avec le temps les préférences du développeur et pouvoir programmer seul ensuite pendant plusieurs jours, affirme AWS. L’entreprise va plus loin en indiquant que Kiro doit produire du code prêt pour la production. Ce développement se fait en revanche en suivant les règles de l’entreprise, qu’il faut donc renseigner. AWS baptise ce concept « développement piloté par les spécifications ». Et si le nom vous est familier, c’est parce que cet agent a été bâti sur les fondations de l’IDE du même nom, qui avait été annoncé en juillet.

Les deux autres agents, Security et DevOps, présentent des fonctions que l’on peut attendre dans ces contextes. Le premier travaille à vérifier la sécurité du code au fur et à mesure qu’il est écrit, s’occupe des tests ensuite et propose des solutions. Le second s’occupe lui aussi de tester le nouveau code, mais avec un accent sur les performances et la compatibilité avec d’autres éléments, logiciels ou matériels. On ne sait pas dans quelle mesure l’ensemble est fiable et permet de gérer les hallucinations, car ces trois nouveaux agents ne sont pour l’instant disponibles qu’en préversions.

Des usines d’IA en partenariat avec NVIDIA

AWS a également annoncé l’arrivée des « AI Factories ». Ces dernières sont une sorte de généralisation de l’offre « souveraine » lancée en Europe en juin, dont la première incarnation prendra place en Allemagne.

Le concept est globalement le même : une grande entreprise ou un gouvernement fournit le centre de données et l’électricité, et AWS fournit le système d’IA, avec possibilité d’établir des liens avec d’autres services AWS ou non. Cette offre a été construite en partenariat avec NVIDIA. Le client peut ainsi choisir entre les GPU Blackwell de cette dernière, les nouvelles puces Trainium3 d’AWS ou un mélange des deux. Dans son exposé, AWS assure que la solution est idéale pour les gros besoins en IA, sans avoir à se lancer dans la conception d’un système complet.

La partie « souveraineté » est censée être assurée par une séparation physique, avec des données ne quittant jamais le centre où ont lieu les opérations. « Les usines d’IA AWS sont conçues pour répondre aux normes de sécurité rigoureuses d’AWS, offrant aux gouvernements la confiance nécessaire pour gérer leurs charges de travail les plus sensibles à tous les niveaux de classification : non classifié, sensible, secret et top secret », affirme même AWS.

Comme on l’a vu toutefois à plusieurs reprises, tout dépend de ce que l’on entend par « souveraineté ». En Europe, le problème se situe surtout dans l’extraterritorialité de certaines lois, dont l’emblématique Cloud Act américain. Les lancements de certaines offres chez Microsoft et AWS ne semblent pas régler cette question. En France, les sociétés Bleu et S3ns semblent répondre à ces critères, car les briques logicielles sont fournies par Microsoft et Google, sans connexion aux clouds existants. Les deux offres ont passé le jalon J0 de la certification SecNumCloud de l’ANSSI, mais il faut encore que les démarches aboutissent.

  •  

☕️ Opera déploie Gemini dans ses navigateurs One et GX

Opera fait partie des éditeurs ayant décidé d’investir massivement dans l’IA pour son navigateur. L’entreprise norvégienne est si sûre de son choix qu’elle a même lancé un navigateur dédié et payant, Neon, décrit comme un navigateur agentique.

Bien qu’Opera ait ses propres capacités dans le domaine, l’éditeur a décidé d’élargir ses horizons via un partenariat avec Google. En clair, Gemini débarque dans Opera One et Opera GX, respectivement son navigateur classique et celui dédié aux joueurs.

Les capacités décrites sont les mêmes qu’habituellement : requêtes diverses sur un ou plusieurs onglets, résumés d’informations, comparaisons de contenus sur plusieurs onglets (textes, images et vidéos), analyses diverses et ainsi de suite. Opera ajoute que son expérience avec Neon lui a permis d’optimiser son architecture, afin que les navigateurs répondent 20 % plus vite aux requêtes, mais on n’en sait guère plus.

« L’IA remodèle la façon dont les gens interagissent avec le web, et le navigateur est le point d’entrée naturel de ces expériences. Grâce à notre partenariat avec Google, nous pouvons offrir aux utilisateurs les expériences qu’ils désirent vraiment grâce à la recherche native et aux fonctionnalités d’IA, gratuitement, directement dans leurs navigateurs Opera One et Opera GX, tandis que nos utilisateurs les plus avancés du navigateur agentique Opera Neon ont déjà accès à Gemini 3 Pro », a déclaré Per Wetterdal, responsable de la publicité chez Opera.

Google semble également extatique : « En intégrant les derniers modèles Gemini, Opera ne se contente pas d’améliorer ses navigateurs, mais établit une nouvelle norme pour les expériences utilisateur alimentées par l’IA. Nous sommes fiers de fournir des capacités d’IA de pointe qui aident des partenaires comme Opera à prospérer et à continuer de façonner l’avenir de la navigation pour des millions d’utilisateurs dans le monde », a déclaré Per Gustafsson, directeur de Google Cloud Nordics.

  •  

Mistral lance sa nouvelle famille Mistral 3 et vante ses petits modèles

Small si beautiful
Mistral lance sa nouvelle famille Mistral 3 et vante ses petits modèles

Après le lancement de nouvelles versions majeures chez pratiquement tous les acteurs de l’IA générative, Mistral dégaine sa famille de modèles ouverts Mistral 3. Bien que celle-ci comprenne un modèle multimodal, ce sont surtout les plus petits qui sont mis en avant.

L’entreprise française n’en démord pas : lancer des modèles géants n’est pas nécessairement ce qu’il y a de mieux pour les entreprises. Elle reste centrée sur sa stratégie de publication de modèles à poids ouvert, dans l’idée que le monde professionnel va s’en emparer, les personnaliser, les distiller ou les entrainer sur ses propres données.

Mistral veut régner sur les modèles ouverts

Dans l’annonce, on remarque tout de suite que les comparaisons se font uniquement avec d’autres modèles ouverts, comme DeepSeek (en version 3.1 ou 3.2 selon les cas, étrangement) ou Kimi-K2. Sans trop de surprises dans le cadre de ce type d’annonce, les modèles Mistral 3 arrivent premiers dans la plupart des benchmarks, toujours à prendre avec des pincettes.

L’entreprise donne quelques informations supplémentaires sur son grand modèle Large 3. Par exemple, qu’il a été entrainé depuis zéro sur une infrastructure comprenant 3 000 GPU H200 de NVIDIA. Il s’agit également du premier modèle de type MoE (mixture-of-experts) de Mistral depuis sa série Mixtral en 2023. Dans une version proposée au format NVFP4 (construite avec llm-compressor), Mistral affirme que son modèle peut fonctionner « efficacement » sur un nœud comportant huit puces A100 ou H100.

Cette approche permet pour rappel de dispatcher les requêtes vers des réseaux plus spécialisés du type de calcul lors de l’évaluation. Le principal avantage est une réduction de la consommation, le modèle n’activant qu’une partie des neurones pour traiter la demande (41 milliards de paramètres actifs sur 675 milliards au total). C’est le modèle présenté comme idéal pour les opérations lourdes, comme le développement et la création de contenus.

Mistral revendique la deuxième place sur LMArena pour son Large 3 dans la catégorie des modèles ouverts sans capacités de raisonnement, mais nous ne retrouvons pas les mêmes chiffres. Sur les modèles disposant d’une licence Apache 2.0, c’est bien le cas, mais la société ne semble pas tenir compte de la licence MIT, pourtant open source elle aussi. Dans le tableau général, Large 3 se classe 28e, tous modèles confondus.

Mistral ajoute en outre que le développement de la nouvelle famille s’est fait en partenariat avec NVIDIA, aboutissant notamment à une « inférence efficace » pour TensorRT-LLM et SGLang.

La « petite » famille

Bien que Mistral aborde ses nouveautés du jour avec le modèle Large, ce sont surtout les petits modèles que la société met en avant. La série Ministral 3 comprend ainsi des variantes à 3, 8 et 14 milliards de paramètres, conçues pour l’informatique en périphérie (edge) et le fonctionnement local, toujours sous licence Apache 2.0. Tous ces modèles ont également des variantes de raisonnement, la version 14B atteignant par exemple 85 % sur le test AIME 25. Cette version, la plus volumineuse des trois, peut fonctionner sur une machine embarquant 24 Go de mémoire et un seul GPU.

Mistral semble particulièrement fière de ses petits modèles, assurant qu’ils offrent « le meilleur rapport coût/performance de tous les modèles open source » actuellement. Les versions classiques (sans raisonnement) sont au niveau ou dépassent les modèles concurrents, selon l’entreprise, tout en consommant « souvent » moins de jetons.

En tout, cette famille comprend trois modèles, les trois tailles étant disponibles dans des variantes Base (modèles de fondation pré-entrainés), Instruct (conçus surtout pour les chatbots) et Reasoning. Tous prennent en charge la vision, sont multilingues et fonctionnent avec des fenêtres allant de 128 000 à 256 000 jetons.

Guillaume Lample, fondateur de Mistral, a mis en avant la vision de l’entreprise auprès de plusieurs médias, dont TechCrunch et le Financial Times : « Nos clients sont parfois contents de débuter avec un très grand modèle de langage qu’ils n’ont pas besoin de peaufiner. Mais quand ils le déploient, ils réalisent que c’est cher et lent. Ils viennent alors nous voir pour affiner de petits modèles, afin de gérer leurs cas d’usage. Dans la pratique, la grande majorité des cas d’usage d’entreprises sont des choses que les petits modèles peuvent résoudre, surtout si vous les affinez ».

Comme le rappellent d’ailleurs nos confrères, cette orientation marquée vers les petits modèles capables de fonctionner localement rapproche l’entreprise de « l’IA physique ». Elle travaille par exemple avec Stellantis sur un assistant IA embarqué, avec la société allemande de défense Helsing sur des modèles vision-langage-action pour des drones, ou encore très récemment avec la Home Team Science and Technology Agency (HTX) de Singapour sur des modèles spécialisés pour robots.

  •  

☕️ OnlyOffice 9.2 officialise son agent pour le travail bureautique

Avec la version 9.1, la suite bureautique avait introduit un agent en version bêta. L’éditeur se sent suffisamment prêt désormais pour le lancer dans le grand bain.

Comme toujours avec ce type de fonction, elle est conçue pour gérer des requêtes comme le résumé de tout ou partie d’un document, des questions sur le contenu, le remplissage de PDF ou encore des modifications dans la présentation.

OnlyOffice ne dispose pas de son propre modèle. Pour utiliser l’agent maison, il faut disposer d’une clé API pour un LLM existant, comme ChatGPT, Claude ou Gemini. On peut aussi le connecter à un serveur LLM ou MCP local fonctionnant avec des solutions de type Ollama. Comme le rappelle OMGUbuntu cependant, le travail avec les LLM implique souvent des conditions d’utilisation incluant la réutilisation des contenus analysés à des fins d’entrainement.

Parmi les autres nouveautés de cette version, signalons la possibilité de choisir une couleur personnalisée pour caviarder des passages dans un document PDF, l’enregistrement d’une série d’actions sous forme de macro pour la réutiliser plus tard, la personnalisation des raccourcis clavier, la possibilité d’insérer des équations depuis des sources en ligne, la disponibilité de cases à cocher et de boutons radio dans l’éditeur de formulaires, ainsi qu’un correctif de sécurité.

La nouvelle mouture de la suite peut être téléchargée depuis le site officiel ou le dépôt GitHub.

  •