Cet article présente Murmure, une application open source pour de la dictée vocale, appelée aussi Speech-to-Text, à base d'IA où tout est exécuté en local.
Europol, Microsoft et plusieurs agences de six pays européens viennent de mettre hors service Tycoon 2FA, une plateforme de phishing vendue sur abonnement qui contournait la double authentification. 330 domaines ont été saisis, et le développeur principal a été identifié au Pakistan.
Une machine à phishing sur abonnement
Pour mieux vous poser le tableau, le Tycoon 2FA fonctionnait comme un service clé en main pour cybercriminels. Pour 120 dollars les dix jours ou 350 dollars par mois, n'importe qui pouvait accéder à un panneau de contrôle avec des pages de phishing prêtes à l'emploi, qui imitent les interfaces de connexion de Microsoft 365, Outlook, Gmail ou même SharePoint.
Le kit interceptait les sessions d'authentification en temps réel, ce qui permettait de contourner la double authentification sans que la victime ne se doute de quoi que ce soit. Depuis août 2023, la plateforme a généré des dizaines de millions de mails de phishing par mois. Microsoft estime en fait que Tycoon 2FA représentait à elle seule 62 % des tentatives de phishing bloquées mi-2025, c'est faramineux.
100 000 organisations touchées dans le monde
64 000 incidents de phishing ont été reliés à la plateforme, et près de 100 000 organisations ont été compromises à travers le monde, dont des hôpitaux, des écoles et des administrations publiques.
Les États-Unis arrivent en tête avec 179 000 victimes, suivis du Royaume-Uni, du Canada, de l'Inde et de la France avec 6 823 victimes identifiées. Si vous utilisez Microsoft 365 ou Outlook au quotidien, c'est le genre de kit qui ciblait directement vos identifiants. Le développeur principal, un certain Saad Fridi basé au Pakistan, a été identifié par Trend Micro dès novembre 2025 sous les pseudos "SaaadFridi" et "Mr_Xaad".
L'opération a mobilisé les polices de six pays (Lettonie, Lituanie, Portugal, Pologne, Espagne et Royaume-Uni) sous la coordination du Centre européen de lutte contre la cybercriminalité d'Europol.
330 domaines saisis d'un coup
Microsoft a mené la partie technique en neutralisant 330 domaines qui servaient de pages de phishing et de panneaux de contrôle. Cloudflare, Coinbase, Intel 471, Proofpoint, SpyCloud et Trend Micro ont aussi participé à l'opération. La plateforme n'a toujours pas donné lieu à des arrestations à ce stade. Le développeur a été identifié, mais aucune interpellation n'a été annoncée.
Le fait que des boîtes privées comme Microsoft et Trend Micro travaillent main dans la main avec Europol est interessant, et ça produit des résultats. Mais 330 domaines saisis sur une infra qui en générait de nouveaux toutes les 24 à 72 heures, on peut se demander combien de temps ça va tenir.
La France est le cinquième pays le plus touché avec presque 7 000 victimes, et quand on sait que le phishing représente 43 % des cyberattaques déclarées par les entreprises françaises, ça donne une idée de l'ampleur du problème.
On espère que cette opération servira d'exemple, mais d'autres plateformes du même genre sont probablement déjà en train de prendre le relais.
Plus de 600 employés de Google et OpenAI ont signé une lettre ouverte baptisée « We Will Not Be Divided », pour demander des limites claires sur l'usage militaire de l'IA. Le nombre de signataires est monté à près de 900 en quelques jours. Il y a deux gros problèmes dans cette histoire : la surveillance de masse et les armes autonomes. Le contexte est tellement tendu que le Pentagone a même blacklisté Anthropic pour avoir refusé de coopérer.
Une lettre, deux lignes rouges
La lettre, publiée le 28 février sur le site notdivided.org, a d'abord réuni 573 employés de Google et 93 d'OpenAI. En quelques jours, le compteur est monté à près de 900 signatures, dont 800 côté Google. Les signataires posent deux lignes rouges : pas de surveillance de masse des citoyens américains, et pas de systèmes d'armes autonomes sans supervision humaine. « Les responsables gouvernementaux tentent de pousser les entreprises d'IA à abandonner certaines limites éthiques. Cette stratégie ne fonctionne que si aucun de nous ne sait où se situent les autres », peut-on lire dans la lettre.
Anthropic blacklisté par le Pentagone
Tout est parti d'un bras de fer entre Anthropic et le Pentagone. Le département de la Défense avait donné un ultimatum à Anthropic : lever ses restrictions sur Claude pour permettre son utilisation dans la surveillance domestique et les armes autonomes, ou perdre ses contrats fédéraux. Anthropic a refusé. La réponse a été immédiate : Trump a ordonné l'arrêt de toute utilisation des produits Anthropic par les agences fédérales, et le secrétaire à la Défense Pete Hegseth a désigné l'entreprise comme « risque pour la chaîne d'approvisionnement ». Le gouvernement a même menacé d'invoquer le Defense Production Act, une loi datant de la guerre de Corée, pour forcer Anthropic à coopérer. Et quelques heures après ce refus, OpenAI annonçait un accord avec le Pentagone pour déployer ses modèles sur les réseaux classifiés.
Altman tente de calmer le jeu
Sam Altman a organisé une session de questions-réponses sur X le samedi 1er mars. Il a reconnu que l'accord avait été « précipité » et que « les apparences ne sont pas bonnes ». Sa justification : vouloir « désamorcer » les tensions entre le Pentagone et Anthropic, et éviter que le gouvernement ne force les entreprises privées à coopérer. Sauf que l'accueil a été glacial. L'application Claude est montée à la deuxième place de l'App Store en téléchargements, les bureaux d'OpenAI à San Francisco ont été recouverts de graffitis, et l'un des employés d'OpenAI, Leo Gao, a qualifié les protections du contrat de « décoration de vitrine ».
Le timing d'OpenAI, qui a signé avec le Pentagone le jour même où Anthropic se faisait blacklister, est quand même difficile à avaler. Altman peut dire ce qu'il veut, ça ressemble surtout à du pur opportunisme. Le plus parlant, c'est que le grand public a spontanément pris le parti d'Anthropic, et que les propres employés d'OpenAI contestent l'accord. Perso, j'attends de voir si les lignes rouges réclamées par les salariés déboucheront sur de vraies politiques internes. Pour le moment, c'est Anthropic qui sort grandi de cette séquence, l'air de rien.
On entend beaucoup parler de l'IA générative ces derniers temps. Et dans les médias classiques, c'est souvent pour s'en inquiéter (pas ici, vous savez que j'essaye de rester positif). Il faut quand même reconnaitre que : phishing plus convaincant, deepfakes, malware qui s'adapte tout seul... la liste des risques est longue et légitime.
Mais il y a un angle qu'on oublie parfois : cette même technologie peut aussi renforcer sérieusement nos défenses. C'est exactement la position que défend Surfshark depuis quelques mois. Pas en mode "l'IA va tout résoudre", mais avec une approche pragmatique. À savoir comment utiliser ces outils pour anticiper, tester et contrer les menaces avant qu'elles n'arrivent jusqu'à vous. Je vous explique comment ça fonctionne, ce que ça change concrètement, et pourquoi c'est une bonne nouvelle pour votre sécurité au quotidien.
L'IA générative n'est pas juste un outil d'attaque
Quand on parle de cybersécurité et d'IA, le premier réflexe est de penser aux cybercriminels. C'est vrai, ils l'utilisent. Pour écrire du code malveillant plus vite, personnaliser des campagnes de phishing, ou générer des variantes de malware qui contournent les signatures classiques. Mais les équipes de défense ont accès aux mêmes capacités. La différence ? L'intention et le cadre d'utilisation.
La "generative AI", dans ce contexte, c'est la capacité à produire du contenu nouveau à partir de modèles entraînés. Cela peut être du texte, du code ou encore des scénarios d'attaque simulés. Ce n'est pas de la magie. C'est de l'ingénierie appliquée à la sécurité. Concrètement, ça permet trois choses essentielles :
D'abord, la détection proactive. Au lieu d'attendre qu'une menace soit identifiée pour la bloquer, les modèles peuvent simuler des milliers de variantes d'attaques plausibles, puis entraîner les systèmes de détection à les reconnaître. C'est comme faire des exercices d'incendie avant que le feu ne se déclare.
Ensuite, l'analyse comportementale. L'IA peut modéliser ce à quoi un trafic réseau "normal" ressemble pour votre infrastructure, puis signaler les écarts subtils qui échapperaient à des règles statiques. Pas besoin que l'attaque corresponde à une signature connue, si le comportement est suspect, le système alerte.
Enfin, l'automatisation des réponses. Quand un incident est détecté, chaque minute compte. L'IA peut résumer les alertes, suggérer des actions de confinement, isoler un compte compromis, générer un rapport pour l'équipe, etc. Les analystes gardent la main sur les décisions stratégiques, mais ne perdent plus de temps sur des tâches répétitives.
Comment Surfshark met ça en pratique
Surfshark n'utilise pas l'IA générative pour faire du marketing ou ajouter des fonctionnalités gadget. L'approche est plus terre-à-terre.
Leur équipe sécurité s'appuie sur ces modèles pour tester en continu leurs propres défenses. Ils génèrent des scénarios d'attaque réalistes, adaptés à leur infrastructure, puis vérifient que leurs systèmes réagissent comme prévu. C'est une forme de "pen-testing" augmenté, plus rapide et plus exhaustif que les méthodes manuelles.
Un autre usage concret c'est l'entraînement des équipes. Plutôt que de se baser uniquement sur des incidents passés, ils peuvent créer des simulations dynamiques, avec des variantes imprévisibles. Ça permet de préparer les analystes à des situations qu'ils n'ont jamais rencontrées, sans attendre qu'elles arrivent pour de vrai.
Côté produit, certaines fonctionnalités bénéficient indirectement de ces avancées.
CleanWeb
, par exemple, qui bloque pubs et trackers, s'appuie sur des modèles capables d'identifier des schémas de collecte de données de plus en plus sophistiqués. L'IA ne remplace pas les listes de blocage, mais elle aide à les mettre à jour plus vite, face à des acteurs qui adaptent leurs techniques en permanence.
Et pour ceux qui s'inquiètent de la confidentialité, Surfshark précise que les données utilisées pour entraîner ces modèles sont soit synthétiques, soit anonymisées. Rien de ce que vous faites via leur VPN ne sert à nourrir des modèles externes. La politique no-logs, auditée par Deloitte ou très récemment SecuRing (audit en janvier 2026), reste la règle.
Utiliser l'IA en sécurité sans se mettre en danger
Si vous êtes tenté d'expérimenter avec des outils d'IA générative dans votre propre environnement, quelques précautions s'imposent. Déjà, ne partagez jamais d'informations sensibles avec des plateformes publiques comme ChatGPT, Claude, etc. Même si l'outil semble inoffensif, vos requêtes peuvent être conservées, analysées, ou fuiter en cas de brèche. Pour du travail sur des configurations, des logs ou des politiques de sécurité, privilégiez des environnements contrôlés, en local ou avec des fournisseurs qui garantissent la confidentialité des données.
Formez vos équipes. L'IA peut générer du code, du texte, des scénarios très convaincants ... mais elle peut aussi se tromper, introduire des biais, ou proposer des solutions qui semblent logiques alors qu'elles créent des failles. Un œil humain reste indispensable pour valider, contextualiser et décider.
Enfin, gardez une approche critique. L'IA n'est pas une solution miracle. Elle amplifie les capacités humaines, mais ne les remplace pas encore. Une bonne hygiène de sécurité (mises à jour, authentification forte, segmentation réseau) reste la base. L'IA vient en couche supplémentaire, pas en fondation.
Vous le savez maintenant, je ne suis pas de ceux qui voient l'IA comme une menace absolue, ni comme une panacée. C'est juste un outil. Comme un marteau : ça dépend de la main qui le tient.
Ce qui me convainc dans
l'approche de Surfshark
depuis plusieurs années, c'est le pragmatisme. Pas de promesses grandioses, pas de discours "disruptif". Juste une volonté d'utiliser ce qui fonctionne pour améliorer la protection, tout en restant transparent sur les limites et les risques. Si vous cherchez un VPN qui intègre une réflexion sérieuse sur l'avenir de la cybersécurité, sans sacrifier la simplicité ni la confidentialité, Surfshark coche les cases. L'IA générative n'est pas l'argument principal de leur offre, cela dit c'est un atout discret qui renforce la crédibilité technique de l'ensemble.
L'offre du moment
Surfshark propose toujours son offre à 87% de réduction plus trois mois offerts sur l'engagement 24 mois. Cela revient à 1,99 euro HT par mois (2.39€/mois TTC), avec une garantie satisfait ou remboursé de trente jours. Vous pouvez tester le service, vérifier par vous-même les performances, la facilité d'usage, la réactivité du support et vous avez en plus l'
Alternative ID
inclus. Si ça ne correspond pas à vos attentes, vous êtes remboursé, sans justification. C'est le prix d'un sandwich triangle par mois pour protéger un nombre illimité d'appareils !
En plus, du 25 février au 23 mars (et dans la limite du stock disponible), Surfshark frappe fort encore plus fort avec une offre exclusive en partenariat avec CALM, l’application de méditation et de sommeil la plus téléchargée au monde. En choisissant un abonnement Surfshark de 1 ou 2 ans, vous obtenez automatiquement 12 mois de CALM Premium offerts, quelle que soit la formule choisie. Elle est pas belle la vie ?
Note : il s'agit d'un lien affilié. Cela ne change rien pour vous, mais cela me permet de continuer à produire ce type de contenu indépendant, sans recourir à la publicité intrusive.
Après l’arrivée de nombreuses extensions développées par des tiers, WordPress franchit une nouvelle étape en proposant ses propres plugins officiels pour connecter facilement les principaux modèles d’IA. En effet, la plateforme a annoncé la publication de trois plugins permettant d’intégrer directement les modèles d’OpenAI, de Google ou encore d’Anthropic. Pensés avant tout pour les développeurs, […]
Si l’intelligence artificielle bouleverse les industries créatives, le cadre juridique peine encore à suivre cette évolution technologique. Aux États-Unis, la question de la protection des oeuvres générées par des algorithmes alimente le débat depuis plusieurs années, notamment avec la multiplication d’outils capables de produire des images, des textes ou des musiques. En effet, la plus […]
Depuis plus d’une décennie, Facebook, Instagram, X ou encore TikTok structurent aujourd’hui la circulation de l’information et des contenus en ligne. Pourtant, face aux enjeux de souveraineté numérique et aux critiques croissantes sur la gestion des données personnelles, certaines voix en Europe plaident pour une alternative. En effet, le 4 mars dernier, la Commission européenne […]
Les appels frauduleux et le démarchage téléphonique sont devenus un véritable casse-tête pour les utilisateurs de smartphones. Face à la multiplication des arnaques relevées par l’Arcep, de nombreux Français préfèrent désormais ignorer les numéros inconnus, quitte à manquer des appels légitimes…. Cette méfiance généralisée fragilise également les entreprises qui cherchent à joindre leurs clients par […]
L’écosystème d’Apple est souvent présenté comme l’un des plus sécurisés du marché. Et pourtant, une nouvelle enquête de chercheurs en cybersécurité révèle qu’un ensemble d’outils de piratage particulièrement avancés aurait permis d’infecter des dizaines de milliers d’iPhone dans le monde. Plus surprenant encore, ces techniques pourraient avoir été développées à l’origine pour des usages gouvernementaux […]
Alors que les grandes annonces d’Apple sont souvent réservées à l’automne, la marque a choisi de bouleverser son calendrier cette année. Pendant plusieurs jours, l’entreprise a multiplié les révélations, présentant une série de nouveaux produits couvrant presque toute sa gamme. Ordinateurs portables, smartphone plus accessible, nouvelles puces maison et écrans professionnels : cette vague d’annonces […]
Depuis plusieurs années, Google fait face à une contestation croissante autour du fonctionnement du Google Play Store. Entre les procès intentés par des entreprises du secteur et les enquêtes de la Commission européenne, le modèle économique de la boutique d’applications Android est régulièrement remis en question. Face à cette tendance, après une annonce en 2021, […]
À chaque inscription sur un site, téléchargement de livre blanc ou création de compte, votre adresse e-mail devient une donnée exploitable. Cela a pour conséquence une boîte de réception qui se remplit rapidement de messages promotionnels, voire de tentatives de phishing. Pour limiter cette exposition, de plus en plus d’internautes utilisent des e-mails temporaires. Ces […]
L’intelligence artificielle évolue rapidement depuis quelques années, notamment avec l’essor des modèles génératifs capables de produire du texte, des images ou du code. Pourtant, derrière ces avancées se cache une notion bien plus ambitieuse qui alimente les débats chez les chercheurs et les géants de la tech : l’AGI, pour Artificial General Intelligence. Ce concept […]
Des commits publics posent les bases de Xe3P sous Linux. Intel ouvre la voie dans Mesa sans activer le moindre chemin d’exécution pour l’instant.
Intel amorce l’implémentation Xe3P dans Mesa
Intel a commencé à intégrer un support précoce de Xe3P dans Mesa, côté pilote Vulkan ANV et pilote OpenGL Iris. Rien n’est encore opérationnel, mais l’orientation est claire et visible publiquement, comme l’a relevé Phoronix.
La pièce maîtresse de cette étape est GenXML, la description XML des commandes et instructions internes qui sert à générer automatiquement du code de pilote. Ajouter Xe3P à GenXML permet d’injecter progressivement les définitions matérielles sans réécrire manuellement chaque chemin. C’est une phase d’« enablement » très en amont.
Périmètre matériel : Nova Lake, Celestial et data center
Xe3P est lié à la prochaine vague de GPU intégrés chez Intel, incluant Nova Lake. Selon les éléments déjà publiés, Nova Lake pourrait embarquer Xe3 ou Xe3P selon les modèles. Côté mobile, un gain de 20 à 25 % par rapport au Xe3 à 12 cœurs de Panther Lake est évoqué, sans confirmation officielle d’Intel.
La dénomination Xe3P apparaît également en regard de « Celestial », souvent associée aux GPU discrets de prochaine génération. Xe3P est par ailleurs confirmé pour « Crescent Island », une puce data center axée sur l’inférence IA plutôt que sur le rendu graphique.
Pour l’écosystème Linux, l’arrivée de Xe3P dans GenXML et les pilotes ANV/Iris signifie un calendrier de développement au grand jour, avec une montée en fonctionnalités au fil des commits. Les premiers indicateurs utiles pour les développeurs seront l’activation de blocs matériels clés et la stabilisation des chemins Vulkan/OpenGL.