Microsoft vient de confirmer qu'ils filent les clés de chiffrement BitLocker au FBI quand celui-ci débarque avec un mandat. Et même si on s'en doutait fooort, c'est
la première fois
qu'on a la preuve que ça arrive vraiment.
L'affaire s'est passée à Guam (une île américaine dans le Pacifique), où des agents fédéraux enquêtaient sur une histoire de fraude. Ils avaient besoin d'accéder aux ordis de suspects, sauf que les disques étaient chiffrés avec
l'outil BitLocker
, le chiffrement intégré à Windows. Du coup, ni une ni deux, le FBI a envoyé un mandat à Microsoft pour récupérer les clés de récupération stockées dans le cloud.
Et Microsoft a dit oui, bien sûr, voilà les clés, servez-vous, c'est cadeau !
Le truc, c'est que par défaut, quand vous activez BitLocker sur un PC avec un compte Microsoft, Windows envoie automatiquement une copie de votre clé de récupération sur les serveurs de Redmond. C'est présenté comme une fonctionnalité pratique, genre "au cas où vous oubliez votre mot de passe". Sauf que du coup, Microsoft a accès à vos clés.
Et si Microsoft a accès, le gouvernement aussi.
Côté Apple, c'est une autre histoire. J'sais pas si vous vous souvenez de l'affaire de
San Bernardino
en 2016 mais le FBI avait demandé à Apple de créer un firmware spécial pour désactiver les protections anti-bruteforce de l'iPhone d'un terroriste. Tim Cook avait dit non. Pas parce qu'Apple ne pouvait pas techniquement le faire, mais parce que créer cet outil aurait ouvert une brèche pour tout le monde.
Microsoft, eux, ont fait le choix inverse. Leur architecture
permet explicitement
de conserver une copie des clés côté serveur. Alors oui, c'est pratique si vous perdez votre mot de passe, mais c'est aussi une porte d'entrée pour quiconque a un mandat... ou autre chose.
Microsoft dit recevoir environ 20 requêtes par an pour des clés BitLocker, et qu'ils ne peuvent pas toujours y répondre, genre quand l'utilisateur n'a pas activé la sauvegarde cloud.
On s'en serait douté...
Bref, si vous utilisez BitLocker et que vous tenez vraiment à ce que vos données restent privées, désactivez la sauvegarde automatique de la clé sur le compte Microsoft.
Concrètement, pour cela vous avez deux options : utiliser un compte local au lieu d'un compte Microsoft (la clé ne sera jamais envoyée dans le cloud), ou si vous êtes sur Windows Pro/Enterprise, passer par les stratégies de groupe (gpedit.msc → Configuration ordinateur → Modèles d'administration → Composants Windows → Chiffrement de lecteur BitLocker) pour forcer la sauvegarde locale uniquement.
Autrement, vous pouvez aussi simplement sauvegarder votre clé sur une clé USB ou l'imprimer. C'est moins pratique, mais au moins elle reste chez vous.
Une banale invitation dans votre calendrier Google Agenda peut mener à une fuite d'informations en manipulant l'IA Gemini via une injection de prompt indirecte.
Avec sa fonctionnalité nommée Brand Impersonation Protection, Microsoft s'attaque aux appels suspects dans Teams afin de lutter contre l'usurpation d'identité.
Intel termine la semaine sous tension. Le géant des semi-conducteurs a vu son cours boursier chuter lourdement après avoir dévoilé ses prévisions de revenus pour le premier trimestre 2026. Des chiffres en dessous des attentes du marché qui viennent doucher l’optimisme né autour du redressement promis par la nouvelle direction. La sanction est immédiate : […]
La domination de NVIDIA dans l’intelligence artificielle ne repose pas uniquement sur ses GPU. Elle s’est surtout construite autour d’un atout bien plus difficile à détrôner : son écosystème logiciel. CUDA est devenu au fil des années le langage universel du calcul accéléré, incontournable aussi bien dans les centres de données que dans la recherche […]
La gamme AMD Ryzen AI 400, nom de code Gorgon Point, marque une évolution incrémentale mais stratégique de la série Ryzen AI 300. Il ne s’agit pas d’une nouvelle architecture, mais d’un raffinement de la plateforme Strix Point, avec des optimisations ciblées sur les fréquences, la mémoire, et surtout les capacités IA.
Contrairement à ce que laisse parfois croire la communication marketing, ce n’est pas une nouvelle génération, mais une révision intelligente destinée à consolider la position d’AMD face à Intel Panther Lake et Qualcomm Snapdragon X2 Elite, surtout dans la course à l’IA locale.
Ces processeurs mobiles visent un large spectre de machines, des ultraportables grand public aux modèles haut de gamme orientés création, gaming léger et usages IA avancés, tout en répondant aux exigences Copilot+ PC de Microsoft.
Architecture et plateforme
Ryzen AI 400 repose sur un triptyque désormais bien connu :
CPU Zen 5 / Zen 5c
GPU intégré RDNA 3.5
NPU XDNA 2
AMD conserve donc les fondations techniques de la génération précédente, mais en extrait davantage de performances grâce à des ajustements de fréquences et de bande passante mémoire.
Alors, quelles sont les principales évolutions de la gamme Ryzen AI 400 ?
Cette nouvelle génération se distingue par une offre hétérogène : certains modèles adoptent des configurations de cœurs revues, d’autres bénéficient de fréquences en hausse, tandis que plusieurs conservent des caractéristiques proches de celles des Ryzen AI 300 « Strix Point ».
L’ensemble s’articule toutefois autour de plusieurs avancées clés. Les principaux apports notables sont :
Jusqu’à 12 cœurs Zen 5
Fréquences pouvant atteindre 5,2 GHz
NPU XDNA 2 offrant jusqu’à 60 TOPS pour l’IA
Jusqu’à 16 cœurs GPU RDNA 3.5
Fréquence GPU boost jusqu’à 3,1 GHz
Prise en charge de la mémoire LPDDR5X jusqu’à 8 533 MT/s
une meilleure exploitation des workloads Copilot+.
Valeur pratique des 60 TOPS du NPU XDNA 2
Les 60 TOPS annoncés par AMD pour le NPU XDNA 2 du Ryzen AI 9 HX 475 correspondent à une capacité théorique en précision entière (INT8), conforme aux exigences du standard Copilot+ PC. En l’absence de systèmes commercialisés, aucune mesure indépendante n’est disponible, mais l’expérience des générations précédentes permet d’anticiper une compatibilité effective avec les modèles d’IA quantifiés courants : Phi-3-mini (3,8B), Llama 3 8B (en INT4 via DirectML), Stable Diffusion XL (via ONNX) ou Whisper-base.
Ces workloads devraient s’exécuter localement avec une latence acceptable et une consommation bien inférieure à celle d’un traitement CPU ou GPU, ce qui renforce l’intérêt de la plateforme pour les usages hors ligne ou sensibles à la confidentialité. Toutefois, la performance réelle dépendra de la qualité des pilotes Windows, de l’optimisation logicielle et de l’implémentation mémoire par les OEM. Les 60 TOPS constituent donc une avancée crédible, mais leur utilité concrète restera à valider dès la disponibilité des premiers appareils.
Création et productivité
AMD annonce des gains marqués en création de contenu, avec des écarts importants dans des charges lourdes comme Blender ou 7-Zip. Ces chiffres traduisent surtout une meilleure montée en fréquence soutenue et un iGPU plus rapide.
Gaming intégré
Le GPU RDNA 3.5 à 3,1 GHz permet un gain moyen annoncé d’environ 10 à 12 % face aux iGPU Xe2 de Lunar Lake en 1080p réglages bas, avec des hausses plus visibles dans certains titres e-sport et AAA récents.
Autonomie et usages mobiles
AMD met également l’accent sur l’efficacité énergétique :
jusqu’à 24 heures de lecture vidéo,
environ 20 heures de navigation web selon les configurations.
Dans des conditions réelles, écran QHD+, navigation active, Bluetooth, on s’attend plutôt à 10–14 heures. Les OEM auront un rôle clé : un châssis mal refroidi pourrait forcer des throttles précoces, annulant les gains de fréquence.
Pou rappel, un NPU consomme moins de 2 W pour les tâches IA, contre 10–20 W si le CPU ou GPU les prend en charge. Cela signifie :
Plus d’autonomie lors de l’usage d’IA,
Moins de chauffe,
Possibilité de traiter des données hors ligne et hors cloud (utile pour la confidentialité).
Écosystème et disponibilité
Les Ryzen AI 400 sont déployés sur :
ordinateurs portables,
mini-PC,
AIO.
De nombreux constructeurs sont concernés dès le lancement, avec une disponibilité progressive à partir du premier trimestre 2026.
Une déclinaison Ryzen AI 400 PRO, destinée au segment professionnel et entreprise, est prévue un peu plus tard dans l’année.
Verdict
À ce jour, aucun système commercial équipé d’un Ryzen AI 400 n’est entre les mains des utilisateurs ou des testeurs indépendants. Toutes les données disponibles proviennent de spécifications techniques officielles, de simulations internes d’AMD, et de prototypes non accessibles au public. Il est donc essentiel de nuancer tout jugement de performance.
Cela dit, l’analyse technique de la plateforme Gorgon Point révèle une stratégie claire : AMD ne cherche pas à réinventer l’APU, mais à perfectionner ce qui fonctionne déjà. Le Ryzen AI 400 corrige discrètement les points faibles de Strix Point notamment la bande passante mémoire et pousse plus loin les atouts d’AMD : un NPU performant, un iGPU en avance sur la concurrence x86, et une intégration solide dans l’écosystème Copilot+ PC.
L’adoption de LPDDR5X-8533 MT/s est probablement l’amélioration la plus sous-estimée. Elle devrait réduire les goulots d’étranglement entre CPU, GPU et NPU, rendant les workloads mixtes (création + IA, streaming + traitement local) plus fluides et expliquant en grande partie les gains annoncés en gaming intégré, bien au-delà de la simple hausse de fréquence GPU.
Pour les consommateurs, cette génération ne promet pas de rupture spectaculaire, mais un équilibre plus mature entre :
autonomie réelle (sous réserve des implémentations OEM),
performances IA locales exploitables dès Windows 11 24H2,
polyvalence pour productivité, création légère et gaming occasionnel.
En somme, Ryzen AI 400 semble être la plateforme la plus cohérente qu’AMD ait proposée pour l’ère post-cloud de l’informatique personnelle mais son succès dépendra entièrement de la qualité des premiers laptops (refroidissement, gestion thermique, pilotes NPU, quantité de RAM).
À surveiller dès le premier trimestre 2026. À ne pas acheter avant les premiers benchmarks indépendants.
C’est le cauchemar des services logistiques d’AMD. Alors que le lancement officiel n’est prévu que pour le 29 janvier, un revendeur suisse a brisé l’embargo en expédiant les premières unités du Ryzen 7 9850X3D avec une semaine d’avance !
Selon son récit, un détaillant helvétique aurait accidentellement ouvert les commandes du futur CPU d’AMD bien trop tôt. Résultat : une poignée d’acheteurs chanceux (ou perspicaces) ont pu passer commande… et se faire livrer l’un des processeurs les plus attendus de 2026. Le prix ? 450 CHF (environ 570 $ TTC), légèrement au-dessus du tarif annoncé par AMD (499$), mais avec un avantage inestimable : la primeur absolue.
Un upgrade discret… mais stratégique
Le Ryzen 7 9850X3D est censé succéder au très populaire 9800X3D, référence du gaming sur PC. Pourtant, sur le papier, les différences avec le semblent minimes, ce qui rend cette fuite précoce encore plus intrigante. Mais attention : aucun benchmark n’a été publié à ce jour. Ni par l’acheteur, ni par AMD. Alors, s’agit-il d’un simple lot de test ? D’une erreur logistique ? Ou d’un coup de communication subtil ?
Sortie officielle : 29 janvier 2026
AMD a confirmé que le Ryzen 7 9850X3D sera lancé mondialement le 29 janvier 2026, au prix de 499 $ (soit environ 460–480 € HT selon les pays). Les précommandes devraient ouvrir dès le 28 janvier chez les principaux revendeurs. Mais si des unités circulent déjà en Suisse… combien d’autres sont-elles déjà en route vers des passionnés aux aguets ?
Pourquoi ça compte ?
Les premiers tests indépendants, attendus dès le 28 janvier, devraient trancher. En attendant… ce mystère suisse pourrait bien devenir l’anecdote culte du lancement Ryzen 9000X3D.
Avec le dernier pilote Adrenalin Edition 26.1.1, AMD apporte une prise en charge des nouveaux processeurs mobiles Ryzen AI 400, de l’AI 5 430 (4 cœurs et 8 threads) à l’AI 9 HX 475 (12 cœurs et 24 threads). Les jeux Starsand Island et Avatar: Frontiers of Pandora – From the Ashes Edition bénéficient également d’un support.
Avatar: Frontiers of Pandora – From the Ashes EditionStarsand Island
Ce pilote Adrenalin Edition 26.1.1 propose une installation optionnelle du pack AMD AI. Nous avons aussi droit à des correctifs pour plusieurs jeux et problèmes connus, dont le détail apparaît en dessous dans les notes de version.
Highlights Adrenalin Edition 26.1.1
New Features
Optional install of AI Bundle
New Product Support
AMD Ryzen AI 9 HX 475
AMD Ryzen AI 9 HX 470
AMD Ryzen AI 9 465
AMD Ryzen AI 7 450
AMD Ryzen AI 7 445
AMD Ryzen AI 5 435
AMD Ryzen AI 5 430
New Game Support
Starsand Island
Avatar: Frontiers of Pandora – From the Ashes Edition
Fixed Issues Adrenalin Edition 26.1.1
Some shadows may not render correctly while playing Call of Duty®: Black Ops 7 on some AMD Graphics Products on Radeon RX 5000 series and Radeon RX 6000 series graphics products.
Texture corruption may be observed when playing Enshrouded while at the first “Elixir Well” location on Radeon RX 7000 series and Radeon RX 9000 series graphics products.
Application may fail to launch while playing Diablo 4 with usernames containing non-english characters on Radeon RX 7000 series and Radeon RX 9000 series graphics products.
Some lights may not render correctly while playing Microsoft Flight Simulator 2024 during nighttime scenes on Radeon RX 9000 series graphics products.
Application crashes when using Unreal Engine 5.6 Editor with Lumen HWRT enabled on Radeon RX 5000, Radeon RX 6000, Radeon RX 7000 and Radeon RX 9000 series products.
Intermittent visual corruption may be observed while navigating Chromium and Electron apps on Radeon RX 5000 series and Radeon RX 6000 series graphics products.
Slow window resizing may be observed (related to vkAcquireNextImage extension) while developing games that use the Vulkan API on Radeon RX 7000 series and Radeon RX 9000 graphics products.
Player sprites may not render correctly while playing Cassette Beasts on Radeon RX 7000 series and Radeon RX 9000 series graphics products.
Artifact may appear when playing Baldur’s Gate 3 with TAA enabled on Radeon RX 5000 series and Radeon RX 6000 series graphics products. .
Known Issues
Intermittent application crash or driver timeout may be observed while loading a saved game in Cyberpunk 2077 with Path Tracing enabled. AMD is actively working on a resolution with the developer to be released as soon as possible.
Intermittent application crash or driver timeout may be observed while playing Battlefield 6 on AMD Ryzen AI 9 HX 370. AMD is actively working on a resolution with the developer to be released as soon as possible.
Intermittent application crash or driver timeout may be observed while playing Roblox Player (Car Zone Racing & Drifting) when task switching between media on Radeon RX 7000 series products.
Texture flickering or corruption may appear while playing Battlefield 6 with AMD Record and Stream on some AMD Graphics Products.
Utilitaire gratuit, en français et portable permettant de cloner et/ou de sauvegarder vos disques durs/clés USB/supports amovibles en quelques clics...
Bonne nouvelle pour les curieux : The Eternal Life of Goldman lâche sa démo le 19 février, juste avant le Steam Next Fest. Ce jeu de plateforme animé à la main sera jouable toute la durée de l’événement, du 23 février au 2 mars.
The Eternal Life of Goldman : démo anticipée avant le Steam Next Fest
Le studio Weappy Studio et l’éditeur THQ Nordic ouvrent les portes d’un archipel dessiné image par image, inspiré de fables anciennes. Objectif annoncé : explorer, sauter, combattre, et affronter une divinité mystérieuse dans une aventure au style artisanal. D’après l’annonce, « la démo restera disponible pendant tout le festival » et sera maintenue pour une durée limitée au-delà du 2 mars avant d’être retirée.
La page officielle de The Eternal Life of Goldman détaille la disponibilité multiplateforme : Nintendo Switch, PS5, Xbox Series X|S et PC. Pour rappel, la fenêtre de test débute le 19 février, puis se prolonge durant le Steam Next Fest du 23 février au 2 mars.
Une aventure dessinée à la main, jouable sur PC et consoles
Le cœur de la proposition repose sur une animation classique image par image et des décors faits main. Le nouveau trailer est disponible sur YouTube, tandis que la démo permettra de prendre en main les mécaniques de déplacement et de combat avant la sortie finale, à une date non précisée.
Selon Business Insider, Evercore ISI anticipe une bascule publicitaire majeure chez OpenAI : Mark Mahaney estime que la maison de ChatGPT pourrait générer jusqu’à 25 milliards de dollars de revenus publicitaires annuels d’ici 2030, avec un premier palier à « plusieurs milliards » dès 2026 si le déploiement tient ses promesses.
L’annonce récente d’OpenAI confirme l’amorçage : des publicités clairement signalées commencent à apparaître chez les utilisateurs de ChatGPT en version gratuite et dans l’offre Go, sans partage du contenu des conversations avec les annonceurs.
Un nouveau canal d’intention face au duopole
Mahaney fonde sa projection sur trois leviers : la base d’utilisateurs potentiels de ChatGPT d’ici 2030, l’efficacité prouvée des plateformes d’acquisition à forte intention, et la taille du marché actuel. OpenAI revendique une trajectoire de revenus en forte accélération, avec un run-rate 2025 à 20 milliards de dollars, contre 2 milliards en 2023, mais la profitabilité demeure incertaine. L’ad tech pourrait devenir le moteur qui manque.
Le cadrage est clair : les premiers formats s’affichent en bas des réponses et restent contextuels au fil de la conversation, dans une logique d’intégration « utile, non intrusive ». Si ce positionnement tient, Mahaney voit un risque direct pour Google, dont la recherche et YouTube devraient approcher 300 milliards de dollars de revenus publicitaires en 2025, et pour Meta autour de 180 milliards. La clé : capter des requêtes commerciales à haute valeur, aujourd’hui ancrées dans la recherche traditionnelle.
L’hypothèse « conversationnelle » et ses limites
Le scénario offensif passe par un format réellement conversationnel : permettre aux utilisateurs d’explorer, comparer et affiner un achat sans quitter ChatGPT. En touchant des signaux d’intention plus explicites que le clic sur un lien bleu, OpenAI pourrait réorienter une partie des budgets. Avec près d’un milliard d’utilisateurs actifs hebdomadaires, les signaux déclaratifs et contextuels sont denses, donc monétisables.
Mais la défense de Google reste robuste : inertie d’usage sur la recherche, puissance de l’écosystème Chrome, chaîne publicitaire bien huilée du requêtage à la conversion. Même avec un push agressif, ChatGPT devra convaincre que ses annonces ne dégradent ni la qualité des réponses, ni la confiance. À court terme, l’effet de substitution paraît limité ; à moyen terme, une érosion ciblée des requêtes transactionnelles est plausible si le format prouve un meilleur taux de conversion à coût d’acquisition maîtrisé.
Si OpenAI démontre que l’IA conversationnelle convertit mieux que les pages de résultats classiques, on pourrait voir émerger un troisième pôle publicitaire autour de l’intention dialoguée. Les premiers tests d’OpenAI, la réaction de Google sur ses propres interfaces génératives et la capacité d’OpenAI à garder l’expérience fluide sans cannibaliser la pertinence seront les trois métriques qui diront si l’objectif des 25 milliards en 2030 est crédible ou seulement théorique.
MSI lance en Chine le « MAG 342CQRF E20 », un 34 pouces incurvé 21:9 en 3440 × 1440 à 200 Hz. Par rapport au 345CQRF E20 déjà croisé en 1000R, ce modèle adopte une courbure 1500R et un tarif très agressif de 1499 ¥ (environ 193 €) sur JD.com.
Fiche technique et connectique
Le MSI MAG 342CQRF E20 repose sur une dalle Rapid VA 200 Hz avec un temps de réponse annoncé à 0,5 ms, une luminosité de 300 nits, une couverture de 110 % sRGB et 90 % DCI-P3. Le support assure réglages en hauteur, inclinaison et rotation, et le châssis reste compatible VESA.
La connectique comprend deux ports HDMI 2.0, un DisplayPort 1.4 et une sortie audio 3,5 mm. Sur un 200 Hz en 3440 × 1440, le DP 1.4 s’impose pour atteindre la pleine fréquence, les HDMI 2.0 limitant l’usage aux rafraîchissements inférieurs.
Positionnement face au 1000R
Le passage au 1500R cible un public plus large que le 1000R, souvent jugé radical pour la productivité multi-fenêtres. À ce niveau de prix, MSI propose un 34” ultrawide 200 Hz VA avec un compromis logique : luminosité standard et gamut correct, mais sans ambitions HDR.
Dans un segment ultrawide dominé par des 144–165 Hz, l’arrivée d’un 200 Hz bien positionné tarifairement peut accélérer la bascule vers des fréquences plus élevées sur le 34” en dalle VA. Reste à voir la gestion des overdrives et du smearing, point clé sur ce type de dalle.
Minisforum lance à l’international le mini PC AtomMan G7 Pro, une machine compacte qui se positionne face au ROG NUC 2025 d’Asus en misant sur une carte graphique Nvidia GeForce RTX 5070 Laptop et un processeur Intel Core i9-14900HX.
Deux configurations sont prévues, toutes deux adossées au Core i9-14900HX (24 cœurs, 32 threads). Le châssis accepte jusqu’à 96 Go de DDR5-5200 et propose deux slots M.2 2280 pour SSD NVMe, avec une capacité totale annoncée jusqu’à 8 To.
La partie graphique repose sur une RTX 5070 Laptop. Le refroidissement combine 6 caloducs, un double ventilateur et une extraction sur trois faces. Minisforum annonce un plafond de consommation de 200 W en mode jeu et 150 W en mode bureautique.
La connectique comprend un lecteur de carte SD, de l’USB-C 3.2 Gen1, un port USB4, du HDMI 2.1 et un Ethernet 2,5 Gb/s.
Tarifs et positionnement
Le barebone est affiché à 1 399€, tandis que la version 32 Go RAM + 1 To SSD est proposée à 1759 €.
En associant un processeur HX de 14e génération à une RTX 5070 Laptop dans un châssis de mini-PC, Minisforum cible clairement le segment des machines compactes à hautes performances, à l’image des NUC orientés gaming.
Ce positionnement soulève toutefois une question de cohérence technique. S’appuyer sur une plateforme de 14e génération surprend, tant celle-ci commence à montrer ses limites en matière d’efficience face aux architectures plus récentes et notamment Panther Lake, officiellement annoncé au CES 2026, promettent des avancées sensibles en efficacité énergétique et en performances. Des critères pourtant essentiels dans un format mini-PC, où la maîtrise de la consommation et de la dissipation thermique conditionne directement les performances soutenues et le niveau sonore.
Selon TorrentFreak, des documents internes versés dans une action collective aux États‑Unis accusent Nvidia d’avoir approché Anna’s Archive pour obtenir un accès « haute vitesse » à plusieurs millions de livres piratés, soit environ 500 To de données, en vue d’entraîner ses modèles maison. Les plaignants, des auteurs publiés, affirment que des cadres ont validé l’opération malgré l’avertissement explicite des responsables d’Anna’s Archive sur l’illégalité des corpus proposés.
Le dossier élargi, déposé vendredi, s’ajoute à une plainte déjà en cours où Nvidia est accusé d’avoir utilisé Books3, un jeu de données compilé depuis le tracker Bibliotik, sans autorisation des ayants droit. L’entreprise soutient de son côté que l’usage relève du « fair use », les livres n’étant, selon elle, qu’un ensemble de corrélations statistiques pour l’entraînement.
Les nouveaux éléments citent des échanges où un membre de l’équipe « data strategy » de Nvidia sollicite les capacités d’Anna’s Archive, qui aurait proposé un accès payant à ses miroirs et à un volume total d’environ 500 To de textes. Les plaignants affirment que la direction a donné son feu vert en moins d’une semaine. Le document ne précise pas si un paiement a effectivement été réalisé.
Un périmètre qui dépasse Books3
Au-delà d’Anna’s Archive, la plainte mentionne LibGen, Sci‑Hub et Z‑Library comme autres sources présumées de livres mis à profit pour l’entraînement de modèles tels que NeMo, Retro‑48B, InstructRetro ou Megatron. Elle affirme en outre que Nvidia aurait fourni à des clients des scripts facilitant le téléchargement automatique de The Pile, incluant la composante Books3, ouvrant la voie à des revendications pour contrefaçon contributive et en concertation.
Pour mémoire, Nvidia est le principal bénéficiaire de la vague IA côté matériel, avec une demande record pour ses GPU d’entraînement et ses services datacenter. En parallèle, la firme bâtit un portefeuille de modèles et d’outils alignés sur son stack matériel, une intégration verticale qui se heurte frontalement aux litiges copyright embrasant l’écosystème IA.
Enjeux juridiques et industriels
Cette divulgation semble être la première à exposer publiquement des échanges entre une big tech américaine et Anna’s Archive, au moment où ce « shadow library » a perdu plusieurs noms de domaine. La procédure étend les demandes de dommages‑intérêts à un large groupe d’auteurs susceptibles de se joindre à l’action.
Si les allégations se confirment, l’impact pourrait dépasser la seule exposition de Nvidia : l’argumentaire « fair use » appliqué à des corpus issus de bibliothèques pirates sera testé plus frontalement, avec des risques d’injonctions touchant l’accès aux datasets et la distribution d’outils associés. Pour l’écosystème, cela raviverait la pression sur la traçabilité des jeux de données, la gouvernance des pipelines d’entraînement et la séparation nette entre sources publiques licites et dépôts controversés, y compris pour les offres AI‑as‑a‑Service destinées aux clients industriels.
Pendant qu’on s’écharpe en Europe sur comment réglementer l'IA, la Corée du Sud vient de siffler la fin de la récré chez elle. Nos amis Coréen viennent en effet de pondre leur première loi qui encadre l’intelligence artificielle (l’AI Act coréen, pour les intimes) et ce qu'on peut dire, c’est que leur approche est très très différente de la nôtre, vous allez voir.
En fait, chez nous, avec l’AI Act européen, on régule principalement par le "risque d’usage". Cela veut dire que si vous faites un outil pour du recrutement, de la santé ou du maintien de l’ordre, hop, vous tombez dans la catégorie "haut risque", et cela peu importe que votre IA tourne sur un Raspberry Pi ou un supercalculateur.
Alors oui l’UE a aussi ses seuils de calcul (les fameux
10^25 FLOPs
) pour identifier les modèles à "risque systémique", mais la base reste quand même l’usage. Les Coréens, eux, ont décidé de se simplifier la tâche en plaçant le curseur presque exclusivement sur ce qu’il y a sous le capot.
Leur critère magique c'est la puissance de calcul cumulée lors de l’entraînement. Et c'est cela qui leur permet de définir ce qu’ils appellent la "high-performance AI" (ou Frontier AI). Pour les devs, c’est un changement complet car si vous codez un petit outil IA bien foutu mais léger, vous aurez une paix royale. Vous esquiverez une paperasse infinie ou de la mise en conformité bloquante si votre projet ne dépasse pas les seuils techniques fixés par le MSIT (le ministère coréen de la science et des TIC).
Et c’est d’ailleurs ce qui rend leur approche très orientée innovation. Le gouvernement coréen a d'ailleurs été très clair : le but n’est pas de bloquer le développement mais de poser un cadre de confiance. Ils ont même prévu une période de grâce d’au moins un an sans aucune sanction administrative le temps que tout le monde s’adapte. Et même après ça, on est loin du climat carcéral car il n'y a pas de sanctions pénales prévues dans cette loi, mais juste des ordres de correction et des amendes plafonnées à 30 millions de won (environ 21 000 euros) si vous ignorez les injonctions.
J’avoue, j’ai dû relire trois fois le texte pour piger la subtilité, mais le diable se cache dans les FLOPS. Parce qu'au moment où j'écris cet article, il n'y a actuellement aucune entreprise en Corée qui dépasse les seuils de puissance de calcul qui rentrent dans le cadre de leur loi. Même
Naver, leur géant de la Tech local est loin de ça
. C’est dire si la marge est grande.
Après côté transparence, c’est plus classique mais efficace car tout contenu généré par IA qui pourrait être confondu avec la réalité (les deepfakes, pour faire court) doit être clairement indiqué. C’est le minimum syndical aujourd’hui, vous allez me dire, mais là encore, ils ont eu le nez creux en excluant les usages personnels ou non commerciaux du cadre réglementaire, histoire de ne pas fliquer le moindre mème rigolo.
Voilà... alors on va voir qui de la méthode "compteur de tours" ou "check-list de risques" gagne la course, mais bon j'ai ma petite idée. En Europe, on a tendance à vouloir tout border par secteur, alors qu’en Corée, visiblement, ils préfèrent économiser du temps et de l'énergie en surveillant uniquement les gros muscles et en laissant les petits grandir sans les emmerder.
Et même si je ne connais pas du tout l'écosystème tech coréen, force est de constater que leur vision a l'air sacrément plus pragmatique pour l’écosystème tech que la notre.
Un modèle text-to-video open source, gratuit et capable de tourner ailleurs que sur un supercalculateur de la NASA ?
J'avoue, j'ai cru au fake en découvrant le truc, surtout quand on voit la puissance de feu qu'il faut chez OpenAI (Sora) ou Google (Veo) pour sortir le moindre clip de 3 secondes. Mais BON, parfois, il suffit de deux frères motivés pour bousculer un peu les géants de l'IA.
Et c'est 2 frères, ce sont Sahil et Manu Chopra, qui depuis l'automne 2022 bosse avec acharnement sur leur modèle de génération de vidéos baptisé Linum.
Leur histoire est assez dingue et c'est pour ça que je vous la raconte aujourd'hui. En fait, au début, ils ont fait comme tout le monde. C'est à dire qu'ils ont essayé de bidouiller Stable Diffusion XL pour lui faire cracher de la vidéo. Ils ont fini par mettre au point une extension un peu "hacky" basé sur un modèle image, sauf que ça ne marchait pas très bien.
Enfin si, ça sortait des GIFs d'une seconde en 180p pour Discord mais pas vraiment de quoi faire trembler Hollywood et
Matthew McConaughey
(lol). Le problème, c'est que les VAE (les encodeurs d'images) ne comprennent rien au temps qui passe, alors ils traitent chaque frame indépendamment et ça donne cet effet de scintillement insupportable qu'on retrouve dans pas mal de générateurs vidéo libre ou open source.
Du coup, ils ont pris une décision radicale. Tout foutre à la poubelle et repartir de zéro !
Ils ont donc passé deux longues années à batir Linum v2 "from scratch". Cela veut dire qu'il ont du trouver les données, entraîner des modèles de vision pour filtrer le dataset, mettre manuellement des légendes sur des milliers de vidéos, gérer les clusters de GPU... et j'en passe !
Et à la clé de tout ce travail, ils ont fini par obtenir un modèle de 2 milliards de paramètres (ce qui est minuscule pour de la vidéo, je tiens à le dire) capable de générer des clips de 2 à 5 secondes en 720p !
Et le plus beau c'est que c'est sous licence Apache 2.0 donc en open source.
Pour réussir cette prouesse, ils n'ont pas eu d'autre choix que d'être malins.
Par exemple, ils ont choisi d'utiliser le VAE de Wan 2.1 (qui gère très bien la compression temporelle) pour ne pas réinventer la roue sur cette partie. Leur vision en fait, c'est de voir ces modèles comme des "moteurs de rendu inversés". Au lieu de placer des polygones et des lumières comme dans Blender, vous décrivez la scène et le modèle fait le reste.
Linum est un modèle encore jeune et la physique est parfois aux fraises puis ça manque de son mais pour une équipe de deux personnes face à des boîtes qui ont des milliards de budget, le résultat est plutôt pas mal. Faut saluer le taf !
Donc si vous avez une machine qui tient la route (ou un bon cloud) et quelques compétences techniques, sachez que les poids sont disponibles sur
Hugging Face si ça vous chauffe
.
On croirait encore lire le scénario d'un nouveau Terminator, mais pour une fois, ce n'est pas de la science-fiction. Tenez vous bien, il y a actuellement ne résistance souterraine qui est réellement en train de s'organiser pour lutter contre les géants de l'IA.
Leur nom de code : "Poison Fountain".
Je suis tombé sur
cet article de Craig Smith chez Forbes
que je vous invite à lire et qui détaille ce mouvement d'un nouveau genre. Alors pour le moment, ça tient plus du manifeste un peu énervé que du logiciel de résistance clé en main, mais l'intention est claire. Ce que veut faire Poison Fountain c'est "miner" le web avec des données piégées pour que les prochaines générations d'IA s'intoxiquent en les ingérant.
Leur méthode repose sur des outils comme
Nightshade
, dont je vous ai déjà parlé, avec lequel vous prenez une image, disons une vache et l'outil modifie les pixels de façon invisible pour l'œil humain, de sorte que l'IA l'interprète ça comme... un camion. Alors que nous, avec nos petits yeux nous voyons toujours Marguerite.
Ainsi, si un modèle avale trop de ces données corrompues, il ne devient pas juste moins performant, mais commence également à faire des associations délirantes. C'est le principe du data poisoning et si Poison Fountain parvient à encourager massivement cette pratique, les crawlers d'OpenAI ou Google vont avoir des sueurs froides.
Bon, il ne faut pas s'emballer non plus car nettoyer un dataset contaminé est un enfer technique (il faut parfois tout réentraîner), mais les ingénieurs en face ont de la ressource. Ils finiront probablement par filtrer plus agressivement ou par se rabattre sur des données certifiées et sous licence. C'est plus cher, c'est moins frais, mais c'est la parade logique.
En tout cas, c'est le genre de dérive que craignait
Geoffrey Hinton
en quittant Google sauf que la perte de contrôle n'est pas accidentelle mais provoquée volontairement par des artistes et des activistes.
Alors est-ce du cyber-vandalisme comme l'a été le DDoS à une époque, ou est-ce de la légitime défense ?
Le débat est lancé, tout comme la guérilla de la data !
Bon alors pour les deux du fond qui dorment près du radiateur, OpenTTD est un clone open source du jeu culte de Microprose, « Transport Tycoon Deluxe » (1995). Le principe est simple : vous êtes à la tête d'une société de transport et votre but est de faire un max de bénéfices en trimballant des passagers et des marchandises par train, camion, bus, avion ou bateau.
C'est un peu le SimCity du transport quoi.
Bref, ce jeu est un monument. Et la bonne nouvelle, c'est qu'il est toujours vivant ! Mieux que ça, il vient de sortir en version 12.0 (et depuis la 13, 14...) et c'est une mise à jour qui change tout.
Le gros morceau de cette version, c'est le multijoueur. Fini la galère de l'ouverture de ports sur votre box internet ! Les développeurs ont enfin intégré un système qui gère ça tout seul. Vous lancez le serveur, vous filez le code d'invitation à vos potes, et hop, c'est parti. On peut même créer des serveurs "privés" uniquement accessibles via ces codes.
Autre truc qui va faire plaisir aux moddeurs fous : la limite des NewGRF (les fichiers qui ajoutent des graphismes, des véhicules, etc.) passe de 64 à 255. Autant dire que vous allez pouvoir modder votre jeu jusqu'à ce qu'il ne ressemble plus à rien.
Ah et un détail qui n'en est pas un, on peut enfin construire des rivières en diagonale en maintenant la touche CTRL. Ça parait con dit comme ça, mais pour les esthètes du terraforming, c'est une révolution.
Si vous aimez ce genre de simulation, je vous conseille aussi de jeter un œil à
Simutrans
qui est dans la même veine, ou encore à la communauté incroyable qui maintient
SimCity 4 en vie depuis 22 ans
. C'est fou ce que l'open source et les passionnés peuvent faire.
D'ailleurs si vous cherchez d'autres pépites du genre, j'avais listé
plus de 1500 clones open source
de jeux cultes. Y'a de quoi s'occuper pour les 10 prochaines années.
Bref, OpenTTD c'est gratuit, c'est dispo sur Windows, macOS, Linux et même Android, et c'est toujours aussi addictif.