Mercato Manchester City : le Real Madrid veut profiter du flou autour de Guardiola pour foncer sur une star des Cityzens


Apple’s WebKit blog published a post today highlighting the results of Interop 2025, an industry-wide effort to improve cross-browser interoperability. Here are the details.
more…
Resident Evil: Requiem is just a couple of weeks away, and while the first few trailers definitely made it look like a beautiful game, the Switch 2 trailer that debuted earlier this week, well, didn't. But, the way I see it, that's excellent news, especially for anyone on a budget gaming PC.
Ever since the RE Engine came to prominence starting with Resident Evil: Biohazard, Capcom has been impressing me with just how good it can make games look, without making them too demanding. Now, obviously, I haven't had the chance to test Resident Evil: Requiem performance yet myself, but just looking at both the system requirements and the Switch 2 trailer, it seems like Capcom is continuing this trend.
Capcom hasn't revealed what resolution and settings either of these spec sheets are targeting, but even if that recommended build is just for 1080p Ultra at 60 fps, the Nvidia RTX 2060 Super and Radeon RX 6600 are very attainable graphics cards. That's not to mention only requiring a Core i7-8700 or Ryzen 5 5500 and 16GB of RAM, which is a very low bar to clear.
Again, because Capcom hasn't revealed any specific settings that the system requirements are targeting, I can't say for sure, but from my time testing Resident Evil Village for TechRadar when it came out, I was able to get nearly 60 fps at 4K with an RTX 3060 – and the 3060 is very much not a 4K graphics card.
However, it's important to note that the requirements for Requiem are a bit heavier than they were for Village. The biggest difference is that instead of asking for a Radeon RX 5700 or a GTX 1070 for Village, Requiem is asking for an RTX 2060 Super or a Radeon RX 6600. And while the performance gap between these graphics cards isn't huge on its own, the key difference is that Requiem is recommending a ray tracing-capable GPU – Village didn't.
That makes a lot of sense, given the visual quality of some of the trailers that have come out for the game, but it may leave some folks with older GPUs out in the cold. It's very likely that with an older non-RT GPU, the game will look a lot like the Nintendo Switch 2 footage. The bright side here, though, is that the GTX 1660 and Radeon RX 5500 XT sneak in the minimum specs, so you'll still be able to play the game, it just might not look too great.
It's important to highlight that the Nintendo Switch 2 is able to run Resident Evil: Requiem, even if it wouldn't quite meet the system requirements if it were a PC. The Tegra T239 SoC in the handheld is roughly the equivalent of a mobile RTX 3050 – which is weaker than the desktop-class GTX 1660 Capcom is requiring. I wouldn't get too caught up in this detail, though.
Primarily, that's because the Nintendo Switch 2 is a console and every single unit will be running the exact same hardware. That means when Capcom was porting Resident Evil: Requiem over to the Switch 2, it was able to fine-tune the build to the exact hardware, likely finding optimizations that wouldn't be there for the PC version.
Still, just going by the Switch 2 trailer earlier this week, it does seem like Capcom just barely managed to squeeze the game onto the handheld. But even if it is rough, I'm looking forward to seeing just how well it runs on the Nintendo console.
Jackie Thomas is the Hardware and Buying Guides Editor at IGN and the PC components queen. You can follow her @Jackiecobra
GitHub intègre directement Claude (Anthropic) et Codex (OpenAI) à sa plateforme dans une préversion publique destinée aux abonnés Copilot Pro Plus et Copilot Enterprise. Les deux agents rejoignent Copilot sur le web, sur l’app mobile et dans Visual Studio Code, avec une logique de sélection au cas par cas selon la tâche à accomplir.
Cette intégration s’inscrit dans la stratégie « Agent HQ » de GitHub : des agents spécialisés, invocables dans le flux de travail habituel, sans changement d’outil ni perte de contexte. À la création d’une tâche, l’utilisateur choisit Copilot, Claude, Codex ou un agent personnalisé. Chaque appel consomme un crédit de requête avancée, et les agents peuvent être affectés au tri des issues et au traitement des pull requests.

GitHub ajoute un mécanisme d’évaluation comparative des réponses entre Copilot, Claude et Codex pour mesurer la qualité des solutions générées. « Le changement de contexte freine le développement logiciel. En réunissant Codex, Claude et Copilot dans Agent HQ, on conserve le contexte de bout en bout, de l’idéation à l’implémentation », explique Mario Rodriguez, CPO de GitHub.
GitHub poursuit son ouverture aux modèles concurrents afin d’optimiser Copilot : les développeurs pouvaient déjà mobiliser des modèles d’Anthropic, Google, xAI et OpenAI dans Copilot. L’accès à Claude et Codex sera élargi à d’autres formules d’abonnement. En parallèle, des intégrations avec Google, Cognition et xAI sont en préparation pour GitHub, VS Code et l’outil en ligne de commande de Copilot.
Contexte notable côté Microsoft : l’éditeur étend l’accès à Claude Code en interne et demande aux équipes de le comparer systématiquement à GitHub Copilot, avec l’objectif affiché d’accélérer l’itération produit chez GitHub. La manœuvre entérine une approche multi-modèles assumée, y compris au sein de l’écosystème Microsoft.
Cette bascule vers des agents concurrents logés à la même enseigne modifie la dynamique de plateforme : GitHub se place comme orchestrateur neutre, et laisse la performance effective, la latence et la maîtrise du contexte trancher. Pour les équipes, le bénéfice potentiel se situe dans la réduction des frictions outillage et le benchmarking continu des modèles, à condition de piloter finement les coûts de crédits et la gouvernance des prompts et contextes.
Source : ITHome


Snap spun its Specs AR glasses into its own subsidiary, and reconfirmed that it plans to launch the consumer product this year.
"Establishing Specs Inc. as a wholly-owned subsidiary provides greater operational focus and alignment, enables new partnerships and capital flexibility including the potential for minority investment, allows us to grow a distinct brand, and supports clearer valuation of the business as we work towards the public launch of Specs later this year", the company behind Snapchat says.
The new Specs Inc subsidiary is currently hiring for nearly 100 open roles globally, it says, in preparation for the launch.
The current Snap Spectacles are $99/month AR glasses for developers ($50/month if they're students), intended to let them develop apps for the Specs consumer product the company intends to ship this year.
Spectacles have a 46° diagonal field of view, angular resolution comparable to Apple Vision Pro, relatively limited computing power, and a built-in battery life of just 45 minutes. They're also the bulkiest AR device in "glasses" form factor we've seen yet, weighing 226 grams. That's almost 5 times as heavy as Ray-Ban Meta glasses, for an admittedly entirely unfair comparison.
But Snap CEO Evan Spiegel claims that the consumer Specs will have "a much smaller form factor, at a fraction of the weight, with a ton more capability", while running all the same apps developed so far.
As such, what's been more important to keep track of, to date, is Snap OS, not the developer kit hardware.
Snap OS is relatively unique. While on an underlying level it's Android-based, you can't install APKs on it, and thus developers can't run native code or use third-party engines like Unity. Instead, they build sandboxed "Lenses", the company's name for apps, using the Lens Studio software for Windows and macOS.
In Lens Studio, developers use JavaScript or TypeScript to interact with high-level APIs, while the operating system itself handles the low-level core tech like rendering and core interactions. This has many of the same advantages as the Shared Space of Apple's visionOS: near-instant app launches, interaction consistency, and easy implementation of shared multi-user experiences without friction. It even allows the Spectacles mobile app to be used as a spectator view for almost any Lens.
Snap OS doesn't support multitasking, but this is more likely a limitation of the current hardware than the operating system itself.
UploadVRDavid Heaney
Since releasing Snap OS in the latest Spectacles kit in late 2024, Snap has repeatedly added new capabilities for developers building Lenses, and late last year launched Snap OS 2.0, adding and improving first-party apps like Browser, Gallery, and Spotlight to bring the AR platform closer to being ready for consumers.

OpenAI a dévoilé le 5 février un partenariat avec Ginkgo Bioworks autour d’un système « bouclé » où GPT-5 conçoit des expériences, pilote un wet lab en cloud, contrôle des robots, analyse les données et planifie les itérations suivantes. Objectif immédiat atteint : réduire le coût de la synthèse protéique sans cellule (CFPS) d’environ 40 %, avec une baisse de 57 % côté réactifs.
Dans cette configuration, le modèle a eu accès à Internet, à la littérature scientifique et à des outils d’analyse. Le protocole a été validé pour garantir que chaque plan expérimental est exécutable physiquement par les robots, évitant les impasses purement théoriques. Les essais ont porté sur plus de 36 000 formulations uniques, réparties sur 580 microplaques automatisées.

Trois cycles d’itération ont suffi pour dépasser la meilleure référence humaine antérieure. GPT-5 s’est montré performant dans l’exploration d’espaces de paramètres à haute dimension, identifiant des combinaisons à faible coût que les équipes n’avaient pas testées jusque-là.
Les nouvelles recettes se distinguent par une robustesse marquée en condition de faible oxygénation, typique des laboratoires automatisés. Le modèle a aussi mis en évidence l’effet de leviers discrets, comme l’ajustement de tampons et de polyamines, permettant un gain de rendement significatif pour un surcoût minime.

Au total, la démarche homme–IA a comprimé les coûts globaux de la CFPS de 40 % et les coûts de réactifs de 57 %. Au-delà de la performance chiffrée, l’intérêt tient à la stabilité des résultats dans des environnements contraints et à la capacité d’exploration rapide de zones de formulation peu investies par l’intuition humaine.
Le couplage direct IA–wet lab, avec exécution robotisée et contrôle qualité intermédiaire, confirme l’intérêt des boucles fermées en sciences expérimentales. L’échelle des essais montre une montée en maturité de l’orchestration cloud/automatisation, mais les gains restent conditionnés à la validité des capteurs, à la métrologie et à la standardisation des consommables. La généralisation à d’autres voies biosynthétiques dépendra de la transposabilité des paramètres appris et des contraintes de lots.
Pour l’écosystème, une CFPS moins chère et plus robuste élargit les cas d’usage en prototypage enzymatique, production rapide de protéines spécifiques et biologie de terrain, avec un effet d’entraînement probable sur les plateformes d’automatisation cloud et les fournisseurs de réactifs modulaires. Si l’itération guidée par modèle s’impose, la valeur se déplacera vers la qualité des données de laboratoire, la traçabilité des protocoles et la capacité à intégrer des boucles matérielles fiables plutôt que vers la seule puissance de calcul.
Source : ITHome