↩ Accueil

Vue normale

Reçu aujourd’hui — 11 février 2026 7.1.2 🖥️ Sites secondaires

Razer Project AVA : Min-Liang Tan fustige le « GenAI slop » et précise la feuille de route

Par :Wael.K
11 février 2026 à 08:21

Un CEO de l’hardware gaming qui parle d’IA en assumant le tri qualité plutôt que la surenchère de contenu, ça tranche. Chez Razer, l’objectif est clair : pas de « GenAI slop », mais des outils concrets qui servent le jeu et ses auteurs.

Razer Project AVA et la ligne rouge sur la génération de contenu

Min-Liang Tan pose le cadre : « En tant que joueurs, ce qui nous déplaît, c’est le GenAI slop ». Personnages difformes, narrations bâclées : le problème n’est pas l’IA en soi, mais l’usage qui en est fait. L’IA doit renforcer la fabrication des jeux, pas remplacer la créativité humaine.

Razer Project AVA : Min-Liang Tan fustige le « GenAI slop » et précise la feuille de route

Razer revendique plus de 600 millions de dollars d’investissements IA, avec des objectifs précis : détecter plus tôt les problèmes, automatiser les tâches répétitives et décupler la capacité de production sans dégrader la qualité. L’approche reprend la logique « concepts au CES, industrialisation si l’intérêt est là », déjà vue avec Project Carol devenu produit commercial.

Prototype holographique, multi‑modèles et choix du LLM

Présenté comme coach virtuel au CES 2025, Project AVA évolue en compagnon IA de bureau à composante « semi‑physique ». Au CES 2026, Razer a montré une version holographique : un affichage animé de 5,5 pouces avec eye‑tracking, mouvements expressifs et synchronisation labiale naturelle. AVA comprend le contexte et interprète l’activité à l’écran via un mode PC Vision, avec réponses en temps réel.

Razer Project AVA : Min-Liang Tan fustige le « GenAI slop » et précise la feuille de route

Les avatars, conçus avec Animation Inc., incluent Kira et Zane de Razer, ainsi que SAO, influenceuse japonaise, chacun avec style visuel et personnalité conversationnelle distincts. Pour la démo, Razer a retenu Grok (xAI) pour sa vivacité et sa personnalité. Le message est néanmoins clair : AVA est une plateforme ouverte et multi‑modèles, compatible avec divers LLM au lancement, afin de laisser le choix à l’utilisateur selon l’usage.

Razer applique cette flexibilité ailleurs, comme sur Project Motoko, un prototype de casque IA wearable motorisé par ChatGPT. L’axe stratégique reste identique : expérimenter de façon responsable, favoriser l’interopérabilité des modèles et sélectionner le moteur conversationnel ou orienté tâches le plus adapté.

Razer Project AVA : Min-Liang Tan fustige le « GenAI slop » et précise la feuille de route

Côté mise sur le marché, Razer parle de principes de conception responsable, de comportements prédictibles et d’un contrôle utilisateur renforcé. Aux États‑Unis, un dépôt de réservation de 20 $, entièrement remboursable et non assimilé à une précommande, sert à mesurer l’intérêt avant la finalisation du produit. À ce stade, pas de tarif public ni de fenêtre de commercialisation annoncés. Estimation indicative si produit autour de ces démos : sans données, conversion euro non pertinente.

Razer Project AVA : Min-Liang Tan fustige le « GenAI slop » et précise la feuille de route

Le positionnement de Razer répond à une attente nette du marché PC : des assistants qui améliorent la pratique (jeux, création, streaming) sans dégrader l’UX par du contenu généré médiocre. L’ouverture multi‑LLM est un point clé pour éviter l’enfermement technologique et suivre le rythme des modèles de pointe. Si l’intégration PC Vision et l’avatar 5,5 pouces tiennent leurs promesses en latence et robustesse, AVA peut s’imposer comme accessoire utile plutôt que gadget.

Source : TechPowerUp

Apple VSSFlow : un modèle unifié vidéo-vers-son et texte-vers-parole

Par :Wael.K
11 février 2026 à 08:20

Apple s’est associé à l’Université Renmin de Chine pour dévoiler VSSFlow, un modèle d’IA capable de générer en une seule passe la bande-son complète d’une vidéo muette : effets d’ambiance synchronisés à l’image et voix humaines pilotées par script. Là où le secteur séparait jusqu’ici « vidéo-vers-son » et « texte-vers-parole », avec des pipelines complexes et des compromis de qualité, VSSFlow unifie les deux tâches et revendique un net gain sur les métriques clés face aux modèles spécialisés.

Apple VSSFlow : un modèle unifié vidéo-vers-son et texte-vers-parole

Un modèle unifié, 10 niveaux et une approche « flow matching »

Le système adopte une architecture en 10 couches et s’appuie sur des techniques de « flow matching » pour apprendre à reconstruire le signal audio cible à partir de bruit aléatoire, sans chaînage de modèles. Le cœur de la promesse est la synchronisation : VSSFlow extrait des indices visuels à 10 images/s pour sculpter les sons d’environnement au bon timing, tout en générant la voix selon un script texte, avec alignement précis.

Apple VSSFlow : un modèle unifié vidéo-vers-son et texte-vers-parole

Contrairement aux approches par étapes, l’entraînement conjoint n’a pas créé d’interférences entre tâches selon les auteurs ; il a même produit un effet d’entraide. L’exposition à la parole améliorerait la qualité des effets, et réciproquement, l’abondance d’effets enrichirait la robustesse de la synthèse vocale en contexte bruité.

Données hybrides et résultats annoncés

Le dataset mélange des vidéos avec ambiance sonore, des vidéos parlées sous-titrées et des paires texte-parole. Des échantillons synthétiques ont été utilisés pour le réglage fin, afin que le modèle apprenne à émettre simultanément fond sonore et voix. En test, VSSFlow surpasse des références dédiées à un seul objectif, selon les métriques retenues par l’équipe.

Le code est disponible sur GitHub, avec une ouverture des poids et une démo d’inférence en ligne annoncées comme en préparation. Aucun détail matériel n’est fourni sur l’infrastructure d’entraînement, ni sur les contraintes de calcul en inférence, mais l’extraction visuelle à 10 i/s laisse entendre une cible temps réel ou quasi temps réel pour le montage assisté.

Pour Apple, l’intérêt stratégique est double : un pipeline unifié réduit la complexité d’intégration dans des workflows de production et de post‑prod, tout en rognant l’écart entre génération « proprette » et rendu contextuel crédible. Si les poids sont réellement publiés et la démo convaincante, le modèle pourrait bousculer les briques audio des éditeurs vidéo et des engines temps réel, en particulier sur les cas d’usage doublage + foley automatisés.

Source : ITHome

Qwen-Image-2.0 : génération d’images 2K et typographie fiable unifiées

Par :Wael.K
11 février 2026 à 08:19

Alibaba Qwen dévoile Qwen-Image-2.0, une nouvelle génération de modèle de génération d’images qui fusionne texte‑to‑image et édition d’images dans un unique système. La promesse : un rendu typographique nettement plus professionnel, une meilleure fidélité photoréaliste en 2K, une compréhension sémantique accrue pour suivre les consignes complexes, et une architecture plus compacte pour des temps d’inférence plus courts. L’API est ouverte en accès anticipé sur Alibaba Cloud Baichuan, et le modèle est testable gratuitement via Qwen Chat.

Qwen-Image-2.0 : génération d’images 2K et typographie fiable unifiées

Texte net, composition maîtrisée, 2K natif

Le point saillant est la « lecture/écriture » du texte dans l’image. Qwen-Image-2.0 accepte jusqu’à 1 000 tokens d’instructions et sort des infographies, affiches, planches de BD ou slides avec une mise en page alignée, hiérarchisée et multi‑scripts, sans approximations de glyphes ni artefacts de vectorisation. L’équipe montre des cas de figures saturés en texte (infographies A/B test, calendriers lunaires, calligraphies classiques, inscriptions sur t‑shirts, vitrines, magazines) avec respect des polices, de l’empattement, de l’orientation et de l’intégration matière/lumière.

Sur le réalisme, le modèle passe en génération 2 048 × 2 048, avec un soin particulier aux textures micro‑détails (peau, tissages, pierre, feuillage) et aux interactions optiques crédibles (réflexions sur verre, profondeur de champ, brouillard atmosphérique). Les visuels fournis illustrent une gestion propre des scènes denses, y compris les rendus « image dans l’image » et les superpositions texte‑image sans obstruction du sujet.

Qwen-Image-2.0 : génération d’images 2K et typographie fiable unifiées

Génération + édition unifiées, consignes longues, architecture allégée

Qwen-Image-2.0 unifie la compréhension et la génération pour la création et l’édition dans le même flux, ce qui évite les bascules de pipeline. Le modèle suit plus strictement les prompts longs, y compris les contraintes de cadrage, d’alignement typographique, de styles calligraphiques précis ou de cohérence multi‑vues. Les exemples incluent le titrage directement sur photos, les montages multi‑images cohérents, et l’incrustation contrôlée d’éléments 2D stylisés sur une base photographique réelle, sans casser la vraisemblance lumineuse.

Alibaba met aussi en avant une architecture plus légère et une latence réduite pour produire des images 2K « en quelques secondes ». Sans fiche technique publique détaillée, la communication insiste sur l’équilibre entre fidélité visuelle et vitesse d’inférence dans une enveloppe modèle plus petite que la génération précédente.

Qwen-Image-2.0 : génération d’images 2K et typographie fiable unifiées

Pour l’écosystème, l’intégration propre du texte au sein des pipelines de génération marque une inflexion utile pour les cas pro encore mal servis par les diffuseurs classiques : infographie dense, poster avec crédits longs, maquettes de slides, interfaces annotées ou signalétique sur matériaux. Si la qualité réelle dépendra des jeux de prompts et de l’outil d’édition en amont, la convergence « photoréalisme + typographie fiable » dans un seul modèle est précisément la case que cherchaient à cocher les studios créa et les équipes produit.

Source : ITHome

Ming-Flash-Omni 2.0 : modèle multimodal unifié audio/vision ouvert par Ant Group

Par :Wael.K
11 février 2026 à 08:18

Ant Group ouvre Ming-Flash-Omni 2.0, un grand modèle « full-stack » multimodal orienté compréhension et génération unifiées. Sur les benchmarks publics, l’éditeur revendique des gains notables en vision-langage, en génération audio pilotable et en image (génération/édition), avec un positionnement clair sur la stabilité d’inférence et le coût.

Audio unifié sur une seule piste, contrôle fin et temps réel

Ming-Flash-Omni 2.0 s’affiche comme un modèle d’audio unifié « toutes scènes » capable de générer voix, effets d’ambiance et musique sur une seule piste. Les paramètres voix — timbre, vitesse, intonation, volume, émotion, dialecte — se pilotent en langage naturel, avec clonage de timbre en zéro-shot et options de personnalisation.

Le modèle revendique un taux d’inférence très bas à 3,1 Hz, ce qui autorise une synthèse longue (minutes) en haute fidélité quasi temps réel. Sur ce volet, Ant vise un avantage coût/perf en production, un point critique pour l’industrialisation de contenus audio et les assistants vocaux étendus.

Vision et image : reconnaissance fine et édition robuste

Côté vision, l’entraînement sur des volumes « à l’échelle du milliard » et une stratégie de « hard examples » rehausse l’identification d’objets proches ou peu fréquents, y compris détails d’artisanat, espèces proches et artefacts rares. En image, la stabilité en édition progresse sur les tâches complexes : ajustement lumière/ombres, remplacement de scène, correction de pose et retouche en un clic, tout en conservant cohérence temporelle et détails sur scènes dynamiques.

Sur la partie texte-image, l’objectif n’est pas une démonstration de SOTA générique, mais une fiabilité d’outils, ce qui intéresse directement la chaîne de production créative où les échecs stochastiques coûtent cher.

Architecture, ouverture et feuille de route

Le modèle est entraîné sur la base Ling-2.0, une architecture MoE (100B-A6B). Ant met en avant une trajectoire produit où l’unification multimodale ne sacrifie plus les performances spécialisées, avec des scores qui dépasseraient certains modèles dédiés sur des périmètres précis. L’ouverture de Ming-Flash-Omni 2.0 en fait un « socle réutilisable » pour des pipelines bout à bout, évitant la concaténation de modèles hétérogènes et ses surcoûts d’orchestration.

Poids et code d’inférence sont publiés sur Hugging Face. Une instance hébergée est accessible via la plateforme officielle Ling Studio de Bailing pour tests et intégration. L’équipe annonce des chantiers actifs sur la compréhension temporelle vidéo, l’édition d’image complexe et la latence en génération d’audio long, avec une consolidation de la toolchain et des protocoles d’évaluation.

Pour l’écosystème, l’intérêt dépasse l’effet d’annonce : un modèle réellement unifié qui tient la route en audio, vision et génération réduit la dette d’intégration côté développeurs et peut déplacer la valeur vers des produits multimodaux plus cohérents, en particulier là où la stabilité de sortie et le pilotage fin priment sur le pur score académique.

Source : ITHome

DuckDuckGo lance un chat vocal privé : Duck.ai mise sur l’anonymat et zéro rétention

Par :Wael.K
11 février 2026 à 08:16

DuckDuckGo a dévoilé le 10 février une fonction de chat vocal temps réel pour sa plateforme Duck.ai, avec une promesse centrale : ne pas stocker les flux audio et limiter strictement l’exposition des données. L’approche privilégie la confidentialité, en plaçant DuckDuckGo comme intermédiaire entre l’utilisateur et le modèle sous-jacent d’OpenAI, derrière une couche technique et contractuelle censée bloquer toute rétention.

Instructions en chinois sur l'utilisation de Duck.ai pour le chat vocal.

Techniquement, la conversation transite par WebRTC avec chiffrement de bout en bout et relai via des serveurs intermédiaires. DuckDuckGo dit anonymiser les requêtes et n’envoyer à OpenAI que le strict minimum nécessaire au traitement, sans métadonnées identifiantes. Les flux sont éphémères : transmis uniquement pendant la prise de parole, détruits une fois la session close.

Le cadre contractuel est présenté comme contraignant pour les deux parties : pas d’entraînement de modèles sur les contenus des utilisateurs, pas de journalisation des échanges, pas de conservation après l’appel. DuckDuckGo insiste sur une « cloison » opérationnelle visant à empêcher l’agrégation ou la réexploitation ultérieure des voix et réponses.

Usage, limites et modèle économique

Écran d'accueil Duck.ai avec icône lumineuse et texte en chinois.

Duck.ai reste accessible gratuitement sans inscription, avec un quota quotidien. Un abonnement à 10 $/mois (environ 9,30 €) élargit nettement les limites d’usage et ajoute des services périphériques d’hygiène numérique : suppression d’informations personnelles et accompagnement en cas d’usurpation d’identité.

L’offre cible un public sensible à la confidentialité vocale, là où la concurrence s’appuie souvent sur des journaux de sessions et des clauses d’entraînement par défaut. La proposition de valeur repose moins sur la performance brute du LLM, fourni par OpenAI, que sur l’orchestration, la minimisation des données et l’absence de rétention déclarée.

Si DuckDuckGo parvient à tenir cette ligne sans fuites ni dérogations contractuelles, le service pourrait s’installer comme l’option « private-first » du chat vocal. À court terme, l’enjeu sera la transparence opérationnelle et la résistance aux demandes de conservation côté prestataires ; à moyen terme, la différenciation se jouera sur la latence, la robustesse réseau et la capacité à maintenir des garanties de non-entraînement face à l’évolution rapide des modèles.

Source : ITHome

IA au travail : gains d’efficience, mais journées plus longues et pauses réduites

Par :Wael.K
11 février 2026 à 08:15

Promesse récurrente depuis trois ans dans la tech américaine, l’IA ne devait pas voler les emplois mais libérer du temps. Une étude publiée dans la Harvard Business Review, conduite huit mois au sein d’une entreprise de 200 personnes par des chercheurs de l’Université de Californie à Berkeley, décrit l’inverse : l’adoption des outils d’IA a étiré les journées, comprimé les pauses et alimenté une spirale d’auto-accélération, sans objectifs nouveaux imposés par le management. Parce que « plus devient possible », plus est demandé, souvent par soi-même.

Le témoignage d’un ingénieur résume le décalage : « avec l’IA tu crois gagner du temps, mais tu ne travailles pas moins, parfois plus ». Sur Hacker News, un retour d’expérience concorde : bascule « IA partout » égale attentes triplées, pression triplée, productivité réelle +10 %. La dynamique est classique dans la tech : l’amélioration des outils s’accompagne d’une hausse implicite des standards de vélocité et de réactivité.

Les auteurs ne contestent pas que l’IA amplifie les capacités individuelles. Ils constatent surtout la destination de ces gains : fatigue, sentiment de ne jamais décrocher, et intensification du flux, particulièrement quand l’organisation valorise la réponse instantanée. Autrement dit, le « dividende d’automatisation » est capté par l’empilement de tâches plutôt que par une réduction effective du labeur.

Des gains mesurés, des effets réels sur la charge

Le tableau rejoint d’autres travaux contestés l’an dernier : des développeurs chevronnés, assistés par IA, ont passé 19 % de temps en plus tout en se sentant 20 % plus efficaces ; de son côté, une étude du NBER portant sur des milliers d’entreprises chiffre l’effet global à environ 3 % de temps économisé, sans impact notable sur les revenus ou les heures travaillées. L’écart entre perception de fluidité et production nette demeure.

Dans la société observée par Berkeley, aucun KPI n’a été réhaussé officiellement. La pression s’installe par capillarité : chaque minute « libérée » devient une case à remplir, le backlog enfle parce que l’outil rend faisable ce qui était hors de portée. La boucle se referme dès lors que la norme tacite d’exécution s’accélère.

Un problème d’outillage ou de gouvernance du travail

La portée pour l’industrie est claire : sans garde-fous organisationnels, l’adoption de l’IA convertit des gains marginaux en intensification continue. La question n’est plus « l’IA augmente-t-elle l’efficience ? » mais « qui capture ces gains, et comment sont-ils bornés ? ». À défaut de contrats sociaux explicites sur le rythme et la charge, les outils de productivité alimentent mécaniquement des cultures d’urgence permanente, avec le coût prévisible en rétention et en santé au travail.

Source : ITHome

Insurify intègre un comparateur d’assurance dans ChatGPT et secoue Wall Street

Par :Wael.K
11 février 2026 à 08:11

Insurify lance une application « conçue pour ChatGPT » qui intègre directement la comparaison d’assurances au sein du chatbot. L’outil permet de poser des questions en langage naturel et d’obtenir des devis estimatifs sans formulaires à rallonge, en s’appuyant sur la base de données d’Insurify et les capacités conversationnelles de l’IA d’OpenAI.

Le timing a coïncidé avec une secousse boursière sur les courtiers américains. L’indice S&P 500 Insurance recule de 3,89 %, sa plus forte baisse depuis octobre dernier. Willis Towers Watson décroche de 12,10 %, sa pire séance depuis novembre 2008, Arthur J. Gallagher cède 9,85 %, Aon 9,27 %.

Concrètement, l’application agrège des éléments clés du profil conducteur — localisation, modèle de véhicule, âge, antécédents — pour générer des estimations et afficher, au-delà du prix, des avis clients et les garanties essentielles selon les assureurs. Une fois une offre retenue, l’utilisateur est aiguillé vers la plateforme Insurify, où des conseillers certifiés finalisent la souscription, sans ressaisie inutile.

Un flux de souscription taillé pour le conversationnel

L’intérêt n’est pas tant l’algorithme de tarification — déjà courant — que l’accès via un canal où des centaines de millions d’utilisateurs sont actifs. Le parcours se résume à une session de chat, sans navigation multi-onglets ni champs redondants, avec des réponses reformulées de façon lisible sur des points souvent hermétiques pour le grand public.

Insurify se positionne comme l’un des premiers à brancher un comparateur directement dans ChatGPT, quand nombre d’acteurs se contentent d’assistants internes pour l’explication de garanties, la recommandation de niveaux de couverture ou l’automatisation du support.

Signal de marché pour les intermédiaires

La réaction de Wall Street traduit la crainte d’un déplacement du trafic et de la marge vers des interfaces conversationnelles dominantes. Si l’IA réduit la friction à l’entrée et standardise la découverte de produits, les courtiers dont le modèle repose sur la captation de leads via des parcours web classiques risquent de voir leur coût d’acquisition augmenter et leur différenciation s’éroder, à moins d’intégrer ces canaux et de renforcer leur valeur conseil sur des cas complexes.

Source : ITHome

Xbox Game Pass : vers une fusion PC + Premium qui simplifierait l’offre

Par :Wael.K
11 février 2026 à 08:08

Microsoft teste l’idée d’un palier unique qui regrouperait Xbox et PC, avec à la clé une grille d’abonnements enfin lisible pour les joueurs.

Xbox Game Pass : fusion à l’étude et simplification des paliers

Selon des informations concordantes de The Verge et Windows Central, Microsoft explore la fusion des offres PC Game Pass et Xbox Game Pass Premium en un seul palier. Objectif évident : réduire la complexité actuelle qui brouille les choix d’abonnement et freine l’adoption.

À date, le PC Game Pass est facturé 16,49 $/mois (environ 15,30 €) après une hausse proche de 40 % en octobre, tandis que le palier Xbox Game Pass Premium coûte 15 $/mois (environ 13,95 €) sans donner accès à l’intégralité du catalogue PC. Tout en haut, l’Ultimate est positionné à 30 $/mois (environ 27,90 €) avec les sorties day one first-party et des avantages EA Play, Ubisoft+ Classics et Fortnite Crew.

La consolidation PC + Premium poserait deux questions clés : le maintien d’un tarif proche des 16,49 $ pour les abonnés PC, et l’alignement des fonctionnalités entre plateformes. Microsoft étudierait parallèlement l’intégration de bundles tiers supplémentaires au sein de Game Pass.

Contexte matériel : une Xbox next-gen proche d’un PC sous Windows 11

Cette piste intervient alors que la prochaine Xbox est décrite comme un hybride PC/console, avec un démarrage sur une interface Xbox et un Windows 11 embarqué. Un tel choix pourrait faciliter l’exécution de boutiques comme Steam et Epic Games Store, et rend cohérente une offre d’abonnement unifiée entre PC et console.

L’échéance évoquée reste lointaine : un lancement en 2027 est suggéré, laissant du temps à Microsoft pour stabiliser la stratégie d’abonnements et clarifier le positionnement face à l’Ultimate.

Si Microsoft opte pour un palier fédérateur PC + Xbox, la lisibilité tarifaire pourrait s’améliorer sans cannibaliser l’Ultimate, qui conserverait ses avantages premium. La clé sera un pricing perçu comme équitable par le parc PC, fraîchement touché par une hausse tarifaire, et une gestion fine des catalogues entre plateformes pour éviter la fragmentation qui a ralenti la dynamique d’abonnement côté Xbox.

Source : TechPowerUp

Silicon wafers 2025 : les expéditions rebondissent de 5,8 % mais les revenus reculent

Par :Wael.K
11 février 2026 à 08:00

Les volumes repartent, les dollars traînent. La demande IA tire les tranches 300 mm tandis que les marchés matures freinent encore la monétisation.

Silicon wafers : volumes 2025 en hausse, revenus en retrait

Le SEMI Silicon Manufacturers Group (SMG) publie un total de 12 973 MSI en 2025, en progression de 5,8 %. Dans le même temps, le chiffre d’affaires glisse de 1,2 % à 11,4 Md$ (environ 10,6 Md€ à titre indicatif).

Le rebond des expéditions est soutenu par la vigueur des wafers épitaxiés avancés pour le logic et des wafers polis pour la HBM, tous deux dopés par les usages IA. La faiblesse des revenus s’explique par l’inertie des applications traditionnelles, où demande et prix restent sous pression.

300 mm, HBM et sub-3 nm au centre du jeu

Ginji Yada (SEMI SMG, SUMCO) souligne un marché à deux vitesses sur 2025-2026 : forte traction des 300 mm pour le logic IA et la HBM, portée par l’adoption continue des procédés sub-3 nm. Les exigences de qualité et de régularité matière montent, poussant les solutions matériaux avancées.

En miroir, les nœuds matures (automobile, industriel, électronique grand public) se stabilisent. Les stocks wafer et puces se normalisent après de longs ajustements, mais le redressement reste graduel et dépendant du macro et des dynamiques de fin de marché.

Divergence durable entre avancé et mature

L’investissement data centers et générative maintient la cadence côté avancé, où performance et fiabilité priment. À l’inverse, le rattrapage des segments legacy demeure prudent, ce qui nourrit l’écart entre volumes solides et revenus qui tardent à suivre.

Pour les chaînes d’approvisionnement, l’équation est claire : assurer des capacités en épitaxié/poli haut de gamme et sécuriser la consistance des 300 mm tout en évitant de surinvestir sur les lignes dédiées aux nœuds matures dont la reprise reste séquentielle.

Source : TechPowerUp

Patch Tuesday – Février 2026 : 59 vulnérabilités corrigées, dont 6 failles zero-day !

11 février 2026 à 07:45

Le Patch Tuesday de février 2026 publié par Microsoft corrige au total 59 vulnérabilités, dont 6 failles zero-day. Voici l'essentiel à savoir sur ces failles.

Le post Patch Tuesday – Février 2026 : 59 vulnérabilités corrigées, dont 6 failles zero-day ! a été publié sur IT-Connect.

Overwatch 2 : Blizzard revoit Anran après un tollé, Keller promet une refonte

Par :Wael.K
11 février 2026 à 06:14

Un nouveau visage devait dynamiser la saison 1 de 2026. Il déclenche finalement une refonte assumée par la direction du jeu.

Overwatch 2 : Blizzard corrige le tir sur Anran

Blizzard a présenté un lot de nouveaux héros et des changements structurels et gameplay pour le début de la saison 1 de 2026. Parmi eux, Anran a cristallisé un mécontentement marqué : design jugé générique, traits adoucis par rapport à une apparition antérieure dans la bande-annonce de son frère, et critiques publiques de sa comédienne, qui a dénoncé un style « Ozempic chic ».

Illustration d'un personnage d'Overwatch 2 tenant une orbe avec le logo d'Overwatch

Le directeur du jeu, Aaron Keller, a réagi en indiquant que l’équipe va retravailler Anran pour qu’elle « ressemble davantage à la grande sœur farouche que nous avions tous en tête ». Il estime pouvoir améliorer le personnage au-delà de son itération actuelle, sans détailler les ajustements avant la phase de tests. La décision divise : une partie de la communauté salue l’écoute, d’autres y voient une capitulation et disent perdre de l’intérêt pour le jeu.

Réactions contrastées et calendrier

Le timing reste lié au déploiement de la saison 1 2026, qui embarque également 10 nouveaux héros et une refonte des systèmes de jeu. Blizzard n’a pas partagé d’éléments concrets sur le périmètre exact des modifications d’Anran avant validation interne. Les retours initiaux proviennent majoritairement de Reddit et d’X, avec des avis polarisés sur l’orientation artistique et la communication.

À l’échelle produit, cette révision en amont du lancement illustre une itération accélérée sur l’identité visuelle d’un personnage clé. Le risque est double : préserver la cohérence artistique tout en répondant à des attentes hétérogènes, sans diluer la personnalité d’Anran ni décaler le reste du pipeline de contenu de la saison.

Source : TechPowerUp

Installation manuelle des certificats CA 2023 dans un Secure Boot

11 février 2026 à 07:24

Merci à vous de suivre le flux Rss de www.sospc.name.

Si tout va bien, une grande majorité d'entre vous devrait recevoir ces fameux certificats 2023 d'ici le mois de juin 2026.

Mais, car il y a toujours un mais, entre les problèmes de support non assumés par Microsoft et certains fabricants que ne se sont pas préoccupés, volontairement ou non, de l'évolutivité de leurs cartes mères (oui, la phrase est longue...), il va vous falloir dans certains cas mettre les mains dans le cambouis.

Alors je le dis tout de suite : cet article n'a que pour seul et unique but de vous (dé)montrer que vous pouvez dans certains cas de figure effectuer vous-même cette mise à jour.

CE N'EST PAS UN TUTORIEL en ce sens que je vous montre un exemple pour un modèle précis de carte mère (de marque inconnue pour le coup...) que vous ne pourrez pas reproduire forcément à la lettre.

Oui, pour chaque modèle de carte mère l'appellation des menus, leurs localisations, leur intuitivité sont très différentes, vous allez par contre pouvoir vous inspirer de mes errements pour trouver la bonne marche à suivre pour votre ordinateur.

Je vais vous proposer les trois certificats 2023 en téléchargement, déjà ça ce sera fait. 😉

Cet article Installation manuelle des certificats CA 2023 dans un Secure Boot est apparu en premier sur votre site préféré www.sospc.name

❌