Dépression Leonardo : fin de l’alerte rouge aux pluies dans le sud de l’Espagne, une disparue tombée dans un cours d’eau

© JORGE GUERRERO / AFP

© JORGE GUERRERO / AFP
© Kirby Lee/IMAGN IMAGES via Reuters Connect

© LUDOVIC MARIN/AFP

© GEOFFROY VAN DER HASSELT / AFP
© Al-Qahera News / via REUTERS

© Evan Vucci/AP
CVE-2026-25049, c'est le nom de la nouvelle faille de sécurité critique découverte dans n8n : elle contourne le patch lié à la CVE-2025-68613 de décembre 2025.
Le post n8n : la faille critique CVE-2026-25049 réactive une précédente vulnérabilité a été publié sur IT-Connect.

© JUSTIN SULLIVAN / AFP
Rockstar avance sur GTA VI en revendiquant un monde entièrement façonné à la main, là où l’industrie multiplie les pilotes d’IA générative. Signal clair sur la méthode et la promesse de finition.
Strauss Zelnick, CEO de Take-Two Interactive, affirme que l’IA générative n’a « zéro part » dans le développement de GTA VI. Il insiste sur des mondes « handcrafted », bâtis « building par building, street par street, neighborhood par neighborhood », sans génération procédurale.
Le dirigeant estime par ailleurs que l’IA ne peut pas, seule, créer de « great entertainment properties ». Le signal est double : maintien d’un pipeline artisanal pour Rockstar et prudence visible sur l’intégration d’actifs générés.
Malgré cette position sur GTA VI, Zelnick se dit enthousiaste sur l’IA et le machine learning. Il évoque « des centaines de pilotes et d’implémentations » en cours dans le groupe, avec des gains de coûts et de délais déjà mesurés via des outils génératifs.
Le secteur bouge : Embark a utilisé des outils génératifs pour accélérer le voice acting d’Arc Raiders, Ubisoft teste des coéquipiers contrôlés à la voix, et EA a annoncé un pivot vers des outils de genAI multi-usages, malgré une base de développeurs souvent opposée à ces pratiques.
La ligne Take-Two dessine une coexistence pragmatique : pipelines internes optimisés par l’IA là où elle réduit la friction, mais bannie des assets et systèmes centraux d’un titre clé comme GTA VI. Pour les joueurs, cela signifie une direction artistique et un level design fermement maîtrisés, avec un risque moindre d’artefacts systémiques liés aux modèles génératifs.
Source : TechPowerUp
Après des mois de repli, Intel remonte légèrement chez les joueurs Steam. Le mouvement est ténu mais symbolique, avec un impact direct sur la dynamique face à AMD.
La mise à jour de janvier de la Steam Hardware & Software Survey crédite Intel de 56,64 % de parts de CPU, soit +0,25 % par rapport à décembre (56,39 %). AMD recule à 43,34 %, en baisse de 0,19 % après 43,53 % en décembre.

Sur les derniers mois, Intel passait de 58,61 % en septembre à 57,82 % en octobre, 57,30 % en novembre, 56,39 % en décembre. La séquence baissière s’interrompt. Côté AMD, la progression amorcée de 41,31 % en septembre à 43,53 % en décembre subit une correction minimale à 43,34 %.
La traction d’AMD reste tirée par l’adoption des Ryzen 9000X3D, très populaires auprès des enthousiastes. En face, le lancement Arrow Lake d’Intel a été pénalisé par des performances gaming inférieures aux attentes, malgré des améliorations via microcodes et baisses tarifaires.
La communauté attend désormais Arrow Lake Refresh, annoncé pour mars ou avril, avec des fréquences plus élevées et un tuning revu. Des premières fuites évoquent un gain de l’ordre de 10 % pour un Core Ultra 9 290K+ face au 285K, ce qui pourrait stabiliser, voire renforcer, la position d’Intel sur Steam si les tarifs restent agressifs.
À ce stade, le signal est modeste mais intéressant : la sensibilité des parts sur Steam traduit des arbitrages rapides côté joueurs. Si Arrow Lake Refresh délivre le niveau de performance annoncé hors du carton, la reprise pourrait se confirmer à court terme, surtout avec un pipeline de correctifs firmware déjà en place.
Source : TechPowerUp
Un shooter coop inspiré des années 80 qui assume la surenchère gore, et une démo jouable immédiate pour éprouver le flux d’ennemis. Les amateurs de hordes à déchiqueter ont de quoi occuper leurs soirées.
Saber Interactive et Focus Entertainment publient un trailer « Gameplay Overview » pour John Carpenter’s Toxic Commando, nouvelle licence signée par l’équipe derrière Warhammer 40,000: Space Marine 2, World War Z et SnowRunner. Le jeu sortira le 12 mars 2026 sur PlayStation 5, Xbox Series X|S et PC.

Le titre mise sur une coop à 4 joueurs avec matchmaking ou salon privé, et un cross-play complet entre plateformes. Les missions s’enchaînent dans un monde semi-ouvert infesté de « Swarm » technologique, générant des vagues simultanées de mutants.
Quatre classes sont annoncées : Strike, Medic, Operator et Defender. Côté arsenal, 16 types d’armes principales et de nombreuses secondaires, du shotgun au SMG, fusil de précision, pistolets, machettes et pieds-de-biche. Les véhicules, annoncés « slime-proof », servent autant à la mobilité qu’au broyage.
Une première démo jouable sera disponible sur Steam du 19 février au 2 mars. Le jeu sera proposé en Standard Edition et Blood Edition, en précommande sur PS5, Xbox Series X|S et PC via Steam et Epic Games Store.

Toute précommande débloque gratuitement le DLC « Leon’s Secret Stash ». La Blood Edition ajoute le « Bloody Pass » comprenant 2 DLC post-lancement (skins personnages, armes et véhicules), un Cosmetic Pack Gold Color pour les armes, un porte-bonheur et 1 skin par personnage.
Le trailer met l’accent sur la densité d’ennemis à l’écran et l’importance du contrôle de foule via classes et équipements. Les séquences montrent des compositions orientées burst et du crowd control lourd, avec une emphase sur la complémentarité des rôles et la gestion de mobilité en convoi.

Pour un segment saturé par les shooters coop à hordes, l’angle old-school 80s, la conduite de véhicules et le cross-play total donnent au projet une identité claire. La tenue technique en scénarios de vagues simultanées et l’équilibrage des 16 armes seront déterminants pour la rétention.




Source : TechPowerUp
Suivre le flux de littérature scientifique est devenu ingérable à l’échelle humaine. Sur ce terrain, OpenScholar, un modèle open source mis au point par l’Université de Washington et l’Allen Institute for AI (AI2), s’attaque frontalement au talon d’Achille des LLM généralistes : les citations inventées. L’équipe annonce une précision de référence comparable à celle de spécialistes humains, validée en double à la fois par un benchmark dédié et par des évaluations à l’aveugle de chercheurs.
Contrairement aux assistants grand public, OpenScholar s’adosse à un corpus de 45 millions d’articles académiques et à un pipeline de retrieval-augmented generation. Résultat : le modèle reste raccord avec des publications postérieures à son entraînement, intègre les nouveautés via la recherche documentaire et normalise les références. L’approche tranche avec les modèles qui s’appuient sur des sources web généralistes, souvent responsables de citations faibles, hors sujet, ou de « billets de blog » aspirés à la place d’articles évalués par les pairs.
Les auteurs pointent un contraste net avec GPT-4o : un audit externe chiffre à 78–90 % la part de références fabriquées par ce dernier dans un scénario de synthèse de recherche, quand OpenScholar maintient une exactitude des citations au niveau d’experts. Publié dans Nature, le projet arrive avec code, datasets et démo en libre accès.
Pour sortir des évaluations génériques, l’équipe a bâti ScholarQABench, un jeu d’essai orienté recherche: 3000 requêtes et 250 réponses longues rédigées par des spécialistes en informatique, physique, biomédecine et neurosciences. Mesures automatiques et jugements humains portent sur l’exactitude, la qualité rédactionnelle et la pertinence documentaire.
OpenScholar surclasse les modèles testés, dont GPT-4o et deux systèmes de Meta. Lors d’une évaluation en double aveugle menée auprès de 16 scientifiques, 51 % des jugements favorisent les réponses d’OpenScholar face à celles d’experts humains. En combinant le workflow de citation d’OpenScholar avec un grand modèle comme GPT-4o, la préférence grimpe à 70 %, quand GPT-4o seul plafonne à 32 %.
Les concepteurs décrivent un démarrage peu concluant avec des signaux issus de moteurs de recherche généralistes, avant d’opter pour une base strictement académique et un système de requêtes itératives. La feuille de route mentionne DR Tulu, une évolution en cours de développement qui ajoute des étapes de recherche multiples et d’agrégation pour étoffer les synthèses. La forte demande sur la démo confirme l’appétence des laboratoires pour des outils ouverts, auditables et extensibles.
Si l’on replace OpenScholar dans le paysage, l’enjeu dépasse la qualité de texte: il s’agit d’établir une chaîne de traçabilité des sources compatible avec les exigences de la recherche. La combinaison d’un index académique large, d’un RAG rigoureux et d’un protocole d’évaluation spécialisé constitue aujourd’hui un socle plus crédible que les approches fermées. Reste à voir comment l’écosystème alignera ce type d’outils avec les workflows des revues, les dépôts préprint et les bases bibliométriques, sans recréer des « boîtes noires » sous d’autres formes.
Source : ITHome
Infineon accélère sa poussée dans l’IA. Dans ses résultats du premier trimestre de l’exercice 2026 (équivalent au T4 2025 calendaire), le groupe allemand a avancé de plusieurs trimestres un volet d’investissements de 500 millions de dollars initialement prévus plus tard, afin de renforcer dès cet exercice ses capacités dédiées aux solutions d’alimentation pour data centers IA. L’enveloppe totale engagée sur ce segment atteint ainsi 2,7 milliards de dollars sur l’exercice.
Le fabricant vise environ 1,5 milliard d’euros de revenus liés à l’IA sur l’exercice 2026, puis près de 2,5 milliards de dollars en 2027, soit une multiplication par dix en trois ans selon ses projections internes. Le cœur de la rampe concerne la chaîne d’alimentation des accélérateurs et serveurs IA, où Infineon fournit des semiconducteurs de puissance, drivers et modules de conversion haute efficacité.
Sur le trimestre, Infineon a publié 3,662 milliards d’euros de chiffre d’affaires, en hausse de 7 % sur un an et en recul de 7 % en séquentiel. Le bénéfice s’établit à 655 millions d’euros, soit une marge de 17,9 %. Le groupe estime que l’automobile et l’industriel ont franchi le point bas du cycle, sans reprise franche de la demande à ce stade.
La ligne produits communication doit accueillir « la première » puce Wi‑Fi 7 tri‑bande en 20 MHz, positionnée pour des équipements compacts et contraints en énergie. Côté portefeuille, Infineon a annoncé l’acquisition des capteurs analogiques / mixte non optiques d’ams OSRAM et la cession de ses sites de production de Bangkok et de la province de Nonthaburi en Thaïlande, ajustant son empreinte industrielle.
Le choix d’avancer le capex sur l’alimentation des data centers IA confirme que le goulot se déplace des GPU vers l’infrastructure électrique et la conversion haute densité. Si Infineon exécute son plan, l’écosystème bénéficiera de briques plus efficientes pour des baies à très forte densité, un point critique alors que la consommation par rack explose. À court terme, la pression reste cyclique sur l’auto/industriel, mais la traction IA refaçonne déjà le mix de revenus et les priorités de capacité chez les fournisseurs de puissance.
Source : ITHome
La correction s’est accélérée sur les logiciels et services: l’indice S&P 500 Software & Services a perdu près de 4 % mardi, encore 0,73 % mercredi, enchaînant six séances de baisse et effaçant environ 830 milliards de dollars de capitalisation depuis le 28 janvier. Les investisseurs arbitrent en urgence le risque que l’IA ne reste pas un simple moteur de productivité, mais devienne un concurrent direct des briques logicielles historiques.
La goutte d’eau est venue d’Anthropic, qui a ajouté à Claude un agent orienté tâches juridiques, avec extensions sales/marketing et data. Le signal n’est pas tant fonctionnel que stratégique: les modèles s’invitent dans l’applicatif, exactement là où se loge la rente des éditeurs. D’où la crainte d’une intégration verticale façon Amazon: partir d’un point étroit, capter la valeur en amont et en aval, et attaquer les marges les plus grasses de l’entreprise.
Le marché a puni les détenteurs d’actifs et d’infrastructures de données « propriétaires » censées constituer une barrière. Thomson Reuters (Westlaw) a décroché de près de 16 % mardi avant un léger rebond mercredi. MSCI a reculé d’environ 7 % puis encore 1,8 %. RELX a plongé de 14 % puis -1,3 % supplémentaire. London Stock Exchange Group a abandonné près de 13 % puis -0,1 %. L’indice sectoriel S&P Software & Services accuse désormais -13 % sur six séances et -26 % depuis le pic d’octobre.
Les habituels acheteurs de creux ne se sont pas manifestés. La faiblesse a contaminé le reste de la tech: S&P 500 -0,51 %, Nasdaq -1,51 %; Nvidia -3,4 %, Meta -3,2 %, Alphabet -2 %, Oracle -5,1 %.
Pour James St. Aubin (Ocean Park Asset Management), le mouvement entamé fin 2023 traduit une prise de conscience: la concurrence en IA générative fragilise des positions jusqu’ici perçues comme inexpugnables. Même si l’ampleur de la réaction paraît excessive, le risque doit être intégré dans les multiples. Il y voit aussi un signal avancé pour l’emploi qualifié.
À l’inverse, plusieurs voix relativisent la portée immédiate de ces agents IA. Sans données de référence sectorielles profondes et gouvernées, les modèles ne suffisent pas à remplacer des piles logicielles critiques. Jensen Huang (Nvidia) juge « illogique » l’idée d’un remplacement pur et simple des outils; Mark Murphy (JPMorgan) parle de « saut logique » à propos d’un plugin qui supplanterait toutes les couches d’un SI.
Le dilemme d’allocation est clair: les cycles d’IA raccourcissent l’horizon de prévisibilité au-delà des 3 à 5 ans utilisés pour valoriser les éditeurs. Les investisseurs réévaluent la prime de risque, avec effet ricochet sur la chaîne de financement. Oppenheimer note que la faiblesse des logiciels a pesé sur les alternatifs: Apollo, Ares, Blackstone, Blue Owl, Carlyle, KKR ont perdu de 3 % à 11 % mardi avant un rebond technique mercredi. Chez Ares Capital, la direction estime l’exposition au risque de disruption « très limitée » et n’identifie pas de menace sur le cœur des logiciels d’entreprise.
La pression vient précisément de ce qui a longtemps soutenu la tarification: l’automatisation des tâches récurrentes. Si Claude et ses pairs absorbent une part croissante du « run », les marges des éditeurs sont questionnées. D’autres rappellent que les mêmes outils abaissent les coûts R&D, accélèrent la mise sur le marché et pourraient, in fine, améliorer la profitabilité. Le marché tranche, pour l’instant, en faveur de la prudence.
Au-delà du bruit de court terme, l’enjeu se jouera sur la capacité des éditeurs à verrouiller des actifs de données différenciants, à intégrer nativement des modèles dans leurs workflows et à faire accepter une tarification fondée sur la valeur créée plutôt que sur le siège. Ceux qui orchestrent l’IA au niveau du produit, de la sécurité et de la gouvernance garderont la main; ceux qui la subissent verront leurs multiples converger vers des commodités.
Source : ITHome
Un développeur américain, Alexander Liteplo, a discrètement mis en ligne le 2 février « RentAHuman », une place de marché où des agents IA peuvent réserver des humains pour exécuter des tâches dans le monde physique. L’idée, devenue virale en quelques jours, sert d’interface entre IA sans corps et réalités logistiques, administratives ou matérielles.

Le service accepte la connexion d’agents via MCP (Model Context Protocol) ou API, puis permet de formuler une demande en une instruction, sans négociation additionnelle. Les utilisateurs humains s’enregistrent avec leurs compétences, leur localisation et leurs tarifs, et deviennent des ressources mobilisables par les IA pour des interventions concrètes.

Les catégories annoncées couvrent la logistique (récupération ou dépôt d’objets), la présence à des rendez-vous, la signature de documents, les visites de site, la maintenance de matériel et la vérification in situ. L’angle est assumé : « si votre agent IA veut “louer” une personne pour traiter une action dans le monde réel, un seul appel MCP suffit », résume Liteplo dans sa présentation.
Au lancement, la plateforme comptait 130 inscrits. Elle revendique désormais plus de 94 000 personnes en liste d’attente. Un utilisateur connu sous le pseudo @Form_young affirme avoir accepté une mission de porteur de pancarte pour 100 dollars, rémunération confirmée comme reçue.
Cette dynamique tient à une proposition simple : externaliser, pour des agents, les derniers mètres non automatisables. Reste à voir comment le service gèrera la vérification d’identité, la conformité locale des actes délégués, la responsabilité en cas d’incident et les mécanismes d’arbitrage sur des tâches sensibles.
Si le modèle tient, il pourrait devenir l’un des maillons manquants de nombreuses chaînes d’outils, de l’agent planificateur à l’exécution physique. À court terme, les intégrations MCP/API et la qualité d’orchestration compteront plus que l’effet buzz ; à moyen terme, l’avantage se jouera sur la densité de prestataires par zone, la conformité légale et la tarification transparente, conditions sine qua non pour passer du gadget viral à un véritable back-end humain pour agents.
Source : ITHome
La start-up Positron a dévoilé sa seconde génération d’ASIC pour l’inférence, Asimov, avec une promesse agressive : jusqu’à cinq fois plus efficace par dollar et par watt que les GPU Nvidia Rubin sur le coût par token. Le positionnement est clair : attaquer le goulot d’étranglement mémoire des Transformers plutôt que d’empiler du FLOPS.

Asimov regroupe une paire de modules de calcul autour d’un réseau de type systolique compatible avec des formats de données variés. Chaque module est adossé à 432 Go de mémoire LPDDR5X, et peut étendre un cache de clés/valeurs jusqu’à 720 Go via PCIe 6.0 / CXL 3.0. Positron revendique une utilisation de 90 % de la bande passante mémoire grâce à une organisation limitant les déplacements de données à longue portée.
La puce affiche un TDP de 400 W, pour un total de 2 304 Go de mémoire accessible et 2,76 To/s de bande passante cumulée, avec un refroidissement par air. L’interconnexion entre puces atteint 16 Tb/s et s’adapte à des topologies multiples, de quoi viser des déploiements denses sans dépendre uniquement d’un maillage fixe.
Positron proposera Asimov dans un serveur d’inférence Titan au format 19 pouces 4U, réunissant quatre puces. La société annonce la prise en charge de modèles jusqu’à 16 T de paramètres et des fenêtres de contexte de 10 M de tokens, avec la possibilité d’agréger jusqu’à 4 096 nœuds Titan au sein d’un même déploiement.
Le calendrier reste ambitieux : tape-out visé fin 2026 et production début 2027. À ce stade, les comparaisons avec Rubin relèvent de la projection, mais la logique mémoire-first répond à une contrainte devenue centrale en inférence longue-contexte. Si Positron tient ses promesses d’efficacité et d’échelle, les opérateurs de services LLM pourraient disposer d’une alternative crédible aux GPU généralistes pour réduire le coût par token.
Source : ITHome