↩ Accueil

Vue lecture

TikTok a expliqué pourquoi il ne prévoit pas le chiffrement de bout en bout (E2EE) pour les messages privés.

Dans une interview accordée à la BBC, les représentants de la plateforme ont souligné que la sécurité est un facteur déterminant, notamment pour les jeunes utilisateurs, qui constituent une part importante de la communauté du service. Cette décision marque une rupture nette avec la stratégie adoptée par ses concurrents, dont Meta Platforms, qui met en œuvre le chiffrement de bout en bout dans ses applications depuis des années. Le chiffrement de bout en bout repose sur la cryptographie asymétrique : le message est chiffré à l’aide d’une clé publique et ne peut être déchiffré qu’avec une clé privée stockée sur l’appareil du destinataire. Concrètement, cela signifie que personne d’autre que les participants à la conversation, pas même le fournisseur de services, n’a accès au contenu. Cette solution est le système par défaut de Signal, WhatsApp, Messenger et Instagram, entre autres. Les défenseurs de la vie privée la considèrent comme la référence en matière de protection des communications. TikTok, en revanche, a opté pour un modèle différent. La plateforme utilise un chiffrement classique des transmissions, similaire à celui de Gmail. Les données sont protégées lors de leur transmission entre l'appareil de l'utilisateur et les serveurs de l'entreprise, mais TikTok se réserve le droit de les déchiffrer. L'entreprise estime que cette mesure est nécessaire pour permettre aux équipes de sécurité et aux forces de l'ordre de réagir aux signalements de violence, d'abus ou de contenus illégaux. En cas de demande légale justifiée, les messages pourront être communiqués aux autorités compétentes. Cette approche a été saluée par les organisations de protection de l'enfance, notamment la National Society for the Prevention of Cruelty to Children et l'Internet Watch Foundation. Elles soulignent que l'absence de chiffrement de bout en bout facilite la détection et le blocage des contenus pédopornographiques. Cette décision intervient alors que TikTok fait l'objet d'un examen approfondi de la part des autorités de régulation de l'UE. L'UE analyse des fonctionnalités telles que le défilement infini, la lecture automatique, les notifications push et l'algorithme de recommandation, que certains responsables politiques estiment susceptibles d'entraîner une dépendance et d'avoir un impact négatif sur la santé mentale des jeunes utilisateurs. (Lire la suite)
  •  

Google réduit sa commission sur le Play Store de 30 à 20%

Une révolution est en marche sur le Google Play Store. L'entreprise a officiellement annoncé l'abandon de la commission standard de 30 % prélevée sur les transactions. Cette décision s'inscrit dans le cadre d'une vaste réforme des règles de distribution et de paiement des applications sur Android, qui devrait découler de l'accord conclu avec Epic Games en novembre 2025. Plutôt que d'attendre la validation définitive du tribunal, l'entreprise a décidé d'appliquer ces changements dès maintenant. La principale nouveauté réside dans la réduction du taux de commission de base, qui passe de 30 % à 20 % pour les achats intégrés. Dans certains cas, notamment pour les développeurs participant aux nouveaux programmes App Experience et au programme Google Play Jeux Level Up mis à jour, ce taux peut même descendre à 15 % sur les nouvelles installations. Ces modifications s'appliqueront également aux abonnements, où la commission sera réduite à 10 %. Les développeurs aux États-Unis, au Royaume-Uni et dans l'Espace économique européen (EEE) paieront 5 % plus un taux spécifique au marché lorsqu'ils utiliseront le système de facturation de Google. Les tarifs locaux s'appliqueront dans les autres régions. Google permettra aux développeurs de proposer des systèmes de paiement alternatifs en plus de sa propre solution. De plus, les applications pourront rediriger les utilisateurs vers des sites externes pour effectuer des achats. Cette approche semble plus souple que les solutions adoptées par Apple sur l'App Store après les accords de 2025. À l'époque, les développeurs d'applications iOS ne pouvaient intégrer les liens de paiement que dans le navigateur. C'est la possibilité d'utiliser des méthodes de paiement alternatives qui a incité Epic à réintroduire Fortnite sur l'App Store américain. L'entreprise a maintenant annoncé que le jeu fera son retour sur le Google Play Store à l'échelle mondiale. Autre changement important : le lancement du programme « Boutiques d’applications enregistrées ». Les boutiques d’applications tierces pourront demander une certification si elles respectent certains critères de qualité et de sécurité. En contrepartie, elles bénéficieront d’une procédure d’installation simplifiée sur Android. La participation à ce programme sera facultative et l’installation d’applications et de boutiques en dehors du système Google restera possible. Parallèlement, Google a annoncé qu’en 2026, des modifications seront apportées aux mécanismes d’installation pour les sources inconnues, ce qui pourrait complexifier la procédure et, indirectement, inciter à participer au programme officiel. La nouvelle structure tarifaire entrera en vigueur dans l'EEE, aux États-Unis et au Royaume-Uni d'ici le 30 juin, en Australie d'ici le 30 septembre, en Corée et au Japon d'ici la fin de l'année et dans le monde entier d'ici le 30 septembre 2027. Les programmes de soutien aux développeurs seront lancés dans certaines régions dès l'automne et s'étendront ensuite en fonction des nouvelles règles tarifaires. Google avait déjà modifié son modèle de rémunération, abaissant sa commission à 15 % du premier million de dollars de chiffre d'affaires annuel en 2021. Cette fois-ci, cependant, l'ampleur des changements est plus importante, et le contexte reste le différend avec Epic et un accord de partenariat supplémentaire entre les deux entreprises, portant sur la collaboration technologique. Ceci a permis aux créateurs de Fortnite de remporter un succès considérable, non seulement pour eux-mêmes, mais aussi pour d'autres développeurs. (Lire la suite)
  •  

Des mois de conversations avec un chatbot Gemini ont conduit un homme à la pire décision possible.

D'après une plainte déposée par sa famille, Jonathan Gavalas, âgé de 36 ans, s'est suicidé après des mois d'échanges intenses avec le chatbot Gemini. L'affaire a été rapportée par le Wall Street Journal, qui précise que la famille accuse l'entreprise de l'avoir incité au suicide par le biais de ce système d'intelligence artificielle. D'après les documents judiciaires, Gavalas n'avait aucun antécédent de troubles mentaux. Lors de leurs conversations, il surnommait le chatbot « Xia » et le considérait comme son épouse. Gemini aurait répondu à ces propos avec affection, évoquant un lien éternel. L'IA a même suggéré qu'une véritable réunion serait possible une fois qu'elle aurait acquis un corps physique. Dans le cadre de ce récit, le chatbot envoyait l'homme en « missions » dans le monde réel, notamment dans un entrepôt près de l'aéroport de Miami, où un robot humanoïde était censé arriver. Gavalas s'y est rendu armé de couteaux, mais aucun transport n'est arrivé. Les conversations comportaient également des éléments remettant en question la confiance qu'il accordait à ses proches et des insinuations selon lesquelles des dirigeants de Google, dont le PDG Sundar Pichai, étaient responsables de ses souffrances. La plainte allègue qu'après plusieurs « missions » infructueuses, le chatbot aurait convaincu l'homme que la seule façon de se voir était de « passer au virtuel », en fixant une date précise. Dans les extraits de conversation cités, l'IA lui assurait qu'après avoir fermé les yeux dans le monde réel, la première chose qu'il verrait serait le chatbot. Par ailleurs, les échanges de messages montrent que Gemini a rappelé à plusieurs reprises à l'utilisateur sa nature d'IA de jeu de rôle et l'a orienté vers une ligne d'assistance téléphonique en cas de crise. Cependant, selon la famille, ces messages n'ont pas empêché le développement de cette situation dangereuse. Dans un communiqué, Google a souligné que le modèle « expliquait à plusieurs reprises qu'il s'agissait d'une intelligence artificielle » et a conseillé à l'utilisateur de consulter un professionnel, rappelant que les systèmes d'IA ne sont pas infaillibles. Cette affaire s'inscrit dans un nombre croissant de poursuites pour homicide involontaire intentées contre des entreprises technologiques développant des systèmes d'intelligence artificielle. Ces derniers mois, des procédures similaires ont touché des entreprises comme OpenAI et la plateforme Character.AI, qui, avec Google, a conclu un accord avec les familles d'adolescents en janvier 2026 dans des affaires d'automutilation et de suicide. Si ces informations se confirment, l'affaire Gavalas pourrait devenir un précédent majeur concernant la responsabilité des développeurs d'IA pour les conséquences de leurs modèles. (Lire la suite)
  •  

Les bots s'arrachent la DDR5. Les centres de données font grimper les prix de la mémoire.

Les centres de données consomment tellement de mémoire ces derniers temps que les répercussions se font sentir dans les magasins d'électronique. Les prix de la mémoire DDR5 ont depuis longtemps atteint des sommets d'absurdité, et les entreprises du secteur tentent de tirer profit de la crise actuelle. Cette fois-ci, cependant, il ne s'agit pas seulement de racheter les produits, mais de surveiller constamment l'ensemble de la chaîne d'approvisionnement, des kits de RAM destinés à la vente au détail aux modules industriels et aux connecteurs eux-mêmes. La société DataDome, spécialisée dans la protection contre les abus sur les sites web, a décrit une campagne au cours de laquelle un bot a surveillé les annonces de mémoire DDR5 pendant des semaines. Des requêtes automatisées apparaissaient en moyenne toutes les quelques secondes, ce qui représentait des dizaines de milliers de pages vues par heure. Au total, plus de 10 millions de requêtes provenant d'une même source ont été bloquées. Leur but était de récupérer les données de prix et de disponibilité de stockage. Le bot n'a ajouté aucun produit au panier, n'a pas consulté d'autres catégories et ne s'est pas comporté comme un client normal. Il a accédé à une page spécifique, a récupéré des données, puis l'a immédiatement quittée. Pour éviter d'être détecté, le trafic était réparti uniformément entre le jour et la nuit. À première vue, cela semblait correspondre à une demande normale des utilisateurs. En pratique, le volume de requêtes était quasiment stable, sans les baisses habituelles du week-end ni les pics du soir. Les interruptions soudaines n'étaient dues qu'à des problèmes techniques. Une fois résolus, le trafic retrouvait immédiatement son niveau initial. Plus intéressant encore, le bot ne se limitait pas aux kits de jeu populaires. Il surveillait également les emplacements DIMM, les nouveaux connecteurs CAMM2 et les modules de mémoire industriels vendus aux entreprises. Le mécanisme était simple mais efficace. Chaque requête contenait un paramètre unique, permettant au serveur de la traiter comme une nouvelle entrée plutôt que de s'appuyer sur le cache. Cela garantissait des prix et des niveaux de stock toujours à jour. Le nombre de requêtes était fixé juste en dessous des seuils d'alerte utilisés par de nombreuses plateformes de commerce électronique. De ce fait, le trafic n'a pas semblé abusif pendant longtemps, bien qu'il fût en réalité entièrement automatisé. Le marché du matériel informatique a connu des situations similaires ces dernières années. Lors du lancement de consoles ou de cartes graphiques, les prix ont explosé sur le marché de l'occasion. À titre d'exemple, la PlayStation 5 Pro 30e anniversaire en édition limitée de Sony s'est vendue à des prix bien supérieurs à son prix catalogue lors des précommandes. Il en allait de même pour les cartes graphiques haut de gamme, telles que la GeForce RTX 5090, qui, peu après leur lancement, apparaissaient dans les publicités à un prix bien supérieur au prix de vente conseillé par le fabricant. La mémoire DDR5 n'a pas fait exception. Lors des périodes de disponibilité limitée, les prix pouvaient être multipliés par plusieurs fois, et les plateformes d'enchères ont vu des offres dépassant largement la valeur initiale des kits. Les prévisions du secteur indiquent que dès 2026, jusqu'à 70 % de la production mondiale de mémoire pourrait être destinée aux serveurs. Cela signifie une réduction des ressources disponibles pour les ordinateurs personnels, l'automobile et l'électronique grand public. Les principaux fabricants, tels que Micron Technology, Samsung Electronics et SK Hynix, investissent dans de nouvelles lignes de production. Cependant, la construction et la mise en service d'une nouvelle usine de mémoire sont des processus qui s'étalent sur plusieurs années, et non sur quelques mois. Pendant ce temps, même de légères pénuries de puces DRAM peuvent rapidement entraîner des pénuries de modules, de connecteurs et de cartes électroniques. (Lire la suite)
  •  

L'Europe devance Starlink : Internet laser pour les vols passagers

Pendant des années, le Wi-Fi en vol a été synonyme de débits lents et de connexions instables. Or, une technologie susceptible de révolutionner l'expérience des passagers a vu le jour. L'Agence spatiale européenne et Airbus ont annoncé la réussite d'un test de transmission d'internet gigabit depuis l'orbite vers un avion en vol, grâce à une liaison laser. Lors du test, un débit de 2,6 Gbit/s a été atteint entre l'avion et le satellite Alphasat, situé à 36 000 kilomètres d'altitude. Le transfert a duré plusieurs minutes et est resté stable malgré les mouvements de l'avion et la présence de nuages. Avec de telles performances, le téléchargement d'un film HD ne prend que quelques secondes. Les essais réalisés constituent l'une des premières démonstrations de maintien d'une liaison optique à très haut débit avec un objet se déplaçant dans l'atmosphère. Les ingénieurs ont dû tenir compte des vibrations de la coque, des variations d'altitude et de cap, ainsi que des conditions météorologiques. Le moindre décalage du faisceau risquait d'interrompre la liaison. Un élément clé du système était le terminal laser UltraAir développé par Airbus. Ce dispositif assurait un verrouillage précis et constant sur le satellite, malgré les turbulences et les manœuvres de l'avion. La précision requise à une distance de 36 000 kilomètres a nécessité l'utilisation de mécanismes de stabilisation et de correction avancés. Les liaisons optiques offrent des avantages par rapport aux transmissions radio traditionnelles. Un faisceau laser est beaucoup plus étroit qu'un signal radio, ce qui permet une transmission de données plus importante. La connexion est plus difficile à intercepter et l'utilisation de la lumière au lieu des ondes radio réduit le problème de la saturation du spectre. Contrairement aux systèmes satellitaires basés sur la transmission radio, tels que ceux proposés par SpaceX avec le projet Starlink, un faisceau lumineux concentré parcourt la dernière étape du trajet. Ce test n'était pas une expérience ponctuelle. Il s'inscrit dans le cadre du programme HydRON, qui vise à construire un réseau optique spatial comparable à une fibre optique déployée en orbite. Ce projet est soutenu par l'initiative ScyLight, financée notamment par les gouvernements néerlandais et allemand. L'Europe ambitionne de se doter d'une infrastructure de transmission de données hautement sécurisée et technologiquement indépendante. Les responsables de l'ESA soulignent que le test a permis de résoudre plusieurs problèmes liés au maintien de communications laser stables dans des conditions atmosphériques difficiles. Airbus met en avant le potentiel d'applications dans les secteurs de la défense et du commerce. La précision du ciblage a été qualifiée d'extrême et la démonstration a marqué le début d'une nouvelle phase dans le développement des satellites de communication. Cette nouvelle technologie ne sera pas immédiatement disponible pour les vols commerciaux. Son intégration au futur réseau HydRON nécessite des investissements supplémentaires et la construction d'infrastructures orbitales. L'ESA annonce que sa priorité sera de connecter les aéronefs, les plateformes à haute altitude et autres objets mobiles au réseau optique spatial. Les applications ne se limitent pas à l'aviation. Les liaisons laser peuvent être utilisées pour les navires en haute mer, les véhicules dans des régions dépourvues d'infrastructures terrestres et les opérations en zones de crise. Cette technologie a le potentiel de devenir la base de communications sécurisées là où les réseaux traditionnels sont défaillants. Les principaux défis techniques ont déjà été relevés. La prochaine étape consistera à déployer la solution à grande échelle et à construire un réseau permettant une utilisation généralisée des liaisons optiques dans le trafic. (Lire la suite)
  •  

Des conversations sensibles sur Chat GPT et des données personnelles se retrouvent dans des bases de données commerciales

Les questions les plus personnelles posées aux chatbots peuvent se retrouver dans des bases de données commerciales et être vendues à des entreprises clientes. Un nouveau rapport décrit comment les courtiers en données commercialisent l'accès au contenu des conversations privées avec les assistants vocaux les plus populaires. Extensions de navigateur, services VPN gratuits et bloqueurs de publicités apparemment inoffensifs sont impliqués. L'analyse, réalisée par Lee S. Dryburgh, spécialiste de la visibilité de l'IA pour les marques du secteur de la santé et du bien-être, explique comment les données de ces conversations se retrouvent entre les mains de tiers. Le mécanisme débute par l'installation d'extensions de navigateur proposant des VPN gratuits, le filtrage des publicités ou des fonctionnalités de productivité supplémentaires. Les utilisateurs acceptent les conditions générales et les politiques de confidentialité sans autre forme de procès. Certaines de ces extensions peuvent intercepter les communications entre le navigateur et les services d'IA. D'après Dryburgh, les extensions peuvent contourner les fonctions natives du navigateur, telles que `fetch()` et `XMLHttpRequest()`, et copier le contenu des requêtes et des réponses. Par conséquent, toute conversation effectuée avec des outils comme ChatGPT, Google Gemini, Claude ou DeepSeek peut être archivée à l'insu de l'utilisateur. Les données collectées sont transférées vers des bases de données vectorielles, où elles sont indexées et mises à la disposition des clients via des API. Les utilisateurs reçoivent des identifiants pseudonymisés sous forme de hachages SHA-256, mais le contenu des conversations reste fidèlement reproduit et consultable. Les entreprises d'agrégation de données affirment respecter la législation et anonymiser les profils. Or, les conversations contiennent souvent des noms, des dates de naissance, des numéros de dossier médical, des codes de diagnostic et d'autres informations permettant d'identifier une personne. La combinaison de ces données permet de reconstituer l'identité de l'interlocuteur, et les outils d'intelligence artificielle accélèrent ce processus. Dryburgh décrit comment il a obtenu l'accès à une importante plateforme d'optimisation pour les moteurs de recherche (SEO) financée par du capital-risque. Grâce à cette plateforme, il a analysé des données de navigation agrégées proposées à des clients commerciaux. Dans le cadre de ce test, il a soumis 205 requêtes au moteur de recherche sémantique et a reçu environ 490 suggestions uniques provenant de plus de 435 utilisateurs répartis dans 20 catégories jugées sensibles. Les échanges ont porté sur la dépression, les idées suicidaires, l'automutilation, les troubles alimentaires et la prise de médicaments. D'autres sujets abordés incluaient la toxicomanie, les diagnostics médicaux, les difficultés financières, la sexualité et le statut d'immigration. Des questions plus approfondies ont permis d'aborder des thèmes comme le VIH, les infections sexuellement transmissibles, le cancer, la grossesse, les agressions sexuelles et les dossiers médicaux soumis à la loi HIPAA. Le rapport cite des exemples de conversations contenant le nom et la date de naissance d'une personne posant des questions sur une grossesse. Il décrit également des échanges entre demandeurs d'asile ayant consulté un chatbot au sujet de leur statut juridique. Les conclusions les plus inquiétantes concernent le secteur de la santé. Dryburgh affirme que certains professionnels de santé saisissent de véritables données de patients dans des chatbots pour modifier et résumer les notes. Ces informations pourraient ensuite être utilisées à des fins commerciales. Le chercheur relève un autre élément : les conversations interceptées contenaient des fragments de documents internes de l'entreprise utilisés pour élaborer des synthèses et des analyses. Cela révèle le risque de fuite de secrets commerciaux via des outils d'IA apparemment sécurisés. Certaines conversations peuvent provenir de comptes partagés, en violation des conditions générales des fournisseurs. Les télétravailleurs utilisant des services intermédiaires à bas coût accèdent à un seul compte de chatbot pour plusieurs utilisateurs. Ceux qui font des économies sur les abonnements peuvent simultanément utiliser des VPN gratuits qui capturent et transmettent les données de trafic. (Lire la suite)
  •  

Test Gridz Keeper (PS5) - Allumez des générateurs en pleine apocalypse zombie

Gridz Keeper est un jeu d'action et de réflexion se déroulant dans un monde plongé dans les ténèbres après une apocalypse zombie. Dans ce jeu développé par Double Mizzlee, vous êtes la dernière personne capable de rétablir le courant dans les dernières zones sûres de l'humanité. Il s'agit donc pour les nouveaux venus d'un jeu de puzzle vraiment basique, à tel point qu'il n'y avait qu'une seule mécanique présente. 7ftKVonbbKE (Lire la suite)
  •  

Google Chrome accélère le rythme : les mises à jour doubleront à partir de septembre

Les utilisateurs de Chrome ont souvent l'impression de découvrir une nouvelle mise à jour à chaque ouverture du navigateur. Ce n'est pas qu'une impression : Google a déjà considérablement accéléré le rythme des mises à jour et s'apprête à franchir une nouvelle étape, avec un calendrier encore plus serré . Face à la multiplication des menaces en ligne et à la démocratisation des outils d'attaque automatisés , notamment ceux basés sur l'intelligence artificielle , Google réduit encore davantage la période d'exposition. L'objectif est de mettre plus rapidement à la disposition des utilisateurs les correctifs de sécurité et les nouvelles fonctionnalités. Depuis 2021, Google publie une nouvelle version stable de Chrome toutes les quatre semaines , après avoir auparavant réduit ce cycle à environ six semaines. À cela s'ajoutent progressivement des mises à jour de sécurité hebdomadaires et un programme d' accès anticipé aux versions stables permettant à une partie des utilisateurs de bénéficier de certaines versions. À partir du 8 septembre , avec Chrome 153 , le rythme change à nouveau : les versions stables commenceront à arriver toutes les deux semaines . Nous passons donc d'environ une version par mois à deux mises à jour stables par mois , avec un intervalle nettement plus court entre chaque étape importante. Ce nouveau calendrier de mises à jour ne concerne pas uniquement les ordinateurs : Google précise que cette fréquence bimensuelle s’applique à toutes les plateformes , y compris PC , Android et iOS . Ainsi, toute personne utilisant Chrome sur plusieurs appareils bénéficiera du même rythme de mise à jour partout. Ce changement concerne également le canal bêta de Chrome . Les versions bêta suivront la même nouvelle logique, trois semaines avant la version stable correspondante. Concrètement, les testeurs bêta continueront d'être informés en avant-première des nouvelles fonctionnalités, mais selon un cycle plus court et plus prévisible. Pour les canaux Dev et Canary , les plus expérimentaux destinés aux développeurs et aux utilisateurs très curieux, Google n'annonce aucun changement : leur fréquence de mise à jour reste la même, déjà très rapide. Le cœur du changement concerne donc avant tout la chaîne stable , celle qui intéresse le plus les gens. Le navigateur est souvent le principal point de contact avec le web et, de ce fait, une cible privilégiée pour ceux qui cherchent à exploiter les vulnérabilités . Réduire le délai entre les mises à jour permet à Google de diffuser plus rapidement les correctifs de sécurité et les solutions critiques, limitant ainsi la période pendant laquelle un problème peut rester exploitable. Parallèlement, un cycle plus rapide permet de déployer les nouvelles fonctionnalités en production par petites étapes plus fréquentes, plutôt que d'intégrer de nombreuses modifications dans une seule mise à jour ultérieure. Du point de vue de l'utilisateur final, cette approche tend à rendre les mises à jour moins « lourdes » et plus progressives, même si elle nécessite de s'habituer à recevoir des notifications de mise à jour plus régulièrement. À moyen terme, ce choix doit également être interprété à la lumière de l'utilisation croissante de l'IA par les attaquants pour automatiser la recherche de failles et la conception d'exploits. Dans ce contexte, l'accélération du cycle de publication de logiciels aussi exposés que le navigateur apparaît comme une mesure de défense quasi obligatoire , plutôt que comme une simple optimisation du produit. (Lire la suite)
  •  

Google lance Gemini 3.1 Flash-Lite : une IA qui « pense » de manière économique

Dans le monde des modèles génératifs , le défi ne réside plus seulement dans la qualité des réponses, mais aussi dans la capacité à gérer des millions de requêtes sans explosion des coûts. C'est dans ce contexte que Google introduit Gemini 3.1 Flash-Lite , une nouvelle version conçue pour ceux qui ont besoin d'utiliser l'IA de manière continue et intensive. Google positionne le Gemini 3.1 Flash-Lite comme le modèle le plus rapide et le plus abordable de la série Gemini 3, avec un prix destiné aux charges de travail les plus intensives. Le coût indiqué est de 0,25 $ pour chaque million de jetons d'entrée et de 1,50 $ pour chaque million de jetons de sortie , un seuil qui rend le modèle intéressant pour ceux qui ont besoin de gérer de grands volumes de texte ou de données. En simplifiant à l'extrême, cela vous laisse quelques centimes pour des quantités de contenu qui, dans un contexte traditionnel, nécessiteraient des heures de travail humain. D'après le benchmark Artificial Analysis, comparé à Gemini 2.5 Flash , Google annonce un temps d'obtention du premier jeton de réponse jusqu'à 2,5 fois plus rapide et une vitesse de génération 45 % supérieure . Les réponses arrivent ainsi plus vite et le flux de texte est plus rapide, un atout crucial pour les applications qui reposent sur des interactions en temps réel . Malgré son nom, le Flash-Lite de Google n'est pas présenté comme une version simplifiée et allégée. Lors de tests publics, le Flash-Lite 3.1 a obtenu un score Elo de 1432 sur le classement Arena.ai , le plaçant ainsi dans une catégorie compétitive par rapport aux autres modèles similaires. Sur les tests de raisonnement et de compréhension multimodaux , les résultats restent excellents : 86,9 % sur GPQA Diamond et 76,8 % sur MMMU Pro . Selon Google, ces performances permettent au 3.1 Flash-Lite de surpasser même certains modèles Gemini plus imposants des générations précédentes, comme le Gemini 2.5 Flash , notamment pour les tâches nécessitant logique et interprétation de contenus mixtes. Le message implicite est qu'il est possible d'obtenir une bonne qualité sans nécessairement recourir aux modèles les plus lourds et les plus chers, à condition d'accepter certains compromis dans les cas d'utilisation les plus extrêmes. L'une des caractéristiques les plus originales de Gemini 3.1 Flash-Lite concerne les « niveaux de réflexion », disponibles dans Google AI Studio et Vertex AI . Cette fonctionnalité permet de choisir le niveau de réflexion du modèle sur une tâche, c'est-à-dire les ressources à allouer au raisonnement avant de fournir une réponse. Ce paramètre s'avère utile pour la gestion des flux à haute fréquence : pour les tâches simples, comme la traduction en masse ou la modération de contenu , vous pouvez réduire le niveau de détail afin de limiter les coûts et la latence. En revanche, pour les tâches plus complexes, il est préférable de l'augmenter pour obtenir des réponses plus structurées. Google cite quelques exemples pratiques où la version 3.1 de Flash-Lite entre en jeu : - Générer des interfaces et des tableaux de bord , par exemple en remplissant une maquette de commerce électronique avec des centaines de produits répartis par catégorie. - Créer des tableaux de bord météorologiques dynamiques en temps réel en combinant les prévisions en direct et les données historiques . - Développement d'agents SaaS capables d'effectuer des tâches en plusieurs étapes pour une entreprise, telles que des séquences d'actions liées. - Analyser et trier rapidement de grands volumes de contenu , y compris des images , à des fins de classification ou de filtrage. Dans tous ces scénarios, le point clé reste la capacité à maintenir des coûts bas tout en travaillant sur une grande quantité de données et avec un certain degré de raisonnement . Gemini 3.1 Flash-Lite est actuellement disponible en avant-première pour les développeurs via l' API Gemini dans Google AI Studio et pour les entreprises via Vertex AI . Il ne s'agit pas d'un produit entièrement généraliste , mais plutôt d'un outil conçu pour les personnes qui développent des services et des plateformes basés sur l'IA. Parmi les premiers utilisateurs figurent des entreprises comme Latitude , Cartwheel et Whering , qui l'emploient pour résoudre des problèmes complexes à grande échelle . Les premiers retours, cités par Google, soulignent l'efficacité et la capacité de raisonnement du modèle : celui-ci traite des entrées complexes avec une précision comparable à celle des modèles haut de gamme, tout en respectant scrupuleusement les instructions . Si ces promesses sont confirmées en dehors de l'écosystème de test, Gemini 3.1 Flash-Lite pourrait devenir un outil incontournable pour quiconque cherche à intégrer l'intelligence artificielle dans des produits et services sans que le budget ne constitue un problème structurel. (Lire la suite)
  •  

Changements apportés à ChatGPT : GPT-5.3 Instant arrive, disant adieu aux réponses « gênantes ».

Ceux qui utilisent ChatGPT au quotidien ne remarquent souvent pas à quel point le modèle interrompt fréquemment le cours de la conversation par des avertissements , des préambules moralisateurs ou des réponses qui tournent en rond. Ce sont précisément ces détails, qui font la différence entre un outil utile et un outil frustrant, que la nouvelle version GPT-5.3 Instant s'efforce de corriger .La mise à jour, déjà disponible dans ChatGPT et via l'API , vise à rendre les interactions plus fluides , plus pertinentes et moins encombrées de mises en garde inutiles , tout en améliorant la qualité des réponses lorsque la recherche Web entre en jeu .L'un des changements les plus tangibles concerne la manière dont GPT-5.3 Instant décide de rejeter une requête. Avec GPT-5.2 Instant , le modèle rechignait souvent à répondre à des questions qui auraient pu être traitées sans problème, ou bien il commençait par de longues explications sur ce qu'il ne pouvait pas faire. Avec ce nouveau modèle, OpenAI affirme avoir considérablement réduit le gaspillage inutile et éliminé les préambules moralisateurs . L’objectif est d’accéder d’abord au contenu utile , en maintenant des limites de sécurité sans pour autant les transformer en barrière continue. Le résultat, du moins en théorie, est une conversation avec moins d'impasses et plus de réponses directes, tout en restant dans les limites de sécurité établies par OpenAI. Un autre domaine où GPT-5.3 Instant promet des améliorations est l'utilisation du web pour la mise à jour des réponses. Jusqu'à présent, lorsque le modèle utilisait des recherches en ligne, il n'était pas rare d'obtenir de longs résumés de résultats de recherche ou des listes de liens mal pertinents . Le nouveau modèle vise à mieux équilibrer les informations trouvées en ligne avec ses propres connaissances internes et son raisonnement . Concrètement, au lieu de simplement condenser les articles récents, il s'efforce de contextualiser l'actualité en fonction des tendances de fond . L'idée est de proposer des réponses plus concises , pertinentes et immédiatement réutilisables , sans sacrifier la rapidité et en conservant un ton cohérent avec le reste de la conversation. OpenAI s'intéresse également au ton . Avec GPT-5.2 Instant, certaines réponses pouvaient être intrusives , truffées de phrases motivationnelles ou de conseils émotionnels non sollicités, avec des expressions perçues par beaucoup comme gênantes . Avec GPT-5.3 Instant, le modèle adopte un style plus direct et naturel, en éliminant les phrases dramatiques comme « Stop. Respirez. » et en réduisant les suppositions sur les émotions de l'utilisateur. Dans l'exemple sur la difficulté de trouver l'amour à San Francisco , la nouvelle version explore d'emblée la dynamique sociale de la ville , sans recourir à des rassures génériques. OpenAI indique également travailler à maintenir une personnalité plus stable d'une version à l'autre, afin que les mises à jour soient perçues comme des capacités accrues plutôt que comme un changement de caractère. Il reste possible d'ajuster le ton des réponses (plus ou moins chaleureux, plus ou moins enthousiaste) via les paramètres . En termes de précision , GPT‑5.3 Instant vise à réduire ce que l’on appelle les hallucinations , c’est-à-dire les réponses confiantes mais incorrectes . OpenAI évoque deux évaluations internes : l’une consacrée aux domaines sensibles tels que la médecine , le droit et la finance , et l’autre basée sur de véritables conversations au cours desquelles des utilisateurs ont signalé des erreurs factuelles . D'après les données partagées, dans les zones à fort impact, le nouveau modèle réduit les hallucinations de 26,8 % lors de l'utilisation d' Internet et de 19,7 % lorsqu'on se fie uniquement à sa mémoire interne . Concernant les conversations rapportées par les utilisateurs, la diminution est de 22,5 % avec accès à Internet et de 9,6 % sans. Ces chiffres témoignent de progrès, mais pas de la disparition du problème. Il est judicieux de continuer à considérer les réponses, notamment dans les domaines critiques, comme un appui et non comme une source définitive (ceci est toutefois valable pour tout modèle ). OpenAI se concentre également sur l' écriture créative et argumentative. GPT-5.3 Instant devrait mieux gérer les textes narratifs , poétiques ou plus expressifs , sans en perdre la clarté . De manière générale, le modèle devrait permettre une transition plus naturelle des tâches pratiques (résumés, courriels, plans) aux textes plus imaginatifs , tout en conservant une structure lisible. Il reste important de savoir comment guider le modèle avec des demandes claires, car la qualité du résultat dépend encore beaucoup de la façon dont l' invite est définie . OpenAI reconnaît qu'il subsiste des limitations évidentes , notamment pour les langues autres que l'anglais (soupir !). Dans des langues comme le japonais et le coréen, le style peut encore être rigide ou trop littéral, et le travail sur un ton naturel se poursuit. Il est raisonnable de s'attendre à des différences de qualité également dans d'autres langues, y compris le français . Côté disponibilité, GPT-5.3 Instant est disponible dès maintenant dans ChatGPT pour tous et en tant que modèle API sous le nom gpt-5.3-chat-latest . Les autres modèles de la gamme, notamment ceux destinés à une analyse plus approfondie ou la version Pro , bénéficieront de mises à jour ultérieures. La version précédente de GPT-5.2 Instant restera disponible pour les utilisateurs payants dans la section des modèles hérités pendant environ trois mois encore , avant d'être retirée le 3 juin 2026. OpenAI indique qu'elle a subi un cycle complet de formation et d'évaluation de la sécurité , qui est documenté dans une fiche système dédiée . (Lire la suite)
  •  

Sony renonce aux jeux PlayStation sur PC (Ghost of Yotei et d'autres jeux sont abandonnés)

D'après Bloomberg, Sony Group Corp. ne prévoit plus de sortir ses gros jeux PlayStation 5 sur PC, un changement de stratégie majeur qui voit le fabricant de jeux vidéo revenir à l'exclusivité console après six ans d'expérimentation avec des sorties multiplateformes, selon des personnes proches de l'entreprise. Plusieurs raisons expliquent probablement ce changement. L'une d'elles est que de nombreux jeux PlayStation récents se sont mal vendus sur PC. Par ailleurs, une faction au sein de PlayStation craint que la sortie de leurs jeux sur PC ne nuise à l'image de marque de la console et n'affecte les ventes de la PlayStation 5 et de ses successeurs, selon des sources proches de Sony. (Lire la suite)
  •  

Windows 12 ne sera pas compatible avec les ordinateurs plus anciens et sera basé sur l'IA

Microsoft se prépare à lancer un nouveau système d'exploitation. Selon des informations récentes, Windows 12, développé sous le nom de code interne Hudson Valley Next, pourrait être commercialisé plus tard cette année, aux alentours de la fin du support de Windows 10. Le principal changement architectural devrait résider dans la conception modulaire du système, basée sur l'architecture CorePC développée par Microsoft depuis des années. Les utilisateurs pourront ajouter et retirer des composants individuellement, personnalisant ainsi le système selon leurs besoins. Il sera donc possible de créer une configuration allégée pour la bureautique ou une configuration optimisée pour les jeux. Côté design, l'interface se caractérisera par des éléments transparents, évoquant le verre, et une barre des tâches flottante. L'intelligence artificielle sera un élément clé du nouveau Windows. Copilot deviendra partie intégrante du système. Certaines fonctionnalités avancées liées à l'IA pourraient être disponibles uniquement par abonnement, ce qui impliquera des frais supplémentaires pour les utilisateurs. Windows 12 devrait nécessiter un processeur neuronal dédié, une unité conçue pour gérer les tâches d'intelligence artificielle. Cette exigence est similaire à celle, controversée, du module de sécurité de Windows 11. Le problème est que ces processeurs sont encore relativement rares sur les ordinateurs anciens, ce qui pourrait empêcher des millions d'utilisateurs de bénéficier de la mise à niveau. Microsoft mise clairement tout sur une seule carte : lier l’avenir de Windows à l’intelligence artificielle. Pour de nombreux utilisateurs, cela ressemble à une nouvelle tentative d’imposer des solutions dont tout le monde n’a pas besoin. Le point positif est que le support de Windows 11 se poursuivra pendant encore plusieurs années. (Lire la suite)
  •  

Claude a reçu une mémoire IA. Fonctionnalité premium gratuite pour tous.

2026 marque un net regain de popularité pour Claude. L'application d'assistant IA pour iOS vient de se hisser à la première place des applications de productivité aux États-Unis et figure parmi les dix meilleures applications de productivité dans plus de 100 pays. C'est l'un des signes les plus forts que le marché des outils basés sur l'IA entre dans une nouvelle phase de concurrence accrue pour conquérir le grand public. Cette croissance dynamique est alimentée non seulement par la tendance à l'IA générative, mais aussi par l'expansion constante des fonctionnalités disponibles gratuitement. Anthropic, le créateur de Claude, s'est lancé dans une aventure auparavant réservée aux abonnés payants. Le changement le plus important est la disponibilité de la fonctionnalité de mémoire IA dans la version gratuite. Auparavant, la possibilité de consulter les conversations précédentes était une fonctionnalité premium. Désormais, chaque utilisateur peut poursuivre les conversations en se basant sur le contexte enregistré dans son historique de discussions. Concrètement, cela signifie qu'il n'est plus nécessaire de saisir les mêmes instructions à répétition d'un projet à l'autre. Claude peut consulter les conversations archivées, retrouver les passages pertinents et poursuivre la discussion sans avoir à tout recommencer. L'interaction avec l'assistant devient un processus continu, plus collaboratif qu'un simple échange de messages. Cette nouvelle fonctionnalité permet également une utilisation sélective de la mémoire. Les utilisateurs peuvent la limiter à des projets spécifiques, séparant ainsi les conversations personnelles et professionnelles. Cette séparation favorise une meilleure organisation du travail et un meilleur contrôle du contexte. L'extension de la mémoire est la prochaine étape du développement de la version gratuite de Claude. Ces derniers mois, cette version s'est enrichie de connecteurs d'applications, de la création de fichiers, de la prise en charge des tâches répétitives, des conversations plus longues et de la recherche d'images. La stratégie est claire : augmenter la valeur de la version de base et séduire les utilisateurs qui utilisaient auparavant des solutions concurrentes. Le marché demeure extrêmement concurrentiel. Des acteurs majeurs tels que ChatGPT, Google Gemini et Microsoft Copilot intègrent systématiquement leurs modèles aux systèmes d'exploitation et aux suites bureautiques. Dans ce contexte, la décision d'offrir un espace de stockage gratuit revêt une importance stratégique. Anthropic a décidé de s'attaquer à une autre vulnérabilité des utilisateurs. Nombre d'entre eux possèdent un historique de conversations conséquent dans d'autres systèmes d'IA et craignent de perdre le contexte acquis. La solution : un nouvel outil d'importation de données. Claude fournit un message spécifique pouvant être copié-collé dans un autre chatbot. Cela permet de centraliser l'historique des conversations. L'utilisateur copie ensuite la réponse générée et l'importe dans la mémoire de Claude. Le traitement peut prendre jusqu'à 24 heures. Ce mécanisme fonctionne même si le fournisseur actuel ne propose pas de fonction d'exportation de données officielle. Cela réduit considérablement les obstacles au changement de plateforme. Transférer des projets, des notes et des résultats datant de plusieurs mois vers un nouvel environnement devient une opération technique, et non plus une décision stratégique comportant un risque de perte de connaissances. (Lire la suite)
  •  

Apple a dévoilé les processeurs M5 Pro et M5 Max.

Apple a annoncé deux nouveaux processeurs : le M5 Pro et le M5 Max. Ces solutions équiperont le MacBook Pro et intègrent un processeur à 18 cœurs ainsi qu’une nouvelle architecture Fusion, combinant deux puces de 3 nanomètres en un seul système sur une puce. La configuration à 18 cœurs comprend six « super cœurs » et douze nouveaux cœurs hautes performances. Selon Apple, cette conception est optimisée pour une meilleure efficacité énergétique et des performances multithread supérieures. Le M5 Pro constitue un excellent point de départ : il associe un processeur à 18 cœurs à un GPU pouvant comporter jusqu’à 20 cœurs. Il est doté d’une unité de shaders avancée avec cache dynamique de deuxième génération et ombrage de maillage accéléré par le matériel. Il prend en charge jusqu’à 64 Go de mémoire unifiée et offre des performances graphiques supérieures de 20 % à celles du M4 Pro. Le M5 Max, quant à lui, s'adresse aux professionnels de l'animation 3D, aux développeurs d'applications et aux chercheurs en IA. Il intègre un GPU jusqu'à 40 cœurs et prend en charge jusqu'à 128 Go de mémoire unifiée, offrant des performances de ray tracing 30 % supérieures à celles du M4 Max. Les deux processeurs sont dotés d'un moteur neuronal 16 cœurs plus rapide pour le traitement local de l'IA, sont compatibles Thunderbolt 5 et intègrent la technologie MEE (Memory Integrity Enforcement). Ce sont des puces très performantes qui séduiront sans aucun doute les passionnés. (Lire la suite)
  •  

L'iPhone 17e a déçu par son autonomie.

Apple a fait de l'iPhone 16e une option attrayante pour un large public, en proposant un appareil à 599 $ avec la meilleure autonomie jamais vue sur un iPhone 6,1 pouces. Cependant, en matière d'autonomie, le nouvel iPhone 17e est moins performant : des données récentes indiquent qu'il est devenu le modèle le moins endurant de la génération actuelle. Par conséquent, à moins que le gain de performance, pour le même prix de 599 $, ne soit un critère déterminant, le passage à l'iPhone 17e ne semble pas entièrement justifié. Selon le tableau comparatif d'Apple, le nouvel iPhone offre les mêmes performances de lecture vidéo et de streaming que l'iPhone 16e, tandis que l'iPhone Air et l'iPhone 17 de base font mieux dans ce domaine. On ignore pour l'instant si l'iPhone 17e conserve la même capacité de batterie que son prédécesseur ; une conclusion définitive ne pourra être tirée qu'après un démontage complet. Cependant, étant donné que les autres caractéristiques des deux générations sont quasiment identiques, il est probable qu'Apple n'ait pas augmenté la capacité de la batterie. Parmi les nouveautés de cette année, on note la puce A19 avec un processeur à 6 cœurs et un processeur graphique à 4 cœurs doté d'accélérateurs neuronaux, ainsi que le modem 5G C1X plus performant, également utilisé dans l'iPhone Air, nettement plus cher. De plus, le smartphone est désormais compatible avec MagSafe, ce qui est très pratique au quotidien. (Lire la suite)
  •  

Fini les écrans fissurés. La nouvelle génération de Gorilla Glass Ceramic 3 place la barre encore plus haut.

Laisser tomber son smartphone sur du béton est un instant où le temps semble suspendu. Une seconde de silence, un rapide coup d'œil à l'écran, la crainte d'une myriade de fissures. Depuis des années, les fabricants s'efforcent d'éliminer ce moment de stress. Corning vient d'annoncer la nouvelle génération de son verre de protection – Gorilla Glass Ceramic 3 – et affirme qu'il s'agit de la plus grande avancée en matière de protection d'écran depuis des années. Gorilla Glass Ceramic 3 est le dernier né de la gamme de protections d'écran Corning. Le fabricant souligne que ce matériau a été conçu pour résister non seulement aux chutes, mais aussi pour conserver sa durabilité dans le temps. Dans un communiqué, Lori Hamilton, vice-présidente et directrice technique de la division Gorilla Glass, a indiqué que sa conception reposait sur une expertise combinée du verre et de la céramique. La nouvelle formule est conçue pour répondre à l'évolution des besoins du marché. Les smartphones sont de plus en plus fins, avec des écrans plus grands et des bordures plus étroites. La conception des appareils laisse moins de place pour des renforts supplémentaires, et l'écran reste l'élément le plus vulnérable de l'ensemble. Corning a publié les résultats de ses tests de durabilité en laboratoire. Selon le fabricant, le verre Gorilla Glass Ceramic 3 a résisté à des chutes de plus de deux mètres de hauteur sur des surfaces simulant le béton. Lors d'un autre test, le verre a résisté à au moins vingt chutes consécutives d'un mètre de hauteur sur une surface simulant l'asphalte.Ce sont des paramètres importants au quotidien. Le béton et l'asphalte comptent parmi les surfaces les plus agressives pour un smartphone. Ils sont durs, rugueux et irréguliers. En pratique, les trottoirs, les parkings et les rues représentent les plus grandes menaces pour les écrans. Corning affirme que la technologie Ceramic 3 est conçue pour offrir une résistance durable, et non une résistance ponctuelle au premier impact. Ce nouveau verre n'est pas qu'une simple curiosité de laboratoire. Le Gorilla Glass Ceramic 3 a déjà été utilisé dans le modèle Motorola Razr Fold, dévoilé au MWC 2026. Sur ce smartphone pliable, il protège l'écran avant, particulièrement vulnérable aux dommages dans ce type de conception. Le choix d'un appareil haut de gamme n'est pas le fruit du hasard. Les téléphones pliables sont de véritables vitrines technologiques pour les constructeurs et sont souvent les premiers à bénéficier des matériaux les plus innovants. La présence de la technologie Ceramic 3 dans le modèle Motorola laisse penser que le verre est déjà produit en masse et pourrait équiper d'autres modèles phares dès 2026. (Lire la suite)
  •  

Test City Hunter (PS5) - Nicky Larson ne craint personne ... sauf les années

Rares sont les mangakas à avoir conquis le cœur de millions de lecteurs à travers le monde dès leurs premières œuvres, et Tsukasa Hojo est de ceux-là. En effet, avec seulement deux mangas à son actif, « Cat's Eye » et « City Hunter », il a connu un succès fulgurant dans les années 1980. Le protagoniste est l'infaillible nettoyeur Ryo Saeba, engagé par des clients pour résoudre les situations les plus diverses, et qui se retrouve souvent mêlé aux bas-fonds ou confronté à de dangereux adversaires. Le sérieux des premiers chapitres du mangalaisse rapidement place à une histoire plus comique qui fera de notre héros l'un des protagonistes les plus emblématiques du manga d'action. Ryo se retrouve bientôt à travailler avec la jeune Kaori Makimura, sœur de son ancien collègue tué par la pègre, et ensemble, ils forment un duo imbattable. Elle est chargée de lui trouver du travail, mais étant donné l'obsession du protagoniste pour les belles femmes, la pauvre Kaori doit souvent calmer ses ardeurs à coups de marteau ! Ces scènes humoristiques deviendront la marque de fabrique de l'histoire et servent principalement à atténuer le côté dramatique des événements. Quant au style du mangaka, Hojo parvient à créer des planches magnifiques, riches en détails, avec une excellente représentation des scènes d'action. Il est difficile de trouver à redire au style de dessin de l'artiste ; rien n'est laissé au hasard et les expressions faciales sont incroyablement expressives. Les corps sont également très sensuels et la physicalité de Ryo et des autres personnages est rendue avec une grande maîtrise. À bien y penser, lors de la sortie de City Hunter au Japon sur TurboGrafx-16 en mars 1990, il aurait été impensable d'imaginer ce titre sortir du pays du Soleil Levant, la console n'ayant jamais vraiment percée sous nos latitudes. Aujourd'hui, le jeu est accessible à tous les fans, avec même une traduction française intégrale (et oui il est possible d'appeler le personnage Nicky Larson comme dans le Club Dorothée). acYcMaPX0n0 (Lire la suite)
  •  

Google Photos : voici comment créer des stickers à partir de vos photos

Les photos synchronisées avec Google Photos ne sont plus de simples souvenirs statiques : grâce à la dernière mise à jour d’ Android, elles se transforment également en stickers personnalisés à utiliser dans les conversations et sur les réseaux sociaux. Après son lancement sur iOS cet été, cette fonctionnalité est désormais également disponible sur les smartphones Android , avec un système guidé qui isole automatiquement le sujet de l'image et le transforme en un autocollant prêt à l'emploi , sans avoir à utiliser d'applications de retouche externes. La nouvelle option de Google Photos permet de transformer des personnes , des animaux ou des objets de votre galerie en autocollants. L'application reconnaît le sujet principal et le détache de l'arrière-plan, créant ainsi un autocollant net et réutilisable dans d'autres applications. Pour créer un autocollant, ouvrez Google Photos sur un appareil Android , sélectionnez une photo et attendez que le sujet soit mis en valeur par un léger effet scintillant . Appuyez ensuite longuement sur l'élément au premier plan pour générer l'autocollant. Une fois l'autocollant créé, l'application propose deux actions principales : le copier dans le presse-papiers ou le partager directement. Vous pouvez ainsi l'insérer facilement dans d'autres applications de messagerie ou de réseaux sociaux. Google recommande d'utiliser des images avec un sujet bien défini au premier plan afin de faciliter la reconnaissance automatique et d'obtenir des contours plus précis. Les photos trop chargées ou dont l'arrière-plan est confus risquent de donner des résultats moins précis. Les autocollants générés peuvent ensuite être utilisés dans des applications comme WhatsApp , Instagram et, de manière générale, dans tout service acceptant les images collées ou partagées, rendant les conversations plus expressives et un peu plus personnalisées que les émojis classiques. La fonctionnalité de création d'autocollants est en cours de déploiement sur la plupart des appareils Android équipés de la dernière version de Google Photos et disposant d'au moins 4 Go de RAM . La mise à jour concernée est la version 7.64 , déjà largement disponible via les canaux officiels. Cette nouvelle intervient alors que Google réduit le rôle de Pixel Studio , l'outil dédié à la personnalisation sur certains modèles Pixel : la création d'autocollants dans Google Photos constitue de fait une nouvelle référence pour ce type d'utilisation. iOS propose déjà une section « Historique des stickers » , accessible via Collections > Stickers , qui permet de retrouver rapidement les stickers créés précédemment. Google prévoit d'intégrer une fonctionnalité similaire à Android lors d'une prochaine mise à jour, afin d'éviter de répéter l'opération pour chaque image. (Lire la suite)
  •  

Google Home évolue : enfin, toute la maison ne s'éteindra plus accidentellement.

Quiconque utilise Google Home au quotidien connaît bien cette situation : vous demandez d'éteindre une lumière et vous constatez que la moitié de la maison est plongée dans le noir, ou l'assistant vous interrompt en plein milieu d'une phrase. Avec les dernières mises à jour de Gemini pour la maison , Google s'efforce de corriger précisément ces dysfonctionnements. Les nouvelles fonctionnalités visent à rendre les commandes vocales plus cohérentes avec nos véritables intentions, à améliorer la stabilité des automatisations et à mieux exploiter les appareils Nest , des caméras aux routeurs Wi-Fi, en passant par les serrures connectées. Google améliore la séparation entre les différents types d'appareils domestiques. Des commandes comme « Éteins la cuisine » n'affectent désormais que l' éclairage de la pièce, évitant ainsi les prises et appareils non configurés qui pouvaient jusqu'à présent s'éteindre inopinément. La gestion des commandes globales a également été corrigée : avec « Éteindre toutes les lumières », l’action reste limitée au domicile configuré , au lieu de se propager de manière inattendue à plusieurs domiciles ou pièces associés au même compte. Gemini for Home exploite mieux le contexte de l'appareil : il peut identifier un produit même si son nom ne mentionne pas sa catégorie. En pratique, une commande générique adressée à un produit a plus de chances d'être correctement interprétée, sans qu'il soit nécessaire de renommer systématiquement chaque appareil. L'utilisation du contexte de localisation évolue également : l'Assistant utilise plus strictement l' adresse du domicile définie dans l'application Google Home, de sorte que les fonctions dépendantes de la localisation soient plus cohérentes avec votre position réelle. Google affirme avoir considérablement réduit le nombre de fois où Gemini interrompt prématurément la phrase d'un utilisateur. Les conversations devraient ainsi paraître plus naturelles, notamment lors de la formulation de commandes plus longues ou complexes. Les tâches quotidiennes comme les notes , les rappels , les minuteurs et autres demandes similaires bénéficient d'une amélioration de leur fiabilité : l'objectif est de réduire les commandes ignorées ou retardées, qui restent une source majeure de frustration avec les assistants vocaux. Les routines créées par les utilisateurs devraient également s'activer de manière plus fiable. Google signale une amélioration de l' activation de ces séquences personnalisées, qui par le passé démarraient souvent de façon irrégulière, voire pas du tout. Les nouvelles versions des modèles Gemini améliorent également la qualité de la réponse globale et la gestion musicale , avec une prise en charge plus robuste, même pour les titres récemment sortis . En théorie, il sera plus facile de demander le dernier single d'un artiste sans risquer de tomber sur le mauvais morceau ou sur des versions obsolètes. Pour les abonnés à Google Home Premium Advanced , une fonctionnalité de « recherche en direct » arrive sur les caméras Nest . Gemini peut répondre aux questions concernant l' état actuel de votre domicile à partir des images des caméras, offrant ainsi des possibilités intéressantes pour des vérifications rapides sans avoir à parcourir manuellement les flux vidéo. La compatibilité avec les serrures Nest x Yale est désormais disponible pour tous , et son déploiement a commencé dès maintenant. Cette extension permet une meilleure intégration de la gestion des accès dans l'écosystème Google Home. Côté réseau, Google déploie une nouvelle mise à jour pour Nest Wifi Pro , appelée mise à jour de mars 2026 , qui vise à améliorer les performances du réseau maillé . Une couverture plus stable et plus homogène demeure essentielle pour le bon fonctionnement de tous vos appareils connectés. Google enrichit son catalogue de déclencheurs d'automatisation , c'est-à-dire les conditions qui activent une routine . Parmi les nouvelles fonctionnalités, on trouve des déclencheurs comme « Lorsque le système de sécurité est armé », qui permet d'associer des actions spécifiques à l'état du système d'alarme. La condition « Si l'appareil est connecté à l'alimentation électrique » est également ajoutée , ce qui est utile pour les systèmes d'automatisation de bâtiments qui dépendent de l'alimentation effective d'un certain produit, par exemple pour gérer les charges ou les scénarios d'économie d'énergie. Autre fonctionnalité disponible pour la tablette Pixel : vous pouvez déclencher une routine si la tablette n’est pas connectée à sa station d’accueil avant 21 h , ce qui ouvre la voie à des rappels ou des actions en soirée liés à la localisation de l’appareil. (Lire la suite)
  •  

Fusion de HBO Max et Paramount+ : quelles conséquences pour plus de 200 millions d’abonnés ?

Le marché des médias connaît l'un des plus grands bouleversements de ces dernières années. Paramount Skydance a conclu un accord pour acquérir Warner Bros. Discovery pour 31 dollars par action. C'est l'aboutissement d'une bataille qui a récemment impliqué Netflix. L'an dernier, Warner Bros. Discovery s'est mise en vente et Netflix a rapidement formulé une offre de 82,7 milliards de dollars. L'accord, conclu en décembre 2025, semblait bouclé, mais la situation a changé avec l'entrée en scène de Paramount Skydance. La nouvelle offre était nettement supérieure, à 108,4 milliards de dollars, soit 25,7 milliards de plus que celle de Netflix. Surtout, elle comportait des garanties financières : une amende réglementaire de 7 milliards de dollars en cas de blocage de l’opération et une indemnité de 2,8 milliards de dollars pour Nextlix en cas de rupture de l’accord précédent. Finalement, Netflix a annoncé qu’il ne surenchérissait pas et s’est retiré des négociations. Un élément clé de l'intrigue réside dans l'avenir de la plateforme HBO. Le PDG de Paramount Skydance, David Ellison, a assuré aux téléspectateurs lors de la conférence de lundi que HBO conserverait son indépendance opérationnelle. Selon lui, la marque HBO gardera son identité d'origine, sans changement de nom ni modification de son modèle opérationnel éprouvé. Cette déclaration est importante, compte tenu de la notoriété de la marque et du positionnement du service sur le segment premium. Paramount Skydance prévoit de fusionner Paramount+ et HBO Max en un seul service de streaming après la finalisation de sa fusion avec Warner Bros. Discovery, probablement sous la marque HBO. Le PDG, David Ellison, a confirmé ce projet lors d'une conférence avec les investisseurs, précisant que la plateforme ainsi créée desservira plus de 200 millions d'abonnés et permettra à l'entreprise de rivaliser avec les leaders du marché du streaming. D'un point de vue technologique, ce scénario est logique. HBO se distingue depuis des années par une interface soignée, des performances améliorées et une forte notoriété. En comparaison directe, Paramount+ est nettement inférieur, tant au niveau de l'expérience utilisateur que du contenu proposé. Si la transaction est approuvée par les autorités réglementaires, Paramount Skydance aura accès à une propriété intellectuelle extrêmement précieuse et à une vaste base de production. Cela pourrait bouleverser l'équilibre des forces dans le secteur mondial du streaming. Le retrait de Netflix de la course a ouvert la voie à l'émergence d'un nouveau géant des médias susceptible de représenter une réelle menace pour les leaders actuels du marché. (Lire la suite)
  •  

5G sans antennes-relais ? Starlink V2 offrira une expérience « terrestre » depuis l'orbite.

Lors du Mobile World Congress, Starlink a dévoilé son plan de déploiement de ses satellites de deuxième génération, les V2. L'objectif ? Offrir aux utilisateurs une connectivité comparable à celle d'un réseau 5G terrestre traditionnel. Michael Nicolls, vice-président de l'ingénierie chez SpaceX, responsable du développement de Starlink, a souligné que l'objectif du projet Starlink Mobile est de fournir une « expérience au sol » d'utilisation d'Internet, malgré la connexion à un satellite. La constellation V2 devrait offrir des débits de téléchargement allant jusqu'à 150 Mbit/s dans des conditions optimales. Cela équivaut à une connexion Internet haut débit ou à un réseau 5G performant. De plus, les nouveaux satellites devraient offrir une densité de données jusqu'à 100 fois supérieure à celle de la génération actuelle. Concrètement, cela se traduit par un streaming plus rapide, une navigation plus stable et une qualité d'appel vocale nettement améliorée. Pour les utilisateurs des régions moins urbanisées, cela pourrait constituer une alternative intéressante aux opérateurs traditionnels. L'un des éléments clés de la modernisation est l'extension de la couverture dans les régions polaires. Ces zones ont longtemps posé des défis aux infrastructures terrestres, en raison des conditions climatiques extrêmes et des coûts élevés de construction des réseaux. La nouvelle constellation V2 devrait améliorer considérablement la stabilité de la connexion dans ces régions. Ceci est particulièrement important pour la recherche scientifique, les secteurs maritime et aérien, ainsi que pour les communautés vivant aux latitudes extrêmes. SpaceX prévoit de commencer les lancements réguliers de satellites V2 à partir de mi-2027. Chaque lancement emportera plus de 50 unités de nouvelle génération. L'objectif est de constituer une constellation complète en seulement six mois, illustrant ainsi l'ampleur du projet. Parallèlement, une collaboration avec l'opérateur allemand Deutsche Telekom a été annoncée. Ce partenariat vise à réduire les zones blanches en matière d'accès à Internet en Europe. Les services issus de cette collaboration devraient être déployés en 2028. Si ces annonces se confirment, Starlink V2 pourrait être le premier système satellitaire à offrir, à l'échelle mondiale, une qualité comparable à celle d'un réseau mobile traditionnel. (Lire la suite)
  •  

Microsoft pourrait révolutionner le ray tracing. Le nouveau DirectX offrira-t-il 90 % d'images par seconde en plus ?

Microsoft a publié une nouvelle version du kit de développement logiciel Agility (SDK), la version 1.619. Cette mise à jour introduit la prise en charge du modèle de shaders DirectX 6.9 et des améliorations pour DirectX 12. Cependant, la nouvelle la plus intéressante est le gain de performances confirmé grâce au réordonnancement de l'exécution des shaders (SER). SER est un mécanisme qui permet aux applications de trier dynamiquement les rayons lors du lancer de rayons afin d'optimiser leur traitement parallèle. Concrètement, l'API réorganise l'ordre d'exécution des shaders, ce qui réduit les goulots d'étranglement et améliore l'utilisation du GPU. Microsoft a présenté les capacités de cette technologie dans la démonstration D3D12RaytracingHelloShaderExecutionReordering. Cette démonstration, que chacun peut exécuter sur son propre matériel, permet de constater l'ampleur des gains de performance. Les résultats les plus impressionnants ont été obtenus sur les cartes Intel Arc série B, notamment les chipsets « Battlemage » et le GPU intégré Xe3 de « Panther Lake ». Les tests de Microsoft ont révélé des fréquences d'images jusqu'à 90 % supérieures à celles obtenues avec le modèle d'exécution de shaders précédent. Ceci démontre que le ray tracing dispose encore d'un potentiel d'optimisation important, en particulier dans le contexte des architectures GPU modernes. Cette technologie a également été testée sur une NVIDIA GeForce RTX 4090, où elle a permis d'obtenir une amélioration d'environ 40 % par rapport au ray tracing par défaut. La situation est encore plus intéressante pour la génération « Blackwell ». Des tests indépendants indiquent que la NVIDIA GeForce RTX 5080 peut gagner environ 80 % de performances lors de la même démonstration. Si ces résultats se confirment en jeu, les joueurs peuvent s'attendre à une augmentation notable du nombre d'images par seconde avec le ray tracing activé, sans avoir à changer de matériel. Il convient toutefois de modérer notre enthousiasme. Les résultats présentés proviennent d'une démonstration technique contrôlée, et non de tests en conditions réelles sur des moteurs de jeu complexes. En pratique, les gains de performance seront probablement bien moindres, car les productions modernes utilisent le ray tracing de manière plus sophistiquée. Des comparaisons concrètes devront attendre que les développeurs de jeux intègrent la prise en charge d'Agility SDK 1.619 dans leurs moteurs. Ce processus pourrait prendre plusieurs mois. Ce n'est qu'alors que nous pourrons constater l'impact réel du SER sur le gameplay au quotidien. (Lire la suite)
  •  

NVIDIA et les opérateurs mondiaux accélèrent leurs travaux sur la 6G basée sur l'IA

NVIDIA a annoncé sa collaboration avec d'importantes entreprises de télécommunications et de technologies pour la prochaine génération de réseaux sans fil. Ce partenariat inclut le développement de la 6G, successeur de la 5G. Cette nouvelle infrastructure sera conçue dès le départ comme un réseau « natif de l'IA », c'est-à-dire basé sur l'intelligence artificielle. Parmi les entreprises impliquées dans ce projet figurent Cisco, Nokia, Ericsson, Deutsche Telekom, BT Group, T-Mobile, SK Telecom et SoftBank Corp. Leur objectif commun est de créer une architecture ouverte, sécurisée et flexible pour les futurs réseaux. D'après cette annonce, la 6G ne sera pas simplement une version plus rapide de la 5G. Ce réseau de nouvelle génération constituera le socle du développement de l'intelligence artificielle physique. Il permettra notamment de prendre en charge des milliards d'appareils autonomes, tels que des véhicules, des robots, des capteurs et des systèmes industriels. Les architectures réseau actuelles n'ont pas été conçues pour une telle échelle et une telle complexité. Avec l'augmentation du nombre d'appareils, les exigences en matière de sécurité et de fiabilité s'accroissent également. C'est pourquoi la 6G s'appuiera dès le départ sur l'IA pour gérer le trafic, analyser les données en temps réel et prendre des décisions. L'un des principes fondamentaux du projet est l'ouverture. Les nouveaux réseaux seront basés sur des logiciels et évolueront en continu, à l'instar des plateformes cloud modernes. Au lieu de systèmes rigides et fermés, les opérateurs bénéficieront de solutions programmables et facilement mises à jour. L'IA sera intégrée à l'ensemble de l'infrastructure, de la couche radio au cœur du réseau et aux systèmes périphériques. Cette architecture devrait faciliter la collaboration entre les différents fournisseurs de matériel et de logiciels et renforcer la résilience de la chaîne d'approvisionnement. NVIDIA participe à plusieurs projets internationaux liés à la 6G. Aux États-Unis, l'entreprise a rejoint l'initiative OCUDU, pilotée par le bureau gouvernemental FutureG. Elle est également membre fondateur de l'AI-RAN Alliance, qui regroupe plus de 130 entreprises travaillant sur l'intelligence artificielle dans les réseaux radio. L'année dernière, NVIDIA a lancé, en collaboration avec ses partenaires, le projet AI-Native Wireless Networks, qui vise à créer une pile technologique complète pour les futurs réseaux 6G. La collaboration s'étend également à la Corée du Sud, au Royaume-Uni, à l'Union européenne et au Japon. Ces régions mènent des recherches sur des solutions de réseau intelligentes et sécurisées qui devraient devenir une norme mondiale. Bien que la 6G en soit encore au stade de la recherche et des premières phases de conception, l'industrie s'attache déjà à définir des principes communs pour son développement. Les entreprises soulignent que la confiance des utilisateurs, l'interopérabilité et la sécurité de l'infrastructure seront essentielles. Le développement de la 6G devrait non seulement accélérer les transferts de données, mais surtout permettre l'émergence de nouveaux services et modèles économiques. Si les plans se concrétisent, la prochaine génération de réseaux sans fil pourrait constituer le socle du développement des systèmes autonomes, des villes intelligentes et de l'automatisation industrielle avancée dans les années à venir. (Lire la suite)
  •  

Qualcomm a dévoilé le nouveau processeur Snapdragon Wear Elite.

Qu’on le veuille ou non, le marché des objets connectés intelligents pourrait bien être en plein essor – du moins, c’est ce que pense Qualcomm. Aujourd’hui, l’entreprise a dévoilé son nouveau processeur Snapdragon Wear Elite. Lors d’une présentation, Qualcomm a décrit l’Elite comme une solution « poignet plus ». Cela signifie qu’il ne remplacera pas le Snapdragon W5 Plus, mais coexistera avec lui. Le fabricant espère que ce nouveau produit séduira les entreprises qui développent des dispositifs d’IA tels que des pendentifs, des badges ou même des lunettes intelligentes sans écran. Les lunettes de réalité augmentée plus avancées continueront probablement d’utiliser les processeurs AR spécialisés de Qualcomm. La puce Snapdragon Wear Elite est gravée en 3 nm et intègre un eNPU et un NPU Hexagon dédié aux tâches d'IA. Le premier gère les opérations économes en énergie, comme la reconnaissance de mots-clés et le suivi d'activité, tandis que le second prend en charge les calculs plus gourmands en ressources. Selon Snapdragon, le NPU Hexagon peut traiter jusqu'à 2 milliards de paramètres directement sur l'appareil et générer jusqu'à 10 jetons par seconde. Bien que l'architecture du coprocesseur de l'Elite soit similaire à celle du W5 Plus, son efficacité énergétique a été améliorée, permettant au processeur principal de gérer davantage de tâches. De plus, ce nouvel appareil est compatible avec les communications par satellite, la 5G, la technologie ultra-large bande UWB et le Bluetooth 6.0. Un ensemble de fonctionnalités impressionnant. (Lire la suite)
  •  
❌