↩ Accueil

Vue lecture

Attention, votre navigateur IA pourrait être détourné pour voler vos fichiers et mots de passe !

Comet-perplexity

Une simple invitation de calendrier manipulée suffit à détourner le navigateur IA Comet de Perplexity, lui faisant exfiltrer des fichiers locaux et même prendre le contrôle total d'un coffre-fort 1Password. C'est la démonstration choc réalisée par les chercheurs de Zenity Labs, qui met en lumière une nouvelle catégorie de menaces inhérentes aux systèmes agentiques.

  •  

EA prépare un driver ARM64 pour Javelin Anticheat, en phase avec l’arrivée des NVIDIA N1

EA sécurise ses jeux côté Arm pendant que les puces NVIDIA N1 se rapprochent. Objectif : un anticheat noyau natif sur Windows on Arm, sans traduction x86.

ARM64 Windows, anticheat noyau et bascule vers le jeu sur Arm

EA recrute un « Senior Anti-Cheat Engineer, ARM64 » pour développer un driver natif ARM64 de Javelin Anticheat sous Windows. La fiche précise la gestion multi-cibles avec chargement conditionnel des versions d’anticheat selon le matériel, ainsi que la mise en place de pipelines d’intégration et de validation automatisés sur du hardware Arm.

EA driver ARM64 pour Javelin Anticheat fiche job

Le périmètre inclut une feuille de route vers d’autres OS et matériels, « tels que Linux et Proton ». Pour un composant noyau, cette compatibilité est l’un des verrous techniques majeurs, en particulier pour l’exécution de titres Windows sur des environnements hétérogènes.

Contexte matériel NVIDIA N1 et performances Cortex-X925

Côté silicium, le GB10 « Superchip » est déjà expédié dans le DGX Spark avec un CPU Arm 20 cœurs : 10 Cortex-X925 et 10 Cortex-A725. Une configuration proche, voire identique, est attendue sur la puce client NVIDIA N1.

Chips and Cheese a mesuré le Cortex-X925 tel qu’implémenté dans le GB10 : parité de performance en SPEC CPU2017 entier face à AMD Zen 5 et Intel Lion Cove, avec un avantage de Zen 5 en flottant. Le point bloquant reste toutefois l’émulation x86 pour les jeux Windows, d’où l’intérêt critique d’un anticheat noyau natif en ARM64.

Si les systèmes N1 et N1X arrivent rapidement, le travail ARM64 d’EA sur Javelin pourrait lever un obstacle pratique pour davantage de titres PC EA sur Windows on Arm. Le couplage performances CPU + support natif des composants sensibles au noyau conditionnera l’expérience réelle sur ces machines.

Source: EA JobsChips & Cheese

  •  

Polyphony Digital recrute pour le prochain Gran Turismo

Gran Turismo 7

Polyphony Digital a officiellement lancé la production d'un nouvel opus de Gran Turismo. Le studio japonais a publié 18 offres d'emploi confirmant le développement, qui s'annonce particulièrement long. Une sortie sur la future PlayStation 6 est l'hypothèse la plus probable, reléguant la PS5 au rang de simple étape de transition pour la franchise.

  •  

RayNeo Air 4 Pro HDR10 : lunettes AR avec édition Batman disponibles dès 27 février

HDR10, audio Bang & Olufsen et variantes Batman/Joker arrivent d’un coup sur des lunettes AR grand public. Conséquence directe : un positionnement média‑personal viewer assumé face aux écrans portables USB‑C.

RayNeo Air 4 Pro HDR10, audio B&O et 2D→3D

Présentées au MWC 2026 et disponibles depuis le 27 février 2026, les RayNeo Air 4 Pro se posent comme un « head‑mounted TV ». L’affichage HDR10, inédit sur des lunettes AR, promet des pics lumineux plus élevés, des noirs plus profonds et plus d’un milliard de couleurs.

Coffrets thématiques Batman avec accessoires et masques stylisés en arrière-plan.

Un SoC personnalisé Vision 4000 pilote l’upscaling HDR et la conversion temps réel des contenus 2D en 3D. Côté audio, quatre haut‑parleurs réglés avec Bang & Olufsen et des « tubes acoustiques » dirigent le son vers l’oreille en limitant les fuites.

Le châssis de 76 g adopte une ergonomie légère avec plaquettes nasales ajustables. La dalle simule un écran de 201 po vu à 6 m. La connexion passe par USB‑C DisplayPort Alt Mode, compatible smartphone, PC et Nintendo Switch 2 pour une utilisation nomade.

Éditions Batman et Joker, disponibilité et prix

La Batman Edition reprend l’intégralité des fonctions du modèle standard avec un design exclusif, un packaging dédié et un light shield spécifique. Ce dernier bloque la lumière ambiante et sert d’accessoire cosplay au quotidien.

Ensemble complet de coffrets Batman avec masques et accessoires sur fond noir.

Deux variantes thématiques sont proposées : Batman Edition et Joker Edition, chacune avec une identité visuelle propre. Les RayNeo Air 4 Pro et la série X3 sont exposées au MWC 2026 (Hall 2, stand 2M30, 2‑5 mars).

Commercialisation mondiale depuis le 27 février 2026 via Amazon et RayNeo.com. Tarifs : Standard Edition à 249 $ en early bird (MSRP 299 $, soit ~275–330 € à titre indicatif hors prix UE officiels), Batman Limited Edition à 269 $ early bird (MSRP 319 $). En Europe : 299 € early bird (MSRP 339 €). Royaume‑Uni : 249 £ early bird (MSRP 289 £). L’early bird s’applique le premier mois après lancement.

En visant la compatibilité USB‑C universelle et un rendu HDR10 assisté par un traitement dédié, RayNeo pousse le format lunettes‑écran vers un usage de remplacement ponctuel d’un moniteur portable. L’appui de Bang & Olufsen sur l’accordage audio crédibilise l’ensemble face aux viewers DP Alt Mode déjà établis, avec un différenciateur clair sur la conversion 2D→3D et les éditions sous licence.

Source : TechPowerUp

  •  

GTC 2026 : NVIDIA déroule sa pile IA complète à San Jose, 16–19 mars

San Jose s’apprête à basculer en campus IA : quatre jours, plus de 30 000 participants et une feuille de route technologique posée publiquement.

GTC 2026 : dates, format et keynote de Jensen Huang

La conférence GTC se tiendra du 16 au 19 mars à San Jose, Californie, avec plus de 30 000 inscrits issus de plus de 190 pays. Le 16 mars à 11 h PT, Jensen Huang donnera la keynote au SAP Center, retransmise en direct et à la demande sur nvidia.com, sans inscription requise.

Le discours couvrira l’empilement complet : calcul accéléré, “AI factories”, modèles ouverts, systèmes agents et “physical AI”, avec un cadrage sur l’année à venir.

Programme technique : 1 000+ sessions, cinq couches et ateliers pratiques

La GTC mettra en scène une approche en cinq couches : énergie, puces, infrastructure, modèles et applications. Plus de 1 000 sessions traiteront des AI factories, de l’inférence à grande échelle, de la robotique, des jumeaux numériques, du calcul scientifique, du quantique et des déploiements IA en entreprise.

Huang animera une discussion sur l’état de l’art des modèles ouverts “frontier” avec A16Z, AI2, AMP Coalition, Black Forest Labs, Cursor, Reflection AI et Thinking Machines Lab. Un préshow en ligne le 16 mars à 8 h PT abordera le computing accéléré au-delà de l’IA et la pile en cinq couches, avec Aravind Srinivas (Perplexity), Harrison Chase (LangChain), Deepak Pathak (Skild AI), Daniel Nadler (OpenEvidence) et Arthur Mensch (Mistral AI).

Le dispositif formation inclut neuf workshops d’une journée, plus de 60 labs pratiques et des certifications sur site. Des cours en autonomie, programmes pour enseignants et sessions 1:1 complètent l’offre.

Écosystème, startups et recherche

Plus de 240 startups NVIDIA Inception présenteront des solutions en physical AI, robotique, IA générative et applications entreprise, avec des sessions dédiées aux investisseurs, un “AI Day” avec des fonds de premier plan et des échanges NVentures.

Les tracks développeurs et recherche proposeront des deep dives techniques, des sessions CUDA et des ateliers d’infrastructure sur l’entraînement massif de modèles, l’optimisation de l’inférence et le déploiement multienvironnements (cloud, edge, souverain). Plus de 150 posters couvriront les innovations de modèles, la robotique, l’architecture systèmes et de nouveaux usages IA.

San Jose sera réparti sur 10 sites avec un Day and Night Market à Cesar Chavez Park. L’All-In Podcast enregistrera des interviews le mercredi 18 mars. La Student and Community Day du jeudi 19 mars ouvrira l’événement à tarif réduit. Une programmation virtuelle adaptée par région sera disponible via le catalogue en ligne.

Parmi les organisations présentes : Adobe, Agile Robots, Agility Robotics, AI2, AMP Coalition, Black Forest Labs, Canva, CodeRabbit, Cohere, Crusoe Energy Systems, Cursor, Dassault Systèmes, Decagon, General Motors, Genspark, Google DeepMind, Hugging Face, IBM Research, idealworks, Inception Labs, Johnson & Johnson, Kimi (Moonshot AI), L’Oréal, Lucid Motors, Magic AI, Meta, Microsoft, OpenAI, Poolside, Physical Intelligence, Reflection AI, Runway, Siemens, Shopify, Snap, Tesla, Together AI, Thinking Machines Lab, Uber Technologies, Universal Robots, le U.S. Department of Energy, Vention et d’autres.

NVIDIA tiendra une séance de Q&A investisseurs et analystes le mardi 17 mars à 9 h PT, en webcast sur investor.nvidia.com.

Pour les acteurs hardware et data center, l’axe “couches énergie/puces/infrastructure” pointe vers une montée en puissance coordonnée des capacités, avec un focus implicite sur l’efficacité énergétique et l’orchestration au niveau des AI factories. Les annonces côté modèles ouverts et systèmes agents donneront le ton pour les charges d’inférence 2026, avec des impacts directs sur le dimensionnement GPU, le réseau et le stockage.

Source : TechPowerUp

  •  

HBM4 NVIDIA : spécifications abaissées pour Vera Rubin VR200, bande passante à 20 TB/s

Objectif revu à la baisse et calendrier sous pression. Les GPU Vera Rubin VR200 ne viseront plus 22 TB/s mais environ 20 TB/s de bande passante HBM4, conséquence directe des limites actuelles chez les fournisseurs.

HBM4 NVIDIA : cibles abaissées et réalités industrielles

Selon des notes institutionnelles relayées par SemiAnalysis, NVIDIA assouplit les spécifications HBM4 pour Rubin. La cible initiale de 22 TB/s pour le système VR200 NVL72 laisserait place à des premiers lots autour de 20 TB/s, soit ~10 Gb/s par pin, SK hynix et Samsung peinant à tenir l’objectif maximal.

Carte mère HBM4 avec double modules de mémoire, tenue par une personne

Historique récent : en mars 2025, la cible système était de 13 TB/s, relevée à 20,5 TB/s en septembre, puis confirmée à 22 TB/s au CES 2026. Face aux 19,6 TB/s de l’Instinct MI455X d’AMD, NVIDIA avait compensé via une DRAM plus rapide et des interconnexions optimisées entre CPU, GPU et le châssis. Les livraisons initiales VR200 devraient néanmoins atterrir à ~20 TB/s pour l’ensemble du système.

Fourniture HBM4 : SK hynix en tête, Samsung en appui

Le split d’approvisionnement HBM4 pour VR200 NVL72 s’orienterait à 70 % pour SK hynix et 30 % pour Samsung. Micron sortirait de l’équation HBM4 et se repositionnerait sur la LPDDR5X des CPU « Vera », jusqu’à 1,5 TB par système, afin de compenser l’absence sur HBM4.

Cette inflexion de spécifications traduit surtout un lissage du ramp-up HBM4 : NVIDIA ancre la plateforme à un palier réaliste de ~20 TB/s à court terme, tout en gardant un headroom vers 22 TB/s lorsque les débits par pin et les rendements packaging HBM4 suivront chez SK hynix et Samsung.

Source : TechPowerUp

  •  

MSI RTX 5090D v2 Lightning : édition Chine 24 Go GDDR7, 575 W, AIO et série limitée

Édition Chinoise, refroidissement AIO et 24 Go de GDDR7 pour un TGP de 575 W. Le tout sur une série limitée qui risque de filer vite.

MSI RTX 5090D v2 Lightning : spécifications et positionnement

Une RTX 5090D v2 Lightning est apparue sur le marché chinois via un utilisateur Bilibili (Hardware Patrick Star). Ce modèle exclusif s’appuie sur le GPU GB202 en architecture Blackwell avec 21 760 cœurs CUDA et un TGP de 575 W, couplé à un AIO pour tenir les fréquences élevées.

Unboxing de la carte graphique MSI RTX 5090D v2 Lightning avec packaging détaillé

La mémoire passe à 24 Go de GDDR7 sur bus 384-bit, contre 32 Go et 512-bit auparavant. MSI évoque une limite de 1 300 unités pour la GeForce RTX 5090D Lightning ; cette variante dédiée à la Chine étant considérée comme une carte distincte, il est plausible qu’elle dispose elle aussi de 1 300 exemplaires. Un exemplaire vu porte le SKU n°909, signe que le reste circule déjà en retail.

Performances attendues et contexte

Sur la RTX 5090 Lightning « classique », nos confrères ont mesuré jusqu’à 1 000 W via un BIOS OC et une moyenne à 3 218 MHz grâce au watercooling. La RTX 5090D v2 Lightning pourrait approcher ces comportements, mais les tests indépendants devraient surtout provenir de la scène chinoise.

EXPreview rapporte des écarts très faibles en jeu entre RTX 5090D et 5090D v2, souvent dans la marge de 1 à 2 %, y compris en 4K. En IA et inférence, la réduction de VRAM entraîne des baisses à un chiffre voire bas double chiffre selon les modèles utilisés, là où la capacité mémoire prime.

La segmentation Chine avec 24 Go et bus 384-bit cible le gaming extrême tout en rognant sur les charges IA lourdes. Pour les joueurs 4K, l’impact restera minime ; pour la création et l’IA locale, les 32 Go conservent un avantage pratique non négligeable.

Source : TechPowerUp

  •  

Seagate Mozaic 4+ : disques durs HAMR jusqu’à 44 To validés chez deux hyperscalers

44 To par disque dur qui partent déjà en volume chez deux géants du cloud, et une trajectoire annoncée vers 10 To par plateau. Le stockage mécanique n’a pas dit son dernier mot.

Seagate Mozaic 4+ : HAMR à l’échelle, jusqu’à 44 To

Seagate valide sa plateforme Mozaic 4+ basée sur le HAMR en production chez deux hyperscalers, avec des capacités jusqu’à 44 To. Des qualifications supplémentaires sont en cours chez d’autres clients, signe d’un déploiement massif en environnements hyperscale.

Disque dur interne Seagate Exos Mozaic avec logo et design noir et vert

La feuille de route annonce une montée de 4+ To par disque aujourd’hui vers 10 To par disque, ce qui ouvre la voie à des disques durs jusqu’à 100 To. La plateforme s’appuie sur une nouvelle suspension et un SoC renforcé pour un enregistrement plus précis à plus haute densité, tout en conservant une fiabilité de niveau entreprise.

Photonique intégrée et gains d’efficacité

Seagate conçoit et fabrique en interne sa technologie laser HAMR, fruit d’années d’ingénierie nanophotonique. Cette intégration verticale vise le contrôle du rendement, de la fiabilité et de la résilience de la supply chain, avec des qualifications plus rapides et une économie de production stabilisée.

Pour les datacenters IA, Mozaic 4+ augmente la capacité par rack et par watt. À échelle exaoctet, Seagate revendique environ 47 % d’efficacité d’infrastructure en plus face à des déploiements 30 To, environ 100 ft² de surface en moins et près de 0,8 M kWh/an économisés.

Disponibilité et perspectives

Les disques Mozaic 4+ jusqu’à 44 To sont expédiés en volume à deux fournisseurs cloud majeurs. Une disponibilité élargie est prévue au fur et à mesure de la montée en production.

La montée en densité sans rupture d’architecture réduit le coût total de possession pour les charges massives d’archivage, de réactivation de données et d’entraînement IA. Si la cible des 10 To par plateau est tenue, la fenêtre vers 100 To mécaniques crédibilise une feuille de route HDD durable face à la pression NAND sur le coût par téraoctet.

Source : TechPowerUp

  •  

NAND Flash : revenus en hausse de 23,8 % au T4 2025, l’IA dope les SSD serveur

Des SSD d’entreprise arrachés par les déploiements IA, des HDD en rupture… et une addition salée pour tout le monde. La chaîne NAND encaisse, les prix montent, les revenus suivent.

NAND Flash : la demande IA fait sauter les compteurs

TrendForce chiffre les revenus consolidés des cinq premiers fournisseurs NAND à 21,17 milliards $ au T4 2025, en hausse de 23,8 % séquentiel. Le moteur principal vient des SSD d’entreprise pour serveurs IA, notamment chez les CSP nord-américains, tandis que la pénurie de HDD et des délais étirés ont détourné des commandes vers le NAND, resserrant davantage l’offre.

Tableau montrant le classement des fournisseurs de NAND Flash par revenus et part de marché.

Pour le T1 2026, TrendForce anticipe une hausse de prix NAND de 85–90 % QoQ, avec un chiffre d’affaires sectoriel encore en expansion. L’aspiration côté data centers crée un déséquilibre persistant qui alimente le pricing power des fournisseurs.

Cartographie fournisseurs et dynamique produits

Samsung reste numéro 1 avec 6,6 milliards $ (+10 % QoQ) et 28 % de part, mais recule en part de marché. Les ASP progressent nettement, alors que les bits expédiés baissent séquentiellement, impactés par un effet de base élevé au trimestre précédent et des pertes liées aux transitions de procédés.

SK Group (SK hynix + Solidigm) signe la plus forte croissance : ~5,21 milliards $ (+47,8 % QoQ) et 22,1 % de part, prenant solidement la 2e place. La demande mobile et les SSD d’entreprise portent les volumes.

Kioxia se classe 3e avec 3,31 milliards $ (+16,5 % QoQ). Chiffre d’affaires et bits expédiés atteignent des pics trimestriels historiques au T4 2025.

Micron occupe la 4e place, tout près des 3,03 milliards $ (+24,8 % QoQ). Le groupe étend la production QLC et accélère les expéditions en G9 NAND, de bon augure pour la croissance de bits en 2026.

Sandisk (Western Digital) ferme le top 5 avec ~3,03 milliards $ (+31,1 % QoQ). Profitant de la tension sur l’offre, le fournisseur pousse agressivement sur le segment serveur, traditionnellement plus faible, et voit son activité data center bondir.

Priorité aux SSD QLC haute capacité pour l’IA

Face à une capacité de production limitée à court terme et une demande IA en forte pente, les fournisseurs accélèrent les migrations technologiques et réorientent les efforts vers des SSD QLC d’entreprise à très forte densité, avec des modèles 122 To et 245 To cités. L’allocation privilégie le serveur, ce qui tend encore l’offre sur les produits grand public.

Si cette trajectoire se prolonge en 2026, les acteurs PC et gaming pourraient subir un renchérissement durable des SSD grand public, le segment data center absorbant l’essentiel des wafers et des nœuds avancés. Les intégrateurs auront tout intérêt à verrouiller tôt leurs approvisionnements, surtout sur les capacités élevées.

Source : TechPowerUp

  •  

HBM4E : Samsung revoit l’alimentation pour -97 % de défauts et -41 % d’IR drop

Des piles HBM plus rapides imposent une alimentation irréprochable, sinon la vitesse se paye en chauffe et en pertes. Samsung pousse le curseur avec HBM4E en retouchant en profondeur son réseau de puissance.

HBM4E : segmentation de la PDN et gains mesurés

Après avoir livré son premier HBM4 commercial à 11,7 Gbps soutenus avec une marge jusqu’à 13 Gbps il y a deux semaines, Samsung prépare HBM4E avec une densité de bumps en hausse : de 13 682 à 14 457 points d’alimentation dans la même emprise. Résultat, la densité de courant et la résistance augmentent, aggravant l’IR drop et l’échauffement en boucle.

Diagramme HBM et C4 avec annotations techniques en coréen.

Le MET4 central du die de base, auparavant organisé en larges mailles proches de l’interposeur, est scindé en quatre blocs plus petits. Les couches supérieures sont à leur tour fragmentées pour réduire la congestion et raccourcir les parcours. Samsung annonce -97 % de défauts métalliques par rapport à HBM4, et une amélioration de 41 % de l’IR drop, offrant plus de marge de tension pour la fréquence et la fiabilité.

Impact sur l’intégration et la tenue en fréquence

À câblage identique, la segmentation réduit les goulets du réseau d’alimentation et l’échauffement local, critique avec des fils plus fins et plus denses. La mécanique est simple : chemins plus courts, résistances moindres, chutes de tension contenues, et moins de défauts métal lors de la fabrication.

Images de dies brûlés avec annotations techniques en coréen.

Séparer HBM et GPU : pistes cuivre et optique

Samsung étudie la séparation physique HBM–GPU. Des interconnexions photoniques à débits de l’ordre du térabit par seconde, environ 1 000× plus rapides que le cuivre, visent à compenser la distance. Le constructeur évoque aussi des progrès de routage substrat pouvant placer HBM et GPU à plus de 5 cm, aidant la gestion thermique des modules denses.

Schéma de réorganisation PDN HBM4E avec comparaisons en coréen.

Si ces liaisons gardent une latence et une efficacité énergétique maîtrisées, l’empilement mémoire pourrait s’affranchir d’un packaging 2.5D/3D ultra contraint, avec des bénéfices directs sur les rendements, la dissipation et le binning des accélérateurs IA.

Comparaison du PDN initial et optimisé HBM4E avec carte IR-drop.
Schéma de connexion GPU et HBM avec distances et annotations en coréen.

Le découplage PDN côté HBM4E est une réponse pragmatique aux limites électriques actuelles, avec des chiffres solides à la clé. La voie d’une désagrégation HBM–GPU par l’optique, si elle passe l’épreuve industrielle, redistribuerait les contraintes de packaging et thermiques des accélérateurs IA de prochaine génération.

A lire : Samsung HBM4e vise 13 Gbps/pin et 3,25 To/s, production attendue fin 2025

Source : TechPowerUp

  •  

Actualité : Le retour du BlackBerry ? Au MWC 2026, ces deux smartphones à clavier tentent de nous faire douter du tout tactile

Au détour des allées du Mobile World Congress 2026, difficile de ne pas sourire en voyant réapparaître ce format qu’on croyait enterré : un écran compact et, juste en dessous, de vraies touches physiques pour écrire sans regarder. Clicks, jusqu’ici connu pour ses étuis-claviers amusants mais parfois un peu rigides, ne se contente plus de greffer des...

  •  

Ryzen AI 400G : seulement douze lignes PCIe exploitables !

Tout récemment, AMD lançait ses nouveaux APU Ryzen AI 400G, des processeurs profitant de cœurs Zen 5 couplés à une partie graphique RDNA 3.5 ainsi qu’à un APU XNDA 2.0. Ces derniers disposent d’une configuration suffisante pour profiter d’une certification Copilot+ de Microsoft. Cependant, il apparaît que leur nombre de lignes PCIe exploitables est limité. On parle alors […]

L’article Ryzen AI 400G : seulement douze lignes PCIe exploitables ! est apparu en premier sur Overclocking.com.

  •  

Actualité : Game of Thrones : Warner Bros. planche sur un film écrit par le scénariste d'Andor

L'histoire d'Aegon le Conquérant sera racontée sur HBO Max... ou au cinéma ? Si une série consacrée au fondateur du Royaume des Sept Couronnes est en développement depuis plusieurs années, le New York Post nous apprend maintenant qu'un film sur le même sujet est aussi dans les tuyaux de Warner Bros.Game of Thrones : quelles sont les prochaines séries...

  •  

Actualité : Back Market veut sauver votre PC Windows 10 avec une clé USB à 3 €

Microsoft a eu beau offrir un surplus de mises à jour d’un an pour Windows 10, des millions de PC encore en circulation vont être rendus obsolètes par la politique de migration très contraignante de Microsoft. Histoire de ne pas jeter à la benne toutes ces machines encore parfaitement fonctionnelles, Back Market va proposer l’installation d’un OS alt...

  •  

Meilleures cartes graphiques 2026 : quel GPU choisir pour votre PC ?

La carte graphique (GPU) est un élément essentiel de tout bon PC gamer. Face à un marché en perpétuelle évolution, avec des générations de GPU qui s’enchaînent et des technologies qui progressent sans cesse, il peut être difficile de s’y retrouver. Bienvenue dans notre guide sélectif qui vous aidera à choisir la carte graphique la plus pertinente selon votre budget.
 [Lire la suite]

Retrouvez tous les articles de Frandroid directement sur Google. Abonnez-vous à notre profil Google pour ne rien manquer !

  •  

Amazon casse le prix de cet écran connectée capable d’afficher quatre caméras de sécurité simultanément

Eufy BP

Que ce soit accroché à un mur ou dans le creux de vos mains, l'Eufy Smart Display permet de consulter jusqu'à quatre caméras de surveillance simultanément et de stocker les différents événements dans son espace de stockage de 8 Go. Chez Amazon, l'écran connecté tombe à 149 euros.
 [Lire la suite]

Les bons plans n’attendent pas : abonnez-vous à notre canal WhatsApp Frandroid Bons Plans ! (zéro spam, promis).

  •  

Micron expédie ses premiers modules SOCAMM2 256 Go !

Bonne nouvelle pour le marché de l’intelligence artificielle puisque nous apprenons que la marque Micron a commencé à expédier des échantillons de mémoire SOCAMM2 en 256 Go. Pour rappel, ce format de mémoire a pour avantage d’empiler de plus grosses capacités sur un seul et unique module. Avec cette mémoire, Micron permettra à ses clients […]

L’article Micron expédie ses premiers modules SOCAMM2 256 Go ! est apparu en premier sur Overclocking.com.

  •  

Claude Code ajoute un mode vocal pour gagner du temps

Anthropic déploie un mode vocal dans Claude Code, son assistant de programmation par intelligence artificielle essentiellement destiné aux développeurs. La fonctionnalité est accessible via la commande /voice : l’utilisateur l’active, formule sa demande à voix haute et Claude Code exécute la requête. Un déploiement progressif est en cours, …

Lire la suite

Aimez KultureGeek sur Facebook, et suivez-nous sur Twitter

N'oubliez pas de télécharger notre Application gratuite iAddict pour iPhone et iPad (lien App Store)


L’article Claude Code ajoute un mode vocal pour gagner du temps est apparu en premier sur KultureGeek.

  •  

☕️ GPT-5.3 Instant : OpenAI promet un ChatGPT moins moralisateur, plus direct et naturel

Depuis quelques jours, Anthropic et son IA Claude ont le vent en poupe, face à OpenAI et son ChatGPT dont les désinstallations de l’application ont explosé ces derniers jours. C’est la conjonction de deux événements liés. L’interdiction faite par Donald Trump d’utiliser les modèles d’Anthropic dans les armées et administrations américaines pour commencer. Ensuite, le fait que Sam Altman s’empresse de signer un contrat avec le Pentagone.

Alors qu’Anthropic surfe sur une vague de popularité, l’entreprise a décidé de permettre à tous les comptes, même les gratuits, d’utiliser la fonction Import Memory (pour faciliter une transition de ChatGPT à Claude, par exemple), OpenAI revient sur le devant de la scène avec encore un nouveau modèle, ou plutôt une mise à jour : GPT-5.3 Instant.

Lors du lancement de GPT-5.2 en décembre dernier, il était annoncé dans trois formats : Instant, Thinking et Pro. En février, c’était au tour de GPT-5.3-Codex de débarquer (à quelques minutes d’écart, Anthropic annonçait Claude Opus 4.6). Comme son nom l’indique – Codex –, c’est un modèle pensé pour le code informatique. OpenAI annonce aujourd’hui un modèle plus grand public : GPT‑5.3 Instant. Thinking et Pro suivront, mais plus tard.

Il promet « des conversations plus fluides et plus utiles au quotidien ». Nous avons droit au lot habituel de promesses : « réponses plus précises, résultats plus riches et mieux contextualisés lors des recherches sur le web, moins d’impasses inutiles, d’avertissements et de formulations trop affirmatives qui peuvent interrompre le fil de la conversation ».

OpenAI indique avoir reçu des retours d’utilisateurs indiquant que « GPT‑5.2 Instant refusait parfois de répondre à des questions auxquelles il devrait pouvoir répondre en toute sécurité, ou adoptait un ton trop prudent ou moralisateur, en particulier sur des sujets sensibles ». GPT‑5.3 Instant « réduit nettement les refus inutiles, tout en atténuant les préambules trop défensifs ou moralisateurs avant de répondre à la question ».

Concernant les informations glanées en ligne, GPT-5.3 Instant « équilibre plus efficacement […] avec ses propres connaissances et son raisonnement. Par exemple, il s’appuie sur sa compréhension existante pour contextualiser l’actualité récente plutôt que de simplement résumer les résultats de recherche ». Le Web ne sera plus survalorisé, promet OpenAI.

Enfin, l’entreprise de Sam Altman reconnait que « le ton de GPT‑5.2 Instant pouvait parfois mettre mal à l’aise, perçu comme envahissant ou faisant des suppositions injustifiées sur l’intention ou les émotions de l’utilisateur ». Avec GPT-5.3 Instant, le style devrait être plus naturel. Des exemples sont disponibles sur cette page.

GPT‑5.3 Instant est disponible dès maintenant, pour tous les utilisateurs de ChatGPT. Les mises à jour des modèles Thinking et Pro « suivront bientôt ». Enfin, GPT‑5.2 Instant restera disponible pendant trois mois pour les clients payants (il sera retiré le 3 juin 2026).

  •  
❌