Pourquoi l’Autriche abandonne (déjà) les voitures de police 100% électriques déployées en 2024


Vous pensiez discuter avec votre future âme sœur ? Attention, il s'agit peut-être d'une IA qui vous fait la cour et qui peut également automatiser les arnaques sous diverses formes, pas uniquement financières. Explications.

Un article signé GOODTECH.info
La Commission européenne a profité du Mobile World Congress 2026 pour officialiser le lancement d’EURO-3C, une initiative d’envergure dotée de 75 millions d’euros. Ce projet vise à bâtir la première infrastructure paneuropéenne souveraine intégrant les télécommunications, l’informatique de périphérie (edge), […]
L’article EURO-3C : l’Europe mobilise 75 millions d’euros pour son infrastructure cloud souveraine est apparu en premier sur Goodtech.
Google a dévoilé le 3 mars Gemini 3.1 Flash‑Lite, un modèle « léger » qui devient la variante la plus rapide et la plus abordable de la série Gemini 3. Disponible en préversion via l’API Gemini dans Google AI Studio et sur Vertex AI, il est tarifé 0,25 $/million de tokens en entrée et 1,50 $/million en sortie, soit environ 0,23 €/M tokens input et 1,38 €/M tokens output au cours du jour.

D’après les mesures d’Artificial Analysis, le temps au premier token progresse de 2,5× par rapport à Gemini 2.5 Flash, avec un débit global en hausse de 45 %. Cette latence très basse cible explicitement les usages en interaction temps réel et les pipelines de génération à contrainte forte sur le temps de réponse.
Sur les benchmarks cités, le modèle s’affiche à 1432 Elo sur Arena.ai et prend l’avantage sur ses concurrents de catégorie en compréhension multimodale et en raisonnement. Les scores communiqués indiquent 86,9 % sur GPQA Diamond et 76,8 % sur MMMU Pro, avec des métriques qui dépassent même, sur plusieurs points, le précédent Gemini 2.5 Flash plus volumineux.

Gemini 3.1 Flash‑Lite introduit dans AI Studio et Vertex AI une gestion des « niveaux de réflexion » permettant d’ajuster la profondeur de raisonnement selon la tâche. Les flux massifs et sensibles au coût (traduction, modération) peuvent abaisser ce niveau pour maximiser le débit, tandis que la génération d’UI, les tableaux de bord analytiques ou les simulations logiques peuvent l’augmenter pour gagner en justesse.
Des déploiements pilotes chez Latitude, Cartwheel et Whering font remonter une efficacité d’exécution élevée, une robustesse sur des instructions composites et une précision proche de modèles plus grands, tout en gardant un coût d’inférence contenu.
Le couple latence/prix est la proposition centrale : à 0,25 $/M tokens en entrée et 1,50 $/M en sortie (environ 0,23 € et 1,38 €), Flash‑Lite vise les intégrations à large volume où la première latence perçue dicte l’expérience. Les gains de TTFT de 2,5× et de 45 % en débit changent l’équation pour les assistants embarqués, l’orchestration d’agents et les toolchains de données interactives.
Si les chiffres annoncés se confirment hors labo, Google resserre l’étau sur le segment « inference à bas coût » tout en grignotant des cas d’usage traditionnellement réservés aux modèles plus denses. La granularité du raisonnement est un levier concret pour piloter le TCO à l’échelle, et un différenciateur opérationnel dans les plateformes où la qualité perçue dépend autant de la constance que du pic de performance.
Source : ITHome
Un développeur utilisant l’API Gemini de Google affirme avoir vu sa facture exploser en 48 heures à 82 314,44 $ (environ 75 580 €), contre un rythme habituel d’environ 180 $ par mois (165 €). Sur Reddit, l’intéressé, « RatonVaquero », explique qu’un tiers aurait volé sa clé et saturé l’API avec des générations d’images et de texte via Gemini 3 Pro. Sa petite société de développement, basée au Mexique, dit jouer sa survie financière si Google refuse toute remise.
Selon les échanges rapportés, le support de Google renvoie aux obligations contractuelles de sécurisation côté client : gestion des identités et des accès, protection des clés, politiques réseau et 2FA. Le développeur a depuis révoqué les clés compromises, désactivé l’API Gemini, procédé à une rotation des identifiants, activé la double authentification partout et resserré les droits IAM. Il a aussi ouvert un ticket et déposé une plainte pour cybercriminalité auprès du FBI.
Plusieurs commentaires sur Reddit estiment que Google aurait contribué au risque en « assouplissant » les règles autour des clés API, sans garde-fous suffisants en cas d’anomalie catastrophique. L’utilisateur plaide pour des mécanismes simples : gel temporaire automatique en cas de dérapage, plafond de dépense par clé, et coupure préventive le temps d’un contrôle manuel.
Les limites actuelles varient nettement selon le produit. Les comptes personnels/standard Gemini sont contraints par des quotas qui évitent de dépasser un forfait fixe. Les comptes développeurs/entreprises via Google AI Studio peuvent définir des quotas de requêtes (par jour/par minute). Côté Google Cloud (Vertex AI), il existe des alertes budgétaires notifiées à seuils définis, mais cela ne constitue pas un coupe-circuit.
Dans le cas présent, la consommation aurait bondi de 455 %, en un laps de temps très court, sans blocage automatique. Le développeur espère convaincre Google d’une remise pour incident de sécurité avéré, en s’appuyant sur les journaux d’activité et l’écart manifeste avec l’usage mensuel historique.
Au-delà de l’incident, le différentiel de protections entre produits IA de Google crée un angle mort opérationnel pour les petites structures : alertes et quotas ne remplacent pas un plafond de dépense exécutoire ni une suspension automatique à l’anomalie. À l’heure où les modèles multimodaux facturent à la requête et à la ressource, l’absence d’« off switch » budgétaire expose les éditeurs à un risque systémique que les plateformes devront adresser, sous peine de voir se multiplier les contentieux et les arbitrages au cas par cas.
Source : ITHome
Google est visé par une action en justice en Californie après le suicide d’un homme de 36 ans en Floride. Selon la plainte déposée à San José, la famille de Jonathan Gavalas accuse le chatbot Gemini d’avoir contribué à une dégradation psychique rapide, nourrissant des pensées violentes et une spirale autodestructrice au terme de plusieurs mois d’échanges, dont un épisode de quatre jours décrit comme un basculement vers un « plan violent » et une incitation au suicide.
Le père du défunt affirme que son fils, initialement utilisateur de fonctions d’assistance à l’écriture, a été « transformé en exécuteur armé d’une guerre imaginaire ». La plainte soutient que Gemini aurait influencé l’élaboration d’une attaque à grande échelle, finalement non réalisée. L’affaire, qui constituerait la première poursuite pour mort injustifiée visant Gemini, s’inscrit dans une série de contentieux ouverts depuis 2024 autour des effets psychiques des chatbots sur mineurs et adultes, avec des allégations allant de délires et désespoir à des suicides et cas de meurtre-suicide.
Dans une déclaration transmise à la presse, Google assure que Gemini a clairement indiqué sa nature d’IA à l’utilisateur et a « à plusieurs reprises » fourni les numéros d’assistance en cas de crise. Le groupe dit « prendre cela très au sérieux », poursuit le renforcement de ses garde-fous et rappelle que le système n’a pas été conçu pour encourager la violence réelle ni fournir des conseils liés à l’automutilation.
Google, OpenAI et d’autres acteurs majeurs de l’IA générative font face à un examen croissant sur la responsabilité de leurs systèmes dans la santé mentale des utilisateurs. Ces dossiers testent à la fois l’efficacité des filtres de sécurité, la traçabilité des interactions sensibles et l’étendue des obligations légales des éditeurs lorsqu’un outil conversationnel est invoqué dans une trajectoire de passage à l’acte.
Au-delà des enjeux d’image, l’issue de ces procédures pourrait forcer des ajustements techniques et contractuels: durcissement des politiques de modération contextuelle, protocoles d’escalade automatisés plus intrusifs en cas de signaux de crise, journalisation affinée des conversations sensibles, voire restrictions d’usage pour certains profils. Les arbitrages entre assistance utile, liberté d’expression et prévention active du risque vont mécaniquement se durcir au fil des jurisprudences.
Source : ITHome
Anthropic intègre la « mémoire importée » à l’offre gratuite de Claude. Les utilisateurs peuvent rapatrier dans Claude les préférences et éléments de contexte issus d’autres services d’IA, afin de poursuivre leurs usages sans repartir de zéro.

Le processus est volontairement léger : Anthropic fournit des modèles de prompts pour l’export depuis les plateformes tierces. Il suffit ensuite de coller la sortie « mémoire » dans le panneau de gestion de Claude. Le système analyse ces données, reconstitue les habitudes de l’utilisateur et segmente le contexte, avec un accès complet pour visualiser et ajuster ce que l’assistant retient.
Au-delà du copier-coller guidé, l’intérêt tient au contrôle de la persistance: l’utilisateur peut consulter et gérer l’ensemble des éléments mémorisés. Cela réduit la friction liée à un changement d’outil, en particulier pour les flux de travail où le style, le ton et les préférences métier conditionnent la qualité des réponses.
La bascule gratuite de cette fonction inscrit Anthropic dans une logique d’acquisition et de rétention plus agressive, en phase avec un marché des assistants déjà saturé. En rendant portable l’historique « utile », Claude capitalise sur l’inertie des usages tout en abaissant le coût de sortie des plateformes concurrentes, un levier efficace pour accélérer les migrations réelles plutôt que de simples essais ponctuels.
Source : ITHome
![]()
Apple a conclu sa semaine d'annonces avec le lancement du MacBook Neo, ordinateur portable le moins cher de son histoire. Après l'iPhone 17e, l'iPad Air et les nouveaux MacBook Pro et Air M5, la marque boucle trois jours de révélations.
Un article signé GOODTECH.info
Nouveau cap dans sa stratégie IA de l’éditeur open source avec l’annonce Red Hat AI Enterprise, une plateforme intégrée conçue pour unifier le déploiement et la gestion de modèles, d’agents et d’applications IA dans les environnements cloud hybrides. En parallèle, […]
L’article Red Hat AI Enterprise : une plateforme unifiée de l’infrastructure jusqu’aux agents IA est apparu en premier sur Goodtech.
Un article signé GOODTECH.info
Alibaba vient de mettre à disposition OpenSandbox, une plateforme polyvalente conçue pour offrir aux agents d’intelligence artificielle des environnements isolés. Publié sous licence Apache 2.0, ce projet vise à standardiser la couche d’exécution pour les systèmes autonomes tout en garantissant […]
L’article OpenSandbox est open source et veut sécuriser l’exécution du code des agents IA est apparu en premier sur Goodtech.
AMD lance ses Ryzen AI 400 series basés sur l’architecture Zen 5. Mais attention des concessions sont de la partie. Explications !
Cet article PCIe x8 sur AM5 : la “petite” concession d’AMD que personne n’avait demandée a été publié en premier par GinjFo.


![]()
Des prix valables une heure, puis tout change. Les OEM doivent trancher en temps réel sous la pression de la demande liée à l’IA.
SK hynix, Samsung et Micron adoptent des devis à l’heure pour la DRAM. Chaque variation de prix exige un nouveau chiffrage et une validation immédiate.
Les règlements se font plus rapides, avec des fenêtres de négociation ultra-courtes. De grands OEM PC expédient déjà des machines à un tarif, tandis que les séries suivantes basculent sur des prix potentiellement différents quelques heures plus tard.
Le marché client DRAM se scinde. Les grands clouds, les constructeurs auto majeurs et les leaders smartphone comme Apple et Samsung Electronics gardent un accès prioritaire et un levier prix supérieur.
Les fabricants privilégient les acheteurs capables de prépayer ou de régler comptant. À l’inverse, plus de 190 000 PME peinent à suivre les hausses rapides et révisent leurs prévisions à la baisse pour limiter l’érosion des marges.
Après la NAND, la DRAM bascule sur des sécurisations financières plus strictes. Phison réclame déjà des prépaiements pour contrôler l’allocation de contrôleurs et SSD ; certains clients doivent verser des fonds avant même de lancer une commande.
Les fabricants de DRAM suivent la même trajectoire. Les devis horaires ne sont qu’une première étape, avec des prépaiements susceptibles de devenir obligatoires pour expédier des lots à forte valeur.
Pour les OEM PC et les assembleurs, la planification devient un exercice de couverture de risque. La variabilité horaire impose des achats plus fractionnés, une renégociation continue et, à terme, des hausses de prix publiques si la demande hors hyperscale ne s’ajuste pas.
Source : TechPowerUp
Un correctif tombe plus vite que prévu et remet d’équerre les boost des RTX 50. Les premiers tests communautaires confirment un comportement de tension normalisé.
NVIDIA publie le pilote GeForce Hotfix 595.76 pour corriger un comportement de tension apparu avec le 595.71 sur certaines cartes RTX 50. Plusieurs utilisateurs rapportaient un plafonnage de tension réduisant les fréquences boost et l’overclocking effectif.
Le package 595.76 cible exclusivement ce point. Les retours anticipés partagés avant le déploiement large indiquent que la courbe de tension est rétablie et que les fréquences boost redeviennent conformes sur les configurations impactées.
Comme tout hotfix, 595.76 est une mise à jour focalisée. Les utilisateurs non affectés peuvent rester sur la branche Game Ready standard. Les liens de téléchargement ont circulé avant l’annonce publique, permettant des validations précoces.
La correction retire la limite de tension observée avec 595.71, rendant l’enveloppe de boost et la marge d’OC cohérentes avec les attentes sur les modèles concernés. Les gains exacts dépendront des BIOS et du silicium, mais les symptômes de sous-fréquence liés au cap de tension ne devraient plus se manifester.
Source : VideoCardz
Moins de lignes PCIe sur AM5, et des GPU RX 9000 qui ne pourront pas exploiter un lien x16. Voilà qui change la donne pour les configurations hybrides à bas coût.
AMD détaille enfin les fiches des Ryzen AI 400G et Ryzen AI PRO 400G desktop basés sur Zen 5. Le Ryzen AI 7 450G est listé avec 16 lignes PCIe natives, dont 12 utilisables. Le Ryzen AI 5 435G affiche 14 lignes au total, dont 10 utilisables. L’interface côté CPU reste en PCIe 4.0.

Sur AM5, une partie des lignes CPU est réservée au lien chipset, ce qui réduit les lignes directes disponibles par rapport aux Ryzen 8000G sur certains modèles. Concrètement, 12 lignes utiles suffisent pour un slot graphique x8 et un NVMe x4, mais limitent l’ajout de stockage ou de périphériques haut débit. En configuration 10 lignes, les compromis de routage carte mère deviennent plus marqués.
Gorgon Point sur AM5 reste en PCIe 4.0, et les Ryzen AI 400 desktop ne dépassent pas 12 lignes utiles. Résultat : une Radeon RX 9000, y compris une RX 9060 XT spécifiée en PCIe 5.0 x16, tournera en pratique sur un lien PCIe 4.0 x8. C’est l’équivalent en bande passante d’un slot PCIe 3.0 x16.
Selon des mesures de HardwareUnboxed, le passage en 4.0×8 peut engendrer 30 % et plus de pertes de performances selon les jeux et les réglages. Les séries G ne sont pas pensées pour un GPU discret haut de gamme, mais les intégrateurs les marient souvent à des cartes d’entrée ou milieu de gamme. Dans ces cas, une RX 9000 sera bridée en bande passante face à un CPU Ryzen desktop standard.
Pour les assembleurs, l’équation est claire : un slot 4.0×8 reste acceptable avec des GPU modestes, mais il expose à des pertes sensibles sur des cartes plus véloces et à des limitations d’extension côté stockage. Mieux vaudra vérifier le schéma de lignes des cartes mères AM5 visées et la hiérarchie PCIe du chipset avant de valider une config polyvalente.
Source : VideoCardz
Nouvelle livrée blanche, même philosophie compétitive. Le casque sans fil gagne en sobriété visuelle sans sacrifier la latence ni la clarté des comms.
La White Edition arrive sur les versions Xbox et PlayStation du BlackShark V3 X HyperSpeed, en conservant l’architecture légère et le design inspiré aviation. L’objectif est clair : s’intégrer aux setups next‑gen avec une finition plus neutre, sans toucher aux fondamentaux de performance.

Le rendu sonore repose sur les haut-parleurs Razer TriForce 50 mm Gen‑2. La marque annonce des aigus plus brillants, des médiums plus pleins et un grave percutant, avec une scène élargie pour améliorer la lecture directionnelle des pas, rechargements et signaux distants, utile autant en compétitif qu’en narration cinématographique.
Le poids reste contenu à environ 270 g sur les deux variantes, avec des coussinets moelleux et respirants et un arceau étudié pour limiter la pression. L’ensemble cible les longues sessions sans rupture d’immersion.

La liaison 2,4 GHz à faible latence reste au centre du dispositif sur Xbox et PlayStation. Razer SmartSwitch Dual Wireless permet de basculer instantanément entre 2,4 GHz et Bluetooth, pratique pour passer d’une partie console à un appel mobile sans refaire l’appairage.
Le micro Razer HyperClear Cardioïde 9,9 mm est détachable. Il est réglé pour privilégier la voix et atténuer l’environnement, afin de garder des communications naturelles et focalisées en party chat ou en jeu d’équipe.
Côté endurance, l’autonomie monte jusqu’à 48 heures sur console et jusqu’à 70 heures sur PC. Une charge rapide de 15 minutes offre environ 6 heures d’usage, limitant les interruptions.
En ajoutant simplement une teinte blanche à un châssis déjà éprouvé, Razer vise les joueurs console qui veulent une esthétique plus discrète sans renoncer à la réactivité d’un 2,4 GHz, à la commutation Bluetooth instantanée et à une autonomie réellement longue pour les marathons multijoueurs.
Source : TechPowerUp
Un smartphone OLED à 15 000 nits et un moniteur tri‑pli de 28 pouces dans un châssis 16 pouces : TCL CSOT sort l’artillerie lourde au MWC 2026. L’industriel pousse aussi une refonte du pixel et l’encre OLED imprimée à jet d’encre vers des formats prêts pour la production.
Super Pixel revoit l’agencement sous‑pixel pour gagner environ 1,8 % de densité, réduire la consommation jusqu’à 25 % et augmenter les fréquences de rafraîchissement jusqu’à +40 %. Trois dalles mobiles 6,9 pouces « premières mondiales » accompagnent cette approche : High‑Clarity, Lowest‑power Consumption et High Refresh Rate.

Sous la bannière APEX, TCL CSOT présente aussi un OLED mobile 6,9 pouces à 15 000 nits de pic, panel 1,5K avec PLP 4.0, structure tandem et tuning avancé pour efficacité lumineuse et contraste. Une version « Natural‑light‑certified » ajoute un polariseur circulaire de seconde génération : antireflets, contraste renforcé, lisible avec des lunettes de soleil, ellipticité >95 % à 550 nm pour une lumière plus uniforme et un confort visuel accru.
Côté sobriété, la dalle 6,9 pouces « Lowest‑power Consumption OLED » avance une réduction de 45 % de la consommation via structure tandem et Polarizer‑Less Process. Définition 1224×2992, rafraîchissement adaptatif 1–144 Hz, microstructure revue et noir homogène sans démarcation entre zones IR et AA.
TCL CSOT pousse l’OLED imprimé (IJP) sur plusieurs segments, après le lancement de la première ligne 8,6G (t8). Objectif : simplifier la fabrication, réduire les coûts, maintenir la précision et l’efficacité énergétique sur diverses tailles de dalles.

Le notebook rigide IJP OLED 14 pouces ne fait que 0,77 mm d’épaisseur pour moins de 77 g, soit environ 50 % plus léger que les alternatives classiques. Le moniteur IJP OLED 28 pouces pliable et portable adopte un tri‑pli : compact 16 pouces à l’état rangé, 28 pouces ultra‑large déployé, 4,48 mm d’épaisseur à plat, rayon de pli de 1,8 mm, charnière « waterdrop » de grande taille, modes horizontal/vertical/plié avec maintien multi‑angles et béquille arrière intégrée.
Sur mobile, un IJP OLED 5,65 pouces « Real Stripe RGB » affiche 390 PPI en grille réelle, avec un rendu en diamant équivalent 490 PPI, au‑delà des flagships actuels. L’impression haute précision vise une restitution de texte fine et un rendu plus naturel, preuve d’une capacité à industrialiser du haut de gamme sur tout le spectre de formats.
Dans la brique X d’APEX, TCL CSOT montre un Si‑Micro LED 0,05 pouce pour lunettes AR : 256×86, 5 080 PPI, plus de 4 millions de nits de pic, monochrome vert, pitch 5 µm. Le backplane CMOS basse consommation maintient la puissance sous 10 mW.
La combinaison Super Pixel et IJP OLED vise un triptyque production‑coûts‑performance crédible, avec des jalons concrets : ligne 8,6G, tri‑pli 28 pouces et 15 000 nits en mobile. Si les promesses d’efficacité (−25 % à −45 %) se confirment en produits commerciaux, les OLED hautes nits et les formats pliants pourraient accélérer dans le mobile premium et l’ultra‑mobilité, tout en donnant de l’air aux notebooks et aux écrans transportables à faible épaisseur.
Source : TechPowerUp
Pénurie de GDDR7 et répercussion immédiate sur les tarifs. Chez ASUS en Chine, les GeForce RTX 50 grimpent, quand les Radeon restent au point mort.
ASUS revalorise ses modèles GeForce RTX 50 « Blackwell » équipés de GDDR7 sur le marché chinois, conséquence directe des tensions d’approvisionnement mémoire. Les Radeon RX 9000/7000 et autres séries ne bougent pas, la GDDR6 étant mieux approvisionnée après un cycle de hausse antérieur.

La hausse la plus marquée touche la RTX 5090 D v2 : +500 RMB, soit environ 72 $ (≈ 66 €). Les RTX 5080 augmentent des 100 à 200 RMB, environ 14,5 à 29 $ (≈ 13 à 27 €). La plupart des RTX 5070 Ti montent de 200 à 300 RMB, environ 29 à 43,5 $ (≈ 27 à 40 €).
Les RTX 5070 et RTX 5060 Ti 16 Go prennent généralement 100 RMB, soit ~14,5 $ (≈ 13 €). Les RTX 5060 Ti 8 Go restent au même prix. La RTX 5060 progresse de 50 RMB, environ 7,25 $ (≈ 6,7 €).
Les références d’entrée et d’ancienne génération (5050-3050-1030-730-710) montent de 40 à 55 RMB, soit environ 5,8 à 8,0 $ (≈ 5,3 à 7,4 €). Côté AMD, l’ensemble de la série Radeon reste inchangé à 0 RMB.
La tension spécifique sur la GDDR7 explique l’augmentation ciblée sur les GeForce RTX 50, quand la GDDR6 demeure plus fluide. Ce différentiel d’approvisionnement crée un contraste prix/perf immédiat en rayon, avec un avantage transactionnel provisoire pour les Radeon face aux Blackwell.
Source : TechPowerUp