↩ Accueil

Vue lecture

Windows 11 connaît une progression fulgurante

Windows 11

La domination de Windows 11 semble scellée. Le système d'exploitation prend largement ses distances avec son prédécesseur qui avait fait un étrange rapprochement en fin d'année dernière.

  •  

Un ado de San Jose transforme sa chambre en usine d'armes 3D

Liberator gun

À San Jose, un jeune de 18 ans a été arrêté après la découverte d'un véritable arsenal dans sa chambre. Jacob Reyes utilisait deux imprimantes 3D pour fabriquer 27 armes fantômes, dont certaines modifiées en mitraillettes. Une affaire qui révèle l'ampleur du marché noir des armes intraçables et la facilité déconcertante de leur production.

  •  

Pour sécuriser internet contre les ordinateurs quantiques, Google ressort une idée mathématique de 1979 : comment les arbres de Merkle vont refonder la sécurité HTTPS d'ici 2027

Pour sécuriser internet contre les ordinateurs quantiques, Google ressort une idée mathématique de 1979 :
les arbres de Merkle vont refonder la sécurité HTTPS d'ici 2027

Google vient d'annoncer un programme ambitieux pour rendre les certificats HTTPS résistants aux ordinateurs quantiques. La solution, développée en collaboration avec Cloudflare et l'IETF, ne consiste pas à simplement greffer de nouveaux algorithmes sur l'infrastructure existante — elle en repense l'architecture de fond en comble,...

  •  

Ted Lasso continue, mais pas dans la continuité

Il est de retour ! Après des années d'incertitude, nous avons enfin une confirmation du retour de notre coach préféré. Un faux pas provenant d'une star de la série sur le tapis rouge permet désormais de clarifier la date de sortie. Préparez-vous pour l'événement de streaming de l'année 2026 !

Der Beitrag Ted Lasso continue, mais pas dans la continuité erschien zuerst auf nextpit.

  •  

Actualité : Claude en panne, des milliers d’utilisateurs touchés

L’IA Claude est dans sa tourmente ce lundi 2 mars. De nombreux utilisateurs mentionnent des bugs. Les services d’Anthropic sont en panne partielle depuis 13 h, touchant Claude.ai, Claude Code et platform.claude.com. L’accès via l’app Mac est impossible, mais l’API Claude reste opérationnelle selon la page de statut.Claude banni par Trump, Anthropic b...

  •  

Bon plan Apple : les AirPods 4 et AirPods 4 ANC en forte promotion chez Boulanger !

Bonne nouvelle pour les utilisateurs Apple : les Apple AirPods 4 et les Apple AirPods 4 avec Réduction active du bruit profitent actuellement d’une belle remise chez Boulanger ! Deux modèles récents, deux approches du confort audio, et des prix bien plus accessibles que d’habitude.

L’article Bon plan Apple : les AirPods 4 et AirPods 4 ANC en forte promotion chez Boulanger ! est apparu en premier sur Toms Guide.

full

thumbnail
  •  

Ce TV 4K QD-Mini LED et 144 Hz chute sous les 500 € et devient une affaire en or

Un téléviseur QD Mini LED de 55 pouces à moins de 500 euros ? C'est possible grâce à cette offre sur le TCL 55C61K, un TV complet, qui est parfait pour regarder ses films et séries préférés ou même lancer des jeux vidéo.
 [Lire la suite]

Envie de rejoindre une communauté de passionnés ? Notre Discord vous accueille, c’est un lieu d’entraide et de passion autour de la tech.

  •  

Qualcomm a dévoilé le nouveau processeur Snapdragon Wear Elite.

Qu’on le veuille ou non, le marché des objets connectés intelligents pourrait bien être en plein essor – du moins, c’est ce que pense Qualcomm. Aujourd’hui, l’entreprise a dévoilé son nouveau processeur Snapdragon Wear Elite. Lors d’une présentation, Qualcomm a décrit l’Elite comme une solution « poignet plus ». Cela signifie qu’il ne remplacera pas le Snapdragon W5 Plus, mais coexistera avec lui. Le fabricant espère que ce nouveau produit séduira les entreprises qui développent des dispositifs d’IA tels que des pendentifs, des badges ou même des lunettes intelligentes sans écran. Les lunettes de réalité augmentée plus avancées continueront probablement d’utiliser les processeurs AR spécialisés de Qualcomm. La puce Snapdragon Wear Elite est gravée en 3 nm et intègre un eNPU et un NPU Hexagon dédié aux tâches d'IA. Le premier gère les opérations économes en énergie, comme la reconnaissance de mots-clés et le suivi d'activité, tandis que le second prend en charge les calculs plus gourmands en ressources. Selon Snapdragon, le NPU Hexagon peut traiter jusqu'à 2 milliards de paramètres directement sur l'appareil et générer jusqu'à 10 jetons par seconde. Bien que l'architecture du coprocesseur de l'Elite soit similaire à celle du W5 Plus, son efficacité énergétique a été améliorée, permettant au processeur principal de gérer davantage de tâches. De plus, ce nouvel appareil est compatible avec les communications par satellite, la 5G, la technologie ultra-large bande UWB et le Bluetooth 6.0. Un ensemble de fonctionnalités impressionnant. (Lire la suite)
  •  

L'iPad Air a été lancé avec un nouveau processeur puissant.

Après la mise à jour de ses tablettes de milieu de gamme l'an dernier, Apple a dévoilé une nouvelle version de l'iPad Air, désormais équipée de la puce M4. Cette même puce équipe l'iPad Pro de 7e génération, ainsi que le MacBook Pro et le Mac mini 2024. Selon l'annonce officielle, le nouvel iPad Air avec la puce M4 est 30 % plus rapide que la version M3. La tablette intègre également le module sans fil N1 propriétaire d'Apple, compatible Wi-Fi 7, Bluetooth 6 et Thread. Les modèles cellulaires sont dotés du modem C1X, qui offre des débits de transfert de données mobiles plus rapides tout en consommant 30 % d'énergie en moins que l'iPad Air de l'an dernier équipé de la puce M3. Les précommandes du nouvel iPad Air avec puce M4 débutent le 4 mars sur l'Apple Store en ligne et en magasin, et sa commercialisation le 11 mars. La version 11 pouces Wi-Fi avec 128 Go de stockage est proposée à partir de 599 $, avec une capacité extensible jusqu'à 1 To. Le modèle cellulaire est disponible à partir de 749 $. L'iPad Air 13 pouces est quant à lui proposé à partir de 799 $ pour la version Wi-Fi et de 949 $ pour le modèle cellulaire. À ces prix, les tablettes sont particulièrement attractives, notamment pour ceux qui recherchent le modèle 11 pouces 128 Go, véritablement abordable. Toutefois, 128 Go de stockage sont clairement insuffisants pour une tablette sur le marché actuel. (Lire la suite)
  •  

Un bug logiciel a éteint les lumières, puis la voiture a eu un accident : un propriétaire a essayé d'éteindre les lumières intérieures à l'aide d'une commande vocale, mais cela a plutôt éteint les phares

Un bug logiciel a éteint les lumières, puis la voiture a eu un accident : un propriétaire a essayé d'éteindre les lumières intérieures à l'aide d'une commande vocale, mais cela a plutôt éteint les phares

Un conducteur en Chine a découvert par inadvertance un bug dans les commandes vocales de sa voiture. Lorsqu'il a demandé d'éteindre les lumières intérieures de la voiture, l'assistant vocal de la voiture a éteint les phares, ce qui aurait provoqué un accident. Lynk & Co a publié un correctif...

  •  

Oubliez ChatGPT, Claude vous permet de quitter votre chatbot sans repartir de zéro

Pour séduire de nouveaux utilisateurs, Anthropic simplifie la transition vers son chatbot Claude. L’entreprise a mis au point un nouvel outil capable d’importer vos données contextuelles et les informations que vous avez déjà partagées avec ChatGPT, Gemini et consorts.

L’article Oubliez ChatGPT, Claude vous permet de quitter votre chatbot sans repartir de zéro est apparu en premier sur Toms Guide.

full

thumbnail
  •  

Derrière la polémique entre Trump et Anthropic, les enjeux de l’usage militaire de l’IA

IA tensions
Derrière la polémique entre Trump et Anthropic, les enjeux de l’usage militaire de l’IA

Claude d’Anthropic a été utilisé par l’armée des États-Unis dans son attaque de l’Iran. Alors que le CEO de l’entreprise s’y oppose depuis quelques jours, le moment révèle à la fois le nouveau palier que l’industrie de l’IA a franchi dans le déploiement de ses technologies et la tentative de maîtrise du secteur par le gouvernement des États-Unis.

Ce 28 février, 500 sites iraniens étaient visés par les forces états-uniennes dans leur opération « Epic Fury ». L’attaque s’est notamment soldée par la mort de l’ayatollah Ali Khamenei et son responsable de la sécurité Ali Shamkhani. Pour la mener à bien, l’armée a notamment utilisé le modèle Claude d’Anthropic, selon le Washington Post et Axios.

Un détail qui pourrait paraître anecdotique, à l’heure où les robots conversationnels se déploient dans toutes les sphères de la société, s’il n’avait pas été précédé par une semaine d’échanges houleux et publics entre Dario Amodei, le CEO d’Anthropic, et le Pentagone.

En cause : Anthropic n’a « jamais soulevé d’objections à l’égard d’opérations militaires », indique son patron, mais dans certains cas, notamment la surveillance de masse à l’intérieur du pays et les armes totalement autonomes, la société estime « que l’IA peut nuire aux valeurs démocratiques plutôt que les défendre ». À ce titre, l’entreprise impose des restrictions dans ses conditions d’utilisation, restrictions qui s’imposent notamment à l’un de ses gros clients publics : l’armée.

Claude utilisé depuis 2024

C’est dans ce contexte que Pete Hegseth, secrétaire d’État à la Défense (renommé ministère de la Guerre) des États-Unis, a posé un ultimatum à l’entreprise : elle avait, en date du 25 février, trois jours pour modifier ses conditions d’utilisation. Le débat, en réalité, n’a pas débuté avec l’opération « Epic Fury » – au contraire, les premiers partenariats avec Palantir, AWS, les renseignements et la Défense états-unienne ont été rendus publics dès novembre 2024.

Elle a depuis construit les modèles « Claude gov », dédiés aux agences de renseignement. Plus récemment, l’armée états-unienne a recouru à Claude pour orchestrer la capture du président du Venezuela, Nicolas Maduro, début janvier.

En parallèle, l’entreprise a fait évoluer ses conditions d’utilisations pour y intégrer l’interdiction de « développer ou concevoir des armes », en septembre 2025. Son patron, lui, continuait de se placer comme il l’a fait depuis son départ d’OpenAI pour créer Anthropic : en défenseur d’une intelligence artificielle au service de l’intérêt général et d’un développement veillant à la « sécurité de l’IA ».

Sur son site web, Anthropic est ainsi décrite comme une société de recherche et de sécurité de l’IA, tandis que Dario Amodei a publiquement déclaré que ces technologies devaient rester l’apanage des démocraties (sans pour autant renoncer à d’éventuels financements venus de pays autoritaires), que les siennes resteraient sans publicité, et, donc, que certains usages de l’IA n’étaient pas avisés.

Recours aux LLM dans des systèmes d’aide aux décisions sensibles

Après l’ultimatum du 25 février, le chercheur et entrepreneur a repris ses négociations, en public comme en privé. Jusqu’au dernier moment, l’entreprise a cru pouvoir trouver un accord, rapporte the Atlantic. Et puis Donald Trump a ordonné à toutes ses administrations de cesser de recourir aux outils de la start-up. Pete Hegseth, lui, précisait qu’Anthropic fournirait encore ses services pendant « une période de six mois maximum pour assurer une transition fluide ».

Le lendemain, l’Iran était bombardé, et l’armée utilisait toujours les outils en question. D’après le Washington Post, ces derniers servent notamment à de l’évaluation et de l’identification de cibles et à simuler des scenarios de batailles.

Or, d’après le chercheur Kenneth Payne, qui a testé GPT-5.2, Claude Sonnet 4 et Gemini 3 Flash sur divers jeux de simulation de guerres, ces modèles ont bien plus rapidement tendance à formuler des propositions de recours à des armes nucléaires que ne le font classiquement les humains. Plusieurs spécialistes interviewés par New Scientist soulignent néanmoins que la mesure dans laquelle ces systèmes sont réellement déployés dans les processus militaires reste encore très incertaine.

L’un des enjeux de la séquence, relève néanmoins la directrice scientifique du AI Now Institue, Heidy Klaaf, est la levée d’un nouveau verrou dans l’utilisation de l’IA, que ce soit par les forces militaires ou par l’essentiel des constructeurs de ces technologies : celui de l’usage de grands modèles de langage dans des systèmes d’aides à la décision appuyés sur l’IA.

Que l’on requière, comme Anthropic le fait, plus ou moins de supervision humaine dans le déploiement de ce type de technologies, on se retrouve toujours avec des systèmes intégrés d’office aux outils d’aide à la décision, quand bien même leur propension aux erreurs (dites hallucinations) et aux générations totalement fallacieuses est largement établie. La tendance n’est mêmes pas neuve : ce type d’outils a notamment été entrainé par l’armée israélienne en s’appuyant sur des heures de conversations obtenues par la surveillance de la population palestinienne.

Gouvernement des États-Unis vs « caprices idéologiques des géants de la tech »

À l’échelle des États-Unis, un autre enjeu relève de la tentative de reprise du pouvoir politique états-unien sur ses sociétés numériques. C’est du moins dans ces termes que l’a formulé Pete Hegseth, déclarant que « les soldats américains ne seront jamais pris en otage par les caprices idéologiques des géants de la tech » et menaçant de classer l’entreprise en « fournisseur à risque pour la sécurité nationale ».

Sur Truth, le président Trump dépeignait quant à lui Anthropic en entreprise « woke » et de « gauche radicale », autrement dit en opposant politique. Le 28 février, Dario Amodei a qualifié l’interdiction des outils d’Anthropic de « punitive » et indiqué qu’il la contesterait devant les tribunaux.

Trois heures après l’interdiction de ses outils dans l’administration états-unienne, son concurrent OpenAI déclarait avoir conclu son propre accord avec le ministère de la Défense. Le lendemain, son CEO Sam Altman a déclaré sur X que son entreprise appliquait néanmoins des restrictions similaires à celles d’Anthropic sur l’usage de ses technologies.

Dans le détail, l’entrepreneur indique être en discussion depuis plusieurs mois avec le ministère pour des usages « non classifiés » car les « travaux classifiés sont beaucoup plus complexes ». Anthropic, lui, avait accepté ce type de contrats. Admettant que le timing de sa signature de contrat « n’est pas beau », Sam Altman affirme que le but était de « désamorcer » la situation en proposant des outils d’IA au ministère de la Défense étasunienne.

Se positionnant en défenseur de l’industrie de l’IA comme de sa collaboration avec l’administration, Sam Altman déclare enfin la « tendance actuelle dangereuse pour Anthropic, pour une compétition saine et pour les États-Unis » et rend publique son inquiétude devant la possibilité qu’un de ses concurrents puisse être mis sur liste noire par le gouvernement.

  •  
❌