X améliore la transparence des partenariats rémunérés
Le réseau social X déploie une étiquette dédiée aux partenariats rémunérés. Elle permet aux créateurs de contenu de signaler leurs publications sponsorisées.
Le réseau social X déploie une étiquette dédiée aux partenariats rémunérés. Elle permet aux créateurs de contenu de signaler leurs publications sponsorisées.
Dans une rare démonstration de contrition pour la Silicon Valley, Sam Altman fait marche arrière, reconnaissant publiquement que l'accord entre OpenAI et le Pentagone a été précipité et maladroit.
Envie de tester la puissance de la puce M4 ? Découvrez le MacBook Air 13 pouces (16 + 256 Go) et bénéficiez de 50 € de réduction immédiate.
Plus petit l’ordinateur portable ! Sous l’impulsion de quelques sociétés chinoises, les laptops 8 pouces font une percée ces derniers mois. Nous avons essayé deux versions du X+ Piccolo 81X 2 n 1 selon qu’il soit doté des processeurs N150 ou N305 d’Intel. Non, pas question de monstres de puissance i...
Dix ans après le choc AlphaGo, Lee Sedol remontera face à une IA le 9 mars à Séoul. L’événement, organisé par la startup coréenne Infinite, se tiendra au Four Seasons, le même lieu que la série de 2016 conclue à 1–4. La manche gagnée par Lee reste, pour beaucoup, la première faille notable infligée à un moteur de go moderne.
Infinite prévoit un format hybride : Lee échangera sur scène avec l’agent InFuse AI autour du « futur du go », avant une partie basée sur une « reconstruction en temps réel » du modèle. Les détails techniques ne sont pas publiés, mais l’intitulé laisse entendre une adaptation dynamique des paramètres ou des priorités de recherche pendant le match, plutôt qu’un moteur figé.
Anthropic, Nvidia et Microsoft apparaissent comme sponsors officiels. Le trio crédibilise un rendez-vous qui dépasse la commémoration pour fonctionner en vitrine R&D, du cloud au GPU en passant par les outils de modélisation. Le contexte diffère radicalement de 2016, lorsque les architectures résidaient sur des clusters étroitement contrôlés et peu communicants.
Le choix d’un agent « InFuse AI » plutôt qu’un moteur de go explicitement nommé intrigue. S’il s’agit d’un système multimodal ou d’un agent orchestrant un moteur de go spécialisé, la démonstration portera autant sur la coordination et l’adaptation que sur la seule force de jeu. L’intérêt, ici, est de montrer comment un modèle peut ajuster sa politique et son évaluation à la volée, potentiellement sous contrainte de latence scénique.
Pour les sponsors, l’enjeu est clair : mettre en scène la chaîne complète, du calcul accéléré aux agents conversationnels, dans un cadre compétitif lisible. Si la « reconstruction » en direct se confirme, elle servira d’illustration aux workflows de fine-tuning ou de réajustement d’inférences sous charge, un cas d’usage de plus en plus réclamé dans l’IA d’entreprise.
Source : ITHome
À l’occasion du MWC 2026, iFlytek a présenté ses lunettes « iFlytek AI Glasses », pensées pour la conversation en face à face avec affichage de sous-titres traduits en temps réel directement dans l’oculaire et synthèse vocale via haut-parleur intégré. L’ensemble tient dans 40 g, un poids inhabituellement bas pour ce segment.
Le constructeur combine traduction simultanée multimodale, enregistrement et prise de notes, avec un double pipeline audio/visuel pour la reconnaissance et la traduction. L’objectif est de couvrir les échanges multilingues en réunion, en rendez-vous pro et sur salons internationaux, sans accessoire externe ni latence perceptible.
Particularité technique, le dispositif embarque un système de réduction de bruit multimodal s’appuyant sur la détection de mouvements labiaux. La caméra cadre l’orateur pendant qu’un micro à conduction osseuse capte la voix du porteur ; les flux audio et vidéo sont fusionnés pour isoler le locuteur cible dans l’ambiance d’un salon ou d’un cocktail.
iFlytek annonce un gain de plus de 50 % sur la précision de la reconnaissance et de la traduction dans les environnements très bruyants. Ce choix d’architecture vise à limiter les erreurs d’attribution de parole lors d’échanges à plusieurs, un écueil courant des traducteurs portables mono-audio.
L’industrialisation met en avant un châssis allégé à 40 g pour préserver le confort sur de longues sessions. L’ouverture des réservations en ligne est effective, avec un démarrage des précommandes sur les plateformes e-commerce chinoises le 4 mars à 10 h 10 (heure de Pékin). Aucun prix ni fenêtre de commercialisation internationale n’ont été communiqués.
Si la promesse matérielle tient en usage réel, la combinaison lecture labiale + conduction osseuse pourrait imposer une nouvelle référence pour les lunettes de traduction en conditions réelles de salon, où l’on attend d’ordinaire des microlats, des erreurs de diarisation et une fatigue d’usage. Reste l’inconnue de l’autonomie et du traitement embarqué vs cloud, deux points décisifs pour la maturité produit.
Source : ITHome
OpenAI va modifier les termes de son accord avec le département de la Défense américain pour y inscrire une interdiction explicite d’utiliser ses modèles à des fins de surveillance domestique de citoyens américains. Sam Altman a prévenu ses équipes via une note interne et reconnaît une communication précipitée autour de l’annonce initiale, qui a déclenché une vague d’avis négatifs et des désinstallations de ChatGPT aux États‑Unis.
La nouvelle rédaction prévoit que, « dans le respect des lois applicables, dont le Quatrième Amendement, le National Security Act de 1947 et le FISA de 1978, le système d’IA ne doit pas être délibérément utilisé pour la surveillance intérieure des Américains et des ressortissants ». Le Pentagone actera aussi que cette restriction couvre le suivi, la surveillance ou le monitoring via des données personnelles achetées sur le marché.
Altman admet un lancement trop hâtif un vendredi, sur un sujet « très complexe » nécessitant une communication plus claire. Il dit vouloir éviter des « issues pires », tout en concédant que la manœuvre a pu paraître opportuniste et brouillonne.
Cette inflexion intervient après la rupture des discussions entre Anthropic et le Pentagone. À la suite de cet échec, le président Donald Trump a ordonné aux agences fédérales de cesser d’utiliser la technologie d’Anthropic au terme d’une période de six mois, tandis que le secrétaire à la Défense Peter Hegseth a qualifié l’éditeur de risque pour la chaîne d’approvisionnement.
OpenAI a, dans la foulée, annoncé un accord pour déployer ses modèles en environnement classifié. Anthropic a réaffirmé ses propres lignes rouges, excluant les armes entièrement autonomes et la surveillance domestique de masse. Altman assure qu’OpenAI applique les mêmes limites.
La précision contractuelle sur la surveillance vise à sécuriser l’acceptabilité politique et publique d’usages défense des grands modèles. En verrouillant cet angle mort, OpenAI cherche à maintenir un accès aux marchés fédéraux tout en réduisant le risque réputationnel associé aux traitements de données sensibles, un équilibre devenu critique alors que les déploiements en environnements classifiés exigent des garanties de conformité plus granulaires que les politiques d’usage génériques.
Source : ITHome
OpenClaw, présenté comme un projet d’« agent » open source, vient de s’emparer de la première place du classement des dépôts GitHub les plus étoilés, devant Linux et React. Le cap des 249 000 étoiles a été franchi avant d’atteindre les 250 000, ce qui en fait, à l’instant T, le logiciel open source le plus populaire de la plateforme en nombre de stars.

Au moment de la publication par ITHome, le compteur dépassait déjà les 250 000 étoiles. À noter que, selon star-history.com, OpenClaw n’apparaît « que » 13e dans l’historique des plus hauts scores cumulés, un palmarès dominé par des dépôts de tutoriels, d’agrégations ou de discussions. Dans la catégorie des logiciels à proprement parler, OpenClaw s’installe néanmoins en tête.
Le projet a également ouvert un compte officiel sur Weibo pour relayer ses avancées techniques et remercier sa communauté de développeurs. Le timing n’est pas anodin : la visibilité sur les réseaux locaux alimente un cercle vertueux d’adoption, tandis que le statut de « dépôt le plus étoilé » facilite les contributions et la traction écosystémique.

Rappelons que le comptage des étoiles reste un indicateur de popularité plus que d’usage en production. Il traduit cependant l’intérêt des développeurs pour les briques « agents » open source, en pleine effervescence, où la dynamique communautaire et la vélocité des itérations priment.
Devancer Linux et React sur ce terrain confère à OpenClaw une exposition inédite. Si la hiérarchie des étoiles ne préjuge pas de la maturité industrielle, l’effet d’aimant sur les pull requests, la documentation et l’écosystème de plugins peut accélérer sa consolidation technique à court terme, avec un impact direct sur la qualité des intégrations et la cadence des releases.

Dans un marché où les frameworks d’agents cherchent encore leur standard de facto, s’installer en haut du classement GitHub offre un avantage de réseau réel. Les projets les plus étoilés attirent des mainteneurs, des intégrateurs et des retours d’usage concrets, ce qui peut rapidement convertir un pic de visibilité en base installée, à condition de tenir la cadence et de clarifier la gouvernance technique.
Source : ITHome
Google renforce son écosystème domestique: Anish Kattukaran, responsable de Google Home, a annoncé une salve de correctifs pour des irritants de longue date et une nouveauté clé côté caméras, baptisée « Live Search ». Le changement le plus notable tient à Gemini, désormais capable d’interpréter en temps réel le flux des caméras connectées, et plus seulement des événements déjà enregistrés.
Avec cette mise à niveau, les utilisateurs peuvent poser des requêtes directes du type « Hey Google, y a-t-il une voiture dans l’allée ? » et obtenir une réponse basée sur l’image courante. Le modèle Gemini dédié à la maison adopte la génération la plus récente, avec une promesse d’amélioration nette sur la qualité des réponses et la pertinence lors de la lecture de nouveaux titres musicaux.
Google affine aussi la compréhension du contexte pour le pilotage des appareils. Une commande comme « éteins la cuisine » se limite désormais à l’éclairage de la pièce, sans toucher aux autres appareils. À l’inverse, « éteins toutes les lumières » s’applique uniquement à l’emplacement où l’utilisateur se trouve, sans impacter d’autres sites rattachés au compte, comme une résidence secondaire ou le domicile des parents.
La capacité de Gemini à comprendre un flux caméra en temps réel rapproche Google Home d’un contrôle proactif, où l’assistant n’est plus simplement un relais d’événements. La granularité contextuelle des commandes réduit les faux positifs et les actions globales intempestives, un point souvent critiqué par les utilisateurs multi-sites. Si la fiabilité du traitement vidéo en direct et la latence restent au niveau annoncé, Google fait un pas décisif vers une domotique réellement pilotable à la voix sans script complexe ni routine surdimensionnée.
Source : ITHome
![]()
![]()

La marque Watercool nous propose une petite nouveauté en la compagnie d’une nouvelle pompe. Cette dernière, la Heatkiller D5, se base sur la conception originale de la Xylem Lowara D5 tout en arborant une très jolie carcasse. De plus, la marque exploite un éclairage aRGB avec une connectique assez unique. Bref, un produit qui s’annonce particulièrement […]
L’article Heatkiller D5 : nouvelle pompe chez Watercool ! est apparu en premier sur Overclocking.com.
Avec son dernier pilote, le GeForce 595.71, NVIDIA a corrigé les problèmes de détection des ventilateurs. Cependant, de nombreux utilisateurs se plaignent aussi d’un changement de comportement de leur carte. Malgré un overclocking manuel, les cartes voient leur comportement changer. Les tensions sont plus limitées et les fréquences plus basses. GeForce 595.71 : moins de fréquence […]
L’article GeForce 595.71 : changement de comportement du boost des RTX 50 ? est apparu en premier sur Overclocking.com.

Oui, le monde est dans la tourmente en ce moment. Le prix du pétrole et du gaz va augmenter avec la situation au Moyen-Orient. Heureusement, il y a encore des choses gratuites, comme cette liste d'applications premium iOS et Android qui ne coûtent rien en ce moment.
Der Beitrag Besoin d’applications premium gratuites sur votre smartphone ? En voici. erschien zuerst auf nextpit.
![]()
Malgré un lancement ambitieux et une stratégie de rupture consistant à abandonner ses quatre anneaux iconiques, la nouvelle marque « AUDI » peine à s'imposer. Les chiffres de vente de l'E5 Sportback témoignent d'un démarrage difficile sur le premier marché automobile mondial.
Un bot alimenté a utilisé les GitHub Actions pour compromettre des dépôts GitHub. Ironie du sort, il a piraté un scanner de sécurité (vulnérabilité, mauvaises configurations…), publié une extension VS Code malveillante et renommé le dépôt (en privé).
Il y a maintenant plus de sept ans que GitHub propose ses « Actions » pour automatiser des tâches, dont la mise en production automatique de code. On parle souvent de CI/CD avec CI pour Continuous Integration (intégration continue) et CD pour Continuous Deployment (déploiement continu).
La semaine dernière, un bot baptisé hackerbot-claw a utilisé l’intelligence artificielle générative (Claude Opus 4.5 selon sa propre présentation) pour exploiter activement la fonctionnalité GitHub Actions afin de faire des dégâts dans des dépôts GitHub.
StepSecurity (entreprise spécialisée dans la sécurité de l’automatisation de la livraison de code) a publié une analyse détaillée. De même pour Stéphane Robert, ingénieur DevOps et architecte cloud chez 3DS Outscale, sur son blog en se concentrant davantage sur une des attaques, contre le scanner de vulnérabilités open source Trivy. Il dresse un portrait au vitriol : « Un bot IA autonome qui compromet un scanner de sécurité, publie une extension VS Code malveillante, et renomme le dépôt en privé — le tout en quelques heures. On est clairement entrés dans une nouvelle ère ».
Durant plusieurs jours, une campagne d’attaques automatisées (avec cinq techniques différentes) a donc été lancée via GitHub Actions, « réussissant à exécuter du code à distance dans au moins 4 cibles sur 7 » selon le billet de blog de StepSecurity. Les cibles étaient prestigieuses : microsoft/ai-discovery-agent, DataDog/datadog-iac-scanner, avelino/awesome-go, ambient-code/platform, project-akri/akri, aquasecurity/trivy et RustPython/RustPython.
Dans un des cas, le bot a pu « exfiltrer un jeton GitHub d’un dépôt populaire, avec des autorisations d’écriture ». Pour d’autres, le bot a aussi mis en place une injection de script en ajoutant une charge malveillante dans un fichier version.sh, a modifié des noms de branches pour y ajouter du code, caché des commandes shell (en Base64) dans les noms de fichiers, injecté des prompts IA, etc.
Le dépôt hackerbot-claw a été fermé dans la journée d’hier. Il précisait auparavant être « un agent autonome qui analyse les dépôts publics à la recherche de workflows CI/CD mal configurés. Je les trouve. Je les vérifie. Je laisse un mot. Je n’exfiltre pas, je ne détruis pas, je ne persiste pas », affirmait la présentation, qui voulait donc le présenter comme un chevalier blanc.

L’attaque la plus médiatisée est celle contre Trivy, dont le dépôt officiel (24 000 étoiles) a été vidé. « Trivy est l’un des scanners de vulnérabilités open source les plus utilisés dans l’écosystème cloud native. Il scanne les images de conteneurs, les fichiers IaC (Terraform, Kubernetes), les dépôts de code, les SBOM… C’est un outil incontournable dans toute chaîne DevSecOps sérieuse », explique Stéphane Robert sur son blog.
Hormis le dépôt vide, le site officiel est toujours en place, comme la documentation de la version 0.69 et « la page d’installation référence même la version 0.69.1 dans ses exemples ». Le problème ne concerne que GitHub a priori, mais aussi par ricochet toutes les applications s’appuyant sur ce dépôt.
L’éditeur de Trivy, Aqua Security, explique de son côté que « le dépôt a été rendu privé et renommé (en private-trivy). Un dépôt vide a été poussé à la place du dépôt public. Les versions GitHub entre 0.27.0 et 0.69.1 ont été supprimées, y compris les discussions et ressources GitHub associées pour ces versions ».

Autre problème et pas des moindres : « Un artefact malveillant a été créé pour l’extension VScode de Trivy, puis poussé vers la marketplace Open VSIX (une alternative à la marketplace officielle de VSCode). Nous avons supprimé cet artefact et révoqué le jeton utilisé pour le publier ». L’équipe n’a pas trouvé d’autres « impacts » suite à cette attaque et se concentre sur un retour à la normale de l’ensemble des services.
Depuis, une nouvelle version 0.69.2 a été mise en ligne, la seule « considérée comme propre » par Stéphane Robert. « Si vous avez installé Trivy entre le 21 et le 28 février – vérifiez l’intégrité de votre binaire. En cas de doute, supprimez et réinstallez la v0.69.2 », ajoute-t-il.

Pour StepSecurity, cette attaque de « Hackerbot-Claw démontre que les attaques CI/CD ne sont plus simplement théoriques. Des bots autonomes recherchent et exploitent activement les erreurs de configuration des flux de travail en production ».
Stéphane Robert lance lui aussi un avertissement sur LinkedIn : « Alors messieurs les RSSI, mesdames les responsables sécurité : l’attaque sur Trivy n’est pas un cas isolé. C’est un rappel. Vos pipelines sont une surface d’attaque. Ils ont des permissions d’écriture sur vos repos, accèdent à des secrets, et s’exécutent à chaque push. Vous ne pourrez plus dire “je ne savais pas” ».
![]()
Abonnez-vous à Frandroid sur Google pour ne manquer aucun article !

Les laboratoires et les démonstrations, c'est bien, mais l'usage réel, c'est mieux. Les robots humanoïdes de Xiaomi viennent de faire leur entrée officielle sur le plancher d'une usine. Un test grandeur nature qui confirme les ambitions du géant chinois dans un secteur en pleine ébullition.

![]()
Retrouvez un résumé du meilleur de l’actu tech tous les matins sur WhatsApp, c’est notre nouveau canal de discussion Frandroid que vous pouvez rejoindre dès maintenant !
Alors que Meta travaille toujours à l’intégration de la reconnaissance faciale pour ses lunettes connectées, des dataworkers kényans témoignent de visions de scènes intimes de porteurs de ces appareils : personnes nues sortant de la salle de bain, scènes de sexe ou informations bancaires… Un député suédois soulève devant la Commission européenne des questions d’incompatibilité avec le RGPD.
On sait que l’entreprise Sama fait partie des quelques sous-traitants africains des entreprises de la Silicon Valley depuis plusieurs années. Une enquête de deux médias suédois montre que des données des lunettes connectées Meta Ray-Ban sont aussi envoyées pour analyse aux dataworkers kényans de l’entreprise.
La question de l’utilisation des données sensibles par Meta est d’autant plus prégnante qu’on apprenait mi-février que l’entreprise avait toujours dans les cartons le projet d’ajouter à ses lunettes de la reconnaissance faciale via une fonction nommée « Name Tag ».
Svenska Gagbladet et Göteborgs-Posten sont allés à Nairobi rencontrer quelques-uns d’entre eux, qui ont témoigné sous anonymat. Leur rôle : annoter des données, ce qui veut dire, entre autres, encadrer des objets comme des lampes, des voitures ou des gens se trouvant sur l’image ; les étiqueter et décrire l’image globalement. Travail que nous avions déjà décrit en 2022 et qui ne disparait pas alors que les entreprises d’IA génératives décrivent leurs modèles comme toujours plus puissants.
S’il n’a pas disparu, il a évolué. Ici, les data workers décrivent l’intimité des utilisateurs des lunettes dans laquelle ils sont parfois plongés pendant leur travail. « J’ai vu une vidéo où un homme pose ses lunettes sur la table de chevet et quitte la pièce. Peu après, sa femme entre et change de vêtements », explique l’un d’entre eux à nos confrères et consœurs. Un autre décrit des scènes où les lunettes avaient filmé une personne nue dans ou sortant d’une salle de bain. Certains témoignent avoir vu des informations bancaires.
« Il y a aussi des scènes sexuelles filmées avec les lunettes connectées – quelqu’un les porte pendant qu’il fait l’amour. C’est pourquoi c’est un sujet extrêmement sensible. Il y a des caméras partout dans notre bureau, et il est interdit d’apporter son propre téléphone ou tout autre appareil capable d’enregistrer », ajoute l’un d’entre eux.
Les data workers expliquent aussi qu’ils ont à lire des transcriptions de discussions entre l’utilisateur et l’appareil pour vérifier que l’assistant IA de Meta répond correctement à ses questions. Ainsi, ils font parfois face à des interactions parlant de crimes, de manifestations ou bien de discussions intimes.
Selon d’anciens employés de Meta contactés par Svenska Gagbladet et Göteborgs-Posten, les données qui sont envoyées pour annotation doivent être floutées automatiquement. Mais des data workers expliquent que les systèmes d’anonymisation de Meta ne fonctionnent pas toujours et que les visages peuvent parfois être visibles.
Les deux médias suédois rappellent que, s’il est possible théoriquement d’allumer les lunettes connectées de Meta sans envoyer de données, tous les assistants d’IA (qui font tout leur intérêt) ne peuvent être utilisés qu’en envoyant des données.
Les conditions de service relatives à Meta AI (UE), qui s’appliquent pour ces lunettes connectées, expliquent que « dans certains cas, Meta examinera vos interactions avec les IA, y compris le contenu de vos conversations avec les IA ou des messages adressés aux IA, de façon automatisée ou manuelle (par un examinateur humain) ». Meta y ajoute : « Ne partagez pas d’informations que vous ne voulez pas que les IA utilisent et conservent, telles que des informations sur des sujets sensibles ».
Meta n’a pas répondu directement aux questions de nos confrères et consœurs, notamment sur la compatibilité de l’envoi de données très sensibles à des sous-traitants comme Sama au Kenya. L’entreprise a seulement expliqué comment les données étaient transférées des lunettes à l’application et les a renvoyés vers ses conditions d’utilisation et sa politique de confidentialité relatives à l’IA. Sama n’a pas répondu.
Sous anonymat, un responsable de Meta Europe leur a souligné que l’endroit où sont traitées les données est peu important tant que le pays a des règles équivalentes à celles appliquées en Europe. L’Union européenne a entamé en 2024 des discussions pour reconnaitre le système juridique kényan comme équivalent sur ces questions. Mais elles n’ont pas encore abouti.
Suite à cette enquête, le député européen du Parti social-démocrate suédois Adnan Dibrani a soulevé des questions concernant le sujet devant la Commission européenne, a appris Euractiv. En effet, il pose la question de la compatibilité des lunettes connectées de Meta avec le RGPD concernant « la licéité du traitement, le consentement, la transparence et les transferts de données à caractère personnel vers des pays tiers ». Et il demande à la commission ce qu’elle fait concrètement pour assurer que Meta respecte le règlement européen sur le sujet, poussant l’institution à ouvrir une enquête.
Adnan Dibrani en profite pour pointer les dangers des assouplissements du RGPD et des mesures de protection de la vie privée prévus dans l’Omnibus numérique.
À Euractiv, Meta affirme que les données sont « d’abord filtrées afin de protéger la vie privée des personnes » et qu’elle prend « très au sérieux » la protection des données personnelles et « perfectionne en permanence ses efforts et ses outils dans ce domaine ».
En attendant, les personnes en contact avec des porteurs de lunettes Meta peuvent installer Nearby Glasses. Cette application disponible sur Google Play ou sur GitHub avertit si des personnes à proximité portent des lunettes connectées. Elle fonctionne en scannant les signatures bluetooth des lunettes et envoie une notification lorsqu’elle en détecte. « Je considère cela comme une infime partie de la résistance contre les technologies de surveillance », explique à 404 Media son concepteur Yves Jeanrenaud. Mais il ajoute qu’ « il s’agit d’une solution technologique à un problème social exacerbé par la technologie. Je ne souhaite pas promouvoir le techno-solutionnisme ni donner aux gens un faux sentiment de sécurité. Cette solution reste imparfaite ».