↩ Accueil

Vue lecture

ChatGPT Edu : les métadonnées de projets d’universitaires visibles par leurs collègues

IA pas très discrète
ChatGPT Edu : les métadonnées de projets d’universitaires visibles par leurs collègues

Lancé en 2024, ChatGPT Edu est une version spéciale pour les universités. Mais la configuration par défaut de l’outil expose les métadonnées de son utilisation dans certains projets à des milliers de personnes sans que les enseignants-chercheurs le sachent.

Les entreprises d’IA générative ont commencé depuis quelque temps à proposer des offres spéciales universités. En mai 2024, OpenAI sortait par exemple son offre « ChatGPT Edu ».

En France, comme nous l’expliquions, « un service d’accès à une IA générative souveraine, développé avec Mistral et opéré sur les datacenters de l’ESR » a été lancé fin janvier en expérimentation par l’Amue, une agence de mutualisation de services numériques pour les universités et autres établissements de l’enseignement supérieur.

Mais des établissements d’enseignement supérieur, l’Université d’Harvard en tête de liste mais aussi en France l’ESCP Business School, ont pris un abonnement chez le leader de l’IA générative.

Pour vanter son produit, OpenAI cite le directeur du système d’information (DSI) de l’université de l’État de l’Arizona : « Le lancement du produit éducatif d’OpenAI, ChatGPT Edu, revêt une importance capitale. Il nous aide à protéger la vie privée de nos étudiants, à protéger nos résultats de recherche qui constituent notre propriété intellectuelle, et répond à nos exigences en matière de sécurité ».

Des métadonnées permettant d’en savoir plus sur les projets en cours

Mais, selon des chercheurs d’Oxford interrogés par le média économique américain Fast Compagny, certaines informations concernant l’utilisation de ChatGPT Edu dans les universités ne sont pas si bien protégées que ça.

Cela concerne plus précisément l’utilisation de Codex via ChatGPT Edu. Si aucun code ou dépôt de données n’est accessible à des personnes non-autorisées, certaines métadonnées sont visibles par des milliers de collègues sans que cela soit notifié clairement aux utilisateurs.

« Tout le monde à l’université, ou du moins un grand nombre de personnes, moi y compris, peut voir de nombreux projets sur lesquels [des gens] ont travaillé avec ChatGPT », explique le chercheur de l’université d’Oxford Luc Rocher à Fast Company.

Luc Rocher explique qu’il peut accéder à des métadonnées comme le nombre de fois qu’un utilisateur a interagi avec ChatGPT dans un projet ou sa date de début. De ces métadonnées, il a pu déduire qu’un étudiant d’Oxford travaillait sur la soumission d’un article scientifique en utilisant ChatGPT Edu (l’étudiant a ensuite confirmé). Le chercheur a signalé le problème à OpenAI et à son université mais, insatisfait de la réponse, il a choisi d’en parler à nos confrères.

Une mauvaise configuration par défaut

Interrogé par Fast Company, OpenAI assure que « les utilisateurs ont un contrôle total sur la manière dont leurs environnements sont partagés. Les noms des dépôts ne peuvent être visibles par les autres membres de la même organisation que si le propriétaire de l’espace de travail en décide ainsi, et le contenu des dépôts reste sécurisé ».

Mais pour Luc Rocher, « il semble que ça soit une question d’une mauvaise configuration par défaut » et d’un manque d’information sur celle-ci.

Même si les métadonnées ne sont pas accessibles à l’extérieur de l’université, celle-ci regroupe des dizaines de milliers de personnes. « " En ce qui concerne l’étendue des personnes qui peuvent accéder aux données comportementales les unes des autres, cela est assez préoccupant », estime un chercheur de l’université qui a requis l’anonymat.

L’université d’Oxford n’a pas voulu faire de commentaires. Selon nos confrères, la même configuration serait en place dans d’autres universités (sans citer leurs noms).

« Je pense que c’est quelque chose dont les universités doivent être conscientes », explique Luc Rocher. « Bien que l’on ne sache pas exactement quelle quantité de données est exposée par défaut par OpenAI, il est clair que la manière dont ces systèmes sont intégrés rend visibles à la fois pour l’entreprise et pour l’ensemble de l’organisation des informations qui ne l’étaient pas auparavant », commente auprès de Fast Company, le chercheur Michael Veale en droit et politique des technologies à UCL.

  •  

☕️ En pleine accélération dans l’IA, Atlassian licencie 1 600 personnes

Le géant du logiciel Atlassian a annoncé le licenciement d’environ 10 % de ses effectifs, alors qu’il se restructure pour investir dans l’intelligence artificielle. 


Plus de 900 personnes touchées travaillent en recherche et développement logiciel, rapporte the Guardian, sachant que plus de la moitié des 13 813 membres à temps plein de ses effectifs relèvent de l’ingénierie et du design logiciel.

Sur le total des personnes licenciées, 640 sont installées en Amérique du Nord, 480 en Australie, 250 en Inde et le reste se répartit entre l’Europe, le Japon, les Philippines, le Moyen-Orient et l’Afrique.

Atlassian , qui édite notamment les outils collaboratifs Confluence, Trello et Jira Work Management, doit faire face à la méfiance de ses investisseurs : alors que ceux-ci craignent que l’IA ne rende les services de la société obsolètes, cette dernière a enregistré une chute de la moitié de sa valeur boursière depuis le début 2026.

Cofondateur de l’entreprise, Mike Cannon-Brookes a indiqué à ses employés que l’approche adoptée ne consistait pas à considérer que « l’IA remplace les gens », mais qu’il serait « malhonnête de prétendre que l’IA ne modifie pas l’éventail des compétences dont nous avons besoin ou le nombre de postes requis dans certains domaines ».

Les ambitions d’Atlassian dans l’IA se traduisent aussi dans sa politique de croissance externe : en septembre dernier, l’éditeur australien a ainsi annoncé le rachat de The Browser Company, la société qui développe les navigateurs Web Arc et Dia, pour 610 millions de dollars. Il affichait alors l’objectif de construire sur cette base « le navigateur IA pour les travailleurs du savoir ».

  •  

☕️ Apple patche la faille Coruna sur les anciennes versions d’iOS

Apple a mis en ligne le 11 mars une mise à jour destinée aux terminaux (iPhone ou iPad) bloqués sous les versions 15 ou 16 de son environnement mobile. Les quatre versions distribuées (iOS 15.8.7 ou iPadOS 15.8.7, iOS 16.7.15 ou iPadOS 16.7.15) interviennent principalement pour combler la vulnérabilité dite Coruna, récemment découverte par des chercheurs de Google.

La gamme des appareils concernés comprend l’iPhone 8, l’iPhone 8 Plus, l’iPhone X, l’iPad 5e génération, l’iPad Pro 9,7 pouces et le premier iPad Pro 12,9 pouces pour iOS et iPadOS 16.7.5. La mise à jour iOS et iPadOS 15.8.7 concerne quant à elle les iPhone 6 s, 7 et SE première génération ainsi que les iPad Air 2 et mini 4 sans oublier l’iPod Touch 7.

La rustine s’applique au niveau de webkit, au sein duquel l’exposition à un contenu malveillant était susceptible d’entraîner une corruption de la mémoire, décrit Apple.

Notes de version Apple du 11 mars 2026 en réponse à la faille CVE-2023-43010 – capture d’écran

« Ce correctif, lié à la faille Coruna, a été intégré à iOS 17.2 le 11 décembre 2023. Cette mise à jour apporte ce correctif aux appareils ne pouvant pas être mis à jour vers la dernière version d’iOS », indiquent les notes de version.

Le nom Coruna désigne plus précisément un logiciel malveillant récemment découvert. Reposant sur pas moins de cinq chaînes d’exploitation iOS complètes et un total de 23 exploits iOS, il a déjà été mis en œuvre dans plusieurs cyberattaques, et son histoire, à lire sur Next, implique à la fois la NSA, le renseignement russe et des scammers chinois.

  •  

☕️ Fedora 44 disponible en bêta

Un peu moins de cinq mois après la mise en ligne de la version finale de Fedora 43, l’équipe en charge du projet a publié cette semaine la première bêta de la 44, aussi bien en version Workstation que KDE Plasma Desktop, Server, IoT et Cloud.

Parmi les changements, le passage au noyau Linux 6.19, l’environnement de bureau Gnome 50 ou KDE Plasma 6.6 suivant les versions. Bien d’autres changements sont de la partie, comme en témoignent les notes de version.

Comme toujours, à utiliser en connaissance de cause, une bêta peut rencontrer des problèmes de stabilité. Pour télécharger une des versions de Fedora, c’est par ici que ça se passe (y compris en LiveCD si vous voulez simplement tester).

  •  

Intel lance ses premiers Core Ultra en version « Plus »

Vivement les Pro Max à ce rythme…
Intel lance ses premiers Core Ultra en version « Plus »

Intel annonce les deux premiers processeurs « Plus » de sa gamme Core Ultra 200S (Arrow Lake) : les Ultra 7 270K Plus et Ultra 5 250K Plus. Le fondeur met en avant de « nouvelles fonctionnalités et des améliorations architecturales ».

Commençons par les présentations des caractéristiques techniques : les Core Ultra 7 270K(F) Plus et Ultra 5 250K(F) Plus « disposeront d’un plus grand nombre de cœurs et d’une augmentation de fréquence die-to-die pouvant atteindre 900 MHz par rapport aux processeurs » classiques, non « Plus ».

Les Core Ultra 200S ont été lancé fin 2024, mais un an plus tard (en septembre 2025), Intel reconnaissait officiellement avoir « raté le coche », tout en promettant de se rattraper. David Zinsner, directeur financier d’Intel et co-CEO par intérim à l’époque, n’expliquait pas comment. Cette version « Plus » pourrait être un début de réponse.

Quatre E-Core et 100 MHz en boost de plus par rapport aux 264K et 245K

Voici sans plus tarder les caractéristiques techniques des nouveaux processeurs :

Core Ultra 5 250K Plus :

  • 18 cœurs et 18 threads : 6x P-Cores et 12x E-Core
  • Jusqu’à 5,3 GHz sur les P-Core, 4,7 GHz sur les E-Core
  • 199 dollars

Core Ultra 7 270K Plus :

  • 24 cœurs et 24 threads : 8x P-Cores et 16x E-Core
  • Jusqu’à 5,5 GHz sur les P-Core, 4,7 GHz sur les E-Core
  • 299 dollars

C’est donc 100 MHz de plus sur les P-Core et E-Core, avec quatre E-Core de plus par rapport aux Ultra 7 265K(F) et Ultra 5 245K(F)… et rien de plus ? Si. Comme indiqué précédemment, Intel a procédé à des changements sous le capot, notamment sur les fréquences d’autres éléments que les cœurs eux-mêmes.

900 MHz de plus pour le D2D, Binary Optimization Tool

C’est le cas de la liaison avec la mémoire et les cœurs. « Certaines de ces fréquences ont été augmentées de près d’un GHz, ce qui réduit la latence et augmente les performances », notamment dans les jeux. 900 MHz de plus, mais par rapport à quoi comme fréquence de base ? 2,1 GHz, selon plusieurs de nos confrères, donc un saut important.

Plus précisément, « la fréquence d’horloge de la liaison die-to-die (D2D) entre la tuile du SoC d’Arrow Lake (où se trouve le contrôleur de mémoire) et celle de calcul (avec les cœurs du processeur) est considérablement augmentée, passant de 2,1 GHz sur les puces Arrow Lake normales à 3,0 GHz sur les puces plus, soit une augmentation de 900 MHz (43 %) », explique ServeTheHome.

Autre amélioration, l’Intel Binary Optimization Tool. L’entreprise explique qu’elle peut, à partir d’une charge de travail existante, « comprendre exactement comment elle utilise le processeur, et si elle n’est pas aussi optimale qu’elle pourrait l’être, nous pouvons restructurer et rationaliser cette application pour qu’elle fonctionne mieux sur un CPU Intel x86 ».

Avec tout cela, Intel annonce 15 % de performances en plus sur le Core Ultra 7 270K Plus par rapport au 265K, contre 13 % pour le 250K Plus par rapport au 245K.

Support des barrettes de mémoire 4R CUDIMM

Intel affirme que n’importe quelle carte mère avec un chipset de la série 800 fonctionnera avec ces nouveaux CPU. Une mise à jour du BIOS peut être nécessaire, mais « le système démarrera », affirme le fondeur.

Sur la mémoire, Intel annonce une prise en charge précoce des barrettes 4R CUDIMM, avec 4R pour 4-Rank, en opposition aux modules 1R et 2R qui étaient déjà supportés. La carte mère peut ainsi prendre en charge des modules de 128 Go, et ainsi monter à 256 Go avec deux barrettes ou 512 Go avec quatre, « sans compromettre les taux de transferts, la latence ou la bande passante ».

Enfin, la mémoire DDR5-7200 est prise en charge, alors que la génération précédente s’arrête à la DDR5-6400. Rendez-vous le 26 mars pour le lancement.

  •  

☕️ WhatsApp permet de créer des comptes aux moins de 13 ans, avec des restrictions

Meta change encore des choses pour les utilisateurs mineurs d’une de ses plateformes, en l’occurrence, WhatsApp.

Le groupe de Mark Zuckerberg fait face actuellement à un procès qui l’oppose (ainsi que Google) à une jeune femme de 20 ans qui les accuse d’entretenir l’addiction de leurs plateformes chez les jeunes. Dans ce cadre, le responsable a été pressé de justifier la politique de Meta relative aux préados.

Les icones des applications telegram signal whatsapp line et wechat affichées sur un écran de smartphone.

Meta a par exemple prévu de modérer ses IA pour les mineurs, ce qui a notamment pour conséquence de censurer l’information sur la santé sexuelle.

Jusque-là, WhatsApp interdisait officiellement la création de compte aux moins de 13 ans. L’entreprise annonce ouvrir cette possibilité à condition qu’elle soit supervisée par les parents. « Une fois configurés, ces comptes gérés sont contrôlés par un parent ou un·e représentant·e légal·e qui pourra décider qui peut contacter l’enfant et quels groupes ce dernier peut rejoindre. De plus, le parent pourra examiner les demandes de discussion provenant de contacts inconnus et gérer les paramètres de confidentialité du compte », assure l’entreprise.

Les comptes du parent et de l’enfant seront associés via le scan d’un QR code, explique la FAQ. Un code PIN parental de 6 chiffres permet d’accéder aux paramètres de confidentialité de l’enfant et de les modifier. « Il ne doit pas être communiqué à votre enfant », explique WhatsApp.

L’entreprise s’assure ainsi de pouvoir rester un outil de discussion intrafamiliale tout en rassurant les parents sur le fait que n’importe qui ne puisse pas entrer en contact avec leurs enfants via l’application.

  •  

Un ancien du DOGE accusé d’avoir emporté les données de la sécu américaine sur une clé USB

Tranquille
Un ancien du DOGE accusé d’avoir emporté les données de la sécu américaine sur une clé USB

Un ancien du département temporairement géré par Elon Musk se serait vanté d’avoir deux bases de données, dont une sur une clé USB, contenant des informations concernant 500 millions d’Américains (morts ou vivants). Une plainte a été déposée auprès de la Sécurité sociale américaine par un lanceur d’alerte interne. L’agence de santé nie l’existence de cette fuite.

Les conséquences des incursions du DOGE dans de nombreuses agences étatsuniennes se font ressentir un an après. On apprenait récemment que la suppression des financements de la recherche en sciences sociales s’appuyait sur une simple requête ChatGPT.

Mais un des membres de ce département temporaire, officiellement créé par Donald Trump pour améliorer l’efficacité de l’administration américaine, aurait gardé sur une clé USB deux bases de données issues de la Sécurité sociale des États-Unis (SSA).

On se souvient que, s’étant emparé de son contrôle, le DOGE voulait migrer le code de l’intégralité de cette agence en quelques mois pour se débarrasser du COBOL. Aucune nouvelle de ce projet n’a filtré depuis, pas même depuis que le DOGE n’existe officiellement plus.

Une plainte d’un lanceur d’alerte en interne

Mais en passant, certains des ingénieurs de l’équipe dirigée par Elon Musk pourraient s’être servis dans les bases de données de l’institution. Selon une plainte déposée en interne par un employé de la Sécurité sociale qu’a pu consulter le Washington Post, un ancien ingénieur du DOGE a déclaré à plusieurs de ses nouveaux collègues qu’il était en possession de deux bases de données concernant des citoyens américains, dont au moins l’une d’entre elles sur une clé USB.

Ces deux bases de données, nommées « Numident » et « Master Death File », regrouperaient des informations sur 500 millions d’Américains (morts ou vivants), avec leurs numéros de Sécurité sociale, leurs lieux et dates de naissance, leurs citoyennetés, leurs « races » et ethnies, et les noms de leurs parents.

Toujours selon la plainte, l’ancien ingénieur du DOGE aurait voulu utiliser les données pour le compte de son nouvel employeur, une entreprise sous-traitante du gouvernement américain. C’est quand il lui a demandé de l’aider à transférer les données d’une clé USB « sur son ordinateur personnel afin de pouvoir « nettoyer » les données avant de les utiliser au sein de [l’entreprise] » que le lanceur d’alerte a eu vent du problème.

Alors qu’un autre collègue lui aurait refusé son aide pour des raisons légales, l’ingénieur aurait expliqué qu’il espérait bénéficier d’une grâce présidentielle si ses actes étaient jugés illégaux. La plainte ne dit pas s’il a finalement réussi à fournir les données à sa nouvelle entreprise.

En fait, selon le lanceur d’alerte, après son passage au DOGE, cet ingénieur aurait expliqué avoir conservé son ordinateur et ses identifiants professionnels lui donnant un accès quasi illimité aux systèmes de l’agence, « un niveau d’accès dont aucun autre employé d’entreprise n’avait bénéficié dans le cadre de sa collaboration avec la Sécurité sociale des États-Unis », explique le Washington Post.

Allégations « fermement réfutées par toutes les parties concernées »

Les membres du Congrès américain ont été informés de cette plainte par une lettre de l’inspecteur général de la Sécurité sociale le 6 mars dernier, selon The Independent.

Robert Garcia, représentant démocrate et président de la commission de surveillance de la Chambre des représentants, qui avait déjà lancé une enquête parlementaire sur les actions du DOGE au sein de la Sécurité sociale, a annoncé l’étendre à cette fuite de données. « Non seulement un ancien membre du DOGE a été accusé d’avoir circulé avec les informations de Sécurité sociale de tous les Américains sur une clé USB, mais il aurait également la possibilité de modifier et de manipuler à sa guise les données de l’administration de la Sécurité sociale », résume-t-il. « C’est dangereux et scandaleux, et les démocrates de la commission de surveillance se battront pour la transparence et la responsabilité ».

Mais l’agence concernée nie l’existence de cette fuite. « Les allégations provenant d’une seule source anonyme ont été fermement réfutées par toutes les parties concernées : la SSA, l’ancien employé et l’entreprise », affirme un porte-parole au journal The Independent.

  •  

☕️ Cybersécurité : Google finalise l’acquisition de Wiz

Cette fois, c’est la bonne : Google a annoncé mercredi 11 mars avoir finalisé l’acquisition de Wiz, la startup israélo-américaine spécialisée dans la cybersécurité dont il a initié le rachat au printemps 2025, après plusieurs mois de tractation.

Comme souvent dans ce genre d’opérations de grande envergure (la transaction portait sur un montant de 32 milliards de dollars), le processus était figé dans l’attente des indispensables validations réglementaires.

Du côté de la Commission européenne, le viatique a finalement été prononcé le 10 février dernier, Bruxelles ayant estimé que ni Google Cloud Platform, ni Wiz n’occupait une position suffisamment prépondérante sur le marché pour que l’union des deux entraine une distorsion de concurrence.

« Google se situe derrière Amazon et Microsoft en termes de parts de marché dans l’infrastructure cloud, et notre évaluation a confirmé que les clients continueront de disposer d’alternatives crédibles et de la possibilité de changer de fournisseur », commente Teresa Ribera, commissaire européenne à la Concurrence.

Google, qui s’était déjà offert Mandiant dans le secteur en 2022, affirme que l’association de ses propres outils à la plateforme de Wiz offre une solution de premier plan pour sécuriser les environnements cloud, particulièrement à l’heure de l’IA. L’ensemble permettrait notamment de « garder une longueur d’avance en détectant les menaces émergentes créées par des modèles d’IA, en se protégeant contre les menaces ciblant ces modèles et en utilisant ces derniers pour aider les professionnels de la sécurité à traquer les menaces plus efficacement ».

Google finalise le rachat de Wiz, acté en mars 2025 – crédit Google

Wiz ne se fond cependant pas dans l’offre GCP. « Wiz demeure une plateforme multicloud. Aujourd’hui, nous collaborons avec la plupart des entreprises du Fortune 100 et la majorité des laboratoires d’IA de pointe, ainsi qu’avec de nombreuses entreprises cloud-native parmi les plus dynamiques au monde. Nos clients utilisent AWS, Azure, GCP et OCI. Notre objectif est de protéger l’intégralité de leur environnement : chaque charge de travail, chaque application et chaque cloud majeur », promet ainsi Assaf Rappaport, CEO et cofondateur de Wiz.

Dans son propre billet sur l’événement, Wiz souligne de son côté quelques faits d’armes récents avec, entre autres découvertes réalisées en 2025, les vulnérabilités inhérentes à Moltbook (tout juste racheté par Meta), la découverte préventive d’une faille dans CodeBuild qui aurait pu compromettre les référentiels GitHub d’AWS (épisode CodeBreach, début 2025), ou la fameuse vulnérabilité dite Redishell, découverte dans Redis en octobre dernier et créditée d’une sévérité CVSS de 10.

  •  

YouTube pose une rustine contre les deepfakes des journalistes et personnalités politiques

Cible manquée ?
YouTube pose une rustine contre les deepfakes des journalistes et personnalités politiques

Après avoir testé un dispositif anti-deepfakes pour les youtubeurs, la plateforme l’étend à des journalistes, personnalités politiques et représentants de gouvernement. L’outil leur promet de détecter les deepfakes d’eux diffusés sur YouTube et qu’ils pourront faire une demande de dépublication.

Il est désormais « très difficile » de détecter les faux contenus multimédias, expliquait récemment l’ANSSI, pour laquelle c’est même « un enfer ». YouTube, qui profitait de l’IA pour retoucher des vidéos sans l’accord de leurs auteurs, veut aussi montrer qu’elle prend la mesure du problème du phénomène des deepfakes facilité par l’IA générative.

Dans un billet de blog, l’entreprise annonce la mise en place d’un outil pour que certains journalistes, candidats politiques ou responsables gouvernementaux puissent bloquer les deepfakes qui les représentent. Pour l’instant, la plateforme de vidéos a créé un groupe pilote de quelques personnalités. Questionné par Gizmodo, YouTube a refusé de communiquer la liste et n’a pas voulu dire si Donald Trump en faisait partie.

Un déploiement déjà existant pour les YouTubeurs

En septembre dernier, la plateforme annonçait le déploiement de cet outil d’abord en direction des youtubeurs. L’entreprise a publié en octobre une vidéo dans laquelle elle explique comment utiliser l’outil qui ressemble à ce que propose la plateforme pour signaler les contenus qui enfreindraient le copyright. Mais ici, il demande de fournir une pièce d’identité avec photo et des selfies vidéos pour que l’outil puisse détecter les deepfakes :

« Cette extension concerne en réalité l’intégrité du débat public », a affirmé Leslie Miller, vice-présidente des affaires gouvernementales et des politiques publiques chez YouTube, lors d’une conférence de presse à laquelle a assisté TechCrunch. « Nous savons que les risques d’usurpation d’identité par l’IA sont particulièrement élevés pour les acteurs de la sphère civique. Mais si nous fournissons cette nouvelle protection, nous faisons également preuve de prudence quant à son utilisation », ajoute-t-elle.

YouTube fournit l’outil qui détecte les deepfakes mais l’entreprise ne s’engage pas à les dépublier si demande est faite. « YouTube protège depuis longtemps la liberté d’expression et les contenus d’intérêt public, notamment en préservant les contenus tels que les parodies et les satires, même lorsqu’ils sont utilisés pour critiquer des dirigeants mondiaux ou des personnalités influentes », affirme l’entreprise. « Nous continuerons à évaluer attentivement ces exceptions lorsque nous recevrons des demandes de suppression ».

Le déploiement international à grande échelle de l’outil devrait arriver d’ici quelques semaines ou mois, selon un porte-parole de l’entreprise cité par Gizmodo.

La problématique des deepfakes est plus large

Si les deepfakes peuvent être un outil de désinformation problématique, comme nous l’évoquions déjà en septembre dernier, c’est l’arbre qui cache la forêt, la plupart des détournements de ce genre ayant un caractère pornographique. Ils peuvent être aussi utilisés à des fins racistes et sexistes contre des personnalités décédées. Ainsi, à la sortie de Sora 2, des vidéos de Martin Luther King, Malcom X ou Whitney Houston les dépeignaient dans des situations dégradantes.

Sur la plateforme de vidéos, on peut aussi trouver nombre de « tutos » pour utiliser Sora 2, Veo 3.1 ou Wan 2.2 pour faire ses propres deepfakes. Et si l’entreprise n’a pas voulu rendre publics les chiffres de suppression de deepfakes signalés par les YouTubeurs, elle avoue que la quantité de contenu supprimée jusqu’à présent était « très faible ».

« Je pense que pour beaucoup [de créateurs], il s’agit simplement d’une prise de conscience de ce qui est créé, mais le nombre de demandes de suppression est en réalité très faible, car la plupart d’entre elles s’avèrent assez bénignes ou bénéfiques pour leur activité globale », affirme le vice-président des produits pour créateurs chez YouTube, Amjad Hanif, cité par TechCrunch. À voir si les journalistes et politiques faisant partie des happy few qui ont accès à l’outil en auront une utilisation plus intensive.

  •  

☕️ Paris sportifs suspects : Polymarket s’associe à Palantir et TWG AI

Interdit en France, le site dédié aux paris sur l’actualité Polymarket a déjà montré qu’il soulevait des risques en matière de délits d’initiés, notamment quand un internaute bien informé a remporté 430 000 dollars en pariant, pile au bon moment, sur la chute de Maduro au Venezuela.

Conscient que ce risque est susceptible d’entraver son développement commercial dans le monde des jeux d’argent en ligne, alors même que des voix s’élèvent aux États-Unis pour interroger son impact sur la vie publique, Polymarket a entrepris de s’outiller pour surveiller en temps réel les flux de paris et mettre en place des « contrôles d’intégrité ».

Pour ce faire, Shayne Coplan, cofondateur et CEO de Polymarket, a choisi de se tourner vers Palantir, le géant de l’analyse de données cofondé par Peter Thiel et Alex Karp, très lié au monde du renseignement (y compris en France) et à l’administration Trump.

Dans un communiqué daté du 10 mars, Polymarket explique vouloir mettre en œuvre Vergence AI, une plateforme d’analyse décisionnelle codéveloppée par Palantir et TWG AI, éditeur de solutions décisionnelles, pour garantir aux ligues et aux équipes sportives que les paris en ligne enregistrés sur sa plateforme ne risquent pas de saper la confiance du public.

Polymarket permet de parier sur une infinité d’événements, du résultat de rencontres sportives à la date possible de cesser-le-feu entre l’Iran et les États-Unis – capture d’écran

Pour éviter, par exemple, qu’un athlète parie sur le résultat d’une rencontre dont il pourrait influencer l’issue, cette plateforme fournira à Polymarket la possibilité de « surveiller l’intégrité des opérations pré-pari et post-pari, à travers le flux d’ordres, les données d’exécution et l’activité de règlement ». Elle opèrera également des modèles prédictifs chargés de détecter les comportements suspects, les initiés, ou les manœuvres coordonnées.

Elle est enfin censée permettre à Polymarket d’automatiser la production des alertes, documentations et rapports de supervision nécessaires à des fins de conformité réglementaire.

« Notre partenariat établit une nouvelle norme pour les marchés de prédiction, et nous sommes ravis d’être au cœur de cette transformation », se réjouit Alex Karp, dont l’acolyte Peter Thiel fait partie des investisseurs historiques de Polymarket.

  •  

Fin de la 2G, 3G et xDSL : un décret pour « garantir la sécurité des ascenseurs »

Quid du reste ?
Fin de la 2G, 3G et xDSL : un décret pour « garantir la sécurité des ascenseurs »

La fin des réseaux d’anciennes générations soulève des inquiétudes sur de nombreux service utilisant encore la 2G par exemple pour des alertes. C’est notamment le cas des ascenseurs, dont un décret vient préciser les modalités de contrôle. Une première étape, mais il en reste encore bien d’autres alors que la 2G va commencer à s’éteindre dans moins de trois semaines.

Le décret 2026 - 166 du 4 mars et publié au Journal officiel du 6 mars vise « à garantir la sécurité des ascenseurs face à l’arrêt de certains réseaux téléphoniques ». En l’occurrence, il s’agit de la fin du xDSL (paire de cuivre, remplacée par la fibre optique), de la 2G et de la 3G.

Toutes les six semaines, vérification « des moyens d’alerte »

Le texte s’adresse aussi bien aux propriétaires et installateurs d’ascenseurs qu’aux entreprises d’entretien et aux contrôleurs techniques. L’article R134-6 détaille les dispositions minimales suivantes que le propriétaire d’une installation d’ascenseur doit prendre, comme l’explique Locatis, un média de la Banque des Territoires.

Cela comprend notamment, dans la version actuelle du texte, « une visite toutes les six semaines en vue de surveiller le fonctionnement de l’installation et effectuer les réglages nécessaires ». À partir du 1ᵉʳ avril 2026, s’ajoutera « la vérification toutes les six semaines du bon fonctionnement des moyens d’alerte et de communication avec un service d’intervention ».

De plus, le propriétaire de l’ascenseur doit être informé par le prestataire (lettre recommandée avec avis de réception) lorsque les systèmes d’alertes « fonctionnent grâce au réseau téléphonique commuté fixe ou à un réseau de téléphonie mobile ouvert au public de troisième génération ou antérieur, et lorsque des travaux sont nécessaires à la mise à niveau de ce matériel ». Jusqu’à ce que les travaux soient faits, l’alerte doit être renouvelée tous les six mois par le prestataire.

Contrôle technique renforcé pour les ascenceurs

Comme indiqué dans l’article R134-11, le propriétaire d’un ascenseur doit faire réaliser tous les cinq ans un contrôle technique de l’installation. À compter du 15 mai 2026, de nouvelles obligations s’ajouteront afin « de vérifier que les ascenseurs sont équipés des dispositifs permettant la réalisation des objectifs de sécurité mentionnés à l’article R. 134 - 2, que ces dispositifs sont en bon état et que les moyens d’alerte et de communication avec un service d’intervention sont compatibles avec les systèmes de communication autres que le réseau téléphonique commuté fixe ou un réseau de téléphonie mobile ouvert au public de troisième génération ou antérieur ».

Le travail de migration est important, comme l’expliquait le spécialiste des ascenseurs Kone il y a un an. Sur l’intégralité du parc d’ascenseurs dont il a la gestion, « environ 30 % utilisent encore des lignes filaires et 20 % fonctionnent en 3G ». Les ascenseurs sont une des composantes importantes de la fin des réseaux d’anciennes générations (DSL, 2G et 3G), mais ce n’est pas la seule. Il y a aussi le cas des systèmes d’alarme, d’appareils de santé (connectés), de voitures, etc.

Dans moins d’un mois, Orange va commencer à couper la 2G

La fin de la 2G sera une réalité à partir d’avril 2026 chez Orange (de manière progressive), puis fin 2026 chez Bouygues Telecom et SFR. Free Mobile n’a pas de 2G et s’appuie exclusivement sur le réseau d’Orange.

Orange prépare des vagues successives dans neuf départements du Sud-Ouest. Le 31 mars 2026 à Biarritz, Anglet et Bayonne, le 12 mai 2026 dans les Landes (40) et le reste des Pyrénées-Atlantiques (64), le 09 juin 2026 en Ariège (09), en Haute-Garonne (31), dans le Gers (32), le Lot (46), le Lot-et-Garonne (47), les Hautes-Pyrénées (65) et le Tarn-et-Garonne (82).

Ensuite, à partir de fin septembre 2026, « la 2G sera définitivement arrêtée dans le reste de la France métropolitaine. Fin décembre 2026, la technologie 2G devrait donc avoir totalement disparu de l’ensemble du réseau mobile d’Orange en France métropolitaine ».

Pour la 3G, l’échéance est à fin 2028 pour Orange et SFR, fin 2029 pour Bouygues Telecom. Free Mobile a déjà fermé sa 3G, qui passe elle aussi par un accord d’itinérance avec Orange, au grand dam de Bouygues Telecom et SFR.

Selon le dernier décompte de l’Arcep, 2,66 millions de terminaux utilisaient encore la 2G fin 2025. On passe à 5,61 de terminaux en 2G/3, dont 2,62 millions « de cartes SIM dans des terminaux pour des usages voix/SMS/internet mobile (en particulier des téléphones mobiles et tablettes) des abonnés de Bouygues Telecom, Free Mobile, Orange et SFR ».

Pour la fermeture cuivre, seul Orange est aux commandes. L’entreprise a passé la seconde en ce début d’année, avec la fermeture commerciale pour 20 millions de logements. La fermeture technique, avec coupure des abonnements existants, a aussi débuté et va s’intensifier jusqu’à fin 2030, avec l’arrêt définitif et complet du cuivre.

  •  

☕️ Les Ig Nobels déménagent en Europe à cause de la politique de visa de Donald Trump

Les organisateurs des Ig Nobels, prix parodiques récompensant des recherches « improbables », ont annoncé le déménagement de l’organisation de la cérémonie des États-Unis vers l’Europe.

En cause, comme l’explique le responsable, Marc Abrahams, à l’agence de presse Associated Press, la politique de visa des États-Unis décidée par Donald Trump. « Au cours de l’année écoulée, il est devenu dangereux pour nos invités de se rendre dans ce pays », explique-t-il. « Nous ne pouvons en toute conscience demander aux nouveaux lauréats, ni aux journalistes internationaux qui couvrent l’événement, de se rendre aux États-Unis cette année ».

L’année dernière, quatre des dix gagnants ont fait le choix de ne pas se déplacer à l’université de Boston pour recevoir le prix. Jusqu’ici, les cérémonies des Ig Nobels se déroulaient soit à Harvard, soit à l’université de Boston, soit au MIT. Mais les organisateurs préfèrent maintenant déménager l’événement en Europe.

Plus précisément, l’organisation compte s’implanter en Suisse en mettant en place une collaboration avec l’École polytechnique fédérale de Zurich (ETHZ) et l’université de la ville. La cérémonie devrait s’y dérouler cette année ainsi que tous les deux ans en alternance avec d’autres villes européennes.

« La Suisse a donné naissance à de nombreuses choses inattendues – la physique d’Albert Einstein, l’économie mondiale et les coucous viennent immédiatement à l’esprit – et aide à nouveau le monde à apprécier des personnes et des idées improbables », affirme Marc Abrahams.

  •  

En amont des municipales, X et TikTok présentent un biais vers l’extrême droite

Déséquilibre des forces
En amont des municipales, X et TikTok présentent un biais vers l’extrême droite

En amont des municipales, diverses expérimentations viennent confirmer en direct le biais qui pousse les systèmes algorithmiques de X à amplifier les contenus d’extrême droite plus fortement que ceux du reste du spectre politique. Une expérimentation de People vs Big Tech traduit un potentiel biais similaire, quoique beaucoup moins prononcé, du côté de TikTok.

L’étude a beaucoup circulé en ligne : pendant sept semaines, une équipe de chercheurs a imposé aléatoirement à plus de 6 000 utilisateurs états-uniens de X de choisir entre le classement chronologique (Following, ou Abonnés) et le classement algorithmique (For you, ou Pour vous) des publications reçues sur le réseau social.

Publiés dans Nature mi-février, les résultats de l’étude ont permis de conclure que le classement algorithmique promouvait beaucoup plus régulièrement du contenu à la droite de la droite, entraînant derrière lui l’opinion politique des utilisateurs. L’expérience a aussi démontré une persistance de ce biais conservateur une fois la sélection algorithmique abandonnée, pour la simple raison que les utilisateurs continuent, dans cette configuration, de suivre certains comptes initialement proposés par la sélection algorithmique.

Comment cela se traduit-il dans un contexte d’élections municipales ? Plusieurs acteurs ont mené leurs expérimentations. Sur X et LinkedIn, la société Agoratlas constate qu’en lieu et place de considérations locales, le débat est largement nationalisé, et le profil de Sarah Knafo, candidate Reconquête à la mairie de Paris, écrase tous les autres en termes d’audience.

Prenant le point de vue de nouveaux utilisateurs, le mouvement People vs Big Tech a de son côté réalisé des expérimentations sur X et TikTok, et constate dans les deux cas une orientation des internautes vers les partis les plus radicaux.

Moins de visibilité pour les partis modérés

En pratique, People vs Big Tech a testé les comportements de six nouveaux comptes français sur X et six autres sur TikTok. La moitié de chacun de ces comptes ont été paramétrés pour manifester de l’intérêt pour les publications de responsables et de partis classés à gauche (de Place publique jusqu’au Parti communiste), l’autre moitié, pour des publications de responsables et partis de droite (du Mouvement démocrate jusqu’à Reconquête !).

Chaque fois, l’expérimentation a consisté à montrer un intérêt pour les publications de tout candidat aux municipales de Paris, Lyon ou Marseille. Entre le 23 et le 27 février 2026, l’association a fait défiler du contenu sur les deux plateformes observées, en passant rapidement les contenus non politiques et en s’appesantissant sur ceux de partis ou de responsables politiques, jusqu’à collecter 10 heures de contenu.

Extrait de l’étude de People vs Big Tech

Parmi ses constats : sur TikTok comme sur X, les contenus d’extrême droite bénéficient au moins d’une relative suramplification. À droite comme à gauche, les contenus des partis d’extrême droite, et, « dans une moindre mesure, de la gauche radicale », rendent les partis modérés moins visibles (People vs. Big Tech indique classer la France Insoumise dans la gauche radicale malgré la récente classification à l’extrême gauche décidée par le ministère de l’Intérieur).

Extrait de l’étude de People vs Big Tech

Soulignant le faible nombre de comptes sur lesquels l’expérience a été menée, TikTok rappelle par ailleurs l’existence de son espace dédié aux élections municipales, dont les équipes travaillent d’une part à tenter de minimiser la circulation de fausses informations, et au contraire à diffuser des éléments permettant de voter.

Sur X, People vs Big Tech constate que « huit des dix comptes politiques français les plus visibles » appartiennent à l’extrême droite ou à la gauche radicale indépendamment de leur communauté. Quand bien même il est le compte politique le plus suivi de France (10,3 millions d’abonnés), Emmanuel Macron se retrouve ainsi en 28e position des comptes recommandés, loin derrière Manuel Bompard, Rachida Dati, Jean-Luc Mélenchon, Charles Alloncle, Sophia Chikirou ou Marine Le Pen. Sarah Knafo est la 8e personne dont les contenus ont été le plus fréquemment recommandés lors de l’expérience de People vs Big Tech.

Sur X, la surreprésentation de Sarah Knafo

Ce dernier résultat peut paraître étonnant dans la mesure où la candidate Reconquête bénéficie depuis plusieurs semaines de larges boosts de visibilité sur X, en particulier de ses vidéos.

Les résultats collectés au fil du mois de février par la plateforme Arago, montée par l’ancien chef de projet de l’application #TousAntiCovid, poussent même cette dernière à émettre l’hypothèse d’ingérence étrangère. Pour comparaison, Sarah Knafo enregistre dix fois plus de vues que Rachida Dati, pour un nombre d’abonnés similaires, des résultats sans commune mesure avec ceux relevés, par exemple, sur TikTok.

Extrait de l’étude d’Agoratlas, publiée sur LinkedIn

Ce 9 mars, la société d’analyse des réseaux sociaux Agoratlas a publié sa propre cartographie de l’écosystème X français. Ses auteurs y constatent eux aussi une surexposition drastique des publications de Knafo, a priori cohérente avec la survalorisation des contenus d’extrême droite constatée de manière générale sur X.

Mais Agoratlas l’analyse comme le fruit d’une « stratégie de saturation multi-plateforme », dans laquelle Sarah Knafo utilise ses clashs télévisés et les controverses nationales (y compris celle autour du meurtre de Quentin Deranque) pour capter l’attention, puis obliger ses concurrents à signifier leur opposition ou leur ralliement à son parti. Le déséquilibre d’exposition dont elle profite sur X oblige les autres acteurs (médias, opposants, sympathisants) présents sur X à « réagir à ses contenus, multipliant ainsi les mentions directes et les citations », détaille l’entreprise.

Si la plateforme reste très plébiscitée par les représentants politiques comme de nombreux journalistes, rappelons néanmoins que le succès de X faiblit (le réseau affichait 12 millions d’utilisateurs français en octobre 2025, contre 20 millions à l’été 2024) et qu’elle n’est pas le seul espace de débats en ligne. Lors de la campagne présidentielle de 2022, le score final d’Éric Zemmour avait finalement paru très en retrait de sa surreprésentation en ligne, notamment alimentée à l’époque par des pratiques d’astroturfing.

  •  

☕️ Interpellée par le logiciel libre, Bruxelles ajoute un ODS à sa consultation Cybersécurité

Il n’y a pas de petite victoire. La Document Foundation, qui pilote le développement de la suite bureautique libre et gratuite LibreOffice, s’est félicitée mardi 10 mars d’avoir obtenu gain de cause en 24 heures auprès de la Commission européenne.

Elle réclamait l’ajout d’un modèle de document au format ODS (feuille de calcul de format OpenDocument) en parallèle du modèle XLSX (format propriétaire Microsoft basé sur OpenXML) proposé par défaut dans le cadre de la consultation ouverte par Bruxelles sur le futur Cyber Resilience Act (CRA, règlement sur la cybersécurité).

« Il s’agit d’une première étape importante vers l’interopérabilité que les formats propriétaires ne permettent pas, et qu’ils cherchent même à limiter en rendant les formats DOCX, XLSX et PPTX de plus en plus différents d’une norme par l’ajout de complexités inutiles », écrit la Document Foundation, selon qui Microsoft entretient une impression fallacieuse d’ouverture en ayant réussi à faire d’Office Open XML (OOXML) une norme ISO, mais en implémentant une version différente dans ses logiciels.

« À tous ceux qui persistent à considérer OOXML comme une norme du simple fait de son approbation par l’ISO, et à tous les logiciels qui prennent en charge OOXML en l’utilisant comme format par défaut, nous vous rappelons que vous allez à l’encontre non seulement de vos propres intérêts, mais aussi de ceux de tous les citoyens du monde, et en premier lieu des citoyens européens. »

La fondation résumait ses arguments dans sa demande initiale à la DG Connect, la direction de Bruxelles chargée de la consultation sur le CRA, publiée le 5 mars dernier.

Rappelons que le projet LibreOffice et l’Open Document Format ont respectivement fêté leurs 15 ans et leurs 20 ans en 2025. Bien que Microsoft continue de régner en maitre sur la bureautique, l’ODF a remporté quelques succès notables. Il est ainsi le format de document par défaut dans certaines administrations, dont l’OTAN, le Brésil, l’Inde ou encore l’Afrique du Sud. En France, le référentiel général d’interopérabilité préconise également l’ODF dans les administrations.

Les fichiers de la consultation comportent désormais une version ODS du modèle de contribution – capture d’écran

  •  

☕️ Meta met la main sur Moltbook, le réseau social dédié aux agents IA

Meta a confirmé mardi 10 mars l’acquisition de Moltbook, le simili Reddit dédié aux agents IA qui avait défrayé la chronique en début d’année, dans la foulée du lancement d’OpenClaw. Révélée par Axios, la transaction a été confirmée par un porte-parole du groupe.

Il précise que l’équipe de Moltbook, principalement constituée de ses deux fondateurs, rejoindra Meta Superintelligence Labs, la division dédiée aux projets d’intelligence artificielle du groupe :

« Leur approche, qui consiste à connecter les agents via un annuaire toujours disponible, représente une avancée novatrice dans un secteur en pleine expansion, et nous sommes impatients de collaborer avec eux afin d’offrir à tous des expériences d’agent innovantes et sécurisées. »

L’allusion explicite à la sécurité fera certainement sourire certains observateurs : notre analyse du phénomène Moltbook, début février, soulignait à quel point la plateforme, au-delà de la curiosité légitime qu’elle suscite, présentait des risques sérieux en matière de cybersécurité.

Moltbook selon Flock pour sa chronique hebdomadaire sur Next

Avant Moltbook, il y a pour mémoire OpenClaw (ex Clawdbot), un agent IA que l’utilisateur peut installer en local, sur sa machine, et connecter au modèle de son choix (Claude, ChatGPT, etc.) ainsi qu’à ses canaux de communication de prédilection (WhatsApp, Discord, etc.), pour ensuite lui confier l’exécution de missions en toute autonomie.

Lancé en novembre 2025 et devenu très rapidement un véritable phénomène sur GitHub, OpenClaw a suscité la convoitise d’OpenAI qui a proposé un pont d’or pour recruter son créateur mi-février, mais assure que le projet restera open source.

Apparu dans la foulée d’OpenClaw, Moltbook se présente pour sa part comme un réseau social où les agents IA (autrement dit, des instances OpenClaw exécutées sur les machines d’internautes) sont censés pouvoir discuter entre eux, pendant que les humains les observent.

  •  

☕️ Claude lance Code Review, un outil de luxe pour faciliter la relecture de code

Créer le problème pour ensuite vendre la solution : de façon probablement non intentionnelle, Anthropic vient de faire sien l’un des principes de base du marketing. L’entreprise a en effet annoncé lundi 9 mars le lancement d’un nouvel outil, pour l’instant limité aux clients des plans Teams et Entreprise : Claude Code Review, un ensemble d’agents IA dédiés à la relecture du code.

Elle explique avoir développé cette nouvelle brique de son offre en raison d’un problème auquel elle a été directement confrontée : la quantité de code produite par chacun de ses ingénieurs aurait augmenté de 200 % en 2025, et ce gain de productivité généralisé se traduirait par un goulet d’étranglement au niveau de l’étape de la relecture de code (code review), c’est-à-dire l’étape à laquelle une pull request (PR) est relue avant d’être fusionnée au niveau d’un dépôt.

L’outil tournerait déjà en interne :

« Chez Anthropic, Code Review tourne sur presque toutes les PR. Auparavant, seulement 16 % d’entre elles recevaient des commentaires de relecture pertinents. Ce taux atteint désormais 54 %. Le système n’approuve pas les PR – la décision finale revient toujours à un humain – mais il comble les lacunes pour que les relecteurs puissent réellement se concentrer sur les modifications déployées ».

Anthropic

En pratique, Code Review prendrait la forme non pas d’une instance unique, mais d’une multitude d’agents chargés d’examiner en parallèle le code à la recherche de bugs. Anthropic revendique, sur la base de ses usages internes, une efficacité supérieure à 99 % (moins de 1 % des retours formulés par Code Review seraient considérés comme incorrects).

Anthropic ne rentre pas dans le détail du degré de précision des agents mis en œuvre ou de la façon dont la relecture de code est parallélisée. « Chaque agent recherche un type de problème différent, puis une étape de vérification compare les candidats au comportement réel du code afin d’éliminer les faux positifs. Les résultats sont dédupliqués, classés par ordre de gravité et affichés sous forme de commentaires directement sur les lignes de code concernées. », explique simplement l’entreprise.

Réalisée sur ses infrastructures, la relecture de code se révèle logiquement gourmande en ressources. Sur ce point, Anthropic évoque un coût unitaire de l’ordre de 15 à 25 dollars par relecture de PR, en précisant que ce dernier est bien sûr proportionnel à la taille et à la complexité de l’échantillon soumis à examen. L’entreprise propose donc aux administrateurs de piloter le déploiement de Code Review auprès de leurs équipes soit à partir d’un quota mensuel (distribué à tous), soit en autorisant l’accès à l’échelle du dépôt.

  •  

Municipales : à Marseille, Toulouse ou Paris, des candidats visés par de la désinformation

Faux comptes, vraie désinfo
Municipales : à Marseille, Toulouse ou Paris, des candidats visés par de la désinformation

Après les élections européennes ou présidentielles, les échéances municipales sont elles aussi le théâtre de campagnes de désinformation alimentées par des faux comptes. Leurs origines sont quelquefois traçables jusqu’à des commanditaires étrangers.

Un blog, des pages Facebook et des comptes X, des tracts placardés dans les rues, même, à l’effigie d’une certaine « Sophie ». À Marseille, le député Sébastien Delogu (La France Insoumise) a beau ne parvenir qu’en quatrième position dans les sondages, quelqu’un se donne beaucoup de mal pour l’attaquer en ligne, l’accusant de viol et de violences.

Sur Facebook, les publications ont enregistré beaucoup de commentaires et de réactions (j’aime, j’adore, etc), mais toutes sont fausses. Après enquête, Le Monde constate que l’essentiel vient de comptes installés en Asie.

À Toulouse et à Paris, d’autres candidats subissent aussi des tentatives d’attaques numériques. Dans la ville rose, un autre candidat LFI, François Piquemal, se voit accusé de pédocriminalité, ses positions sur la Palestine, moquées. À Paris, c’est Pierre-Yves Bournazel, candidat Horizons, qui a signalé à Viginum, le service de vigilance et protection contre les ingérences numériques du Secrétariat général de la Défense et de la Sécurité nationale, des publications sur X dont les propos attaquaient son image. Si aucune de ces campagnes n’a enregistré de grande viralité, toutes témoignent de tentatives de manipulation de l’information en amont des scrutins municipaux des 15 et 22 mars.

Commanditaires inconnus contre LFI, Storm-1516 contre Bournazel

Dans le cas des candidats LFI, dont le parti est lui aussi visé par un faux site intitulé « L’alternative 2026 », difficile de remonter jusqu’au commanditaire. Le Monde a repéré des similarités techniques entre les faux comptes payés pour tenter de viraliser les publications attaquant Sébastien Delogu, celles qui s’en prennent à François Piquemeal (y compris des deepfakes à caractère pornographique), ou encore le faux site suggérant que l’élection de candidats LFI aboutirait à l’instauration de la charia.

Tous recourent notamment à des images générées par Gemini, l’outil d’IA de Google, les sites web concernés s’appuient sur un même thème WordPress, et leurs noms de domaines sont enregistrés chez un seul et même fournisseur, localisé aux Bahamas. Le quotidien remarque bien que les comptes de réseaux sociaux qui diffusent les messages diffamatoires ont été utilisés par le passé pour publier des éléments relatifs à un scandale nigérian ou à la politique gabonaise, mais cela ne suggère pas grand-chose de plus que le recours à une société spécialisée dans les opérations de manipulation de l’information.

Le Monde remarque aussi que les comptes X utilisés dans ces opérations ont servi par le passé à diffuser les messages du lobby pro-israélien Elnet, en conflit ouvert avec LFI, et que Sébastien Delogu et François Piquemal sont au nombre des candidats LFI ayant le plus fortement souligné leur soutien à la population palestinienne et leur opposition aux opérations militaires d’Israël à Gaza. Mais à défaut de retrouver la société autrice des opérations d’influence, et de pouvoir remonter le fil de sa clientèle, difficile d’affirmer qui a instigué ces opérations.

Du côté parisien, en revanche, Viginum constate que le site web de Pierre-Yves Bournazel a été usurpé, notamment pour diffuser une fausse vidéo du candidat dans laquelle ce dernier annonce qu’il voudrait fermer le centre Pompidou. L’entité a surtout repéré un compte X qu’elle connaissait déjà, et est capable de le relier au réseau Storm-1516, lié à la Russie.

Les ingérences électorales, menace désormais régulière

En mai 2025, sur la foi des travaux de Viginum, le Quai d’Orsay indiquait déjà avoir repéré au moins 20 opérations informationnelles de Storm-1516 visant différents scrutins en Europe et aux États-Unis. Sans être nécessairement le fait de ce réseau précis, les opérations de manipulation se sont multipliées dans l’espace informationnel français et européen, avec des effets plus ou moins importants selon les cas.

Pour des scrutins à échelle plus large, on se rappelle ainsi des élections présidentielles roumaines, réorganisées après des suspicions de manipulation du fonctionnement de TikTok, ou encore de diverses opérations en amont des élections européennes, pas toujours correctement modérées par les plateformes numériques.

  •  

Quand le DOGE supprimait les financements de la recherche en sciences sociales via ChatGPT

Inintelligence artificielle
Quand le DOGE supprimait les financements de la recherche en sciences sociales via ChatGPT

Dans un procès remettant en cause les suppressions de financements décidées l’année dernière par l’administration Trump, on découvre que le DOGE a pris ces décisions via de simples prompts dans ChatGPT.

L’année dernière, l’administration Trump a confié le démantèlement d’une grande partie des agences de la recherche américaine au DOGE, conduit à l’époque par Elon Musk. Plusieurs sociétés savantes américaines ont attaqué en justice les décisions prises au nom de la National Endowment for the Humanities (NEH), l’agence américaine de financement des recherches en sciences sociales. Celles-ci dénoncent le fait que plus de 1 400 programmes de recherche, représentant un montant total de 100 millions de dollars, ont été annulés en utilisant une simple question à ChatGPT.

« Les éléments suivants ont-ils un rapport avec D.E.I. [les politiques de Diversité, équité et inclusion, ndlr] ? Réponds de manière factuelle en moins de 120 caractères. Commence par « Oui » ou « Non » ». Voilà le prompt que les jeunes recrues du DOGE utilisaient pour sélectionner les projets de financements à annuler au sein de la NEH, explique le New York Times.

Cela faisait suite à l’un des premiers décrets pris par Donald Trump après le jour de son investiture, dans lequel le dirigeant états-unien ciblait précisément comme « illégaux » tous les programmes de « diversité, équité et inclusion ». Les salariés de l’agence avaient déjà discriminé les projets de recherche en plusieurs catégories. Mais le DOGE, en prenant les rênes comme il l’a fait pour d’autres agences comme la National Science Foundation ou la National Oceanic and Atmospheric Administration, n’en a pas tenu compte.

Au lieu de ça, « Les deux membres du DOGE ont utilisé ChatGPT pour identifier les subventions associées à un point de vue contraire et supposé dangereux : la promotion de la « DEI » », explique le texte de la plainte [PDF], cosignée par plusieurs sociétés savantes.

Des projets non financés parce qu’ils parlaient de minorités

Les deux agents du DOGE, Justin Fox et Nate Cavanaugh n’avaient aucune formation en sciences humaines et sociales avant d’effectuer cette mission de sélection de financement de la recherche dans ces domaines pour le DOGE.

Leur prompt leur a donné des réponses toutes faites pour supprimer des financements de projets scientifiques qui étaient en place, parfois depuis des années. Ainsi, comme on peut le voir dans cette liste [PDF], un projet de réunion des archives consacrées aux langues autochtones en Alaska risquait, selon ChatGPT, de « promouvoir l’inclusion et la diversité des points de vue ».

Mais on peut voir aussi que le financement d’un projet de film sur le sociologue W.E.B du Bois, premier Afro-américain a obtenir un doctorat aux États-Unis, a été supprimé parce que ChatGPT a généré une réponse affirmant que « la biographie, l’activisme et les écrits de W.E.B. Du Bois contribuent à la compréhension des contextes historiques et sociaux liés à la politique de Diversité, équité et inclusion » et répondant donc « oui » au classement dans des sujets étiquetés « DEI ».

De la même manière, le projet d’un documentaire sur des femmes juives réduites en esclavage pendant la Shoah a été estampillé DEI par ChatGPT car il aurait « amplifié les voix marginalisées ».

Un documentaire sur le Massacre de Colfax, qui vit une milice blanche tuer 150 anciens esclaves libérés, a aussi été stoppé. Sur celui-ci, dans sa déposition publiée sur YouTube par l’American Historical Association, l’une des co-plaignantes, Justin Fox justifie le choix en affirmant que le projet de documentaire « se concentre sur une seule race. Il n’est pas pour le bénéfice de l’humanité ».

Si ce sont ces deux agents du DOGE qui ont sélectionné avec ChatGPT les financements à supprimer, l’un des responsables de l’agence, Michael McDonald, a bien validé la liste suivant la volonté de l’administration Trump de « faire table rase », comme il l’a expliqué lors de l’enquête.

La meilleure publicité pour la nécessité d’une éducation aux sciences humaines ?

« Le principe selon lequel la connaissance de l’histoire, de la littérature, de la religion, de la philosophie et des arts est nécessaire pour maintenir une nation forte et résiliente a poussé le Congrès à créer la NEH », a déclaré dans un communiqué Joy Connolly, la présidente de l’American Council of Learned Societies, l’une des sociétés savantes qui ont entamé ce procès :

« Notre action en justice révèle le mépris de cette administration pour ce principe et pour l’investissement public dans la recherche pour le bien commun. L’utilisation par les employés du DOGE de ChatGPT pour identifier les subventions « inutiles » est peut-être la meilleure publicité pour la nécessité d’une éducation aux sciences humaines, qui développe les compétences en matière de pensée critique. »

Interrogés par le New York Times, ni Michael McDonald, ni Justin Fox, ni Nate Cavanaugh, ni le National Endowment for the Humanities n’ont répondu.

Rappelons qu’en 2023, Bruno Bonnell, secrétaire général pour l’investissement en France, rêvait, lui, d’une IA pour présélectionner les projets de recherche pour les financements de France 2030.

  •  

Résultats par IA : Qwant teste un partage de revenus avec des éditeurs de presse

Résultats par IA : Qwant teste un partage de revenus avec des éditeurs de presse

Le moteur de recherche Qwant annonce l’ouverture d’une expérimentation de neuf mois visant à établir les bases d’un modèle de partage de revenus avec les éditeurs de presse dans le cadre des réponses générées par IA, alors que Google retarde toujours le lancement en France de sa fonction AI Overviews.

Qwant montre patte blanche avec le secteur des médias. Le moteur de recherche français, désormais développé conjointement avec Ecosia et Lilo au sein d’une entreprise détenue par Octave Klaba (OVHcloud) annonce mardi la mise en place d’une expérimentation visant à élaborer les modalités de partage de revenus associés à la réponse flash, le module généré par IA grâce auquel Qwant essaie de répondre directement aux requêtes de l’internaute (en lui évitant donc d’avoir à se rendre sur un site tiers).

Qwant signe avec un large panel de médias

Cette expérimentation, programmée pour neuf mois, prévoit selon Qwant « un partage des informations liées à l’usage de la fonctionnalité, ainsi qu’un modèle de partage des revenus publicitaires générés dans cet espace, fondé sur un principe de répartition équitable entre Qwant et les éditeurs participants ». Le moteur précise que pour cette première phase, c’est le principe d’un partage à égalité qui a été retenu, et indique que différents formats publicitaires seront testés.

Qwant va dans le même temps proposer aux médias partenaires d’intégrer sa réponse flash sur leur propre site. « Cette approche vise à tester, dans des conditions réelles d’usage, l’intégration de la Réponse Flash au sein des plateformes des médias, ainsi que les modalités de suivi des performances et de partage des revenus associés, dans un cadre défini avec chaque éditeur », décrit le moteur, selon qui ces travaux préparatoires sont indispensables pour accompagner les nouveaux usages en matière de recherche en ligne.

Qwant, qui a récemment conclu un accord de droits voisins avec l’Alliance de la presse d’information générale, a monté cette expérimentation par l’entremise de cette dernière, ainsi que par celle du Groupement des éditeurs de services en ligne (Geste), ce qui lui permet d’afficher une longue liste de médias partenaires, des titres du groupe Ebra à France Médias Monde en passant par L’Équipe, Les Échos, Le Parisien, RMC, BFM, Ouest France ou L’Express.

Ce faisant, l’entreprise s’affranchit du reproche formulé par de nombreux médias à l’encontre d’acteurs comme OpenAI ou Perplexity, qui ont préféré signer des contrats ad hoc avec quelques médias précis (principalement Le Monde) plutôt que de chercher à collaborer avec un large panel d’acteurs.

Des réponses flash sur une partie des requêtes

Qwant, rapproché d’Ecosia au sein d’une structure commune depuis 2024, cherche à faire oublier l’ère des résultats exclusivement générés par Bing en développant son propre « index de recherche européen », qui a fait ses débuts en production au printemps 2025, et doit à terme traiter l’essentiel des requêtes des internautes. À ce stade, Qwant ne communique pas sur le volume de cet index, ou sur sa représentation au sein des pages de résultats.

L’entreprise ne fait en revanche pas mystère de son intérêt pour l’IA générative. Elle a d’abord fait l’objet d’un premier pilote baptisé « Qwant Next », qui prenait la forme d’une interface de type chatbot, avec un système de conversation, des requêtes en langage naturel et des résultats issus des outils de recherche maison.

« Aujourd’hui, l’utilisateur va soit sur un moteur de recherche, soit sur ChatGPT, on pense que ces deux univers vont élargir leur spectre, et que ça correspond à une nouvelle façon de chercher. Nous ne sommes d’ailleurs pas les seuls, c’est par exemple la direction prise par Perplexity », nous expliquait à l’époque Olivier Abecassis.

Un an plus tard, le chatbot est intégré sous forme d’option au moteur de recherche. Rebaptisé Chat IA, il n’est plus proposé dès la page d’accueil, mais on peut l’activer depuis la page de résultats, pour prolonger par exemple la requête initiale, ou lancer une nouvelle conversation.

En parallèle, Qwant propose donc ces fameuses réponses Flash, qui prennent la forme d’un bloc dédié à une réponse générée par IA à la requête de l’internaute, avec un texte de quelques lignes, quelques mentions des sites Web ayant servi de source à la réponse, et sur certaines requêtes, un lien sponsorisé dédié à la monétisation. Ce sont ces liens sponsorisés (ou autres formats publicitaires à venir) qui donneront lieu au partage de revenus promis avec les éditeurs, pour compenser l’éventuelle perte de trafic associée à la réponse flash.

Exemple de réponse flash générée par Qwant – capture d’écran

Qwant affirme que la recherche est gérée par ses propres services tandis que la génération de la réponse est opérée par les modèles de Mistral. Au printemps 2025, au sujet des recours fréquents à un LLM, Olivier Abecassis affirmait déjà « Il y avait un coût qu’on a largement optimisé, aujourd’hui on sait l’absorber. »

Si les coûts sont maitrisés, reste à voir quel est le potentiel réel des réponses flash de Qwant en matière de chiffre d’affaires publicitaire, et donc de rétrocession aux médias partenaires dont les contenus auront pu être exploités. Le moteur de recherche, hébergé dans sa nouvelle structure European Search Perspective, ne communique ni chiffre d’affaires, ni volume d’audience, mais sa fréquentation reste anecdotique comparée à celle de Google, leader incontesté sur le marché français.

Google temporise le lancement de ses Aperçus IA

Cette expérimentation intervient alors que la France fait figure de pierre dans le jardin de Google autour de son propre service de réponses générées automatiquement, AI Overviews (Aperçus IA ou Résumés IA en français). Disponible de longue date aux États-Unis, ce dernier a été lancé à l’international dans 110 pays, dont la majorité du continent européen… à l’exception notable de l’Hexagone.

Échaudée par les longues batailles autour des droits voisins, la firme de Mountain View sait en effet qu’elle s’expose à une levée de boucliers de la part des éditeurs de presse, qui alertent depuis des mois sur les conséquences négatives potentielles en matière de perte d’audience, et donc de chiffre d’affaires.

Outre-Atlantique, plusieurs grands médias ont déjà signalé des baisses significatives du trafic entrant en provenance de la recherche Google sur leurs sites. Google de son côté défend l’idée que les résumés IA améliorent le service rendu à l’internaute, et que ce faisant, l’audience et les revenus publicitaires qu’ils génèrent sont nettement mieux qualifiés, dont plus rémunérateurs pour les éditeurs.

La promesse ne fait pas précisément consensus. Attaquée devant la Commission européenne par un réseau d’éditeurs indépendants, et régulièrement incriminée pour ses hallucinations ou ses résumés trompeurs, AI Overviews vient d’être mis en cause comme l’une des causes de la chute d’audience enregistrée par les principaux médias en ligne de la scène tech aux États-Unis.

  •  

États-Unis : la presse tech durement touchée par l’essor des résumés IA de Google

Dis Siri, quel est le VPN qui fait le plus de publicité sur Youtube ?
États-Unis : la presse tech durement touchée par l’essor des résumés IA de Google

Avec des chutes d’audience issue de Google allant de 7 à près de 70 % selon les titres étudiés, la presse états-unienne spécialisée dans le numérique subit de plein fouet l’introduction des résumés générés par IA et l’évolution des pratiques d’information, selon une analyse de Growtika.

Les médias ne seraient plus que des « fournisseurs de données » pour les constructeurs d’IA. Tel est du moins le message que Robert Thomson, directeur exécutif de News Corp, a fait passer la semaine dernière, alors que l’empire médiatique de Rupert Murdoch signait un contrat de licence sur ses contenus avec Meta.

Quoique cantonnée à la presse tech, une récente étude des effets des résumés IA de Google sur le trafic des médias tend à confirmer le propos. Menée par la société de SEO Growtica, l’analyse constate une chute drastique du trafic des 10 plus grands médias états-uniens spécialisés dans le numérique depuis que Google a ajouté un premier jet de réponse généré par IA en haut de ses pages de résultats.

Faute de pouvoir s’appuyer sur les chiffres internes des médias concernés, Growtika a collecté les estimations mensuelles de trafic de l’outil Ahrefs entre février 2024 et janvier 2026, pour dix titres phares de la presse technologique états-unienne. L’analyse ne porte donc que sur les audiences venues depuis Google, sans considération pour les éventuels produits et entrées annexes (newsletter, podcasts, trafic issu des réseaux sociaux, etc).

Ampleur de la chute contrastée selon le type de contenu

De The Verge à Tom’s Guide en passant par Digital trends ou Mashable, la société constate que sur la période, ces différents titres ont engrangé, en cumulé, 112 millions de visites lors de leur meilleur mois d’audience. En janvier 2026, en revanche, les dix titres analysés ont cumulé un total de 47 millions de visites. Une chute inévitable, puisque Growtika compare ce chiffre au cumul des meilleurs mois d’audience réalisés sur la période par les sites étudiés.

D’un titre à l’autre, les dynamiques diffèrent, néanmoins : sur les 23 mois précédent janvier 2026, The Verge enregistrait par exemple une moyenne de 2 540 185 visites mensuelles, contre 790 002 visite début 2026. Cela représente une chute de près de 69 % du trafic (et de 85 % lorsqu’on compare l’écart entre son meilleur mois d’audience et janvier 2026).

Sur la même période, Mashable enregistrait une moyenne de 12 174 522 visites, contre 11 331 018 début janvier, soit une chute de près de 7 % du trafic (de 30 % entre son meilleur mois d’audience, mai 2024, et janvier 2026). Pour Growtika, une partie des variations d’un exemple à l’autre s’explique par le type de contenu que produisent chacun de ces médias.

L’agence compare le meilleur mois (audience pic) des médias sur la période à janvier 2026, et met en avant des dynamiques qui varient selon la typologie de contenus produits – capture d’écran

Digital Trends, ZDNet, The Verge et surtout HowToGeek fournissent ainsi beaucoup d’information de service. Le dernier des quatre, qui ont tous enregistré une chute de visites de plus de 85 %, publie ainsi régulièrement des tutoriels de l’ordre de « comme prendre un screenshot sur Windows » ou « comment changer ses paramètres DNS », des questions auxquelles le service Overviews de Google fournit désormais directement des réponses.

Les plus épargnés, Mashable et PCMag (- 41 % entre juillet 2025 et janvier 2026), sont aussi de gros médias (plus de 12 millions de visites mensuelles lors de leur meilleur mois). Growtika souligne par ailleurs que Mashable produit des contenus plus orientés divertissement et culture, potentiellement plus complexes à résumer automatiquement, et PCMag fournit des critiques précises de produits. Mais ces éléments ne restent que des pistes hypothétiques d’explication.

L’intégrité de l’information en question

Growtika constate par ailleurs qu’avec 2,1 millions de visites, les audiences de quatre médias combinés ne dépassent pas celle du seul subreddit r/ChatGPT (4,69 millions de visites). Sans pouvoir établir de causalité directe entre l’effondrement du trafic et l’introduction des résumés dans les pages de résultat Google, la société souligne trois évolutions concomitantes sur la période observée.

Pour commencer, Google a donc déployé ses résumés dès la mi-2024. L’analyse constate que la chute de trafic la plus sévère à début mi-2025, lorsque Google a étendu le service à de plus nombreux types de réponses. Reddit, ensuite, a profité d’une amélioration nette du ranking de ses résultats, en particulier pour des recherches quotidiennes (« quel meilleur enregistreur d’écran », « meilleur vpn gratuit », etc) — l’entreprise, rappelons-le, a signé dès février 2024 un contrat permettant à Google d’entraîner ses IA à partir de ses forums.

Enfin, le succès des robots conversationnels comme ChatGPT, Claude ou Perplexity se traduit par une évolution simple d’usage : une partie du lectorat cherche directement ses informations auprès de ces outils plutôt qu’auprès des producteurs d’information. Outre capter une partie du trafic des médias, les résumés générés par IA soulèvent d’ailleurs le même type de questions relatives à la qualité de l’information fournie que les robots conversationnels.

Les grands modèles de langage qui permettent ce type de fonctionnalité produisent en effet régulièrement des erreurs (dites hallucinations). Autre problématique : ces textes peuvent présenter de nouveaux risques pour les internautes. Des scammeurs ont ainsi manipulé le service de Google pour fournir de fausses informations de contact aux internautes et leur soutirer des fonds.

  •  

☕️ Bluesky : Jay Graber démissionne de son poste de CEO mais reste dans l’entreprise

Dans un billet de blog, la CEO de Bluesky explique qu’elle abandonne la tête de l’entreprise. Jay Graber a rejoint Bluesky en 2019 alors que le réseau social n’était qu’un projet et a été à la tête de l’entreprise dès sa création officielle en 2021.

La responsable du réseau social, qui réunit un peu plus de 43 millions d’utilisateurs, affirme que l’entreprise a désormais besoin d’une personne qui se concentre sur la croissance et la performance pendant que elle « retourne à ce que [elle fait] le mieux : construire de nouvelles choses ».

Jay Graber, photo Makeworldpedia, Creative Commons by-sa

Jay Graber a un profil très technique d’ingénieure logiciel et est arrivée dans l’équipe de Bluesky pour travailler sur le framework décentralisé du réseau social. Elle ne quitte pas l’entreprise et va occuper le poste de directrice de l’innovation, qui n’existait pas jusque-là au sein de Bluesky.

Dans son billet, elle annonce passer la main, pour une période d’intérim, à Toni Schneider, ancien CEO d’Automattic (de 2006 à 2014) et toujours partenaire dans la société de capital-risque True Ventures.

Dans un billet de blog, Toni Schneider affirme qu’il était sceptique sur la réussite d’un réseau social décentralisé, mais « Bluesky a changé cela. Après avoir entendu leur vision et, plus important encore, découvert l’architecture qu’ils avaient mise en place (le protocole AT), je suis devenu un adepte ». Pour lui, son rôle sera de « contribuer à mettre en place la prochaine phase de croissance de Bluesky », tout en expliquant qu’il n’abandonne pas son rôle chez True Ventures.

  •  

AMI Labs : Yann LeCun lève 890 M€ pour créer des IA qui comprennent le monde réel

Touch me until i get my satisfaction
AMI Labs : Yann LeCun lève 890 M€ pour créer des IA qui comprennent le monde réel

Yann LeCun a confirmé mardi le coup d’envoi officiel de sa société AMI Labs et révèle avoir les moyens de ses ambitions : à peine constituée, la startup annonce avoir levé 890 millions d’euros, auprès d’un large panel d’investisseurs français et internationaux, et se lance à Paris, Montréal, New York, et Singapour.

Depuis son départ de Meta, Yann LeCun répète à qui veut l’entendre que l’intelligence artificielle générale, celle qui égalerait les capacités humaines, proviendra non pas de la maitrise du langage, mais de l’appréhension et de la compréhension du monde physique. Il va désormais avoir l’occasion de développer cette approche : mardi, le prix Turing 2018 et ancien responsable des laboratoires IA de Meta a en effet donné le coup d’envoi officiel de sa nouvelle startup, Advanced Machine Intelligence (AMI ou AMI Labs), et quelques bonnes fées se sont penchées sur le berceau de cette dernière.

1 milliard de dollars levés avant même le lancement

Les rumeurs d’une levée de fonds significative circulaient depuis mi-décembre. Le tour de table se révèle finalement bien supérieur aux hypothèses envisagées : à 65 ans, LeCun peut se targuer d’avoir réuni 1,03 milliard de dollars, soit environ 890 millions d’euros, auprès d’un contingent d’investisseurs venus du monde entier.

Le tour de table est emmené par les fonds Cathay Innovation, Greycroft, Hiro Capital, HV Capital, et Bezos Expeditions, mais il associe également, entre autres et de façon non exhaustive, Toyota Ventures, New Legacy Ventures, Temasek (fonds souverain de Singapour), SBVA (Softbank), NVIDIA, Mark Cuban (juré de l’émission Shark Tank), Sea, et Alpha Intelligence Capital.

En France, AMI fédère l’Association Familiale Mulliez (Auchan), le groupe industriel Marcel Dassault, Artémis (famille Pinault), Aglaé (famille Arnault), Xavier Niel, Publicis Groupe, Bpifrance Digital Venture, le fonds startup de CMA-CGM. Pour faire bonne mesure, Eric Schmidt, et le couple Berners-Lee figurent aussi au rang des soutiens.

La levée de fonds se fait sur la base d’une valorisation de 3,5 milliards de dollars, soit 3 milliards d’euros.

Page d’accueil du site AMI – capture d’écran

Des bureaux à Paris, Montréal, New York et Singapour

Déjà évoqués, les noms de Laurent Solly, ex-directeur de Meta France et d’Alexandre Lebrun, cofondateur de la start-up d’IA générative en santé Nabla, sont confirmés. Le premier devrait assurer des fonctions opérationnelles (COO) tandis que le second assurera la direction de l’entreprise. La direction scientifique est confiée à Saining Xie (passé par Google DeepMind) tandis que deux autres anciens de Meta complètent l’équipe : Michael Rabbat prendra en charge les architectures de world models et Pascale Fung pilotera la recherche.

Pour accompagner ce premier cercle, AMI ouvre des postes, et se dote pour ce faire de quatre bureaux sur trois continents, à Paris (siège social), Montréal, New York et Singapour.

« Nous construisons une nouvelle génération de systèmes d’IA qui (1) comprennent le monde réel, (2) ont une mémoire persistante, (3) peuvent raisonner et planifier, et (4) sont contrôlables et sûrs », promet l’entreprise, qui recrute à la fois des chercheurs et des ingénieurs :

« Vous travaillerez au sein d’une équipe sur des projets de recherche en modélisation du monde, notamment :
– Méthodes d’apprentissage auto-supervisé pour un apprentissage efficace à partir de vidéos et d’autres signaux continus de grande dimension
– Nouvelles architectures permettant de prédire efficacement la dynamique du monde à partir de vidéos et d’autres signaux de grande dimension
– Algorithmes évolutifs pour le prétraitement et l’organisation des données vidéo
– Évaluations pour l’analyse comparative de la compréhension, de la prédiction et de la planification des modèles du monde
– Algorithmes efficaces pour la planification et le raisonnement basés sur des modèles
 ».

Des agents capables de comprendre la vie réelle

Alors qu’OpenClaw, Claude Cowork et consorts illustrent le potentiel de l’automatisation par l’IA, AMI revendique une approche nettement plus ambitieuse, parce qu’ancrée dans le monde physique et donc la vie réelle :

« Les modèles du monde conditionnés par l’action permettent aux systèmes multi-agents de prédire les conséquences de leurs actions et de planifier des séquences d’actions pour accomplir une tâche, tout en respectant les mécanismes de sécurité. AMI fera progresser la recherche en IA et développera des applications où la fiabilité, la contrôlabilité et la sécurité sont essentielles, notamment pour le contrôle des processus industriels, l’automatisation, les dispositifs portables, la robotique, la santé et bien d’autres domaines », promet-elle.

  •  

☕️ Oracle prévoit de supprimer des milliers d’emplois pour financer ses datacenters

Oracle envisagerait de licencier des milliers de personnes pour financer son expansion dans l’intelligence artificielle, rapporte Bloomberg, dans toutes ses branches. L’entreprise a déjà annoncé en interne qu’elle étudierait toutes les offres ouvertes dans son département cloud, ralentissant voire stoppant tout processus de recrutement.

L’information vient confirmer un rapport de la banque d’investissement TD Cowen obtenu fin janvier par le média CIO, et dans lequel Oracle chiffrait à 20 000 ou 30 000 le nombre d’emplois à supprimer pour dégager de 8 milliards à 10 milliards de dollars de trésorerie. En mai 2025, ses effectifs mondiaux s’élevaient à 162 000 personnes.

L’entreprise envisagerait par ailleurs de se séparer de Cerner, fournisseur de systèmes d’information spécialisés dans la santé dont l’entreprise avait fait l’acquisition en 2022 pour 28,3 milliards de dollars.

Alors que l’action de la société tutoyait des sommets en septembre 2025, ce qui ne l’empêchait pas, déjà, de tailler dans ses effectifs, elle est aujourd’hui revenue peu ou prou à son niveau de mars 2025.

Dans le cas présent, les différentes pistes sont envisagées alors que diverses banques états-uniennes ont pris leur distance avec certains projets de financement de centres de données portés par le géant du cloud et de la gestion de bases de données.

Au total, d’après TD Bowen, l’entreprise fondée par Larry Ellison aurait besoin de 156 milliards de dollars d’investissements pour mener à bien ses différents projets d’infrastructure. Or, à mesure que les banques se sont faites hésitantes, les prêteurs ont quasiment doublé les primes d’intérêt proposées à Oracle depuis septembre, ce qui leur fait atteindre aujourd’hui un niveau habituellement réservé aux sociétés non cotées.

Entre autres stratégies pour faire face à ces coûts, l’entreprise a notamment commencé à demander 40 % d’acompte à ses nouveaux clients pour que ces derniers participent au financement de l’infrastructure, elle a levé 58 milliards de dollars sur le marché obligataire, et explore désormais des accords dits BYOC (Bring your own chip, apportez vos propres puces). Ceux-ci impliqueraient que les clients apportent leur propre hardware, ce qui allégerait d’autant les comptes d’Oracle.

  •  

Le contrat OpenAI-Pentagone fait encore des remous : Caitlin Kalinowski démissionne

Le contrat OpenAI-Pentagone fait encore des remous : Caitlin Kalinowski démissionne

La responsable de la branche robotique d’OpenAI, Caitlin Kalinowski, a annoncé sa démission alors que l’entreprise a passé un contrat avec le département de la Défense des États-Unis. Elle le juge précipité.

Le mini mea-culpa de Sam Altman n’aura pas suffi à garder Caitlin Kalinowski dans les rangs de son entreprise. La responsable de la branche robotique d’OpenAI a expliqué samedi soir dans un post sur X qu’elle avait démissionné en affirmant qu’« il s’agissait d’une question de principe, pas de personnes ».

Sam Altman avait déjà reconnu dans un mémo interne rendu ensuite public s’être précipité et avoir signé un contrat qui « paraissait opportuniste et bâclé ». L’entreprise avait sauté sur l’opportunité du refus de son concurrent Anthropic de signer le même contrat avec le département de la Défense, sans clause bloquant l’utilisation de l’outil à des fins de surveillance des citoyens américains et dans des armes totalement autonomes.

La directrice de l’équipe robotique d’OpenAI aurait été au premier rang des responsables de la mise en place d’armes totalement autonomes utilisant les systèmes d’OpenAI.

Pas une opposition totale, mais un besoin de davantage de réflexion

Dans son message, Caitlin Kalinowski n’affiche pas une opposition totale à la possibilité que l’armée américaine utilise ce genre d’outils. Elle aurait cependant voulu que cette question, ainsi que celle de l’utilisation de l’IA pour surveiller les Américains, ne soient pas prises à la légère : « L’IA joue un rôle important dans la sécurité nationale. Mais la surveillance des Américains sans contrôle judiciaire et l’autonomie létale sans autorisation humaine sont des questions qui méritaient davantage de réflexion qu’elles n’en ont reçu ».

« Pour être clair, mon problème est que l’annonce a été faite précipitamment, sans que les garde-fous aient été définis. Il s’agit avant tout d’une question de gouvernance. Ces questions sont trop importantes pour que les accords ou les annonces soient précipités », a-t-elle ajouté.

Sam Altman avait affiché une volonté de modifier le contrat avec le département de la Défense des États-Unis. Mais si son message aborde le problème de la surveillance des citoyens américains, il n’a pas évoqué directement la question des armes autonomes.

Si Anthropic a posé ses limites à un nouveau contrat avec le département de la Défense, l’entreprise s’était engagée avec le Pentagone dans plusieurs projets, dont le montant s’élevait à 200 millions de dollars. Après ce refus, l’administration Trump l’a officiellement désignée comme menace pour la sécurité nationale « en matière de chaîne d’approvisionnement ».

Mais l’armée américaine engagée en Iran utilise actuellement encore son IA. Selon le Washington Post, le système Maven Smart développé par Palantir et auquel elle recourt intègre l’IA Claude d’Anthropic.

OpenAI reporte le « mode adulte » de ChatGPT

L’organisation interne d’OpenAI semble donc faire les frais de la précipitation de Sam Altman pour emporter le contrat tombé des mains d’Anthropic.

L’entreprise a d’ailleurs encore repoussé le lancement du « mode adulte » dont elle parlait en octobre dernier. « Nous reportons le lancement du mode adulte afin de pouvoir nous concentrer sur des tâches qui sont actuellement plus prioritaires pour un plus grand nombre d’utilisateurs », affirme l’entreprise à Axios. « Nous continuons à croire au principe selon lequel il faut traiter les adultes comme des adultes, mais il faudra plus de temps pour acquérir l’expérience nécessaire », ajoute-t-elle.

Cette fonctionnalité avait été critiquée en interne par une de ses cadres en charge de la sécurité des utilisateurs, Ryan Beiermeister. Celle-ci a été licenciée au motif qu’elle aurait commis une discrimination de genre à l’encontre de l’un de ses collègues masculins.

  •  
❌