↩ Accueil

Vue lecture

La Cour des comptes pousse l’État à continuer ses investissements dans l’IA

IA des sous pour l'IA
La Cour des comptes pousse l’État à continuer ses investissements dans l’IA

Dans un rapport, la Cour des comptes analyse la stratégie nationale pour l’intelligence artificielle en place depuis 2018. Elle incite l’État français à ne pas « baisser la garde » et au contraire à amplifier sa politique concernant la recherche. Elle l’exhorte aussi à « renforcer les capacités de calcul » avec des partenariats public-privé d’ampleur et amplifier les transferts vers l’industrie.

Tout en reconnaissant que « la prise de risque [en matière d’investissement] est élevée, la rentabilité des investissements inégale, de même que le rapport entre la valorisation de certaines entreprises de l’IA sur le marché et les revenus générés ou espérés, faisant craindre des effets de bulle qui pourraient conduire à des ajustements d’ampleur, y compris en Europe, dans les prochains mois », la Cour des comptes incite l’État à amplifier la stratégie nationale pour l’IA (SNIA).

La juridiction administrative a rendu son rapport [PDF] mercredi 19 novembre sur cette stratégie. Celui-ci analyse les deux premières phases (2018 - 2022 et 2022 - 2025).

Pour la troisième phase (2025 - 2030), elle affirme que pour « réussir le changement d’échelle qu’exige la révolution de l’intelligence artificielle », l’État doit :

  • « renforcer le pilotage interministériel de la politique publique de l’IA, avec en particulier la constitution d’un véritable secrétariat général à l’IA rattaché au Premier ministre ;
  • mieux intégrer les enjeux de soutenabilité des finances publiques et d’efficacité de la politique de l’IA ;
  • procéder à une évaluation approfondie des résultats des précédentes phases de la stratégie nationale et s’inspirer des meilleures pratiques à l’étranger ;
  • mieux s’articuler avec l’échelon européen ;
  • mieux mobiliser les territoires ;
  • redéfinir le partage des rôles avec le secteur privé ».

Elle incite l’État à ne pas « baisser la garde » et à « renforcer les capacités de calcul » avec des partenariats public-privé d’ampleur et amplifier les transferts vers l’industrie.

Même si la Cour des comptes considère que cette stratégie a « remporté de premiers succès », elle estime que ses deux premières phases « présentent des angles morts dans plusieurs domaines essentiels […] notamment dans des chantiers qui demandent d’impliquer un cercle large d’acteurs et de faire le lien avec d’autres politiques publiques ».

Une première phase trop axée sur la recherche pour la Cour

Dans la première phase de cette stratégie (2018 - 2022), la Cour souligne que l’État a investi 1,3 milliard d’euros (contre 1,5 milliard programmés) en ne couvrant qu’une partie des enjeux tout en la faisant reposer « sur une gouvernance complexe et un suivi budgétaire lacunaire ».

Elle reproche à l’exécutif de ne s’être concentré, dans cette phase, que sur la partie recherche, en oubliant la formation supérieure en IA, l’ouverture des données, l’accompagnement des secteurs économiques prioritaires fortement impactés par l’IA, et l’encadrement éthique de l’IA qui étaient tout autant cité dans le rapport de la mission confiée au mathématicien Cédric Villani rendu en mars 2018.

Elle reconnait « les succès du volet « recherche en IA », appréciés avec un recul supplémentaire de deux années ». Néanmoins, elle pointe « le recours par l’État à une succession d’appels à projets ou à manifestation d’intérêt, pour des financements ponctuels avec un horizon de vie limité », ce qui « présente le risque d’accroître la fragmentation au sein de la recherche, au détriment de la cohérence d’ensemble, de la création de masses critiques et de stratégies plus structurelles permettant la coordination, la complémentarité et la responsabilisation des acteurs dans la durée ». Elle regrette aussi que le volet « formation supérieure » n’ait pas été mis en œuvre.

« Dans les autres domaines couverts par la SNIA – la défense et la sécurité, la transformation de l’action publique et la diffusion de l’intelligence artificielle dans l’économie – les avancées ont été moins nettes », déplore-t-elle.

Pas assez de dépenses pour soutenir la demande des entreprises dans la seconde phase

Pour la deuxième phase, « au total, l’État aura programmé 1,1 Md€ sur la période 2023 - 2025, soit un niveau inférieur d’un tiers à ce qui avait été initialement annoncé, et la lenteur du démarrage de la plupart des dispositifs s’est traduite par un faible niveau de consommation des crédits (35 % au 30 juin 2025) », assène la Cour.

Mais elle souligne que « les premiers résultats de cette deuxième phase commencent à se dessiner dans plusieurs directions. Bien qu’il soit encore tôt pour en apprécier pleinement les effets, les initiatives prises pour renforcer la structuration et l’excellence de la recherche et de la formation supérieure en IA produisent de premiers résultats et la place de la France sur ce volet progresse ». Elle ajoute que « efforts sur les infrastructures de calcul se sont poursuivis ».

La Cour reproche à l’exécutif d’avoir « très peu utilisé le levier de la commande publique pour favoriser l’adoption de l’IA dans la sphère publique ». Elle vise « en particulier » la Dinum (auditée en 2024) qui a, selon elle, « privilégié les développements internes avec le risque que les solutions proposées ne soient pas toujours performantes comparativement à l’offre disponible sur le marché, notamment chez les éditeurs logiciels français ».

Elle pousse aussi l’exécutif à dépenser plus sur le sujet de l’IA. « Plusieurs domaines non moins essentiels ont été laissés de côté », estime-t-elle. « L’enjeu de la massification et de l’accompagnement de la diffusion de l’intelligence artificielle au-delà du cercle des spécialistes – entreprises, administrations publiques, étudiants, citoyens – a jusqu’ici trop peu retenu l’attention, alors qu’il était au cœur des ambitions affichées par cette phase de la SNIA et que les années 2023 - 2025 étaient critiques en la matière », précise l’institution. « Ainsi, la priorité que constitue le soutien à la demande des entreprises en solutions d’IA n’a bénéficié que de dispositifs très modestes, et l’accélération et la massification escomptées de la diffusion de l’intelligence artificielle dans l’économie n’a pas eu lieu », ajoute-t-elle encore.

  •  

☕️ Référencement et marketing : Adobe veut s’offrir Semrush pour 1,9 milliard de dollars

Adobe a formulé mercredi une offre de rachat portant sur son compatriote Semrush, également coté à la bourse de New York, pour un montant de 1,9 milliard de dollars, soit une prime de près de 80 % par rapport au cours précédent l’annonce. Cette opération de croissance externe est présentée comme le prolongement stratégique des développements déjà réalisés par Adobe en direction de l’IA à des fins marketing.

Bien connu des spécialistes du SEO (Search Engine Optimization), Semrush édite pour mémoire une suite d’outils dédiés au référencement et à la visibilité des marques sur Internet, et c’est précisément la question de la visibilité des marques au sein des outils d’intelligence artificielle générative qui semble motiver l’opération. En analogie avec le SEO, un acronyme marketing a déjà émergé pour qualifier cette problématique : GEO, pour Generative Engine Optimization.

Logos d’Adobe et de Semrush – crédit Adobe

« La visibilité des marques est en pleine mutation grâce à l’IA générative, et celles qui ne saisissent pas cette nouvelle opportunité risquent de perdre en pertinence et en chiffre d’affaires, déclare Anil Chakravarthy, président de la division Expérience numérique d’Adobe, dans un communiqué. Avec Semrush, nous offrons aux marketeurs la possibilité d’exploiter la géolocalisation comme un nouveau canal de croissance, au même titre que le SEO, pour une visibilité accrue, un engagement client renforcé et des conversions optimisées au sein de l’écosystème. »

Semrush devrait logiquement s’interfacer avec les différents outils marketing d’Adobe, qu’il s’agisse de son système de gestion de contenus numériques (AEM), ou de sa nouvelle offre d’agents conversationnels Adobe Brand Concierge.

L’acquisition a déjà fait l’objet d’une validation de la part du conseil d’administration de Semrush. Adobe indique avoir ainsi déjà recueilli l’approbation de l’équivalent de 75 % des droits de vote combinés de l’actionnariat de sa cible.

Début novembre, lors de la présentation de ses résultats financiers pour le troisième trimestre, Semrush indiquait tabler, pour l’ensemble de son exercice 2025, sur un chiffre d’affaires annuel de l’ordre de 445 millions de dollars, en croissance de 18 % sur un an, principalement grâce à l’appétit de ses clients pour l’IA générative.

  •  

☕️ Rebecca Heineman, pionnière et championne de jeux vidéo, est morte à 62 ans

Championne de jeux vidéo, cofondatrice d’Interplay, cheville ouvrière de The Bard’s Tale 3: Thief of Fate, développeuse renommée, spécialiste du portage sur Mac et avocate de la cause transgenre dans une industrie essentiellement masculine, Rebecca Heineman s’est éteinte le 17 novembre dernier.

Elle avait été diagnostiquée deux mois plus tôt d’un adénocarcinome pulmonaire avancé, et documentait non sans humour son douloureux combat contre la maladie sur son compte Bluesky. « Je n’aurais jamais cru que ce vœu se réaliserait. C’est étrange de voir des éloges funèbres avant ma mort », postait-elle le 17 novembre. Quelques heures plus tard, Scott Miller, cofondateur d’Apogee et de 3DRealm, confirmait sa mort : « Une légende de l’industrie du jeu vidéo est décédée ».

Surnommée « Burger Becky », Rebecca Ann Heineman s’est illustrée en remportant à 16 ans ce qui est considéré comme la première compétition de jeux vidéo organisée sur le sol américain : en 1980, elle s’était imposée en effet comme la grande championne d’un concours organisé par Atari autour de Space Invaders, ce qui lui avait permis de repartir chez elle, en Californie, avec le premier prix : une borne d’arcade, alors qu’elle rêvait de gagner le deuxième lot, un Atari 800.

Rebecca Ann Heineman a lancé le 10 octobre un appel aux dons sur GoFundMe pour l’aider à financer ses soins

Devenue développeuse, elle est créditée au générique de pas moins de 67 jeux d’après la base de données Moby Games, parmi lesquels bon nombre de titres cultes. Elle a participé à la création du studio Interplay en 1983, où ses travaux prépareront le terrain à des titres aussi emblématiques que Wasteland, qui donnera naissance à Fallout, ou Baldur’s Gate. Chez Interplay, elle a aussi conçu Bard’s Tale III: The Thief of Fate et Dragon Wars, et participé à des portages considérés comme particulièrement difficiles tels que ceux de Wolfenstein 3D et Battle Chess.

Côté portage, elle accède justement à une certaine notoriété dans les années 90 en s’attelant à la version 3DO de Doom, rappelle Ars Technica. Une mission de quelques semaines, réalisée sous une pression intense, comme Rebecca Heineman l’a elle-même raconté sur son GitHub. Habituée des conférences pour développeurs (c’est lors de la dernière PAX qu’elle a ressenti les premiers symptômes qui conduiront au diagnostic de son cancer), elle est unanimement saluée pour son talent et sa débrouillardise technique.

En 2025, elle avait été honorée d’un Gayming Awards, un trophée célébrant les défenseurs de la cause LGBTQ+ dans l’industrie du jeu vidéo. Rebecca Ann Heineman avait réalisé et assumé publiquement sa transition de genre en 2003 et a longtemps vécu en couple avec Jennell Jaquays, une célèbre conceptrice et illustratrice de jeux de rôle, décédée début 2024.

Début octobre, Rebecca Ann Heineman avait lancé une campagne de dons sur GoFundMe pour soutenir les frais élevés associés à son traitement. C’est aussi là qu’elle avait annoncé, le 17 novembre, sa fin imminente. « Il est temps. D’après mes médecins. Tout traitement supplémentaire est inutile. Alors, s’il vous plaît, faites un don pour que mes enfants puissent organiser des funérailles dignes de mon clavier, Pixelbreaker ! Pour que je puisse faire une entrée digne de mes retrouvailles avec mon unique amour, Jennell Jaquays ».

  •  

ChatGPT for Teachers, une version gratuite pour le corps enseignant américain

Qui suis-je ? Ou vais-je ?
ChatGPT for Teachers, une version gratuite pour le corps enseignant américain

OpenAI a montré ce 19 novembre toute son ambition dans le domaine de l’éducation. L’entreprise lance une version gratuite et spécifique de son ChatGPT pour les enseignants, avec une volonté claire de devenir incontournable.

OpenAI a annoncé hier soir dans un billet de blog la disponibilité d’une version gratuite et spécifique de ChatGPT à destination des enseignants aux États-Unis. Pourquoi ce domaine en particulier ? Parce que selon l’entreprise, sur les 800 millions d’utilisateurs que compte son chatbot, les enseignants seraient les premiers à l’avoir adopté et les plus actifs.

L’offre a donc été spécialement conçue pour le corps enseignant, affirme OpenAI. Elle est basée sur GPT-5.1 Auto pour répartir les demandes et l’ensemble des fonctions. Une mémoire adaptée aurait été mise en place, pour retenir autant de contexte que possible et simplifier le travail quotidien. La sécurité est déclarée comme conforme aux normes FERPA (Family Educational Rights and Privacy Act). L’outil peut être intégré à d’autres comme Canva, Google Drive et Microsoft 365. Envoi de fichiers, génération d’images et autres sont aussi présents.

Des fonctions spécifiques ont été ajoutées. Par exemple, la possibilité de créer des espaces de travail partagés pour créer des modèles de plans de cours. Les enseignants pourront également planifier leurs travaux sur plusieurs semaines, générer des exemples pour un devoir, gérer la conformité avec les normes ISTE (pdf), voir des exemples créés par d’autres enseignants, des contrôles administratifs pour les groupes, etc.

Cette offre a été pensée pour les 400 000 enseignants certifiés du primaire à la terminale, « dans les principaux districts aux États-Unis ». La vérification du statut se fait SheerID, qui joue le rôle d’intermédiaire de confiance auprès d’OpenAI.

Gratuit jusqu’en 2027, et après ?

« Chaque élève aujourd’hui grandit avec l’IA, et les enseignants jouent un rôle central pour les aider à apprendre à utiliser ces outils de manière responsable et efficace. Pour soutenir ce travail, les éducateurs ont besoin d’espace pour explorer l’IA par eux-mêmes. ChatGPT for Teachers est conçu pour les aider à faire exactement cela : offrir une expérience pratique et concrète qu’ils peuvent ramener dans leurs classes. Et en la rendant gratuite pour des millions d’enseignants, nous espérons faciliter une utilisation sûre et réfléchie de l’IA dans l’apprentissage par toutes sortes d’écoles »

Surtout, ce ChatGPT for Teachers est mis à disposition gratuitement jusqu’en juin 2027. Pour OpenAI, c’est évidemment un pari qui peut lui rapporter gros : en offrant un service conçu spécifiquement pour ce qu’elle-même présente comme les besoins des enseignants, l’entreprise pourrait bien s’assurer une place de choix dans leur quotidien. En juin 2027, quand la gratuité prendra fin, les personnes qui estimeront avoir gagné suffisamment de temps avec l’outil pourraient ainsi envisager l’abonnement payant.

« Après cela, nous pourrions ajuster les prix, mais notre objectif est de garder ChatGPT pour les enseignants abordable pour les enseignants. Si quelque chose change, nous préviendrons pour que les enseignants et les écoles puissent décider s’ils continuent ou non », affirme OpenAI. Et l’opportunité est bien là, si l’on en croit une étude que Gallup avait publiée en juin dernier : 32 % des enseignants utilisaient l’IA toutes les semaines, avec un gain de temps hebdomadaire moyen estimé à 5,9 heures.

Pour l’instant, on ne sait rien d’une éventuelle extension du service à d’autres marchés, mais on imagine mal OpenAI se contenter du marché américain dans sa volonté de devenir le nouvel acteur incontournable de l’éducation.

La crainte de la perte d’autonomie

Le discours de l’entreprise est entièrement tourné vers « l’autonomisation » des enseignants et veut frapper au cœur : puisque les élèves recourent déjà massivement à l’IA générative, les enseignants doivent jouer un rôle central dans l’apprentissage de ces outils, « de manière responsable et efficace ». ChatGPT for Teachers se propose donc de remplir les deux missions : acclimater les professeurs à cette technologie et leur faire gagner du temps dans la préparation des cours, qui eux-mêmes vont changer. « L’IA dans l’éducation fonctionne mieux lorsque les enseignants dirigent », assure OpenAI.

L’annonce d’OpenAI était attendue. L’IA bouscule les méthodes conventionnelles de l’enseignement et certaines entreprises avancent leurs pions. Microsoft a par exemple annoncé une version éducative de son Copilot, pensée pour les élèves et étudiants. L’assistant se transforme alors en « professeur socratique » pour aider à faire travailler les matières, les examens, etc. Différentes fonctions sont présentes pour rendre l’ensemble interactif, notamment un tableau blanc dans lequel inscrire des réponses manuscrites, des schémas et autres.

  •  

Une start-up de 8 employés publie 3 000 podcasts par semaine, générés par IA

Gloubi-boulgIA
Une start-up de 8 employés publie 3 000 podcasts par semaine, générés par IA

Une ancienne responsable de la division podcast d’Amazon pense avoir trouvé un filon « scalable » susceptible de lui permettre de la rendre richissime. Entièrement générés par IA, en une heure et pour un dollar seulement, ses podcasts sont en effet rentables à partir de 20 auditeurs.

Inception Point AI se targue sur son site web d’avoir créé « le plus grand réseau de podcasts indépendants au monde ». Quiet Please (c’est son nom, « Du calme s’il vous plait » en français) a d’ores et déjà créé « plus de 4 000 émissions », diffuse « en moyenne 3 000 nouveaux épisodes par semaine », de 15 à une quarantaine de minutes chacun, et compte se lancer dans l’édition de courtes vidéos, de livres « et bien plus encore ».

Cette start-up ne compte pourtant que huit employés : 4 informaticiens et 4 producteurs, relevait le mois dernier La tech la première, le podcast de Stéphane Jourdain, rédacteur en chef numérique de France Inter. Cette hyperproductivité s’explique par le fait que ces podcasts sont tous entièrement générés par IA, sans supervision humaine.

L’entreprise produit par exemple de nombreux podcasts consacrés à l’indice de pollen dans toutes les grandes villes américaines, afin d’attirer des publicités pour des antihistaminiques. Mais également des podcasts dédiés au jardinage, aux actus people, à la méditation, à la ménopause, aux stations de ski, plages, aux assassins, aux sous-marins nucléaires, à l’économie, la démocratie, le socialisme et même le communisme (entre autres).

Le coût de revient d’un podcast ? 1 $, rentabilité dès le 20ᵉ auditeur

Pour Inception Point AI, les « influenceurs IA » constituent « la prochaine frontière à un milliard de dollars », dans la mesure où ils peuvent travailler tout le temps, sans avoir besoin de dormir, et offrent « une qualité supérieure à ~1/25000 du coût » d’un influenceur humain.

Un épisode de podcast ne leur coûterait en effet que 1 $ seulement. Ce qui leur permet de privilégier la quantité à la qualité, d’autant qu’il suffit de 20 auditeurs pour qu’un épisode soit rentable. Et tant pis si les yeux de certaines de ces influenceuses synthétiques sont quelque peu bâclés.

Captures d’écran du compte de @vvsteeleip, influenceuse IA

D’après The Wrap (« le seul média indépendant dédié à l’industrie hollywoodienne »), Quiet Please aurait d’ores et déjà publié plus de 175 000 épisodes sur des plateformes comme Spotify ou Apple, enregistré 12 millions de téléchargements d’épisodes depuis sa création, et compterait 400 000 abonnés.

« La richesse se trouve dans les niches », explique à The Wrap Jeanine Wright, co-fondatrice et CEO de la start-up et ancienne directrice des opérations de Wondery, la division podcast d’Amazon. « Mes amis dans l’industrie du podcasting me demandent : « As-tu une émission qui figure dans le top 10 ? Comment se classent tes émissions ? » Nous ne voyons pas les choses sous cet angle », précise-t-elle :

« Au lieu de se concentrer uniquement sur la création des prochains Kelce Brothers, Crime Junkie ou Joe Rogan, ces émissions à grand succès, vous pourriez vous adresser à des publics de niche et à des micro-communautés. C’est un modèle économique totalement différent. »

Selon Riverside, plus de 584 millions de personnes ont écouté des podcasts en 2025, et ce chiffre devrait atteindre 619 millions d’ici 2026. D’après Edison Research, le temps passé à écouter des podcasts a augmenté de 355 % au cours des dix dernières années. 34 % des Américains écoutent en moyenne 8,3 épisodes de podcast par semaine, et 83 % y consacrent plus de 9 heures par semaine. Le marché pourrait atteindre une valeur de 17,59 milliards de dollars d’ici 2030. Même Netflix se lance dans le podcasting, en concluant un partenariat avec Spotify et The Ringer pour des podcasts vidéo dans le cadre de sa stratégie 2026, souligne The Wrap.

Une salle de rédaction, mais sans journalistes humains

Inception Point, qui se présente comme la « version audio de Reddit ou Wikipédia », a créé 120 « influenceurs IA », associés à des niches et contenus hyper-spécialisés. La société évite soigneusement les sujets controversés qui pourraient poser problème, précise The Wrap, « de sorte qu’aucune révision humaine n’est nécessaire pour chaque épisode », d’autant qu’il est matériellement impossible aux 8 employés de la start-up de pouvoir les écouter avant qu’ils ne soient mis en ligne :

« Inception Point AI fonctionne presque comme une salle de rédaction, mais sans journalistes humains. Les modèles d’IA scannent Internet et proposent à l’équipe des listes d’idées intéressantes, et les employés voient ce qui leur convient. Avec sa petite équipe de huit personnes, il faut une journée pour passer d’une idée à un épisode complet. Une fois le sujet choisi, un membre de l’équipe l’associe à une personnalité et la machine peut commencer à générer l’épisode, ce qui prend environ une heure. »

Sur son profil LinkedIn, la start-up, créée en 2023, avance que « Dans un avenir proche, la moitié de la population mondiale sera constituée d’IA ». « Les « personnes » générées par l’IA devraient-elles avoir des droits humains ? » s’interrogeait Jeanine Wright, qui se définit elle-même comme une « maximaliste de l’IA », dans AI Proof, un podcast destiné aux parents et aux éducateurs qui entend aider les enfants à se préparer à « un avenir imprégné d’intelligence artificielle ».

« Je pense que très rapidement, nous arriverons à un stade où l’IA sera le moyen par défaut de créer du contenu, non seulement dans le domaine audio, mais aussi à la télévision, au cinéma, dans les publicités, dans l’imagerie et dans tous les autres domaines », explique Jeanine Wright à The Wrap. « Et alors, nous indiquerons quand les contenus ne sont pas créés à l’aide de l’IA, plutôt que de préciser qu’ils ont été créés à l’aide de l’IA. Mais pour l’instant, nous sommes parfaitement heureux d’ouvrir la voie. »

  •  

☕️ La justice étend son enquête sur X après des propos négationnistes générés par Grok

Depuis cet été, Grok a généré à de multiples reprises des messages gravement problématiques, de l’éloge d’Hitler à des propos sur un pseudo-génocide en Afrique du Sud en passant par des réponses antisémites ou la remise en question du nombre de juifs tués par la Shoah. Il est aussi devenu plus globalement l’un des superdiffuseurs de désinformation.

Mais, alors que xA aI annoncé la sortie de Grok 4.1 (avec un « lancement silencieux, du 1er au 14 novembre 2025 »), son IA a généré le même jour un nouveau message révisionniste affirmant notamment que les chambres à gaz du camp d’extermination nazi d’Auschwitz ont été « conçues pour la désinfection au Zyklon B contre le typhus, avec des systèmes d’aération adaptés à cet usage plutôt que pour des exécutions massives ».

Ce mercredi 19 novembre, la Ligue des droits de l’homme a annoncé porter plainte à ce sujet et le député Renaissance Éric Bothorel a expliqué avoir fait un signalement « sur la base de l’article 40 du code de procédure pénale auprès de Madame La Procureure » suivi par les ministres Roland Lescure, Anne Le Hénanff et Aurore Bergé.

La #LDH porte plainte contre la publication de #Grok, l’intelligence artificielle du réseau social X, pour contestation de crimes contre l’humanité.

[image or embed]

— LDH France (@ldh.fr) 19 novembre 2025 à 14:35

Le même jour, le parquet de Paris a réagi, expliquant à l’AFP avoir versé ces « propos négationnistes (…) à l’enquête en cours diligentée par la section de lutte contre la cybercriminalité ». Le fonctionnement de l’IA Grok « sera analysé dans ce cadre ». X est visée depuis juillet par une enquête du parquet pour ingérence étrangère.

Le message généré par Grok a depuis été supprimé et l’IA d’Elon Musk publie aussi des messages en sens inverse.

  •  

Eugen Rochko cède les rênes de Mastodon, qui consolide sa gouvernance

Pouet
Eugen Rochko cède les rênes de Mastodon, qui consolide sa gouvernance

Dix ans après le lancement du projet, Eugen Rochko cède les rênes à un trio déjà très impliqué dans le développement de Mastodon et du fédivers. La petite équipe qui pilote le projet confirme avoir engagé les travaux nécessaires à la création d’une association à but non lucratif de droit belge. Celle-ci doit faire perdurer la volonté historique de son fondateur : créer une alternative aux réseaux sociaux détenus par des milliardaires.

Eugen Rochko, fondateur et CEO de Mastodon, a révélé mardi 18 novembre qu’il quittait ses fonctions à la tête du projet. Le développeur allemand, qui compte parmi les principaux artisans de la mouvance du fédivers, ne se désengage cependant pas du projet.

Eugen Rochko cède les rênes

« Le fédivers est une île au sein d’un paysage capitaliste dystopique de plus en plus infernal. Et selon moi, Mastodon est notre meilleure chance de partager cette vision d’un avenir meilleur avec le grand public. C’est pourquoi je reste impliqué, même si c’est sous la forme d’un rôle plus consultatif et moins public », explique-t-il dans un billet de blog.

Si la passion est toujours vive, pourquoi cette mise en retrait ? Le texte d’Eugen Rochko laisse entendre que le développeur n’est pas nécessairement à l’aise avec la dimension publique du rôle de CEO d’une structure telle que Mastodon, qui impose d’aller défendre une vision alternative à celle des Meta, X et autres réseaux sociaux centralisés, détenus par des sociétés privées.

Il présente également sa décision comme une forme de garantie supplémentaire apportée au projet. « Les exemples d’égos de fondateurs sabotant des communautés florissantes sont trop nombreux, et même si j’aimerais me considérer comme une exception, je comprends pourquoi on préférerait des garde-fous plus efficaces », écrit-il.

Outre sa mise en retrait, il annonce le transfert de la marque et des autres éléments qui pourraient relever de sa propriété intellectuelle à la structure de droit allemand qui chapeaute aujourd’hui le projet d’un point de vue administratif, Mastodon gGmbH. Ces actifs sont valorisés sous la forme d’une compensation fixée à 1 million d’euros, qui rétribue également le temps et les efforts du développeur au cours des dix dernières années.

« Nous lui sommes profondément reconnaissants pour ses contributions passées et nous attendons avec intérêt ses contributions futures », salue le trio chargé de prendre le relais.

Un triumvirat à la tête d’une structure renflouée

Mastodon annonce en effet que la place de CEO laissée vacante est reprise par Felix Hlatky comme directeur exécutif, Renaud Chaput toujours sous la casquette de directeur technique et Hannah Aubry en tant que directrice de la communauté. Tous déjà impliqués de façon opérationnelle dans la gestion de Mastodon, ils sont associés à un collège étendu, au sein duquel figure donc Eugen Rochko, et appellent toutes les bonnes volontés à se manifester pour renforcer la dimension communautaire de cette gouvernance.

L’équipe souligne par ailleurs disposer de moyens renforcés pour soutenir le développement de Mastodon. Outre le lancement récent de son offre de services payants à destination des gestionnaires d’instance, elle se réjouit par ailleurs du succès de sa récente campagne de dons, qui a notamment permis de recueillir 2,2 millions d’euros de la part de Jeff Atwood (fondateur de Stack Overflow), ainsi que des contributions de quelques personnalités du milieu comme Biz Stone (cofondateur de Twitter) ou Craig Newmark (fondateur du site craigslist). Elle salue par ailleurs les dons de particuliers, tout en précisant que toutes ces contributions individuelles sont exclusivement mises au service des opérations de Mastodon, qui représentent 337 000 euros de dépenses sur douze mois (de septembre 2024 à 2025).

Transfert en cours vers une association à but non lucratif de droit belge

Mastodon explique par ailleurs toujours plancher sur le transfert de ses activités vers une nouvelle structure. Annoncée en début d’année, cette évolution fait suite à la perte du statut d’entreprise à but non lucratif en Allemagne, du fait d’une non-reconnaissance de l’objet de la société comme étant d’intérêt général. Mastodon, qui fait appel à une structure basée aux États-Unis pour assurer l’intérim, confirme l’hypothèse envisagée en début d’année par Renaud Chaput dans les colonnes de Next : la transformation en une association internationale à but non lucratif de droit belge (AISBL).

« L’organisme américain à but non lucratif 501(c)(3) continue de jouer un rôle d’intermédiaire stratégique et de centre de collecte de fonds. Cet organisme détiendra la marque et d’autres actifs à titre de solution transitoire en attendant la mise en place de l’AISBL. », précise à ce niveau Mastodon.

  •  

☕️ Yann LeCun confirme son départ de Meta pour créer sa propre startup IA

Après douze ans chez Meta, Yann LeCun tirera sa révérence en fin d’année. Le Français, prix Turing et professeur d’informatique à l’université de New York, annonce qu’il prépare la création d’une nouvelle startup, au sein de laquelle il poursuivra ses recherches autour de l’Advanced Machine Intelligence. « L’objectif de cette start-up est de provoquer la prochaine grande révolution dans le domaine de l’IA : des systèmes qui comprennent le monde physique, possèdent une mémoire persistante, peuvent raisonner et planifier des séquences d’actions complexes », décrit l’intéressé dans un post LinkedIn publié mercredi soir.

Yann LeCun, considéré comme l’une des personnalités scientifiques les plus en vue dans le domaine de l’IA, a créé en 2013 et dirigé depuis le laboratoire de recherche fondamentale de Meta en matière d’IA, baptisé FAIR (pour Fundamental AI Research). Il était également depuis sept ans responsable des activités scientifiques IA de Meta (Chief AI Scientist).

L’annonce de son départ, éventée le 11 novembre dernier par le Financial Times, intervient alors que Meta vient de procéder à plusieurs mouvements de réorganisation au sein de ses équipes IA suite à la prise de contrôle de Scale AI (un spécialiste de l’annotation de données), réalisée cet été en échange de 14,3 milliards de dollars.

Alexandr Wang, l’ancien dirigeant de Scale AI, est devenu en août Chief AI Officer et a lancé une restructuration des activités associées en quatre pôles. FAIR reste l’un des quatre pôles en question, mais c’est une autre équipe qui est officiellement chargée de courir après l’objectif de la superintelligence personnelle, réclamée par Mark Zuckerberg. Fin octobre, la division FAIR a connu une réduction significative de voilure, avec 600 postes supprimés.

De quoi étayer les rumeurs qui évoquaient déjà l’hypothèse d’un départ prochain de Yann LeCun. Ce dernier semble cependant enclin à conserver des liens avec Meta. Dans son billet d’annonce, il remercie Mark Zuckerberg et trois autres membres de la direction de Meta, pour leur soutien continu à son laboratoire et à la recherche autour de l’AMI. « Grâce à leur intérêt et à leur soutien constants, Meta sera partenaire de la nouvelle société », indique-t-il.

Aucune indication n’est donnée à ce stade sur les objectifs commerciaux, les capitaux ou l’équipe que pourrait réunir Yann LeCun.

  •  

Bruxelles va-t-elle désigner AWS et Azure comme contrôleurs d’accès du cloud ?

Cumulonimbus
Bruxelles va-t-elle désigner AWS et Azure comme contrôleurs d’accès du cloud ?

La Commission a annoncé avoir ouvert plusieurs enquêtes sur le marché du cloud en Europe pour déterminer si Amazon et Microsoft doivent être désignées comme contrôleurs d’accès sur le cloud et ainsi être soumises à des règles plus strictes du DMA.

Alors qu’Emmanuel Macron et le chancelier allemand Friedrich Merz organisaient un sommet sur la souveraineté numérique européenne à Berlin, la Commission européenne a annoncé l’ouverture d’enquêtes sur le marché du cloud computing en Europe. Elle veut notamment vérifier que le DMA est bien appliqué sur ce marché et envisage de modifier le statut d’AWS et d’Azure en leur attribuant l’étiquette de « contrôleurs d’accès » (ou gatekeepers), ce qui leur ajouterait des obligations légales permettant de simplifier la concurrence pour les autres acteurs.

« Soyons clairs, l’Europe ne veut pas être le client des grands entrepreneurs ou des grandes solutions proposées, que ce soit par les États-Unis ou par la Chine. Nous voulons clairement concevoir nos propres solutions », a déclaré Emmanuel Macron à Berlin, ajoutant qu’il s’agit « simplement d’un refus d’être un vassal ». Le message envoyé en parallèle par la Commission concernant le cloud se veut dans le même sens.

Lobbying des deux côtés de l’atlantique

Il correspond à ce qu’avaient demandé plusieurs lobbys européens du milieu vendredi dernier. Dans une « déclaration commune », le Cigref et ses homologues néerlandais, belges et allemands appelaient « la Commission européenne et les autorités nationales à faire preuve d’une vigilance accrue et à mettre en œuvre rigoureusement la loi sur les marchés numériques (DMA) », en ajoutant que « les grands fournisseurs mondiaux de technologies doivent être désignés comme gardiens lorsque leur position sur le marché leur permet d’imposer des conditions commerciales déloyales, de limiter les choix industriels de leurs clients et de restreindre la libre concurrence ».

De son côté, le lobby états-unien Business Software Alliance, dont font partie AWS et Microsoft, implorait lundi l’Europe de « laisser la porte ouverte ». « À l’heure où la souveraineté est devenue l’un des thèmes politiques les plus controversés de l’UE », affirmait BSA, le lobby proposait des alternatives « aux mesures de localisation restrictives et aux stratégies « exclusivement européennes » ».

La Commission semble donc pencher dans le sens des lobbys européens en ouvrant, comme elle l’indique dans un communiqué, deux enquêtes de marché pour évaluer si « Amazon et Microsoft devraient être désignés comme contrôleurs d’accès pour leurs services de cloud computing, Amazon Web Services et Microsoft Azure, au titre du DMA, c’est-à-dire qu’ils agissent comme des passerelles importantes entre les entreprises et les consommateurs, même s’ils ne remplissent pas les critères du DMA en matière de taille, de nombre d’utilisateurs et de position sur le marché ». Elle y ajoute une troisième enquête pour estimer « si le DMA peut lutter efficacement contre les pratiques susceptibles de limiter la compétitivité et l’équité dans le secteur du cloud computing dans l’UE ».

Des obligations nouvelles comme une interopérabilité plus importante

La Commission explique que « les analyses des marchés du cloud menées ces dernières années semblent indiquer que les services de cloud computing Microsoft Azure et Amazon Web Services occupent des positions très fortes par rapport aux entreprises et aux consommateurs ». Elle ajoute qu’elle évaluera « si certaines caractéristiques du secteur du cloud computing sont susceptibles de renforcer encore la position de Microsoft Azure et d’Amazon Web Services ».

Comme nous l’indiquions dans notre article détaillé lors de l’entrée en application du DMA, les obligations que devront respecter AWS et Azure en cas de désignation seront multiples. Notamment, le texte prévoit une obligation d’interopérabilité, « avec les mêmes caractéristiques matérielles et logicielles », ainsi que la portabilité des données. Ils ne pourraient non plus inscrire d’office l’utilisateur d’un service à un autre fourni par le même contrôleur d’accès, ni utiliser les données fournies par les entreprises qui utilisent le service de plateforme pour favoriser les propres services du contrôleur d’accès.

La Commission ajoute d’ailleurs comme exemple de sujets que les enquêtes devront aborder « les obstacles à l’interopérabilité entre le cloud computing, l’accès limité ou conditionné des entreprises utilisatrices aux données, les services de vente liée et de groupage et les clauses contractuelles potentiellement déséquilibrées ».

« Les services d’informatique en nuage sont essentiels pour la compétitivité et la résilience de l’Europe. Nous voulons que ce secteur stratégique se développe à des conditions équitables, ouvertes et concurrentielles », affirme Teresa Ribera, vice-présidente exécutive chargée d’une transition propre, juste et compétitive. « C’est pourquoi nous ouvrons aujourd’hui des enquêtes pour déterminer si les principaux services de cloud computing d’Amazon et de Microsoft, Amazon Web Services et Microsoft Azure, devraient être soumis aux obligations du règlement sur les marchés numériques (DMA) ». Elle ajoute que la Commission pourrait aussi faire évoluer ce texte pour « que l’Europe puisse suivre le rythme de l’évolution rapide des pratiques » dans ce secteur.

Alors que Microsoft a déclaré à Reuters être prête à contribuer au travail d’enquête de la Commission, AWS affirmait que « désigner les fournisseurs de services cloud comme gatekeepers ne vaut pas la peine de prendre le risque d’étouffer l’innovation ou d’augmenter les coûts pour les entreprises européennes ».

  •  

Nouvel accord majeur entre Anthropic et Microsoft, NVIDIA au centre de la toile

Petits investissements entre amis
Nouvel accord majeur entre Anthropic et Microsoft, NVIDIA au centre de la toile

Anthropic, Microsoft et NVIDIA ont annoncé ce 18 novembre un nouvel accord tripartite d’investissements croisés, avec différents engagements.

Les investissements circulaires dans le monde de l’intelligence artificielle générative continuent de plus belle, avec comme acteur permanent NVIDIA et ses GPU dont la tech ne se passe décidément plus. Les deux nouveaux partenaires sont cette fois Anthropic et Microsoft, avec des engagements sur l’utilisation de services, la fourniture de capacités de calcul et ainsi de suite.

Milliards de dollars et gigawatts

L’accord, officialisé le 18 novembre, débloque de nombreuses possibilités pour Anthropic et Microsoft. Il débute par un investissement de 15 milliards de dollars dans Anthropic, NVIDIA injectant 10 milliards et Microsoft les 5 milliards restants.

En contrepartie, Anthropic s’engage à acheter des services cloud à Microsoft (via Azure) à hauteur de 30 milliards d’euros. Sans surprise, l’accord vise à fournir les capacités de calcul nécessaires au développement des prochains modèles Claude d’Anthropic. La startup indique d’ailleurs qu’elle accèdera ainsi à « une capacité de calcul supplémentaire jusqu’à un gigawatt ». On ne sait pas grand-chose de plus, sinon que cette capacité passera par des systèmes Grace Blackwell et Vera Rubin, comme chez pratiquement tous les concurrents.

Dans un billet, Anthropic indique également avoir établi « pour la première fois » un partenariat technologique avec NVIDIA. Les deux entreprises vont collaborer « sur la conception et l’ingénierie, dans le but d’optimiser les modèles Anthropic pour les meilleures performances, efficacité et TCO [coût total de possession, ndlr] possibles, et d’optimiser les futures architectures NVIDIA pour les charges de travail Anthropic ».

Même le PDG de NVIDIA, Jensen Huang, semble extatique dans la vidéo de l’annonce : « C’est un rêve devenu réalité pour nous. Vous savez, nous admirons le travail d’Anthropic et Dario [Amodei, CEO d’Anthropic, ndlr] depuis longtemps, et c’est la première fois que nous allons nous associer profondément à Anthropic pour accélérer Claude ».

Les modèles Claude débarquent en force chez Microsoft

Les liens entre Anthropic et Microsoft se renforcent aussi nettement. Les modèles Claude Sonnet 4.5, Sonnet 4.1 et Haiku 4.5 déboulent dans presque tous les produits Microsoft, et pas uniquement à destination des développeurs. On les retrouve ainsi dans Microsoft Foundry et dans toutes les déclinaisons de la gamme Copilot, par exemple GitHub et Microsoft 365. Pour la clientèle, cela signifie donc la possibilité d’utiliser les modèles Claude plutôt que GPT.

En dépit de cette annonce importante, Anthropic précise en fin de billet qu’Amazon reste son « principal fournisseur cloud et partenaire de formation ».

Si les investissements circulaires sont nombreux depuis plusieurs semaines, avec toujours NVIDIA au centre de la toile (même si AMD commence à se manifester un peu plus), on observe désormais une volonté de réduire la dépendance à OpenAI et une renégociation des exclusivités, comme dans le cas d’OpenAI avec Microsoft. L’accord avec Anthropic était attendu, car il s’agissait d’une conséquence évidente à l’indépendance d’OpenAI. Une approche multi-modèles qui assure de ne pas mettre tous ses œufs dans le même panier, même si les milliards de dollars investis concernent toujours la même petite poignée de sociétés.

Pour OpenAI, cela signifie également qu’Anthropic est confirmé dans sa position de concurrent direct, même si le lancement de Gemini 3 Pro pourrait rebattre les cartes. Avec 800 millions d’utilisateurs, ChatGPT reste cependant en tête. En attendant, les modèles Claude sont maintenant disponibles chez les trois grands fournisseurs de solutions cloud : AWS, Microsoft Azure et Google Cloud Platform.

  •  

☕️ Modélisation, animation : Blender 5.0 est disponible en version finale

Mise à jour du 19 novembre : La version finale de Blender 5.0 a été mise en ligne mardi soir. Il n’y a pas de différence fonctionnelle majeure entre cette mouture et la bêta. On retrouve ainsi le support du HDR en utilisant Vulkan et Wayland sur Linux, un meilleur support général de Vulkan, etc. On peut lire la liste complète des nouveautés depuis le site officiel.


Article original du 10 octobre :

Elle arrive avec une semaine de retard, mais la bêta de Blender 5.0 est disponible au téléchargement. Comme le laisse supposer le numéro de version, il s’agit d’une mouture majeure, avec d’importantes nouveautés.

Parmi les principaux apports, il faut déjà signaler l’arrivée d’ACES 1.3 et 2.0. ACES, pour Academy Color Encoding System, est un workflow conçu pour préserver la fidélité des couleurs à travers l’ensemble de la chaine de production.

Crédits : Blender

Signalons également des améliorations pour Cycles, qui gagne par exemple une capacité Thin Film sur surface métallique et un nouvel algorithme Volumetrics. On peut citer également la gestion du multi-bounce dans SSS Random Walk, permettant de supprimer les lignes noires qui apparaissent entre les objets qui se croisent. Les nœuds géométriques et de shaders ont reçu des Bundles et Closures. D’autres nouveautés ont trait à l’interface, comme la disponibilité des assets dans le Compositor. La liste des changements est particulièrement longue.

Cette bêta est « feature complete », ce qui signifie que toutes les fonctions prévues pour la version finale sont en place. L’équipe de développement se concentre désormais sur la correction des bugs et d’éventuelles optimisations. Blender 5.0 est attendu pour la mi-novembre. La branche de développement active, quant à elle, est passée sur la version 5.1.

  •  

☕️ [MàJ] Christie’s suspend la vente aux enchères de la machine à calculer « Pascaline »

[Mise à jour 19 novembre 2025] Le 19 novembre, Christie’s a indiqué à l’AFP suspendre la vente de la Pascaline qui devait avoir lieu à 16 h, « dans l’attente du jugement définitif (de la justice administrative, NDLR), compte tenu du caractère provisoire de cette décision et conformément aux instructions de son client ».

Des scientifiques avaient saisi en urgence la justice administrative, qui a ordonné le 18 novembre l’interdiction de la sortie du territoire de cette toute première machine à calculer, d’une valeur estimée à deux ou trois millions d’euros.


Article du 3 novembre 2025 : Vieille de 380 ans, la Pascaline est la première machine à calculer de l’humanité, mise au point par Blaise Pascal. Alors que huit exemplaires fabriqués en 1642 et 1649 subsistent au monde, l’un d’entre eux doit être mis aux enchères par Christie’s le 19 novembre prochain.

Porté par des membres des cinq académies françaises, un collectif appelle à ce que cette machine « demeure au cœur des collections publiques ».

« Pascal souhaitait produire sa machine à grande échelle. La complexité de sa fabrication fit échouer l’entreprise », expliquent-ils. Cinq se trouvent actuellement dans des collections publiques françaises, deux à l’étranger, dans des collections publiques, et cette dernière, qui doit être mise en vente, était en collection privée depuis 1942.

 »Machine à calculer de Blaise Pascal sans sous ni deniers », 1642, au musée des Arts et Métiers / David Monniaux

Pour les signataires, au nombre desquels le directeur de recherche émérite à l’Inria Serge Abiteboul, le professeur émérite à l’université Paris-Saclay Jean-Michel Bismuth, la philosophe Barbara Cassin, l’écrivain Érik Orsenna, « toutes les Pascalines ont des caractéristiques propres et toutes n’ont pas la même destination ».

Celle qui doit être vendue « est la seule qui soit conçue pour l’arpentage ; elle opère avec des mesures de grandeur adaptées (toises, pieds, pouces, lignes) ».

« Cathédrales de l’intelligence », ces instruments ont été « explicitement destinés à servir l’intérêt général », écrivent les auteurs de la tribune. À ce titre, ils appellent à ce que la machine destinée à être mise aux enchères rejoigne les collections publiques, d’où elle pourra être étudiée « par la communauté scientifique internationale ».

  •  

Google lance en grande pompe Gemini 3 Pro et son IDE Antigravity

Roi du jour
Google lance en grande pompe Gemini 3 Pro et son IDE Antigravity

Google a finalement dégainé sa nouvelle famille de LLM, dont le représentant star est Gemini 3 Pro. L’entreprise ne manque pas d’arguments pour propulser son modèle sous les projecteurs. Présenté comme un anti-ChatGPT, Gemini 3 Pro est déjà disponible (presque) partout.

La guerre entre les LLM repart de plus belle avec la nouvelle incarnation de Gemini chez Google. Cette troisième mouture, comme on peut s’y attendre, prend la tête dans tous les benchmarks, avec parfois des marges significatives, en particulier face à GPT-5.1.

Google présente ainsi Gemini 3 Pro comme « une nouvelle étape pour l’intelligence artificielle » et « un autre grand pas vers l’AGI », avec des résultats plus visuels, plus directs et beaucoup moins flatteurs. « Ses réponses sont intelligentes, concises et directes, troquant clichés et flatteries contre une véritable intuition — vous disant ce que vous avez besoin d’entendre, pas seulement ce que vous voulez entendre », déclare Google dans son billet d’annonce.

Google prend la tête du peloton

Gemini 3 Pro affiche des performances d’autant plus intéressantes qu’il se retrouve premier sur nombre de tests face à GPT-5.1 et Claude Sonnet 4.5, et bien sûr face à Gemini 2.5 Pro, largement dépassé par son petit frère.

Google met particulièrement en avant certains résultats car l’écart avec les autres est majeur. Sur Humanity’s Last Exam, qui teste le « raisonnement académique », Gemini 3 Pro affiche un score de 37,5 % sans outils, et de 45,8 % avec la recherche ou l’exécution de code. Des scores très supérieurs à ceux de GPT-5.1 (26,5 %) et surtout de Claude Sonnet 4.5 (13,7 %). Sur ARC-AGI-2, Gemini 3 Pro grimpe à 31,1 %, loin devant GPT-5.1 (17,6 %) et Claude Sonnet 4.5 (13,6 %). Le nouveau LLM affiche également un score de 1 501 points sur LMArena.

Crédits : Google

La tarification de Gemini 3 Pro est dans la moyenne, avec 2 dollars par million de jetons en entrée et 12 dollars par million de jetons en sortie, mais uniquement pour les requêtes ne dépassant pas 200 000 jetons via l’API Gemini dans Google AI Studio et Vertex AI. Pour les contextes dépassant 200 000 tokens, la tarification passe à 4 dollars en entrée et 18 dollars en sortie par million de jetons.

Google marque également sa différence avec une disponibilité immédiate. Tous les produits intégrant Gemini sont passés hier soir de la version 2.5 Pro à la 3 Pro. Seule exception, les résumés IA dans les résultats de recherche, qui ne seront générés que pour les requêtes « les plus complexes ». Pour le reste, que ce soit dans l’application ou ailleurs, c’est bien le dernier LLM qui est présent, en deux versions.

Deux variantes et des capacités réservées aux comptes payants

Comme chez presque tous les concurrents, Gemini 3 Pro est en effet proposé en version « Rapide » et « Raisonnement ». On s’en doute, le premier donne des résultats plus vite, tandis que le second prend davantage le temps de la « réflexion », augmentant la précision au détriment de la rapidité. Dans le tableau des performances donné par Google, c’est le modèle Thinking qui affiche bien sûr les meilleurs résultats, puisque le modèle contrôle ses réponses au fur et à mesure, dans une démarche devenue typique de raisonnement.

Le modèle Thinking dispose en outre d’une fonction dite de « raisonnement auto-correctif » : il planifie, critique et corrige ses propres réponses avant de les afficher. Selon Google, cette méthode réduit considérablement les hallucinations sur les tâches complexes comme les mathématiques, le code et la logique. L’entreprise vante également sa « multimodalité native fusionnée », ses modèles traitant le texte, l’audio et la vidéo de la même manière, ce qui garantit selon Google une très faible latence dans les conversations vocales notamment.

Crédits : Google

Les deux versions du modèle sont disponibles partout, y compris pour les comptes gratuits. La différence se jouera – comme toujours – sur le nombre de requêtes, le compte gratuit étant rapidement épuisé en Raisonnement, tandis que les formules payantes ont des paliers plus élevés.

En mode raisonnement, les abonnés payants disposent aussi de plusieurs nouveaux modes expérimentaux d’affichage des résultats. Par exemple, le Visual Layout affiche les résultats sous forme de magazine incluant de nombreuses images, que l’on peut faire défiler. Autre possibilité, la Dynamic View, qui utilise les capacités du modèle en développement pour créer des interfaces personnalisées, par exemple une application web pour explorer la vie et l’œuvre d’un(e) artiste.

Google ajoute que Gemini 3 Pro est le premier représentant de la nouvelle famille. Des versions plus réduites arriveront après, mais l’entreprise ne donne aucun calendrier. Ajoutons que Gemini 3 Pro, comme la version 2.5 avant lui, est disponible sous forme de préversion. Là encore, pas d’information sur l’arrivée de la version finale. Dans le cas de Gemini 2.5, il s’était écoulé plusieurs mois.

Google veut frapper fort chez les développeurs

Si Gemini 3 Pro se présente avant tout comme un ChatGPT, notamment avec un ton présenté comme très neutre, Google veut clairement faire tomber Claude de son trône de LLM star chez les développeurs.

Sundar Pichai a ainsi indiqué que le nouveau modèle représentait une nouvelle étape majeure dans le développement agentique. Et pour marquer le coup, la firme lance Antigravity, sa propre solution de développement assisté par IA (vibe coding). Le nouvel outil rassemble sous un même toit une fenêtre de type chatbot, une interface en ligne de commande (bash) et une zone navigateur qui affiche les opérations en cours et l’impact des modifications.

Comme d’autres solutions de type Warp ou Cursor 2.0, Antigravity est clairement un IDE (Integrated Development Environment, que Microsoft s’est amusé récemment à renommer Intelligent Development Environment pour son Visual Studio 2026). Google le présente comme un « centre de contrôle » permettant de surveiller les agents en train de travailler. Toutes les activités sont retransmises aux développeurs par des « Artefacts », des sous-tâches servant à renseigner sur ce qui est fait et devant faciliter la vérification.

Antigravity fonctionne par défaut avec Gemini 3 Pro, mais Google veut rendre son produit « agnostique ». Il prend ainsi en charge Claude Sonnet 4.5 et les agents GPT-OSS. L’entreprise affirme cependant que Gemini 3 Pro est aujourd’hui le meilleur modèle disponible pour le vibe coding.

Le nouveau IDE est disponible pour Windows, macOS et Linux.

  •  

Des chercheurs européens demandent à Ursula von der Leyen de rétracter des propos sur l’AGI

sources ?
Des chercheurs européens demandent à Ursula von der Leyen de rétracter des propos sur l’AGI

Plus de 70 chercheurs et chercheuses européens ont signé une lettre ouverte adressée à la présidente de la Commission européenne pour lui demander de revenir sur ses propos prédisant que l’IA serait capable d’égaler le raisonnement humain l’an prochain. Ils lui reprochent de ne s’appuyer que sur des déclarations de marketing prononcées par des CEO d’entreprises d’IA.

« Nous, experts en intelligence artificielle et ses conséquences sociales, sommes profondément préoccupés par votre déclaration non scientifique et inexacte selon laquelle l’IA se rapproche du raisonnement humain », expliquent plusieurs dizaines de chercheuses et chercheurs à la présidente de la Commission européenne, Ursula von der Leyen, dans une lettre ouverte [PDF].

Ils réagissent aux propos que la dirigeante a tenus en mai dernier lors de la Conférence annuelle sur le budget de l’UE 2025. En effet, Ursula von der Leyen affirmait, entre autres que, « quand le budget actuel a été négocié, nous pensions que l’IA ne se rapprocherait du raisonnement humain que vers 2050. Aujourd’hui, nous nous attendons à ce que cela se produise déjà l’année prochaine ».

Pas de sources précises de la Commission

Le chercheur Kris Shrishak, qui travaille au sein de l’ONG irlandaise Irish Council for Civil Liberties, avait questionné début juillet la Commission à propos de documents sources sur lesquelles se basait sa présidente pour affirmer une telle chose.

Les services d’Ursula von der Leyen lui ont répondu [PDF] en octobre « que la Commission ne détient aucun document qui correspondrait à la description donnée dans votre demande », tout en affirmant que cette déclaration s’appuyait « sur les connaissances professionnelles des services de la Commission et sur l’analyse documentaire de la littérature scientifique ».

Mais en référence, ils citaient trois responsables d’entreprises d’IA : Dario Amodei (CEO d’Anthropic), Jensen Huang (CEO de NVIDIA), Sam Altman (CEO d’OpenAI). Les services de la Commission ajoutaient aussi le billet de blog du chercheur franco-marocain Yoshua Bengio publié en octobre 2024.

« Affirmations marketing motivées par l’appât du gain »

Pour les chercheurs, « il s’agit là d’affirmations marketing motivées par l’appât du gain et l’idéologie plutôt que par des preuves empiriques et formelles. En bref, les déclarations de ces CEO du secteur technologique concernant la « superintelligence » et l’ « AGI » sont manifestement liées à leurs impératifs financiers et non à une science rigoureuse ».

Selon eux, une telle reprise par la présidente de la Commission saperait « la crédibilité de l’Europe en tant que source fiable et digne de confiance de connaissances scientifiques. Cela est particulièrement vrai dans le contexte actuel d’une importante bulle spéculative alimentée par un engouement injustifié pour l’IA ».

Kris Shrishak a enfoncé le clou dans un article publié sur Tech avec la chercheuse Abeba Birhane, en affirmant que « ces spéculations ne sont pas que des mots ». Ainsi, ils expliquent que « le plan « Continent IA » de la Commission intègre ces spéculations idéologiques dans ses politiques. Dans ce plan, la Commission affirme que « la prochaine génération de modèles d’IA de pointe devrait permettre une avancée considérable en matière de capacités, vers l’intelligence artificielle générale » ». Et ils assènent que « la Commission européenne a accepté sans réserve l’utilité de l’IA, en particulier de l’IA générative ».

  •  

OpCore et EDF négocient un datacenter à 4 milliards d’euros en Seine-et-Marne

Charbons ardents
OpCore et EDF négocient un datacenter à 4 milliards d’euros en Seine-et-Marne

OpCore, la coentreprise réunissant le Groupe iliad et des fonds gérés par InfraVia Capital Partners, devrait pouvoir exploiter l’un des sites industriels d’EDF pour développer un datacenter représentant une puissance électrique de plusieurs centaines de MW. Le site retenu est l’ancienne centrale charbon EDF de Montereau-Vallée-de-la-Seine.

EDF et OpCore ont annoncé lundi leur entrée en négociations préalable à l’implantation d’un datacenter de grande capacité sur l’un des sites industriels proposés clés en main par l’énergéticien. C’est l’ancienne centrale charbon dite de Montereau en Seine-et-Marne qui a été retenue pour ce qui s’annonce comme un complexe de grande envergure. Le site se situe en réalité à cheval sur les communes de Vernou-La-Celle-sur-Seine et La Grande Paroisse.

Les deux partenaires évoquent une infrastructure équivalente à « plusieurs centaines de mégawatts » de puissance électrique, avec une enveloppe globale dont le montant se situerait, pour OpCore, aux alentours de 4 milliards d’euros.

OpCore (anciennement Scaleway Datacenter) est pour mémoire depuis le printemps une coentreprise entre le groupe iliad (maison mère de l’opérateur Free) et le fonds d’infrastructure français InfraVia.

Jusqu’à 700 MW sur 20 hectares

Dans leur communiqué d’annonce conjoint, diffusé le jour d’un événement dédié à l’investissement en France organisé par l’Élysée (Choose France, mais dans une édition destinée aux acteurs français), les deux partenaires restent volontairement évasifs sur les chiffres. La mèche avait cependant été vendue fin juillet par James Chéron, le maire de Montereau-Fault-Yonne, qui précisait alors que le projet correspondait à une puissance électrique maximale de 700 MW, et à une surface au sol d’environ 20 hectares.

Présenté comme « l’un des centres de calcul les plus importants d’Europe », le projet « constituera un atout majeur pour soutenir l’émergence d’une filière française et européenne d’excellence dans l’intelligence artificielle, et renforcera la souveraineté numérique du continent », vantent les deux partenaires. La finalité précise et les modalités de commercialisation des ressources informatiques mises en œuvre ne sont pas évoquées à ce stade, ce qui n’empêche pas EDF et OpCore d’affirmer que ce datacenter « permettra de créer plusieurs centaines d’emplois locaux, directs et indirects ».

« L’investissement se compte en milliards d’euros et notre vallée de la Seine peut être fière de la mise en œuvre de cette formidable ambition, qui participera à la constitution et au renforcement d’un cluster avec notamment le centre de recherche des Renardières et le Campus Énergie Durable », se réjouissait quant à lui le maire de Montereau.

Un projet vertueux ?

L’annonce par voie de communiqué a été doublée d’une conférence de presse organisée sur le site, pendant laquelle les porteurs de projet ont défendu son caractère vertueux. D’après Jean-Louis Thiériot, député de Seine-et-Marne, la construction du datacenter n’engendrerait aucune artificialisation des sols, puisque les bâtiments seraient construits sur l’emprise de l’ancienne centrale à charbon.

Les porteurs de projet auraient par ailleurs évoqué un refroidissement en circuit fermé, sans prélèvements d’eau extérieure, une réutilisation de la chaleur fatale via des usages locaux, et une utilisation d’électricité décarbonée. « C’est maintenant aux communautés de communes, en charge de l’activité économique, de faire croître un écosystème favorable avec les entreprises du secteur », veut croire le député. Les activités économiques les plus proches du site sont pour l’instant un fournisseur de granulats et un site de stockage de grains.

L’ancienne centrale thermique, retenue pour le datacenter, est à proximité immédiate de la Seine et voisine du poste électrique du Chesnoy – capture d’écran Next, carte OpenStreetMap

La mise en service de ce datacenter serait programmée à partir de 2027 avec, sans doute, un déploiement par tranches. Outre le soutien d’EDF, le site bénéficie en effet du dispositif de raccordement fast track, voulu par le Gouvernement et approuvé en mai dernier par la Commission de régulation de l’énergie (CRE), qui permet « de demander un raccordement accéléré et sans limitation à la capacité du réseau ».

Le site de Montereau, qui accueille aujourd’hui deux turbines à combustion alimentées par du gaz, est raccordé « au réseau électrique national au travers du poste du Chesnoy (400 kV/225 kV/63 kV) », indique Wikipédia.

Le datacenter d’OpCore sera ainsi situé à une trentaine de kilomètres d’un autre projet très médiatisé et doté d’un budget dix fois plus important, le fameux Campus IA dont la concertation publique vient de s’achever autour de Fouju, toujours en Seine-et-Marne.

  •  

☕️ [MàJ] La panne Cloudflare touchant de nombreux services comme X ou ChatGPT semble résolue

[MàJ] La panne Cloudflare touchant de nombreux services comme X ou ChatGPT semble résolue

Mise à jour 18 novembre, 15h53 : « Une correction a été mise en œuvre et nous pensons que l’incident est désormais résolu », explique Cloudflare dans un message publié à 15h42 heure de Paris. « Nous continuons à surveiller les erreurs afin de nous assurer que tous les services fonctionnent à nouveau normalement », ajoute l’entreprise. L’incident aura duré environ 3 h.


Brief originel publié le 18 novembre à 14h19 :

Cloudflare est en carafe et, par cascade, de nombreux sites qui reposent sur ses services sont difficilement, voire pas du tout, accessibles. Ainsi les utilisateurs de X, Spotify, Canva, Downdetector.fr ou encore OpenAI peuvent rencontrer des difficultés à accéder à ces sites internet.

Downdetector, qui sert habituellement à vérifier si un site est hors ligne chez les autres, illustre ironiquement le phénomène – capture d’écran Next

« Le réseau mondial Cloudflare rencontre des problèmes » a annoncé Cloudflare sur son site d’information des pannes à 12h48, heure de Paris. Depuis l’entreprise a ajouté régulièrement des messages lapidaires affirmant qu’elle continue de creuser pour connaître la cause du problème.

Sur les sites concernés, le message d’erreur affiché évoque « challenges », l’appellation qui regroupe les services dédiés au contrôle de la légitimité de la requête de l’internaute, dont la case à cocher qui fait office de Captcha chez Cloudflare.

À 14h09 heure de Paris, l’entreprise a expliqué avoir identifié une modalité de résolution. « Nous avons apporté des modifications qui ont permis à Cloudflare Access et WARP de fonctionner à nouveau normalement. Les niveaux d’erreur pour les utilisateurs d’Access et de WARP sont revenus aux taux enregistrés avant l’incident », a-t-elle indiqué ensuite.

  •  

Apple perd l’un de ses designers stars, Tim Cook partirait dès 2026

So long
Apple perd l’un de ses designers stars, Tim Cook partirait dès 2026

En quelques jours, du chamboulement est apparu chez Apple. L’entreprise vient de perdre l’une de ses étoiles montantes du design et des sources affirment que Tim Cook pourrait laisser la direction de l’entreprise dès l’année prochaine.

Abidur Chowdhury, l’un des designers fétiches d’Apple, vient de quitter l’entreprise. Apple lui doit notamment en bonne partie le design du récent iPhone Air. Comme le rappelle notamment Bloomberg, Chowdhury avait été choisi pour faire la présentation de l’appareil durant la conférence de septembre.

Le designer était arrivé chez Apple en 2019 et faisait partie d’un lot de personnes embauchées au moment où Jony Ive s’en allait. Selon Bloomberg, le départ de Chowdhury n’a rien à voir avec les ventes décevantes de l’iPhone Air, dont le design a globalement été salué. Le designer serait simplement parti pour une jeune pousse de l’intelligence artificielle, Bloomberg citant des sources « familières ». Son départ aurait créé des remous en interne car il était considéré comme une étoile montante.

Tim Cook sur le départ ?

Selon d’autres sources, Apple s’apprêterait à vivre des changements plus importants. Le très sérieux Financial Times a indiqué pendant le week-end que Tim Cook pourrait quitter l’entreprise dès l’année prochaine. Le conseil d’administration et tous les cadres de la direction prépareraient activement le passage de relai. Aucune annonce n’aurait lieu avant la présentation des prochains résultats trimestriels, prévue pour fin janvier.

Tim Cook est actuellement le patron ayant tenu les rênes le plus longtemps chez Apple. Approchant des 15 ans d’exercice, il a durablement imprimé sa marque dans l’entreprise, en jouant la continuité avec Steve Jobs, dont il était un proche. Les résultats d’Apple sous sa houlette ayant affiché une croissance continue, le Financial Times parle d’une décision personnelle, pas d’un CEO poussé vers la porte de sortie.

Chez MacG, on estime que l’article du Financial Times pourrait être le résultat d’une fuite savamment orchestrée pour sonder la réaction du marché. Nos confrères font remarquer plusieurs points, dont une publication de l’article un vendredi soir après clôture de Wall Street, pour que l’information se diffuse et se tasse durant le week-end. Ils relèvent également que l’avenir proche de Tim Cook pourrait être celui de président du conseil d’administration, prenant alors la place d’Arthur D. Levinson, qui vient de fêter ses 75 ans, âge maximal autorisé pour ce poste.

  •  

☕️ Le ministère des Armées victime de 5 à 10 incidents cyber graves par an

« Nous comptons un peu plus de 4 900 cybercombattants, avec un objectif de 5 500 d’ici 2030 », explique à Libération Emmanuel Naëgelen (LinkedIn), ancien chef des opérations du ComCyber de 2018 à 2020, puis directeur adjoint et n°2 de l’ANSSI et, depuis août, nouveau commandant de la cyberdéfense (COMCYBER) de l’état-major des armées.

Il succède à Aymeric Bonnemaison qui, après avoir œuvré dans plusieurs unités de guerre électronique, était devenu adjoint du directeur technique de la DGSE, et a été nommé cet été à la tête de la Direction du renseignement et de la sécurité de la Défense (DRSD), le service de contre-espionnage militaire.

Si les unités du ComCyber ne rassemblent qu’ « environ 500 personnes », elles bénéficient du soutien de 20 autres unités opérationnelles chargées de « combattre dans le cyberespace et renforcer la cyberdéfense des armées françaises », précise le COMCYBER. Ces dernières sont réunies au sein de la Communauté cyber des armées (CCA), comme nous le relevions à l’occasion de la création, en août, du Commissariat au Numérique de Défense (CND), le « 1ᵉʳ intranet militaire européen », composé de 6 745 hommes et femmes (dont 55 % militaires et 45 % civils).

Interrogé sur le nombre de cyberattaques visant les armées françaises, le général de division aérienne Naëgelen avance que le nombre d’incidents graves (à savoir le fait qu’un attaquant a « réussi à pénétrer nos systèmes et à en extraire de l’information ») « se compte sur les doigts d’une à deux mains, et nous sommes plus près de 5 que de 10 », par an.

« Si les IA génératives facilitent clairement le travail de nos adversaires », notamment pour « générer des mails trompeurs extrêmement crédibles », précise-t-il, « nous n’avons pas encore observé des attaques informatiques complexes qui seraient pilotées par un moteur d’intelligence artificielle ».

Rappelant qu’« un char, un avion, un bateau embarquent de l’informatique », il résume ce que le cyber représente en termes d’armements : « Du point de vue du ComCyber, un bateau, c’est un data center qui flotte ! »

  •  

Cryptomonnaies : Binance et OKX utilisées pour blanchir des centaines de millions d’euros

Laverie numérique
Cryptomonnaies : Binance et OKX utilisées pour blanchir des centaines de millions d’euros

Les deux plateformes d’échange de cryptomonnaies Binance et OKX sont massivement utilisées pour le blanchiment d’argent. Une enquête du Consortium international des journalistes ICIJ montre que le conglomérat cambodgien Huione, accusé d’être au centre du blanchiment d’argent via les cryptomonnaies, aurait transféré au moins 545 millions d’euros en utilisant ces plateformes.

« La lessiveuse de cryptos » (en anglais, « The Coin Laundry »), c’est ainsi que le Consortium international des journalistes ICIJ a appelé son enquête montrant l’ampleur du blanchiment d’argent sale sur certaines plateformes de cryptomonnaies comme Binance et OKX.

545 millions d’euros de blanchiment d’un conglomérat cambodgien en un an

Ce consortium, qui rassemble 38 médias dont Le Monde et Radio France, a pu tracer des flux financiers provenant du conglomérat cambodgien Huione sur ces deux plateformes. Ils en concluent que cette entreprise, qui est « utilisée par des gangs criminels chinois pour blanchir les profits issus de la traite d’êtres humains et d’opérations frauduleuses à l’échelle industrielle », a transféré à Binance 408 millions de dollars (351 millions d’euros) entre juillet 2024 et juillet 2025, et 226 millions de dollars (195 millions d’euros) à OKX entre fin février 2025 et la fin juillet 2025.

Le mois dernier, le Réseau de lutte contre les crimes financiers (FinCEN) du département du Trésor américain ciblait ce même conglomérat cambodgien, l’accusant d’avoir blanchi « au moins 4 milliards de dollars de produits illicites entre août 2021 et janvier 2025 ». Le FinCEN annonçait avoir exclu Huione du système financier états-unien en parallèle de la saisie de 127 271 bitcoins (d’une valeur actuelle d’environ 15 milliards de dollars), dans le cadre de l’accusation de fraudes électroniques et de blanchiment d’argent de Chen Zhi, le fondateur et président de Prince Holding Group, un autre conglomérat cambodgien.

D’autres réseaux illégaux continuent d’utiliser ces plateformes

ICIJ a aussi découvert des transactions d’autres organisations illégales à travers le monde. Ainsi, le cartel de drogue mexicain Sinaloa a reçu plus de 700 000 dollars via des comptes de la plateforme Coinbase. Le consortium liste aussi un réseau de trafiquants chinois de fentanyl ou encore un intermédiaire russe chargé de blanchir de l’argent pour le programme d’armement nord-coréen en utilisant un compte sur la plateforme HTX.

Dans son enquête, l’ICIJ se demande si « les plateformes d’échange en font assez pour mettre fin aux flux illicites, que ce soit en gelant les fonds, en fermant les comptes ou en surveillant attentivement les transactions suspectes ». En novembre 2023, Binance et son ancien CEO, Changpeng Zhao « CZ », avaient plaidé coupable de violation des lois états-uniennes contre le blanchiment.

Binance en porte-à-faux avec ses engagements de 2023, CZ amnistié

L’entreprise s’était engagée à se plier aux législations en vigueur. Elle avait pu continuer ses activités même si le département de Justice américain relevait que l’entreprise avait volontairement favorisé ces transactions. Celui-ci notait par exemple, comme le révélait le Wall Street Journal, qu’un des employés chargé de la conformité de l’entreprise avait écrit dans le chat interne : « Nous avons besoin d’une bannière disant : « Le blanchiment d’argent sale est trop difficile ces jours-ci ? Venez chez Binance, nous avons des gâteaux pour vous » ».

Donald Trump a récemment amnistié CZ. À cette occasion, la porte-parole de la Maison-Blanche, Karoline Leavitt, a déclaré que les poursuites menées par le prédécesseur de Donald Trump « ont gravement terni la réputation des États-Unis comme leader en matière de technologie et d’innovation. La guerre du gouvernement Biden contre les cryptos est finie ».

« S’ils excluent les acteurs criminels de leur plateforme, ils perdent alors une importante source de revenus, ce qui les incite à laisser cette activité se poursuivre », explique à l’ICIJ John Griffin, enseignant-chercheur à l’université du Texas à Austin.

Cette enquête montre que, contrairement aux engagements pris en 2023 par Binance, l’entreprise et le milieu des cryptomonnaies n’ont pas fait le ménage. Si on pouvait le suspecter, comme l’exprime le CTO de l’ICIJ, Pierre Romera Zhang, « sans données, sans fact-checking, sans transparence, il n’y a ni débat public éclairé ni pression sur les plateformes, les législateurs et les autorités ».

  •  

☕️ Lancement réussi pour le satellite d’observation des océans Copernicus Sentinel-6B

L’Agence spatiale européenne (ESA) s’est félicitée lundi 17 novembre du succès du lancement d’un nouveau satellite dédié à la surveillance du niveau des océans, intégré au programme Copernicus.

Baptisé Sentinel-6B, ce nouvel appareil succède à Sentinel-6 Michael Freilich, lancé en 2020, et embarque « la dernière technologie d’altimétrie radar » pour mesurer et enregistrer en continu la hauteur de la surface de la mer, dans le prolongement des programmes dédiés initiés au début des années 1990.

« Outre la cartographie de la hauteur de la surface de la mer pour comprendre les changements à long terme, Copernicus Sentinel-6 fournit également des données pour des applications « opérationnelles » pratiques. Par exemple, la mission mesure la hauteur significative des vagues et la vitesse du vent, données qui sont utilisées pour les prévisions océaniques en temps quasi réel. Concrètement, l’altimétrie par satellite fournit les mesures les plus complètes disponibles à ce jour sur l’état de la mer », décrit l’Agence spatiale européenne.

Le lancement a été réalisé lundi matin vers 6h20 (heure de Paris) au moyen d’une fusée SpaceX Falcon 9 depuis la base spatiale de Vandenberg en Californie.

Le satellite Sentinel-6B en direction de son orbite de destination – crédit NASA/SpaceX

Outre l’intérêt scientifique de la mission, l’Agence spatiale européenne souligne également sa dimension collaborative, fruit d’une coopération internationale qui implique notamment deux agences gouvernementales américaines : la NOAA (National Oceanic and Atmospheric Administration) et la NASA (National Aeronautics and Space Administration).

« Cette réussite démontre ce qu’il est possible d’accomplir lorsque des agences et des industries internationales travaillent ensemble vers un objectif commun. Sentinel-6B nous permettra de continuer à collecter les données de haute précision nécessaires pour comprendre l’évolution de notre climat, protéger nos océans et soutenir les décisions qui protègent les communautés côtières à travers le monde », se réjouit Simonetta Cheli, directrice des programmes d’observation de la Terre à l’ESA.

Cet hommage appuyé à la collaboration internationale n’a rien d’un hasard : il intervient alors que les agences américaines impliquées dans la surveillance et l’étude du climat font l’objet d’attaques répétées de l’administration Trump.

  •  

☕️ #LIDD Itiner-e : un Google Maps des voies romaines

Le projet Itiner-e propose « le jeu de données numérique ouvert le plus détaillé des routes de tout l’Empire romain ». En plus des villes (avec les noms d’époque) et des voies romaines, le site permet de calculer des itinéraires à pied, à cheval ou avec une charrette à bœufs. Les données peuvent être téléchargées.

Il fallait ainsi 95 heures avec un cheval (vitesse moyenne de 6 km/h), 143 heures à pied et 286 heures avec une charrette à bœufs pour rejoindre Lugdunum et Burdigala (c’est-à-dire Lyon vers Bordeaux). Pour les trajets en mode Google Maps cliquez sur la petite icône en bas à droite de l’écran. Les autres options permettent d’afficher un fond de carte satellite, les routes, villes et frontières actuelles.

Le blog spécialisé et contributif Cartonumérique explique qu’une « équipe de recherche internationale a créé une nouvelle cartographie des routes de l’Empire romain. La carte qui en résulte comprend près de 300 000 km de routes, soit près de deux fois plus que ce que l’on trouve d’habitude sur des cartes historiques. Cet immense réseau routier témoigne de la puissance de cet empire ».

Le site « agrège 200 ans de recherche : tout ce qu’on sait sur les endroits où des routes ont été étudiées et excavées a été combiné avec des images satellites et des cartes topographiques qui montrent les traces, dans le paysage, où des chemins auraient pu se trouver », expliquait à la RTS Tom Brughman (professeur associé en archéologie au Danemark et co-directeur du projet). Il affirme que ce sont pas moins de 100 000 km supplémentaires « par rapport aux anciennes estimations ».

Il ajoute qu’un « grand nombre de lieux de vie romains ne sont pas encore connectés à notre réseau par des routes connues. Beaucoup de ces chemins pourront encore être découverts, aussi en Suisse ». Au fur et à mesure des découvertes, la carte (collaborative et évolutive) sera enrichie.

De nombreux tutos pour utiliser ce site ont été mis en ligne sur cette page.

  •  

☕️ Carte Vitale dématérialisée : l’application dédiée est disponible pour tous

Déjà disponible au travers du service France Identité, la carte Vitale dématérialisée dispose désormais de sa propre application, distribuée sur iOS et Android. Si cette dernière était déjà accessible aux utilisateurs de France Identité, elle l’est maintenant pour tous les internautes français, après installation de la dernière mise à jour éditée par le GIE SESAM-Vitale et sous réserve de disposer d’un smartphone compatible.

En pratique, l’appli carte Vitale a vocation à remplacer la carte verte et jaune physique que connaissent aujourd’hui les assurés : on peut ainsi simplement présenter son smartphone chez les professionnels de santé équipés d’un lecteur dédié (présentation d’un code QR ou identification via NFC), la sécurité étant assurée par le verrouillage de l’application (mot de passe à dix chiffres ou biométrie).

L’enrôlement suppose de vérifier l’identité de l’utilisateur. Pour ce faire, l’application propose deux options : soit une connexion à France Identité, si des documents d’identité officiels ont déjà été enregistrés sur le smartphone (on parle alors de dérivation d’une identité numérique déjà vérifiée), soit une vérification biométrique, qui suppose de photographier sa pièce d’identité, puis d’enregistrer une courte vidéo de son visage à des fins de contrôle. La vérification est dans ce contexte différée (le temps qu’un agent valide la demande) dans un délai maximal de 48 heures.

Au fait, pourquoi une application dédiée, alors que France Identité pourrait gérer la carte Vitale dématérialisée ? « L’appli carte Vitale est destinée à tous les assurés de l’Assurance maladie. L’application France Identité est accessible uniquement aux détenteurs d’une carte d’identité française nouveau format », répond l’Assurance maladie. Le client dédié permet par ailleurs de retrouver ses dépenses de soin.

Au chapitre des données, l’application n’est censée héberger aucune information à caractère médical. Elle contient en revanche les données dites de l’Assurance Maladie Obligatoire (AMO) pour l’assuré et ses bénéficiaires (conjoint, enfants), dont le numéro de sécurité sociale, les noms et prénoms, date de naissance, qualité et organisme de rattachement, ainsi que l’adresse email du compte ou espace assuré. « À terme, les données de l’Assurance Maladie Complémentaire (AMC) pourront être intégrées dans l’application. », précise le site dédié, sur lequel on peut consulter les conditions générales d’utilisation (CGU) associées.

Si les « professionnels de santé s’équipent progressivement afin de pouvoir lire l’appli carte Vitale », le déploiement est progressif. La carte Vitale physique, qui reste indispensable pour les assurés non détenteurs d’un smartphone, a donc sans doute encore de beaux jours devant elle. L’annuaire en ligne de l’Assurance maladie permet de vérifier si un professionnel ou centre de santé est équipé d’un lecteur compatible avec l’application carte Vitale.

Exemple d’une fiche de médecin sur l’annuaire Ameli – capture d’écran Next

  •  

Ubisoft glisse « par erreur » une image générée par IA dans Anno 117

« J’ai glissé chef »
Ubisoft glisse « par erreur » une image générée par IA dans Anno 117

Le dernier titre d’Ubisoft, Anno 117 : Pax Romana, s’est attiré les foudres de quelques internautes, déçus d’un visuel manifestement généré par IA. L’éditeur, qui informe publiquement que l’IA générative a été mise en œuvre dans le processus de développement du jeu, s’est excusé, affirmant que ce visuel avait été intégré par erreur dans la version finale du jeu. Ce faisant, il illustre une problématique de plus en plus criante, dans le jeu vidéo comme ailleurs : où placer le curseur ?

Attendu de longue date par les fans de cette série historique mêlant city builder et jeu de stratégie en temps réel, Anno 117 : Pax Romana est sorti le 13 novembre dernier. Alors que les jeux Anno sont généralement salués pour leur direction artistique de haut vol, sa découverte a occasionné quelques commentaires déçus chez les joueurs de la première heure : il apparait en effet que le studio Ubisoft Mainz a fait appel à une IA générative pour la création de certains éléments visuels apparaissant dans les cinématiques du jeu.

Avec, dans le lot, quelques scories bien visibles, notamment au niveau de l’un des écrans de chargement, comme ce banquet dont plusieurs personnages présentent des artefacts visuels caractéristiques telles que des mains tronquées, une absence de bras, ou un visage complètement écrasé.

Un placeholder malencontreux

« Malheureusement, les graphismes d’arrière-plan sont de qualité assez médiocre », s’est ému un internaute sur Reddit, peu de temps avant qu’un autre visuel n’émerge. Cette fois, il montre une assemblée de sénateurs romains, au milieu desquels émerge un personnage sans tête.

Contacté par Kotaku, Ubisoft a rapidement réagi au premier visuel incriminé, et plaidé l’erreur de bonne foi, tout en présentant un visuel corrigé, qui devrait être déployé au sein du jeu lors de la sortie du patch 1.3. « Cette image était une illustration provisoire qui a échappé à notre processus de validation », affirme l’éditeur avant de rappeler que le studio en charge d’Anno : 117 a « réuni la plus grande équipe d’artistes jamais créée pour la franchise ».

Ubisoft admet dans le même temps qu’afin de « répondre aux exigences uniques de ce projet », les membres de cette équipe « utilisent des outils d’IA pour les itérations, le prototypage et l’exploration ».

Cette mention spécifique à l’IA générative apparait également, pour la première fois chez Ubisoft, sur la fiche Steam dédiée au jeu :

« L’équipe de développement décrit l’utilisation de contenu généré par IA dans le jeu comme suit. Des outils d’IA ont été utilisés pour la création de certains éléments du jeu. Dans tous les cas, le produit final témoigne du savoir-faire et de la vision créative de notre équipe ».

Cinq jours après son lancement, le jeu reçoit des évaluations moyennement positives sur Steam, mais ce n’est pas le recours à l’IA générative qui est mis en cause : les joueurs se plaignent principalement de problèmes de connexion au multi. Sur Reddit en revanche, certains digèrent mal l’argument du placeholder (illustration provisoire), et regrettent que le studio emploie des procédés bas de gamme sur un jeu vendu plein tarif.

PC Gamer rappelle en outre que l’emploi de l’IA générative au sein d’Anno 117 avait déjà été questionné, au sujet des traductions cette fois. L’un des participants à la bêta s’était ainsi étonné que la version allemande du jeu présente des traductions approximatives ou grossières, alors même qu’Ubisoft a reçu un soutien financier de 5,7 millions d’euros de la part du gouvernement allemand autour de ce nouvel opus.

L’IA générative déjà largement répandue au sein des studios

Début 2023, Ubisoft avait communiqué ouvertement sur son intention de mettre à profit l’IA générative pour écrire la première mouture des dialogues des personnages non joueurs (PNJ) de certains de ses jeux vidéo.

La création de PNJ capables d’adapter leurs réponses aux comportements du joueur, grâce à l’IA générative, suscite d’ailleurs l’intérêt de la plupart des grands noms du secteur, de Square Enix à Microsoft, soutenus par NVIDIA qui fournit des kits de développement dédiés à ces problématiques d’animation de personnages.

Dans ces différents cas de figure, l’utilisation de l’IA générative est cependant associée à une promesse d’amélioration de la qualité perçue pour le joueur : les PNJ qu’il rencontre sont censés devenir plus intéressants. La bourde d’Ubisoft évoque cependant une approche plus productiviste, qui interroge sur son éventuelle propension à faire appel à des modèles pour réduire ses coûts de développement.

Et si 87 % des développeurs dans le monde du jeu vidéo recourent déjà à des modèles d’IA générative dans le cadre professionnel, d’après un sondage commandité par Google, certains acteurs semblent soucieux des éventuelles problématiques d’image associées. En mai dernier, Bloomberg a par exemple révélé que Take Two (Rockstar et 2K Games) et Electronic Arts avaient tous deux intégré un avertissement relatif à l’IA dans leur communication financière.

« L’essor des technologies d’intelligence artificielle dans notre secteur a influencé la production de jeux pour les développeurs et l’expérience de jeu pour les joueurs. L’utilisation de cette technologie émergente (…) soulève des questions sociales et éthiques susceptibles d’entraîner des préjudices juridiques et de réputation, ainsi que des responsabilités juridiques », faisait par exemple remarquer Take Two.

Ubisoft en plein virage stratégique ?

L’incident lié à Anno 117 intervient dans un contexte particulièrement complexe pour Ubisoft. L’entreprise a manqué à plusieurs reprises ses objectifs financiers, enregistre des pertes récurrentes, et se voit malmenée en bourse, alors même qu’elle a négocié au printemps le transfert de ses principales licences au sein d’une nouvelle coentreprise détenue avec son actionnaire chinois Tencent.

Vendredi, le groupe a déclenché un nouveau vent d’incertitude en annonçant à la dernière minute le décalage de la publication de ses résultats financiers et la suspension de la cotation de ses actions à la Bourse de Paris. L’entreprise n’a donné aucune explication quant à la cause de cet événement exceptionnel, ouvrant la voie à toutes les rumeurs, dont l’hypothèse d’un rachat, soit par Tencent, soit par un autre acteur du secteur.

  •  

☕️ OpenAI va ouvrir ChatGPT aux conversations de groupe

Dans un billet du 13 novembre, OpenAI a annoncé qu’une phase de test venait d’être lancée dans quelques pays pour les conversations de groupes.

Concrètement, on pourra envoyer un lien pour créer un groupe de conversation comprenant jusqu’à 20 personnes. Les échanges se feront comme sur n’importe quelle interface de discussion (comme WhatsApp, Signal…), à ceci près que l’IA participera comme le ferait une autre personne.

OpenAI indique que cette fonction est confiée à GPT-5.1 Auto, modèle récemment lancé et devant pour rappel répartir les demandes entre les variantes Instant et Thinking, conçues respectivement pour les demandes classiques et celles plus exigeantes.

La semaine dernière, l’entreprise expliquait qu’Auto avait été entrainé pour renvoyer intelligemment les requêtes selon leur contenu. Cette fois, elle indique qu’il a aussi été entrainé pour les conversations de groupes, ne devant intervenir que lorsque le contexte s’y prête, à moins d’être explicitement mentionné.

OpenAI donne plusieurs détails pratiques. Par exemple, si vous invitez d’autres personnes à rejoindre un échange en cours avec ChatGPT, l’application créera automatiquement une conversation séparée. Les personnes qui la rejoindront seront invitées à donner quelques informations, notamment un nom d’utilisateur et une photo. Toutes les fonctions habituelles sont prises en charge, y compris la génération d’images et l’envoi de fichiers.

« Les réponses sont alimentées par GPT-5.1 Auto, qui choisit le meilleur modèle avec lequel répondre en fonction de l’invite et des modèles disponibles pour l’utilisateur auquel ChatGPT répond en fonction de son forfait Free, Go, Plus ou Pro », précise OpenAI. En outre, les éléments dans la mémoire du service ne sont pas utilisés et les conversations de groupes ne peuvent pas créer de souvenirs. Enfin, si une personne de moins de 18 ans rejoint un groupe, le service adaptera automatiquement ses réponses, affirme OpenAI.

Il s’agit pour l’instant d’un projet pilote lancé au Japon, en Nouvelle-Zélande, en Corée du Sud et à Taïwan. « Une première étape », selon OpenAI, qui ne donne pas d’autres informations sur une diffusion plus large.

  •