↩ Accueil

Vue lecture

L’impact de l’IA sur la planète ? Personne n’en parle (mais l’IA sert la désinformation)

Next, si !
L’impact de l’IA sur la planète ? Personne n’en parle (mais l’IA sert la désinformation)

Si des études scientifiques s’y attellent, les effets de l’explosion du secteur de l’intelligence artificielle sur l’environnement restent très peu discutés dans l’espace public, selon un rapport de Sopra Steria.

Depuis l’été 2022, l’intelligence artificielle est dans toutes les discussions. Impacts économiques, politiques, médiatiques, potentielle bulle financière, même, tous ses effets sont décortiqués à l’exception d’un, et non des moindres : celui que le secteur a sur l’environnement.

Entre janvier 2024 et avril 2025, moins de 1 % des 802 465 publications X et LinkedIn liées à l’IA et analysées par Opsci.ai évoquaient par exemple les effets de l’intelligence artificielle sur l’écosystème planétaire. Menée avec Opsci.ai, une récente étude de Sopra Steria sur le brouillard informationnel qui obscurcit les liens entre IA et environnement constate que le climat n’arrive qu’en huitième position des préoccupations des 100 leaders de l’IA listés par le Time Magazine, loin derrière les débats autour des modèles ou encore de l’actualité du secteur.

Le sujet est pourtant d’importance : si le rôle de l’humanité dans le réchauffement climatique fait consensus dans la communauté scientifique depuis plus de 15 ans, 33 % de la population française considère en 2024 que le réchauffement climatique n’est qu’une hypothèse sur laquelle les scientifiques ne sont pas tous d’accord. Et alors qu’une soixantaine de scientifiques du GIEC annonçaient mi-juin que le maintien du réchauffement climatique sous les 1,5 °C de plus qu’avant l’ère pré-industrielle était désormais impossible, 29 % de la population mondiale doute de ce consensus.

Sur le rôle spécifique de l’IA dans le domaine, les calculs sont complexes, mais les premières données scientifiques sont claires : recourir à des modèles de langage généralistes est beaucoup plus consommateur que de se tourner vers de plus petits modèles – des besoins en énergie qui, le plus souvent, sont synonymes d’accroissement significatif de multiples impacts environnementaux, à commencer par les émissions carbone.

Relative focalisation sur la question énergétique

Du côté des personnes clairement intéressées par la lutte contre les bouleversements climatiques, l’IA n’occupe que 2,85 % des discussions, constate Sopra Steria après analyse de 314 419 messages issus d’un panel LinkedIn dédié. Dans ces cas là, elle est principalement présentée comme une menace en termes d’énergie – un enjeu compréhensible, dans la mesure où le patron d’OpenAI lui-même suggère qu’à terme, « une fraction significative de l’énergie sur Terre devrait être consacrée à l’exécution de calculs d’IA ».

Quasiment pas de trace, en revanche, de ses effets sur le cycle de l’eau, sur lesquels le sociologue Clément Marquet ou l’urbaniste Cécile Diguet sont revenus pour Next, ou sur la santé des populations, pourtant directement touchée par la pollution atmosphérique des centres de données.

En s’arrêtant sur l’épisode de génération mondiale de starter packs, qui avait ouvert un semblant de discussion sur le sujet, l’étude constate que les discours sur X et sur LinkedIn sont relativement différents.

Sur la première plateforme – dont le manque de modération a par ailleurs fait fuir bon nombre de spécialistes depuis plusieurs années, l’essentiel des discussions était enthousiaste envers le fait de se créer des starter packs, et consistaient à partager des conseils de prompts (requêtes). 17,2 % des publications émettaient néanmoins des critiques, dont 2,4 % en s’inquiétant spécifiquement de l’eau utilisée par les data centers. 



Sur LinkedIn, 29,4 % des publications critiquaient les starter packs. Les publications enthousiastes restaient majoritaires, souligne l’étude, mais ont recueilli moins d’engagement (22,86 % du total étudié) que celles critiquant le fait de générer ces images (33,56 %).

L’IA au service de la désinformation

Impact indirect de l’IA : les modèles génératifs servent par ailleurs à désinformer sur les enjeux environnementaux. En 2024, l’IA avait notamment été employée dans la campagne de désinformation qui avait perturbé le secours aux victimes des ouragans Hélène et Milton. En janvier 2025, l’European Digital Media Observatory alertait sur le fait que ces thématiques étaient devenues le premier sujet de désinformation en Europe.

Sur X, le chatbot Grok de xAI participe par ailleurs directement au problème, glissant directement des propos climatosceptiques dans certaines réponses relatives au climat – le robot a par ailleurs été utilisé pour produire une « étude » dont la totalité du propos vise à nier le rôle de l’humanité dans le changement climatique.

Les médias traditionnels ont, eux aussi, des progrès à faire. En recourant à de la détection automatisée (d’aucuns la qualifieraient d’IA), QuotaClimat a détecté pas moins de 128 cas de désinformation environnementale dans l’audiovisuel français en 3 mois, soit une dizaine de propos faux par semaine.

  •  

L’impact de l’IA sur la planète ? Personne n’en parle (mais l’IA sert la désinformation)

Next, si !
L’impact de l’IA sur la planète ? Personne n’en parle (mais l’IA sert la désinformation)

Si des études scientifiques s’y attellent, les effets de l’explosion du secteur de l’intelligence artificielle sur l’environnement restent très peu discutés dans l’espace public, selon un rapport de Sopra Steria.

Depuis l’été 2022, l’intelligence artificielle est dans toutes les discussions. Impacts économiques, politiques, médiatiques, potentielle bulle financière, même, tous ses effets sont décortiqués à l’exception d’un, et non des moindres : celui que le secteur a sur l’environnement.

Entre janvier 2024 et avril 2025, moins de 1 % des 802 465 publications X et LinkedIn liées à l’IA et analysées par Opsci.ai évoquaient par exemple les effets de l’intelligence artificielle sur l’écosystème planétaire. Menée avec Opsci.ai, une récente étude de Sopra Steria sur le brouillard informationnel qui obscurcit les liens entre IA et environnement constate que le climat n’arrive qu’en huitième position des préoccupations des 100 leaders de l’IA listés par le Time Magazine, loin derrière les débats autour des modèles ou encore de l’actualité du secteur.

Le sujet est pourtant d’importance : si le rôle de l’humanité dans le réchauffement climatique fait consensus dans la communauté scientifique depuis plus de 15 ans, 33 % de la population française considère en 2024 que le réchauffement climatique n’est qu’une hypothèse sur laquelle les scientifiques ne sont pas tous d’accord. Et alors qu’une soixantaine de scientifiques du GIEC annonçaient mi-juin que le maintien du réchauffement climatique sous les 1,5 °C de plus qu’avant l’ère pré-industrielle était désormais impossible, 29 % de la population mondiale doute de ce consensus.

Sur le rôle spécifique de l’IA dans le domaine, les calculs sont complexes, mais les premières données scientifiques sont claires : recourir à des modèles de langage généralistes est beaucoup plus consommateur que de se tourner vers de plus petits modèles – des besoins en énergie qui, le plus souvent, sont synonymes d’accroissement significatif de multiples impacts environnementaux, à commencer par les émissions carbone.

Relative focalisation sur la question énergétique

Du côté des personnes clairement intéressées par la lutte contre les bouleversements climatiques, l’IA n’occupe que 2,85 % des discussions, constate Sopra Steria après analyse de 314 419 messages issus d’un panel LinkedIn dédié. Dans ces cas là, elle est principalement présentée comme une menace en termes d’énergie – un enjeu compréhensible, dans la mesure où le patron d’OpenAI lui-même suggère qu’à terme, « une fraction significative de l’énergie sur Terre devrait être consacrée à l’exécution de calculs d’IA ».

Quasiment pas de trace, en revanche, de ses effets sur le cycle de l’eau, sur lesquels le sociologue Clément Marquet ou l’urbaniste Cécile Diguet sont revenus pour Next, ou sur la santé des populations, pourtant directement touchée par la pollution atmosphérique des centres de données.

En s’arrêtant sur l’épisode de génération mondiale de starter packs, qui avait ouvert un semblant de discussion sur le sujet, l’étude constate que les discours sur X et sur LinkedIn sont relativement différents.

Sur la première plateforme – dont le manque de modération a par ailleurs fait fuir bon nombre de spécialistes depuis plusieurs années, l’essentiel des discussions était enthousiaste envers le fait de se créer des starter packs, et consistaient à partager des conseils de prompts (requêtes). 17,2 % des publications émettaient néanmoins des critiques, dont 2,4 % en s’inquiétant spécifiquement de l’eau utilisée par les data centers. 



Sur LinkedIn, 29,4 % des publications critiquaient les starter packs. Les publications enthousiastes restaient majoritaires, souligne l’étude, mais ont recueilli moins d’engagement (22,86 % du total étudié) que celles critiquant le fait de générer ces images (33,56 %).

L’IA au service de la désinformation

Impact indirect de l’IA : les modèles génératifs servent par ailleurs à désinformer sur les enjeux environnementaux. En 2024, l’IA avait notamment été employée dans la campagne de désinformation qui avait perturbé le secours aux victimes des ouragans Hélène et Milton. En janvier 2025, l’European Digital Media Observatory alertait sur le fait que ces thématiques étaient devenues le premier sujet de désinformation en Europe.

Sur X, le chatbot Grok de xAI participe par ailleurs directement au problème, glissant directement des propos climatosceptiques dans certaines réponses relatives au climat – le robot a par ailleurs été utilisé pour produire une « étude » dont la totalité du propos vise à nier le rôle de l’humanité dans le changement climatique.

Les médias traditionnels ont, eux aussi, des progrès à faire. En recourant à de la détection automatisée (d’aucuns la qualifieraient d’IA), QuotaClimat a détecté pas moins de 128 cas de désinformation environnementale dans l’audiovisuel français en 3 mois, soit une dizaine de propos faux par semaine.

  •  

☕️ X teste l’usage de l’IA pour générer des notes de communautés

Après la suppression de la modération, la vérification d’information confiée à des IA génératives ? C’est le projet que teste X depuis le 1er juillet.

Le but : multiplier le nombre de notes de communautés, cette fonctionnalité lancée en 2023 en lieu et place de la modération, pour laisser les internautes apporter leurs propres précisions ou vérifications à des publications postées sur le réseau social.

« Notre objectif a toujours été d’augmenter le nombre de notes diffusées », a déclaré le directeur des notes de communautés Keith Coleman à Adweek. « Nous pensons que l’IA pourrait être un bon moyen d’y parvenir. Les humains n’ont pas envie de vérifier toutes les publications diffusées sur X – ils ont tendance à vérifier les plus visibles. Les machines pourraient potentiellement rédiger des notes sur bien plus de contenus. »

De la même manière que celles soumises par des personnes, les notes de communautés produites par IA devront passer un système de notes des internautes pour valider leur justesse, avant d’être rendues publiques au plus grand nombre.

Les notes de communautés sont en effet rendues publiques lorsqu’elles provoquent un consensus entre des groupes d’usagers qui ont été opposés sur de précédentes notes.

Certains scientifiques estiment qu’un travail coopératif entre internautes et LLM peut améliorer la modération des réseaux sociaux.

Des risques existent néanmoins, à commencer par la tendance de certains modèles, dont ChatGPT, à survaloriser la sympathie envers les usagers. Appliqué à la modération, relève TechCrunch, ce type de biais pourrait produire des notes privilégiant la « serviabilité » à la vérification des faits, auquel cas les notes produites seraient peu utiles.

  •  

IA, cryptomonnaie : Trump, définitivement le meilleur allié de la tech conservatrice ?

This is a man's world
IA, cryptomonnaie : Trump, définitivement le meilleur allié de la tech conservatrice ?

Alors que le Sénat des États-Unis s’apprête à voter une loi budgétaire qui irrite Elon Musk, un retour en arrière illustre les multiples avantages que la tech conservatrice a pu tirer de l’élection de Donald Trump.

Les sénateurs des États-Unis votent ce mardi sur la « one big beautiful bill » (OBBB) de Donald Trump, autrement dit « la grande et belle loi » budgétaire de Donald Trump. Avec plus de 1000 pages, ce projet de texte est aussi au cœur d’une rivalité qui vient définitivement enterrer l’amitié du président des États-Unis avec Elon Musk. Elle est pourtant taillée pour apporter une nouvelle pierre au partenariat désormais bien établi entre le monde de la tech libertarienne et le camp MAGA (Make America Great Again).

Car en près de six mois de mandat, Donald Trump a déjà répondu à beaucoup d’attentes de l’industrie numérique. Après avoir mis leurs millions et leurs réseaux (y compris le public de leurs très écoutés podcasts) au service du camp républicain, les financiers et les figures les plus conservatrices de la Silicon Valley ont obtenu de réels « retours sur investissement ». À commencer par l’atténuation de l’attention régulatrice qui avait commencé à peser sur les secteurs des cryptomonnaies et celui de l’intelligence artificielle.

Quand l’administration démocrate voulait réguler

Sous la présidence Biden, le gouvernement des États-Unis avait en effet œuvré pour réguler les deux secteurs, c’est-à-dire pour les soumettre à des règles qui s’appliquaient déjà à d’autres secteurs.

Il avait travaillé à soumettre le secteur des cryptomonnaies aux régulations existantes pour lutter contre le blanchiment d’argent, ou encore aux règles de la Security Exchange Commission (SEC) et de l’Internal Revenue Service (IRS), relève notamment l’observatoire des multinationales. En parallèle, la Justice ouvrait plusieurs enquêtes contre des acteurs du monde des cryptoactifs, que ce soit pour lutter contre des activités criminelles ou pour protéger les consommateurs.

De même, le décret présidentiel visant à réduire les risques de l’IA avait été perçu comme une attaque par des acteurs comme les deux fondateurs du fonds de capital-risque Andreessen Horowitz (a16z), que l’on avait vu soutenir Donald Trump dans les six mois précédant l’élection présidentielle de 2024.

L’aubaine trumpiste

Avec Trump, ils ont trouvé parfait partenaire. L’une des premières actions du président des États-Unis fraichement (ré-)investi a consisté à défaire le décret qu’avait pris Biden. Côté cryptomonnaies, les enquêtes lancées par la SEC ont été abandonnées, de même que des régulations spécifiques, comme celle qui avait obligé les banques à divulguer les cryptoactifs détenus sur les comptes de leurs clients et de maintenir suffisamment d’actifs pour les sécuriser.

Dans la mesure où leurs deux domaines technologiques favoris sont extrêmement énergivores, la plupart de ces acteurs ont aussi critiqué le gouvernement Biden pour sa gestion de l’industrie de l’énergie. Encore une fois, le climatosceptique Trump s’est révélé l’allié parfait, enterrant dès son arrivée au pouvoir divers projet de lutte contre les bouleversements climatiques, vantant le « beau charbon propre » des États-Unis et facilitant la construction de centrales nucléaires.

Pour s’assurer des politiques au plus près de leurs intérêts, quantité de membres des cercles libertariens de la Silicon Valley se sont par ailleurs installés au cœur de l’administration actuelle, comme l’illustre en détail l’observatoire des multinationales. Ainsi de David Sacks, cofondateur de Palantir et ancien de PayPal, que Donald Trump a qualifié de « tsar » de la crypto et de l’IA à la Maison-Blanche, de Sriram Krishnan, associé d’a16z et conseiller pour l’IA du président, ou encore des 27 personnes issues de la galaxie Musk travaillant encore au sein du DOGE, le « ministère de l’efficacité gouvernementale » que l’homme d’affaires a dirigé jusqu’à début mai.

Ce faisant, aussi critiques des dépenses publiques que soient leurs patrons, des sociétés comme Palantir ou SpaceX sont en parfaite position pour augmenter encore le nombre de contrats gouvernementaux qui leur assurent des revenus. Parmi les projets à leur avantage : le dôme d’or, un bouclier antimissile dont Space X, Palantir et Anduril pourraient se charger de la construction, ou la politique anti-immigration, menée par l’ancien actionnaire de Palantir Stephen Miller.

Allègement d’impôts en tous sens dans l’OBBB

Au gré de son millier de pages, la « One Big Beautiful Bill » prévoit d’ailleurs de déployer toujours plus d’intelligence artificielle dans différentes administrations, que ce soit la Défense, le Commerce, les Douanes ou la Santé (pour lutter contre les paiements indus dans le programme Medicare).

Pourquoi, dans ce contexte, un Elon Musk s’est-il placé résolument contre Donald Trump ? Le multientrepreneur ne s’est en effet pas privé de qualifier le texte de grave erreur, susceptible de « détruire des millions d’emplois en Amérique » et de « causer un immense tort stratégique à notre pays ».

En pratique, l’OBBB promet une hausse des dépenses dans la défense, dans la politique (anti-)migratoire, un soutien à la politique nataliste, mais aussi des coupes franches dans tout ce qui touche à la santé ou à la défense de l’environnement. Elle prévoit d’empêcher toute forme de régulation sur l’intelligence artificielle, ce qui risque d’avoir des effets très concrets sur le climat planétaire.

Surtout, le texte prévoit des baisses d’impôts massives, pouvant grimper jusqu’à 40 000 dollars (contre 10 000 aujourd’hui) pour les contribuables qui gagnent moins de 500 000 dollars par an. Le coût de la mesure pourrait s’élever jusqu’à 4 500 milliards de dollars, alors que la dette du pays s’élève déjà à 36 000 milliards de dollars.

C’est précisément l’accroissement probable de la dette états-unienne que critique l’homme le plus riche du monde. Musk est allé jusqu’à menacer de créer son propre parti si l’OBBB passait en l’état. Quant à Trump, il a déclaré sur son réseau social Truth « Elon reçoit peut-être plus de subventions que n’importe quel humain à l’heure actuelle ». Et de menacer, dans une tirade contre SpaceX : « Plus de lancements de fusées, de satellites ou de production de voitures électriques, et notre pays économiserait une FORTUNE. Peut-être devrions-nous demander à la DOGE de jeter un bon coup d’œil à tout cela ? IL Y A BEAUCOUP D’ARGENT À ÉCONOMISER !!! »

  •  

☕️ Sur Spotify, un demi-million d’internautes écoutent un groupe généré par IA

En un mois, The Velvet Sundown a publié deux albums : « Floating on Echoes » et « Dust and Silence ». Un troisième devrait arriver dans le courant des prochaines semaines.

Dans les derniers jours, cela dit, de nombreux internautes ont commencé à douter publiquement, sur Reddit, ou sur X : aucune information n’existait en ligne sur les quatre membres de the Velvet Sundown.

Et puis un compte Instagram a été créé fin juin, qui a rendu les choses évidentes : the Velvet Sundown n’était qu’un groupe généré par IA, et ses « photos » l’étaient, visiblement, tout autant.

De nombreux groupes de musique générée par IA sont disponibles sur Spotify, qui n’oblige pas les artistes à révéler si des morceaux ont été entièrement créés via des machines.

Comme le remarque ArsTechnica, the Velvet Sundown est aussi présent sur Deezer, quand bien même la société est plus tatillonne sur les questions d’IA, dont elle s’efforce de détecter automatiquement l’utilisation. 
La plateforme française l’indique d’ailleurs, depuis peu, de façon explicite : « Certains morceaux de cet album peuvent avoir été créés à l’aide de l’intelligence artificielle ».

  •  

Avec « Osez l’IA », le gouvernement veut accélérer l’adoption de l’IA en entreprise

Osez osez Joséphine
Avec « Osez l’IA », le gouvernement veut accélérer l’adoption de l’IA en entreprise

Ce 1er juillet est lancé le plan Osez l’IA visant à accélérer l’adoption de l’IA dans les entreprises françaises.

La ministre déléguée chargée du numérique et de l’intelligence artificielle Clara Chappaz a lancé ce mardi un plan national « Osez l’IA », pour pousser l’adoption de l’IA en entreprise.

La raison de ce programme créé en lien avec Bercy, le ministère du Travail et des Territoires, Bpifrance, la Chambre de commerce et d’industire (CCI) et les syndicats professionnels ? L’IA « transforme notre économie dans tous les secteurs ».

Son adoption, sa diffusion, « pourraient générer des gains de croissance et de productivité conséquents pour l’économie française ». Le rapport de la Commission de l’intelligence artificielle de mars 2024 estimait en effet que l’adoption de l’IA pourrait stimuler le PIB de 0,8 à 1,3 point par an.

Cas d’usages inconnus, mais enjeu de survie à moyen terme

Or, selon les derniers chiffres de Bpifrance, les très petites, les petites et les moyennes entreprises sont à la traîne. En février, le Lab de Bpifrance constatait que 31 % des TPE et PME recouraient à l’IA, et 8 % de manière régulière. Plus des deux tiers de leurs dirigeants peinaient à identifier de réels cas d’usage.

Une nouvelle étude menée auprès de 1 209 dirigeants de PME et d’entreprises de tailles intermédiaires (ETI) dressait un tableau un peu plus optimiste : seulement 23 % des interrogés peinaient à identifier l’utilité d’outils d’IA. Surtout, 58 % d’entre eux envisageaient l’IA comme un enjeu de survie à moyen terme. Dans 73 % des cas, relevait encore Bpifrance, les projets d’IA étaient impulsés par le ou la dirigeante.

Le gouvernement veut accélérer cette cadence, qu’il juge trop lente, notamment comparée aux États-Unis. Outre-Atlantique, le numérique compte certes pour 10 % du PIB contre 5 % en France. Mais comme le soulignait la spécialiste de la géopolitique du numérique Ophélie Coelho auprès de Next, le modèle winner takes all qui a permis l’émergence d’une poignée de géants numériques ne ressemble pas tellement au tissu d’activité français, riche en PME-ETI.

Le but, quoiqu’il en soit : atteindre 80 % de PME et ETI et 50 % de PME recourant à l’IA à l’horizon 2030, en formant au passage 15 millions de personnes.

Trois axes de travail

Au programme d’« Osez l’IA » : 200 millions d’euros (dont 100 issus du plan France 2030, note La Tribune) pour déployer un plan en trois axes, avec un volet sensibilisation à l’IA, un dédié à la formation, et un accompagnement aux entreprises.

300 ambassadeurs IA viendront témoigner auprès d’autres chefs d’entreprises, tandis qu’une dizaine de rencontres permettront d’échanger en fonction des secteurs d’activité ou de thématiques précises. Inspirée de l’AI Business Day organisé lors du Sommet pour l’action sur l’IA, une nouvelle rencontre devrait être organisée en 2026.

La moitié de l’enveloppe prévue, elle, doit financer un appel à projet dédié à l’émergence de « pépites françaises sur l’IA », dans l’industrie, la robotique, la santé, la transition environnementale, entre autres domaines dits « de rupture ». 

L’autre moitié doit notamment permettre le cofinancement à hauteur de 40 % de 4 000 diagnostics Data-IA pour les PME et ETI françaises qui les sollicitent. Un fonds de garantie bancaire doit par ailleurs aider au financement de projet IA, jusqu’à 500 000 euros sur 10 ans.

  •  

☕️ Le Canada renonce à taxer les géants de la tech pour relancer ses échanges avec les États-Unis

C’est la fin d’un week-end de pression politico-commerciale tous azimuts de la part des États-Unis de Trump.

Samedi, les pays membres du G7, réunis au Canada, indiquaient vouloir exempter les multinationales états-uniennes de l’impôt minimal mondial négocié en 2021 via l’OCDE – les géants de la tech seraient évidemment concernés par cette exemption d’impôt. 


Dimanche, le ministre des Finances canadien François-Philippe Champagne a de son côté annoncé que le Canada « annulait la taxe sur les services numériques » dans le but de « faire progresser les négociations commerciales plus larges » avec son voisin du Sud.

Annoncée en 2020, la taxe sur les services numériques (TSN) devait prendre effet ce lundi 30 juin. Elle concernait les sociétés générant un chiffre d’affaires mondial annuel de plus d’1,1 milliard de dollars canadiens, et réalisant des revenus annuels de plus de 20 millions de dollars canadien dans le pays.

Vendredi 27, Donald Trump avait annoncé suspendre les négociations commerciales avec son voisin, qualifiant la taxe de « coup direct et évident » porté à son pays.

  •  

☕️ Le Thinking Machine Lab de Mira Murati lève 2 milliards de dollars

L’ex-numéro 2 d’OpenAI Mira Murati, qui a quitté l’entreprise en septembre 2024, vient de clore un premier tour de financement de 2 milliards de dollars, selon le Financial Times.

L’opération porte la valorisation de l’entreprise à 10 milliards de dollars, alors que ses travaux sont encore relativement flous. Dans sa présentation, Thinking Machine Lab indique qu’« au lieu de se concentrer uniquement sur la création de systèmes d’IA entièrement autonomes, nous sommes heureux de construire des systèmes multimodaux qui travaillent en collaboration avec les gens. »

La société s’est appuyée sur la réputation de Mira Murati, qui a travaillé sur les produits phares d’OpenAI et joué un rôle important de diplomate au sein de l’entreprise, et de plusieurs autres chercheurs de renom dans le domaine.

Elle avait notamment servi de CEO par interim lors de la crise interne à OpenAI, en 2023, avant que Sam Altman n’en reprenne la direction.

Cette opération est l’une des plus grosses levées initiales (seed) pour une start-up.

  •  

☕️ Pour ses 20 ans, Google Earth permet de se promener dans le temps

Il y a 20 ans, Google Earth était lancé auprès du grand public. Pour fêter cet anniversaire, l’entreprise ajoute ses données historiques dans Street View, pour explorer différentes zones du globe à différentes époques.

C’est la poursuite d’un travail au long cours sur les visions temporelles. Les données historiques avaient été déployées pour la première fois en septembre 2024 dans les versions web et mobile de Google Earth – mais n’était pas accessibles depuis StreetView.

L’aventure Google Earth a commencé en 2001, avec le lancement d’Earth Viewer par la société KeyHole, dans laquelle avait investi le fonds de la CIA, In-Q-Tel. Keyhole a été rachetée par Google en 2004, le produit a été rebaptisé, puis rendu disponible au public quelques mois plus tard.

Google indique avoir enregistré plusieurs centaines de millions d’utilisateurs dès les premières semaines, et dépassé le milliard en 2011.

  •  

☕️ ChatGPT triple son audience en France, X en perte de vitesse

Entré directement en 36ᵉ place des sites les plus visités de France au mois d’avril 2025, OpenAI ChatGPT continue sa progression pour atteindre la 34ᵉ place en mai grâce au succès de son robot conversationnel ChatGPT.

Selon les données publiées chaque mois par Médiamétrie, la plateforme a attiré 18,3 millions de visiteurs uniques dans le mois et 4,2 millions par jour.

Un succès d’autant plus important, relève Le Figaro, qu’il traduit un triplement de son audience depuis mai 2024.

Au passage, OpenAI passe devant plusieurs marques bien implantées, dont Vinted (18,05 millions de visiteurs uniques mensuels), Marmiton (17,98 millions), LinkedIn (16,4 millions) ou X (15,5 millions), renvoyé à la 49ᵉ place sur les 50 marques les plus visitées dans le mois. En un an, l’audience mensuelle du réseau social a chuté de 20 %.

Pour les autres réseaux sociaux, l’audience est relativement stable : Facebook atteint les 50,5 millions de visiteurs uniques, Instagram 41,5 millions, SnapChat 25,8 millions et TikTok 23 millions.

  •  

Un assistant IA sécurisé et souverain pour aider la Justice ?

Dis Siri, quel est l'article de loi qui...
Un assistant IA sécurisé et souverain pour aider la Justice ?

Un rapport sur « l’intelligence artificielle (IA) au service de la justice » vient d’être remis au garde des sceaux. Aperçu de ses conclusions.

Créer un « assistant IA sécurisé et souverain » à destination des acteurs de la Justice, intégrant, à terme, des fonctions de recherche, synthèse, rédaction et retranscription. Telle est la première des douze recommandations formulée dans le rapport sur « l’intelligence artificielle (IA) au service de la justice » tout juste remis au garde des Sceaux Gérald Darmanin.

Confiée le 10 février à un groupe de travail présidé par Haffide Boulakras, directeur adjoint de l’École nationale de la magistrature, la mission à l’origine de ce rapport propose une « approche résolument pragmatique et opérationnelle », pour permettre à l’institution judiciaire de « tirer pleinement parti, sans délai » de l’IA.

Dès l’introduction, le document rédigé grâce au travail de la vingtaine d’experts du groupe de travail (parmi lesquels la vice-procureure au parquet national antiterroriste Aude Groualle, l’inspecteur général de la Justice Yannick Menneceur, ou encore le chef du Lab Data Justice du ministère de la Justice Haï-Ha Trinh-Vu), le rapport évacue la question « galvaudée » de la justice prédictive, « sur laquelle il n’apparaît pas pertinent que le ministère s’engage à ce jour si ce n’est pour en démontrer les limites et en combattre les éventuels effets néfastes ». Il se concentre plutôt sur des manières d’améliorer « rapidement l’efficacité du travail des agents et la qualité du service rendu aux usagers ».

Pour ce faire, le document suit trois orientations essentielles : démocratiser l’usage de l’IA auprès des acteurs de la Justice en l’intégrant à leurs outils de travail, le faire en veillant à la souveraineté technologique, c’est-à-dire en assurant « la maitrise effective des dispositifs déployés », et accompagner les professionnels.

Trois temps de déploiement

En pratique, le groupe de travail propose une feuille de route en trois temps : mise à disposition progressive d’outils comme l’assistant IA – ce qui nécessite aussi l’acquisition de licences d’outils spécifiques au champ juridique – : le renforcement de la formation des agents en 2026 et 2027, puis, à partir de 2027, le projet de faire de l’IA « un véritable pilier du service public de la Justice ».

Pour assurer la bonne gouvernance des différents projets énoncés, le groupe de travail propose la création d’un Observatoire de l’IA auprès du ministère de la Justice. Celui-ci piloterait l’intégration de l’IA dans les processus de travail autant qu’il assurerait le « suivi éthique des usages, leur impact sur les métiers », voire assurerait la veille scientifique à même d’actualiser les outils et la compréhension des effets de l’IA dans la Justice.

Chacune de ces étapes demanderait des investissements précis, principalement pour assurer l’hébergement des LLM en open source sur un serveur SecNumCloud et pour l’achat de licences dans un premier temps ; pour améliorer les outils d’IA déployés et les multiplier en fonction des besoins, mais aussi pour créer une équipe interne dédiée à l’IA dans un deuxième temps ; et enfin pour renforcer et agrandir le centre de données interne au ministère de la Justice.

Avec 4 équivalents temps plein (ETP), le rapport estime que l’équipe IA existant actuellement au sein du ministère est sous-dimensionnée.

Douze cas d’usages prioritaires

Pour ce qui est du champ d’application des technologies d’IA dans la justice française, le groupe de travail indique avoir listé soixante cas d’usages différents au gré de ses consultations d’acteurs de terrain et d’administration central.

« Malgré la diversité des acteurs sondés, des besoins convergents ont émergé exprimant notamment des besoins d’appui aux tâches d’analyse, de synthèse, de recherche, de retranscription et de traduction – des tâches répétitives et chronophages susceptibles de ralentir le traitement des affaires dans les tribunaux et l’avancement des dossiers au sein des administrations centrales. » 60 % des cas énoncés consistent par ailleurs en des besoins plus spécifiquement liés à certains métiers.

Dans le lot, les auteurs du rapport ont dégagé douze cas prioritaires, parmi lesquels l’interprétariat instantané fonctionnant hors connexion, des outils d’analyse et de recherche documentaire avancée aussi bien pour les juridictions civiles que pénales, des outils d’aide à la rédaction et à la synthèse contextualisée, ou encore d’autres d’orientation des procédures ou courriers au sein des juridictions.

Extrait du rapport « L’intelligence artificielle (IA) au service de la justice »
  •