"Comme le régime est au pied du mur, il ne va pas hésiter à encore tuer", estime Sorour Kasmaï, romancière et éditrice franco-iranienne
© Amit Dave/REUTERS

© - / AFP

© Bureau du guide suprême iranien / REUTERS

© BASHAR TALEB / AFP

© PHOTO / 2026 PLANET LABS PBC / AFP
Google aurait-il enfreint ses règles d'éthique pour aider un sous-traitant militaire israélien à appliquer sa technologie d’intelligence artificielle (IA), Gemini, à l'analyse d'images filmées par drone ? C'est du moins ce qu'affirme un ancien employé de l'entreprise américaine, qui a déposé une plainte confidentielle de lanceur d'alerte auprès des autorités fédérales, un document consulté par The Washington Post. Selon des éléments joints à la plainte, ce logiciel maison aurait été utilisé par un appareil de défense israélien à un moment où la firme prenait publiquement ses distances avec l’armée israélienne, après des protestations d’employés contre un contrat conclu avec le gouvernement israélien.
En juillet 2024, la division cloud computing de Google aurait ainsi reçu une demande d’assistance client émanant d’une personne utilisant une adresse e-mail des Forces de défense israéliennes (IDF), visant à rendre Gemini plus fiable dans l’identification d’objets tels que des drones, des véhicules blindés et des soldats dans des images vidéo aériennes. En retour, des employés de cette unité auraient formulé plusieurs suggestions et effectué des tests internes, indiquent les documents transmis avec la plainte.
Seul problème et non des moindres : les règles éthiques régissant l'utilisation de l'IA à l'époque stipulaient que Google ne devait pas déployer des technologies d’IA en lien avec des armes, ni pour une surveillance "violant les normes internationalement reconnues". "Beaucoup de mes projets chez Google sont passés par leur processus interne d’examen éthique de l’IA", a déclaré l’ancien employé à l’origine de la plainte dans un communiqué transmis à The Washington Post, sous couvert d’anonymat. "Ce processus est rigoureux et, en tant qu’employés, on nous rappelle régulièrement l’importance des principes d’IA de l’entreprise. Mais lorsqu’il s’agissait d’Israël et de Gaza, c’était l’inverse… J’ai saisi la SEC (NDLR : l'organisme fédéral américain de réglementation et de contrôle des marchés financiers) parce que j’estimais que l’entreprise devait être tenue responsable de ce double standard", poursuit-il.
De son côté, Google a contesté les accusations du lanceur d’alerte et déclaré que l’entreprise n’avait pas violé ses principes d’IA, car l’utilisation des services d’IA par ce compte était trop faible pour être "significative". "Nous avons répondu à une question d’usage général, comme nous le ferions pour n’importe quel client, avec des informations standard de service d’assistance, et nous n’avons fourni aucune aide technique supplémentaire", indique l'entreprise dans un communiqué.
Cette polémique s'inscrit dans un contexte plus large, où Google est régulièrement critiqué pour ses partenariats avec le gouvernement israélien. En 2021 déjà, le géant des moteurs de recherche et Amazon avaient remporté un contrat cloud de 1,2 milliard de dollars avec Israël. En janvier 2025, The Post a également rapporté que des employés de Google s’étaient empressés de fournir à l’armée israélienne un accès accru à des outils d’IA dans les semaines suivant l’attaque du 7-Octobre. D'après un document interne, un employé de Google avait en effet averti ses collègues que le ministère israélien de la Défense pourrait se tourner vers Amazon si ses demandes de davantage de capacité d'IA n'étaient pas approuvées.
En avril 2024, Google avait d'ailleurs licencié plus de 50 employés, après que certains salariés avaient organisé des manifestations dans les bureaux de l’entreprise et exigé l’arrêt de la collaboration avec le gouvernement israélien. En février de l’année dernière, Google avait aussi mis à jour ses politiques d’IA pour supprimer ses engagements à ne pas appliquer la technologie aux armes ou à la surveillance, affirmant qu’elle devait évoluer pour aider les gouvernements démocratiquement élus à rester compétitifs dans la bataille mondiale pour la domination de l’IA.
© REUTERS

© Photo BAKR ALKASEM / AFP

© Photo YOAN VALAT/AFP