Un consortium d’ONG américaines presse la Maison-Blanche de suspendre immédiatement l’usage de Grok, le chatbot d’xAI, dans les agences fédérales, y compris au sein du département de la Défense. Dans une lettre ouverte relayée par TechCrunch, les signataires dénoncent des « défauts systémiques » et des risques non maîtrisés, pointant en particulier la capacité du modèle à générer et diffuser des images sexuellement explicites non consenties, y compris impliquant des mineurs, via la plateforme X appartenant au même groupe.
Les organisations Public Citizen, Center for AI and Digital Policy ou encore Consumer Federation of America reprochent à l’Office of Management and Budget (OMB) de ne pas avoir ordonné l’arrêt de Grok dans l’administration malgré les directives fédérales et l’arsenal réglementaire récent, dont une loi de retrait obligatoire de contenus illicites. Elles estiment que Grok ne répond pas aux exigences de sécurité des systèmes d’IA fixées par l’exécutif et qu’un système présentant des risques graves, prévisibles et insuffisamment contrôlés doit être mis hors service.
xAI dispose depuis septembre d’un accord avec la General Services Administration autorisant la vente de Grok aux agences fédérales de l’exécutif. Deux mois plus tôt, la société avait décroché, aux côtés d’Anthropic, Google et OpenAI, une tranche de contrat du Pentagone pouvant atteindre 200 millions de dollars. À la mi-janvier, alors que la polémique autour de contenus explicites explosait sur X, le secrétaire à la Défense Pete Hegseth indiquait que Grok serait connecté au réseau interne du Pentagone, aux côtés de Gemini de Google, pour traiter des documents classifiés et non classifiés, un choix jugé risqué pour la sécurité nationale par plusieurs experts.
Les signataires demandent aussi à l’OMB d’ouvrir une enquête formelle sur les failles de sécurité de Grok, de vérifier le respect des procédures d’audit, et de préciser si l’évaluation du modèle a été conduite au regard des directives présidentielles imposant des exigences de véracité et de neutralité, ainsi que des standards de gestion des risques de l’OMB. Public Citizen évoque des dérives récurrentes du modèle, parmi lesquelles des propos antisémites, sexistes, et la génération d’images sexualisées de femmes et d’enfants.
Depuis l’émergence du scandale en janvier, l’Indonésie, la Malaisie et les Philippines ont instauré puis levé des blocages d’accès à Grok. L’UE, le Royaume-Uni, la Corée du Sud et l’Inde ont lancé des investigations sur xAI et X autour de la protection des données et de la diffusion de contenus illicites.
Enjeux réglementaires et sécurité fédérale
Au cœur du dossier, la compatibilité de Grok avec les garde-fous fédéraux sur l’IA déployée en contexte sensible. L’OMB peut exiger la suspension d’outils jugés non conformes, ce qui exposerait xAI à une mise à l’écart temporaire des marchés publics, malgré les accords-cadres existants. Pour le Pentagone, la question dépasse la conformité procédurale et touche la résilience opérationnelle des systèmes traitant des flux classifiés et l’exposition potentielle à des attaques par contenus générés ou détournés.
Dans un marché déjà polarisé par les contraintes de sûreté, une suspension de Grok dans le périmètre fédéral renforcerait mécaniquement la position d’acteurs perçus comme plus matures en gouvernance des modèles et en filtrage de contenus. À l’inverse, si xAI apporte des garanties auditées sur la génération d’images et la modération à l’échelle de X, l’entreprise pourrait préserver ses accès et rétablir un minimum de confiance institutionnelle.
Source : ITHome