OpenAI déploie un ChatGPT interne pour traquer les fuites dans Slack et Docs
Selon The Information, OpenAI a déployé en interne une version personnalisée de ChatGPT pour traquer les fuites. L’outil ingère chaque article de presse portant sur le fonctionnement de l’entreprise, puis croise ces contenus avec des données internes afin d’identifier les vecteurs possibles de divulgation.
D’après les sources citées, la sécurité d’OpenAI alimente ce modèle avec les textes publiés et lui autorise l’analyse de messages Slack, d’e‑mails et de documents déjà rendus publics au sein de l’organisation. L’assistant génère ensuite une liste des personnes ayant eu accès aux informations correspondantes, pour aider l’équipe sécurité à établir des hypothèses. Rien n’indique pour l’heure si cette méthodologie a permis d’identifier des auteurs de fuites.
Un agent interne orienté data et accès applicatifs
Des ingénieurs d’OpenAI ont récemment présenté l’architecture d’un agent interne capable d’exécuter, en langage naturel, des analyses de données complexes et d’accéder à des services comme Slack ou Google Docs. La brique utilisée pour la chasse aux fuites s’inscrit visiblement dans cette logique d’agents outillés, avec des connecteurs vers les systèmes collaboratifs de l’entreprise.
La frontière opérationnelle reste notable : The Information évoque l’exploitation de contenus internes et de canaux identifiés, sans préciser l’étendue des droits effectifs, le périmètre de conservation ni les garde-fous de conformité. OpenAI ne commente pas la performance du dispositif ni sa gouvernance.
Au‑delà du cas OpenAI, la mise en production d’agents capables de corréler presse, messageries et documents renforce un mouvement de fond dans la sécurité d’entreprise : internaliser des assistants dotés d’accès applicatifs fins, capables d’audit rétrospectif et de triage. La bascule ne tient plus tant au modèle qu’à l’orchestration, aux permissions et à la traçabilité, qui deviennent l’enjeu technique et réglementaire central.
Source : ITHome
