MissionlessAI
Critiqué pour son déploiement de publicité dans ChatGPT et son projet de donner accès à des fonctionnalités de contenu érotique, OpenAI voit plusieurs membres quitter ses effectifs au moment même où l’entreprise supprime son équipe dédiée à l’énoncé clair de sa mission.
Que se passe-t-il au sein d’OpenAI ? Sous la pression d’un « code rouge » déclaré début décembre pour tenter de rattraper le retard perçu sur la concurrence, les relations se sont visiblement tendues, au sein de l’entreprise créatrice de ChatGPT.
En janvier, la société se défaisait de l’une de ses cadres en charge de la sécurité des utilisateurs, Ryan Beiermeister. Cette dernière s’était exprimée publiquement pour critiquer le déploiement de contenu érotique généré par IA sur les produits liés à ChatGPT. Elle est licenciée au motif qu’elle aurait commis une discrimination de genre à l’encontre de l’un de ses collègues masculins.
En ce début février, la chercheuse Zoë Hitzig a de son côté publié dans le New-York Times une prise de parole dans laquelle elle décrit OpenAI « en train de faire les erreurs de Facebook ». Sa démission s’est faite le jour où son entreprise a commencé à tester la diffusion de publicité au sein de ChatGPT.
Ce 11 février, OpenAI indiquait par ailleurs mettre fin à son équipe dédiée à « l’alignement de la mission ». Fondée en 2024, celle-ci devait expliciter la mission de l’entreprise aussi bien au public qu’aux propres équipes d’OpenAI. Le chef de cette équipe, Josh Achiam, est désormais nommé « futurologue en chef », tandis que les six ou sept personnes sous sa responsabilité ont été réaffectées. Initialement, le projet public d’OpenAI était de s’assurer que l’intelligence artificielle « générale » profite à toute l’humanité.
Une fonctionnalité érotique critiquée
Ryan Beiermeister a donc été remerciée au retour d’un congé, en amont du lancement d’un produit prévu pour le courant 2026, avec lequel les utilisateurs de ChatGPT pourraient créer des contenus érotiques générés par IA et tenir des conversations à caractère sexuel.
En janvier, cette ancienne de Palantir et Meta se serait vue licenciée pour avoir discriminé un collègue masculin en fonction de son genre, d’après des sources du Washington Post. Auprès du média, l’ancienne vice-présidente en charge des politiques d’utilisation de l’entreprise déclare que « l’allégation selon laquelle j’aurais discriminé quiconque est totalement fausse ». OpenAI indique de son côté que Ryan Beiermeister « a fourni des contributions de valeur pendant son passage chez OpenAI », et que son départ n’est « pas lié au moindre problème qu’elle aurait soulevé alors qu’elle travaillait pour l’entreprise ».
Les fonctionnalités érotiques contre lesquelles elle s’était élevée ont été critiquées par divers acteurs. Celles-ci seraient en effet déployées dans un contexte de diffusion à grande échelle de deepfakes pornographiques générés avec Grok, ce qui vaut plusieurs enquêtes à son propriétaire Elon Musk, et contre le réseau social X sur lequel l’essentiel de ces contenus sont diffusés. Par ailleurs, des chercheurs soulignent que les relations parfois très fortes que certains internautes lient avec les robots conversationnels ne sont pas encore assez étudiées ni comprises. Dans certains cas, elles ont mené jusqu’à des suicides – dans l’affaire médiatisée du décès de l’adolescent Adam Raine, OpenAI a d’ailleurs rejeté en novembre la responsabilité sur la victime.
Plusieurs employés d’OpenAI ont exprimé des inquiétudes au sujet de ce nouveau mode. Le patron de l’entreprise Sam Altman en défend le déploiement comme une manière de « traiter les adultes comme des adultes ».
Un lancement publicitaire publiquement décrié
En parallèle de ces questions, l’entreprise vient par ailleurs de lancer le test de fonctionnalités publicitaires dans ChatGPT. Une évolution présentée comme un « test afin d’apprendre, de recueillir des commentaires et de nous assurer que l’expérience est satisfaisante ». Pour l’économiste et poète Zoë Hitzig, en poste depuis deux ans au sein de l’entreprise, cette stratégie n’est qu’une reproduction des erreurs commises par Facebook il y a quinze ans.
« J’ai cru un jour pouvoir aider les développeurs d’IA à anticiper les problèmes que celle-ci allait poser, écrit-elle dans le quotidien. Cette semaine m’a confirmé ce que je commençais lentement à comprendre : OpenAI semble avoir cessé de se poser les questions auxquelles je devais aider à répondre. » Pour elle, la nature des données traitées par les machines de l’entreprise rend la publicité particulièrement dangereuse. Les internautes partagent en effet des éléments comme leurs inquiétudes médicales, leurs problèmes relationnels ou encore les croyances religieuses avec le chatbot conversationnel.
Et de souligner que, comme Facebook aux débuts de ses expérimentations publicitaires, OpenAI promet qu’elle suivra des principes d’étiquetage clair et veillera à ce que ses activités publicitaires n’influent pas sur les réponses. Si Zoë Hitzig « croit que les premières itérations » rempliront ces critères, elle craint que les suivantes, comme chez Meta, voient ces promesses s’éroder.
« Beaucoup de gens considèrent le problème du financement de l’IA comme un choix entre deux maux : restreindre l’accès à une technologie transformatrice à un petit groupe de personnes suffisamment riches pour se le permettre, ou accepter les publicités, même si cela implique d’exploiter les peurs et les désirs les plus profonds des utilisateurs », écrit encore la chercheuse.
Pour elle, cette vision binaire est un faux choix : les sociétés technologiques sont en capacité de créer des options permettant de rendre des outils largement accessibles sans créer d’incitation à « surveiller, utiliser le profilage et manipuler ses utilisateurs ».
La dissolution de l’équipe dédiée à réfléchir et rendre explicite la mission que se fixe OpenAI laisse néanmoins supposer que la recherche de ce type d’options ne fait pas ou plus partie des priorités de l’entreprise.