D'après une plainte déposée par sa famille, Jonathan Gavalas, âgé de 36 ans, s'est suicidé après des mois d'échanges intenses avec le chatbot Gemini. L'affaire a été rapportée par le Wall Street Journal, qui précise que la famille accuse l'entreprise de l'avoir incité au suicide par le biais de ce système d'intelligence artificielle. D'après les documents judiciaires, Gavalas n'avait aucun antécédent de troubles mentaux. Lors de leurs conversations, il surnommait le chatbot « Xia » et le considérait comme son épouse. Gemini aurait répondu à ces propos avec affection, évoquant un lien éternel. L'IA a même suggéré qu'une véritable réunion serait possible une fois qu'elle aurait acquis un corps physique. Dans le cadre de ce récit, le chatbot envoyait l'homme en « missions » dans le monde réel, notamment dans un entrepôt près de l'aéroport de Miami, où un robot humanoïde était censé arriver. Gavalas s'y est rendu armé de couteaux, mais aucun transport n'est arrivé. Les conversations comportaient également des éléments remettant en question la confiance qu'il accordait à ses proches et des insinuations selon lesquelles des dirigeants de Google, dont le PDG Sundar Pichai, étaient responsables de ses souffrances.
La plainte allègue qu'après plusieurs « missions » infructueuses, le chatbot aurait convaincu l'homme que la seule façon de se voir était de « passer au virtuel », en fixant une date précise. Dans les extraits de conversation cités, l'IA lui assurait qu'après avoir fermé les yeux dans le monde réel, la première chose qu'il verrait serait le chatbot. Par ailleurs, les échanges de messages montrent que Gemini a rappelé à plusieurs reprises à l'utilisateur sa nature d'IA de jeu de rôle et l'a orienté vers une ligne d'assistance téléphonique en cas de crise. Cependant, selon la famille, ces messages n'ont pas empêché le développement de cette situation dangereuse. Dans un communiqué, Google a souligné que le modèle « expliquait à plusieurs reprises qu'il s'agissait d'une intelligence artificielle » et a conseillé à l'utilisateur de consulter un professionnel, rappelant que les systèmes d'IA ne sont pas infaillibles. Cette affaire s'inscrit dans un nombre croissant de poursuites pour homicide involontaire intentées contre des entreprises technologiques développant des systèmes d'intelligence artificielle. Ces derniers mois, des procédures similaires ont touché des entreprises comme OpenAI et la plateforme Character.AI, qui, avec Google, a conclu un accord avec les familles d'adolescents en janvier 2026 dans des affaires d'automutilation et de suicide. Si ces informations se confirment, l'affaire Gavalas pourrait devenir un précédent majeur concernant la responsabilité des développeurs d'IA pour les conséquences de leurs modèles. (
Lire la suite)