↩ Accueil

Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Aujourd’hui — 15 juillet 20247.1 📜 Résumé - Tech.

Le comité éthique du CNRS appelle à la vigilance sur les robots « sociaux »

15 juillet 2024 à 10:30
Trop humains ?
illustration d'une personne manipulée comme une marionnette par une IA

Avec l’IA générative, les chatbots et robots de compagnie ont gagné en capacité à faire illusion et de nombreuses applications sont devenues populaires. Mais nous connaissons peu le degré d’attachement à ces robots dits « sociaux ». Le comité éthique du CNRS, alerté par une chercheuse en robotique, s’est saisi du sujet et appelle « spécifiquement à la vigilance les chercheurs » sur l’anthropomorphisation et sur les aspects psychiques et cognitifs de leur utilisation.

Si l’IA générative n’est pas une intelligence artificielle générale, on peut observer une tendance à les utiliser pour créer des robots de compagnie. Le comité d’éthique du CNRS (COMETS) publie un avis (PDF) sur « Le phénomène d’attachement aux robots dits « sociaux » » et insiste pour que la recherche scientifique soit vigilante sur le sujet.

Dans le groupe de travail qui a planché sur le sujet, se trouvent la chercheuse en informatique du CNRS Catherine Pelachaud, les deux professeurs émérites en intelligence artificielle Raja Chatila et Jean-Gabriel Ganascia, la chercheuse en droit et directrice du COMETS Christine Noiville, et le professeur d’Immunologie Patrice Debré.

Dans sa démonstration de GPT4-o, OpenAI montrait des vidéos d’interaction avec une voix qui simulait de façon très fidèle les intonations et les traits d’humour que pourrait avoir un être humain dans ce genre de conversation tout en lui donnant un ton de flirt très proche de celle de Scarlett Johansson dans le film Her. Desi Lydic, du Daily Show, s’en était moqué en disant qu’elle était « clairement programmée pour nourrir l’ego des mecs ».

Plein de robots « sociaux » déjà sur le marché

Ce n’était qu’une démonstration, mais d’autres existaient déjà avant même l’avènement des IA génératives. Replika vend son application comme une IA amie qui peut jouer des rôles sociaux de l’âme sœur à partenaire de jeux érotique. L’entreprise japonaise Gatebox avait déjà sorti Azuma Hikari en 2016, pour servir de « meilleur compagnon ».


Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

☕️ OpenAI accusée devant la SEC d’accords de confidentialités illégaux

15 juillet 2024 à 09:42

Selon le Washington Post, OpenAI est accusée devant la Securities and Exchange Commission (SEC), l’organisme américain de contrôle des marchés financiers, d’obliger ses salariés à signer des accords de confidentialités illégaux. Le journal américain a obtenu une lettre (.PDF) envoyée par des avocats de lanceurs d’alertes au contrôleur.

Selon cette lettre, ces accords interdiraient aux employés et investisseurs de communiquer avec la SEC elle-même à propos de problèmes de sécurité. Ils forceraient les employés à renoncer à leur droit d’alerte et à d’éventuelles compensations et les obligeraient à informer l’entreprise de toute communication avec les régulateurs.

La lettre a été envoyée en copie au Congrès américain et le journal l’a obtenue par les équipes du sénateur de l’Iowa, Chuck Grassley.

Celui-ci a déclaré que « les politiques et pratiques d’OpenAI semblent avoir un effet dissuasif sur le droit des lanceurs d’alerte à s’exprimer et à recevoir une compensation appropriée pour leurs divulgations protégées. Pour que le gouvernement fédéral garde une longueur d’avance sur l’intelligence artificielle, les accords de non-divulgation d’OpenAI doivent être modifiés ».

En mai dernier, OpenAI était déjà critiquée pour ces accords de confidentialité concernant les employés voulant quitter l’entreprise. Sam Altman s’était déclaré gêné par l’existence d’une clause qui interdisait la critique de l’entreprise à vie par ses anciens salariés.

  •  
❌
❌