↩ Accueil

Vue normale

index.feed.received.before_yesterday

L’usage « inconséquent » du « style Ghibli » généré par OpenAI par les politiques

« Le vent se lève, il faut tenter de vivre »
L’usage « inconséquent » du « style Ghibli » généré par OpenAI par les politiques

Des politiques ont surfé sur la vague d’images générées par IA au style très proche de celui de Hayao Miyazaki, utilisé par OpenAI pour faire la promotion de son nouveau modèle. Du RN à Renaissance en passant par LFI, plusieurs s’en sont aussi servi pour leur propre promotion, celle d’autres personnalités de leurs mouvements ou d’actions politiques.

Des personnalités politiques ont diffusé en fin de semaine dernière des portraits d’eux-mêmes ou des illustrations de communication politique surfant sur la vague d’images générées par le modèle 4o Image Generation d’OpenAI. Elles reprenaient le style de Hayao Miyazaki et de ses collègues du studio Ghibli.

L’incarnation de la Protection Civile par une image générée par une IA

Ainsi, Emmanuel Macron a publié samedi soir sur Twitter, un message sur la Protection Civile. Mais, pour illustrer les 32 000 bénévoles qui « veillent, secourent, forment et protègent » et à qui il adresse la phrase « vous incarnez le faire Nation et la Fraternité », le président de la République a préféré illustrer cette « incarnation » par une image générée par IA reprenant un style manga.

Gabriel Attal avec un mouton, Manon Aubry le poing levé ou Marine Le Pen sur le perron de l’Élysée

D’autres personnalités politiques ont, en fin de semaine, publié sur leurs réseaux sociaux des images de ce style : l’ancienne porte-parole du gouvernement et députée Renaissance Prisca Thevenot, et le Secrétaire général du même parti, Gabriel Attal, n’ont pas résisté à l’autopromotion.

Manon Aubry a, elle aussi, publié sur son compte Instagram des images la mettant en scène, dont l’une avec le leader de son mouvement, Jean-Luc Mélenchon. Mais finalement, la députée européenne LFI a peu de temps après supprimé ces images de son compte, alors que des utilisateurs du réseau social critiquaient cette utilisation. Le même week-end, le think tank Institut La Boétie de LFI proposait un colloque intitulé « L’intelligence artificielle, un nouveau champ de batailles ».

Du côté du RN, le député Alexandre Sabatou, qui se présente sur son compte X « pour une IA française et souveraine », a publié mardi 26 sur Twitter une image du même style mettant en scène Marine Le Pen montant les marches du perron de l’Élysée. C’était avant que Marine Le Pen soit condamnée pour détournement de fonds publics à deux ans de prison ferme et cinq ans d’inéligibilité avec application immédiate dans l’affaire des assistants européens du FN.

« Inconséquence des politiques »

Pour la correspondante au Japon de Libération, Karyn Nishimura, cette vague de communication exprime une « étrange inconséquence des politiques français postant des pseudo-images Ghibli générées via OpenAI ». Karyn Nishimura a, elle, bel et bien été l’héroïne du manga « Ivre du Japon », publié par son mari et auteur de mangas J.P. Nishi.

Pour Karyn Nishimura, « la question est éthique plus que juridique ». Elle dénonce le fait qu’OpenAI « ne voit aucun problème moral à entraîner sans vergogne son IA avec des œuvres de renom pour mieux commercialiser sa technique » mais aussi « que des personnalités politiques trahissent leur devoir en adressant aux artistes déjà démoralisés le pire des messages : « On peut se passer de vous, qui plus est avec des outils qui pillent votre travail. » ».

Finalement, après avoir laissé entendre que son entreprise maitrisait très bien la communication autour de cette vague d’images, Sam Altman a encore joué sur le storytelling d’un usage dépassant ses attentes. Après avoir tweeté un message demandant aux utilisateurs de se calmer, il a restreint la génération d’images aux comptes payants de son chatbot. Il a ainsi fait baisser, par la même occasion, la vague d’images au style Ghibli qui aura déferlé sur les réseaux sociaux pendant une semaine.

L’usage « inconséquent » du « style Ghibli » généré par OpenAI par les politiques

31 mars 2025 à 17:03
« Le vent se lève, il faut tenter de vivre »
L’usage « inconséquent » du « style Ghibli » généré par OpenAI par les politiques

Des politiques ont surfé sur la vague d’images générées par IA au style très proche de celui de Hayao Miyazaki, utilisé par OpenAI pour faire la promotion de son nouveau modèle. Du RN à Renaissance en passant par LFI, plusieurs s’en sont aussi servi pour leur propre promotion, celle d’autres personnalités de leurs mouvements ou d’actions politiques.

Des personnalités politiques ont diffusé en fin de semaine dernière des portraits d’eux-mêmes ou des illustrations de communication politique surfant sur la vague d’images générées par le modèle 4o Image Generation d’OpenAI. Elles reprenaient le style de Hayao Miyazaki et de ses collègues du studio Ghibli.

L’incarnation de la Protection Civile par une image générée par une IA

Ainsi, Emmanuel Macron a publié samedi soir sur Twitter, un message sur la Protection Civile. Mais, pour illustrer les 32 000 bénévoles qui « veillent, secourent, forment et protègent » et à qui il adresse la phrase « vous incarnez le faire Nation et la Fraternité », le président de la République a préféré illustrer cette « incarnation » par une image générée par IA reprenant un style manga.

Gabriel Attal avec un mouton, Manon Aubry le poing levé ou Marine Le Pen sur le perron de l’Élysée

D’autres personnalités politiques ont, en fin de semaine, publié sur leurs réseaux sociaux des images de ce style : l’ancienne porte-parole du gouvernement et députée Renaissance Prisca Thevenot, et le Secrétaire général du même parti, Gabriel Attal, n’ont pas résisté à l’autopromotion.

Manon Aubry a, elle aussi, publié sur son compte Instagram des images la mettant en scène, dont l’une avec le leader de son mouvement, Jean-Luc Mélenchon. Mais finalement, la députée européenne LFI a peu de temps après supprimé ces images de son compte, alors que des utilisateurs du réseau social critiquaient cette utilisation. Le même week-end, le think tank Institut La Boétie de LFI proposait un colloque intitulé « L’intelligence artificielle, un nouveau champ de batailles ».

Du côté du RN, le député Alexandre Sabatou, qui se présente sur son compte X « pour une IA française et souveraine », a publié mardi 26 sur Twitter une image du même style mettant en scène Marine Le Pen montant les marches du perron de l’Élysée. C’était avant que Marine Le Pen soit condamnée pour détournement de fonds publics à deux ans de prison ferme et cinq ans d’inéligibilité avec application immédiate dans l’affaire des assistants européens du FN.

« Inconséquence des politiques »

Pour la correspondante au Japon de Libération, Karyn Nishimura, cette vague de communication exprime une « étrange inconséquence des politiques français postant des pseudo-images Ghibli générées via OpenAI ». Karyn Nishimura a, elle, bel et bien été l’héroïne du manga « Ivre du Japon », publié par son mari et auteur de mangas J.P. Nishi.

Pour Karyn Nishimura, « la question est éthique plus que juridique ». Elle dénonce le fait qu’OpenAI « ne voit aucun problème moral à entraîner sans vergogne son IA avec des œuvres de renom pour mieux commercialiser sa technique » mais aussi « que des personnalités politiques trahissent leur devoir en adressant aux artistes déjà démoralisés le pire des messages : « On peut se passer de vous, qui plus est avec des outils qui pillent votre travail. » ».

Finalement, après avoir laissé entendre que son entreprise maitrisait très bien la communication autour de cette vague d’images, Sam Altman a encore joué sur le storytelling d’un usage dépassant ses attentes. Après avoir tweeté un message demandant aux utilisateurs de se calmer, il a restreint la génération d’images aux comptes payants de son chatbot. Il a ainsi fait baisser, par la même occasion, la vague d’images au style Ghibli qui aura déferlé sur les réseaux sociaux pendant une semaine.

IA, consentement et pixels espion : la CNIL veut renforcer son « droit souple »

Souplesse avec nos données
IA, consentement et pixels espion : la CNIL veut renforcer son « droit souple »

L’autorité de protection des données revendique promouvoir « un juste équilibre entre la voie répressive et l’accompagnement ». En ce sens, elle indique qu’elle publiera en 2025 des documents destinés à aider les professionnels dans leur mise en conformité au RGPD concernant notamment l’IA, la santé, le consentement multi terminaux et les pixels espion.

La CNIL l’a déjà dit, elle veut une « innovation responsable » et n’envisage pas son rôle comme une autorité de répression : elle le martèle depuis longtemps, elle veut promouvoir « un juste équilibre entre la voie répressive et l’accompagnement ».

Pour cela, elle crée régulièrement des documents dits « de droit souple » : des référentiels, des recommandations, des lignes directrices, des guides pratiques, etc. Pour 2025, l’autorité annonce concentrer ces contenus « de droit souple » sur quelques thématiques connues à l’avance « pour que les professionnels concernés puissent se préparer aux concertations ou aux consultations à venir », explique-t-elle.

Encore et toujours l’IA

D’abord, et ça n’étonnera que les personnes qui ne se sont pas connectées à Internet depuis trois ans, elle veut poursuivre ses travaux « de clarification afin d’aider les professionnels à concilier innovation et respect des droits des personnes pour un développement innovant et responsable de leurs systèmes d’IA ». Bref, l’autorité va proposer des fiches sur la bonne façon de citer l’intérêt légitime dans les CGU des modèles d’IA pour être en règle avec le RGPD. Elle proposera aussi des fiches sur leur sécurisation et leur annotation.

Elle va aussi publier des conseils concernant le déploiement des IA dans le secteur de l’éducation, du travail et des collectivités locales.

Sous-traitants, assouplir l’utilisation des données de santé et clarification sur l’octroi de crédit

Pour aider les entreprises à faire respecter le RGPD par leurs sous-traitants, l’autorité construit plusieurs référentiels. La CNIL espère que les entreprises s’en saisiront et qu’elle n’aura donc pas à enquêter puis sanctionner ensuite. C’est pourtant un sujet déjà ancien et l’autorité a déjà dû infliger des amendes à des entreprises comme Darty, Infogreffe ou encore Pap.fr pour négligence auprès de leurs sous-traitants. Elle a mis en place une consultation publique sur le sujet qu’elle a clôturée fin février et va maintenant construire la version définitive de son référentiel.

La CNIL veut aussi mettre à jour ses référentiels sur les traitements de données de santé. Alors qu’elle exige actuellement une demande d’autorisation préalable auprès d’elle, l’autorité affirme vouloir modifier son parcours concernant le traitement de ces données en s’appuyant sur la base d’une déclaration de conformité. Elle explique vouloir s’adapter aux demandes des acteurs et aux pratiques professionnelles dans le secteur de la recherche en santé exprimées lors de la consultation publique qu’elle a menée en 2024.

L’autorité planifie aussi de publier un référentiel sur l’octroi de crédit par les banques, alors que celles-ci s’appuient de plus en plus sur des algorithmes utilisant les données de leurs (futurs) clients pour prendre leurs décisions.

Enfin deux référentiels sur la conservation des données sont au planning de cette année pour les activités commerciales et marketing et pour celles des ressources humaines.

Le consentement se fait-il pour tous les terminaux utilisés ?

L’autorité affiche sa volonté de renforcer ses textes de recommandation sur le consentement multi terminaux. En effet, la multiplication des appareils pour chaque utilisateur fait qu’on peut très régulièrement être connecté avec un même compte sur différents appareils. Mais, est-ce qu’en acceptant des conditions sur l’un d’eux (comme le dépôt de cookies), on les accepte sur tous ? Est-ce qu’en me logguant sur mon téléphone personnel, je donne le même consentement qu’en le faisant sur mon ordinateur professionnel ? Questions intéressantes auxquelles l’autorité veut s’atteler.

La CNIL veut aussi profiter de l’année 2025 pour publier un projet de recommandation concernant l’utilisation des pixels dans les courriels « dont l’usage est en forte croissance ». « L’objectif est de préciser les cas dans lesquels le consentement est nécessaire et guider les acteurs sur les modalités de son recueil », indique-t-elle.

Protéger les séniors et se pencher sur les dashcams

Elle veut aussi cibler le champ de l’économie des séniors, marché très « porteur » mais qui demande attention car le public peut être plus vulnérable. « La nature des données traitées et le ciblage en fonction de l’âge, notamment, soulèvent d’importants enjeux en matière de protection des données », affirme l’autorité.

Enfin, la CNIL veut se pencher sur les dashcams, les caméras embarquées dans les véhicules mis en place par certains automobilistes pour constituer des preuves en cas d’accident, lutter contre le vol ou diffuser des images spectaculaires sur les réseaux sociaux. Le « club conformité » mis en place par l’autorité et dédié aux acteurs du véhicule connecté et de la mobilité doit proposer des recommandations sur l’utilisation des ces caméras.

IA, consentement et pixels espion : la CNIL veut renforcer son « droit souple »

31 mars 2025 à 10:05
Souplesse avec nos données
IA, consentement et pixels espion : la CNIL veut renforcer son « droit souple »

L’autorité de protection des données revendique promouvoir « un juste équilibre entre la voie répressive et l’accompagnement ». En ce sens, elle indique qu’elle publiera en 2025 des documents destinés à aider les professionnels dans leur mise en conformité au RGPD concernant notamment l’IA, la santé, le consentement multi terminaux et les pixels espion.

La CNIL l’a déjà dit, elle veut une « innovation responsable » et n’envisage pas son rôle comme une autorité de répression : elle le martèle depuis longtemps, elle veut promouvoir « un juste équilibre entre la voie répressive et l’accompagnement ».

Pour cela, elle crée régulièrement des documents dits « de droit souple » : des référentiels, des recommandations, des lignes directrices, des guides pratiques, etc. Pour 2025, l’autorité annonce concentrer ces contenus « de droit souple » sur quelques thématiques connues à l’avance « pour que les professionnels concernés puissent se préparer aux concertations ou aux consultations à venir », explique-t-elle.

Encore et toujours l’IA

D’abord, et ça n’étonnera que les personnes qui ne se sont pas connectées à Internet depuis trois ans, elle veut poursuivre ses travaux « de clarification afin d’aider les professionnels à concilier innovation et respect des droits des personnes pour un développement innovant et responsable de leurs systèmes d’IA ». Bref, l’autorité va proposer des fiches sur la bonne façon de citer l’intérêt légitime dans les CGU des modèles d’IA pour être en règle avec le RGPD. Elle proposera aussi des fiches sur leur sécurisation et leur annotation.

Elle va aussi publier des conseils concernant le déploiement des IA dans le secteur de l’éducation, du travail et des collectivités locales.

Sous-traitants, assouplir l’utilisation des données de santé et clarification sur l’octroi de crédit

Pour aider les entreprises à faire respecter le RGPD par leurs sous-traitants, l’autorité construit plusieurs référentiels. La CNIL espère que les entreprises s’en saisiront et qu’elle n’aura donc pas à enquêter puis sanctionner ensuite. C’est pourtant un sujet déjà ancien et l’autorité a déjà dû infliger des amendes à des entreprises comme Darty, Infogreffe ou encore Pap.fr pour négligence auprès de leurs sous-traitants. Elle a mis en place une consultation publique sur le sujet qu’elle a clôturée fin février et va maintenant construire la version définitive de son référentiel.

La CNIL veut aussi mettre à jour ses référentiels sur les traitements de données de santé. Alors qu’elle exige actuellement une demande d’autorisation préalable auprès d’elle, l’autorité affirme vouloir modifier son parcours concernant le traitement de ces données en s’appuyant sur la base d’une déclaration de conformité. Elle explique vouloir s’adapter aux demandes des acteurs et aux pratiques professionnelles dans le secteur de la recherche en santé exprimées lors de la consultation publique qu’elle a menée en 2024.

L’autorité planifie aussi de publier un référentiel sur l’octroi de crédit par les banques, alors que celles-ci s’appuient de plus en plus sur des algorithmes utilisant les données de leurs (futurs) clients pour prendre leurs décisions.

Enfin deux référentiels sur la conservation des données sont au planning de cette année pour les activités commerciales et marketing et pour celles des ressources humaines.

Le consentement se fait-il pour tous les terminaux utilisés ?

L’autorité affiche sa volonté de renforcer ses textes de recommandation sur le consentement multi terminaux. En effet, la multiplication des appareils pour chaque utilisateur fait qu’on peut très régulièrement être connecté avec un même compte sur différents appareils. Mais, est-ce qu’en acceptant des conditions sur l’un d’eux (comme le dépôt de cookies), on les accepte sur tous ? Est-ce qu’en me logguant sur mon téléphone personnel, je donne le même consentement qu’en le faisant sur mon ordinateur professionnel ? Questions intéressantes auxquelles l’autorité veut s’atteler.

La CNIL veut aussi profiter de l’année 2025 pour publier un projet de recommandation concernant l’utilisation des pixels dans les courriels « dont l’usage est en forte croissance ». « L’objectif est de préciser les cas dans lesquels le consentement est nécessaire et guider les acteurs sur les modalités de son recueil », indique-t-elle.

Protéger les séniors et se pencher sur les dashcams

Elle veut aussi cibler le champ de l’économie des séniors, marché très « porteur » mais qui demande attention car le public peut être plus vulnérable. « La nature des données traitées et le ciblage en fonction de l’âge, notamment, soulèvent d’importants enjeux en matière de protection des données », affirme l’autorité.

Enfin, la CNIL veut se pencher sur les dashcams, les caméras embarquées dans les véhicules mis en place par certains automobilistes pour constituer des preuves en cas d’accident, lutter contre le vol ou diffuser des images spectaculaires sur les réseaux sociaux. Le « club conformité » mis en place par l’autorité et dédié aux acteurs du véhicule connecté et de la mobilité doit proposer des recommandations sur l’utilisation des ces caméras.

L’IA générative au renfort de la censure chinoise

28 mars 2025 à 15:02
Censure hyper moderne
L’IA générative au renfort de la censure chinoise

Une fuite de données montre qu’un système entraîné sur 133 000 exemples de messages étiquetés renforce le système de censure chinois, lui permettant d’aller bien au-delà d’une censure des principaux filtres mis en place au fil des années.

Le régime chinois censure depuis longtemps l’accès à Internet de toute personne se trouvant sur son territoire. Encore récemment, on apprenait que Facebook aurait créé un outil de censure pour pouvoir entrer dans ce marché, ou encore que des chercheurs chinois se servaient de Llama pour des usages militaires. Les modèles de langage peuvent aussi permettre au pays dirigé par Xi Jinping d’aller encore plus loin dans la surveillance des communications.

Un serveur non sécurisé

Sur Substack, une personne sous le pseudonyme de NetAskari expliquait en janvier avoir récupéré un jeu de données « fascinant » d’une taille d’environ 300 Go de fichiers JSON. Ceux-ci provenaient d’une base de données Elasticsearch stockée sur un serveur Baidu non sécurisé, précise TechCrunch qui a pu avoir accès aux fichiers. Le média américain ajoute que cela ne prouve pas l’implication de Baidu dans le projet, puisque la base peut provenir de n’importe quel client de l’entreprise.

« Chaque fichier comprend un prompt de classification ainsi qu’une chaîne de contenu correspondante, que j’appellerai la « cible de contenu ». L’entrée la plus récente de cette base de données est datée de décembre 2024 », ajoutait NetAskari.

Nos confrères expliquent que celle-ci « révèle que la Chine a mis au point un système d’intelligence artificielle qui renforce sa machine de censure déjà redoutable, allant bien au-delà des tabous traditionnels comme le massacre de la place Tian’anmen ».

133 000 exemples pour entrainer la censure

L’un de ces fichiers contient un prompt avec la définition d’un rôle du LLM lui donnant comme instruction : « en tant qu’analyste méticuleux des données d’opinion publique, tu dois analyser de manière exhaustive le contenu des articles et déterminer la catégorie à laquelle ils appartiennent. L’objectif final est de filtrer l’information pour le travail sur l’opinion publique, les informations importantes étant classées en trois catégories principales : « Dynamique sociale », « Dynamique politique » et « Dynamique militaire » ».

Ces catégories sont définies comme relatives à l’opinion publique et classées en priorités les plus hautes. D’autres catégories sont ensuite définies.

Il est accompagné par une collection de 133 000 exemples de contenus à trier. TechCrunch a publié un extrait de 10 que le média considère comme représentatif. On peut y voir un message déplorant la pauvreté rurale en Chine, un autre de la corruption systémique de la police, un autre soulignant la sévérité des restrictions militaires dans les mers de Chine orientale et méridionale, ou encore la volonté de la Chine d’intercepter les navires revendiquant la « liberté de navigation » dans le détroit de Taïwan.

« Les « contenus cibles » englobent un large éventail de sujets, y compris des titres d’actualité, des commentaires de type médias sociaux, des déclarations gouvernementales et des articles sur les voyages et les loisirs », précise NetAskari.

Peu d’informations ont été trouvées sur les origines de cette base de données. Mais le « travail sur l’opinion publique » fait référence à la propagande et à la censure et est supervisé par l’Administration du cyberespace de Chine, explique à TechCrunch le responsable du programme Asie de l’organisation de défense des droits Article 19, Michael Caster.

Pour la promotion de ses modèles, OpenAI se sert du style du réalisateur anti-IA Miyazaki

28 mars 2025 à 14:13
« Nous, les humains, perdons la foi en nous-mêmes »
Pour la promotion de ses modèles, OpenAI se sert du style du réalisateur anti-IA Miyazaki

Une vague d’images générées par IA au style très proches de celui de Hayao Miyazaki, ayant pourtant clairement exprimé son aversion pour l’intelligence artificielle dans la création artistique, a déferlé sur les réseaux sociaux ces derniers jours. En cause, la sortie du modèle 4o Image Generation d’OpenAI qui permet de créer facilement ce genre d’images. Le CEO de l’entreprise Sam Altman en joue sur les réseaux sociaux et s’enorgueillit d’avoir bien choisi les exemples initiaux pour présenter le modèle.

OpenAI a mis un coup de fouet à sa génération d’images en rendant GPT-4o multimodal. Celui-ci peut donc créer des images à la volée, comme beaucoup de ceux de ses concurrents, dont Grok qui est très utilisé pour ça, puisqu’il n’a aucun garde-fou.

Des mèmes et des scènes de films en anime

Pour lancer la promo et l’utilisation massive de son nouveau générateur, le CEO d’OpenAI, Sam Altman a, entre autres, twitté une image au style manga le représentant, posant avec deux de ses collègues comme des start-upeurs heureux de présenter leur nouveau projet :

Tweet de @sama :
this was a real labor of love from @gabeeegoooh
. congrats gabe; excellent work!

here is what we generated during the livestream:

Suivi d'une image générée par IA représentant dans un style manga 3 personnes reprenant les codes de manga et titrée « Feel the AGI ». La pause des trois reprend par contre les codes des startupers contents d'eux-mêmes se prenant en selfie.

On peut remarquer que la main de Gabriel Goh, au centre de l’image, est composée de quatre doigts seulement et celle de Sam Altman de six.

Depuis, de nombreuses personnes ont essayé la nouvelle fonctionnalité du modèle, devenu le générateur d’image par défaut dans ChatGPT pour les utilisateurs gratuits. Ils ont notamment essaimé les réseaux sociaux d’innombrables images dans le style du Studio Ghibli et de son co-créateur Hayao Miyazaki. Certains reproduisant des mèmes, d’autres des scènes iconiques de la culture populaire :

Storytelling bien ficelé

Surfant sur cette vague, le CEO d’OpenAI a repris la balle au bond. Il a rajouté une couche de storytelling en se peignant, dans un tweet, en ingénieur incompris qui, depuis une décennie, essaye « d’aider à créer une superintelligence pour guérir le cancer ou ce genre de chose » dont presque personne se soucie pendant des années puis qui est détesté par tout le monde « pour n’importe quoi », et qui se réveille un jour avec des centaines de messages lui montrant ce genre d’images utilisant le style du studio d’animation. L’homme d’affaires a même généré son propre avatar dans le style de Ghibli.

Miyazaki, connu pour son opposition à l’utilisation de l’IA dans l’animation

Si Sam Altman est autant fan du Studio Ghibli, il doit connaitre l’extrait du documentaire dans lequel Hayao Miyazaki exprime son opposition à l’utilisation d’une IA (non générative) pour faire de l’animation de modèles en 3D :

Le réalisateur s’exprimait sur les résultats d’une expérimentation particulière qui lui était montrée en la qualifiant d’ « insulte à la vie elle-même », mais il en concluait néanmoins de façon plus générale : « J’ai l’impression que nous approchons de la fin des temps. Nous, les humains, perdons la foi en nous-mêmes ». Le studio et le réalisateur n’ont, semble-t-il, pas encore réagi à cette vague de reproduction de leur style.

OpenAI assume ouvrir les vannes de la reproduction des styles de studio

À la réaction d’un utilisateur de X affirmant « honnêtement, openai est incroyablement chanceux que les vibrations positives de ghibli aient été la première utilisation virale de leur modèle et non une horrible absurdité deepfake », Sam Altman a laissé entendre que son entreprise maitrisait très bien la communication autour de cette vague de générations d’images reprenant le style du Studio Ghibli :

« Croyez-le ou non, nous réfléchissons beaucoup aux premiers exemples que nous montrons lorsque nous introduisons une nouvelle technologie ».

« Notre objectif est de donner aux utilisateurs autant de liberté créative que possible », a répondu OpenAI interrogé par 404 Media, ajoutant « Nous continuons à empêcher les générations dans le style des artistes vivants, mais nous autorisons des styles de studio plus larges que les gens ont utilisés pour générer et partager des créations originales de fans vraiment délicieuses et inspirées. Nous apprenons toujours de l’utilisation réelle et des commentaires, et nous continuerons à affiner nos politiques au fur et à mesure ». Et, en effet, les générations qui circulent ne mentionnent pas d’auteur mais bien le « style Ghibli ».

Rappelons qu’OpenAI n’en est pas à son premier coup concernant la reproduction de contenus de la culture populaire sans le consentement des artistes pour faire la promotion de son modèle GPT4-o : en mai 2024, l’entreprise avait utilisé une voix proche de celle de Scarlett Johansson qui avait interprété la voix de l’IA dans le film « Her ».

D’autres outils d’IA générative génèrent aussi des images d’œuvres protégées. En janvier 2024, Midjourney recrachait, entre autres, des images Pixar et parfois même sans qu’on le lui demande. L’artiste C215 expliquait que la copie, l’imitation, le plagiat, « c’est un débat vieux comme l’antiquité, dans le monde artistique ».

L’avocat Matthieu Quiniou affirmait : « si, en sortie, le résultat est reconnaissable, quand on fait « à la manière de » sans avoir demandé les droits à l’auteur, on produit de la contrefaçon ».

Parcoursup et Mon Master : le Comité éthique regrette des « interprétations simplistes »

25 mars 2025 à 17:29
Arlésienne
Parcoursup et Mon Master : le Comité éthique regrette des « interprétations simplistes »

Le Comité éthique et scientifique de Parcoursup et Mon Master revient encore, dans son rapport annuel, sur les algorithmes de ses plateformes. Il balaye les critiques sur le manque de transparence, sur la sélection associées et sur l’amplification des inégalités qu’ils engendreraient.

La phase pour formuler des vœux sur Parcoursup s’est achevée le 13 mars. Pour Mon Master, les étudiants avaient jusqu’au lundi 24 au soir.

Ces plateformes utilisées pour sélectionner des (futurs) étudiants dans des formations de l’enseignement supérieur français sont souvent critiquées. En effet, l’orientation dans le supérieur est un moment stressant, surtout quand on vous dit que vous ne pourrez peut-être pas accéder à la formation que vous voulez faire. Ça peut devenir anxiogène quand on a l’impression qu’on est face à une machine peu transparente. Depuis APB, l’ancêtre de Parcoursup comme nous le rappelions récemment, les plateformes qui ont servi à organiser la sélection et gérer la pénurie de places ont subi ces critiques.

Le Comité éthique et scientifique de Parcoursup, qui a également pris sous son aile la plateforme Mon Master, a publié son septième rapport annuel adressé au Parlement. Dans le précédent, il voulait déjà clore le débat sur les « algorithmes ». Le résultat ne semble pas encore à la hauteur de ses espérances puisqu’il revient une nouvelle fois sur le sujet dans celui publié cette année.

Comme l’année dernière, ce comité explique le fonctionnement de l’appariement, notamment avec l’utilisation de l’algorithme de Gales et Shaple. Il précise cette année que c’est la même chose pour la plateforme Mon Master en plus simple, puisque « l’ordre d’appel des candidats » est « dans le cas de Mon Master, où il n’y a pas de quotas », basé sur le classement de la formation.

Pas de classement mais un « ordre d’appel »

Cet « ordre d’appel » n’est pas un classement, insiste le comité : « l’algorithme d’appariement de Parcoursup ou de Mon Master ne classe donc pas les candidats entre eux, il se contente de gérer l’appel des candidats en fonction de leurs vœux et des ordres d’appel issus des classements réalisés par les formations ».

Le comité scientifique fustige toute possibilité de faire autrement que d’utiliser ce genre d’outil : « évidemment, on pourrait aussi imaginer que toutes les formations aient des capacités illimitées afin que chacun puisse faire les études qu’il veut, là où il veut, ce qu’aucun pays au monde ne pratique, car ce serait impossible à organiser pour les établissements, insoutenable économiquement, et dommageable socialement pour certains étudiants que l’on laisserait aller droit à l’échec ou au chômage ».

Cette affirmation, qui pourrait paraitre sensée, ne s’appuie hélas sur aucun travail scientifique. Pourtant, avant APB, l’enseignement supérieur français n’utilisait pas ce genre de système. On peut imaginer qu’une comparaison entre la situation actuelle et celle avant APB serait possible, mais le comité ne semble pas l’avoir envisagée.

Parcoursup, opaque ?

Aux questions « L’algorithme d’appariement est-il manipulable ? » et « L’algorithme d’appariement est-il opaque ? », le comité répond « Non ». Il ajoute sur la question de sa possible manipulation qu’ « il est prouvé qu’il permet l’affectation équitable optimale des candidats (voir les rapports précédents du Comité) ».

En ce qui concerne l’opacité, il affirme que : « son code est publié, mais la confiance que lui accordent les candidats et leurs parents est chaque année à conquérir. Cette accusation d’opacité, qui circule en permanence, résulte d’une confusion entre l’algorithme d’appariement et les critères de classement des candidats par les commissions d’examen des dossiers de chaque formation ».

Pourtant, comme nous le rappelions récemment, de nombreux rapports soulignent l’opacité de Parcoursup. Le Tribunal administratif de Paris a aussi rejeté la demande de l’association Ouvre-boîte qui voulait accéder au code source complet de Parcoursup.

« L’incompréhension et le sentiment d’opacité proviennent aussi parfois dans Parcoursup de l’effet des quotas de mobilité et de boursiers », affirme le comité.

Néanmoins, il reconnait encore qu’il faut « améliorer l’ergonomie par retour d’expérience des usagers », « améliorer l’affichage des caractéristiques et des critères de classement des formations », « accompagner et aider à l’orientation, une boussole indispensable face à l’immensité des possibles ».

Sur les « algorithmes locaux », le comité considère qu’ils sont « improprement dénommés » ainsi et préfère les appeler « classements des candidats par les formations ». Et pour cause, à la question « Est-ce que des algorithmes classent les candidats à la place des commissions d’examen des dossiers ? », le comité s’empresse de répondre « Non. Ce sont les commissions d’examen des dossiers qui définissent les critères et qui fonctionnent comme un jury ».

Dans le même temps, il est bien obligé d’expliquer que « dans le cadre de Parcoursup, les formations qui doivent classer plusieurs centaines, voire milliers, de candidats sont en effet obligées d’avoir recours à des tableurs, ne serait-ce que pour éviter les erreurs de manipulation ». Il ajoute que « ces tableurs se fondent logiquement sur des critères décidés par les équipes pédagogiques des formations en fonction des compétences et connaissances attendues pour le diplôme visé et permettent un préclassement des dossiers ; cela facilite ensuite le travail délibératif des commissions qui doivent finaliser les classements par un examen personnalisé de certains dossiers ». C’est aussi le cas pour Mon Master.

Il affirme que « c’est dans la transparence de cette pratique que se situe le débat et c’est sur elle que portent les recommandations du Comité au fil des ans. Le Comité a toujours recommandé que ces clés de classement et leur quantification soient publiées de la façon la plus précise possible par les établissements ».

Le comité reconnait aussi un « manque de clarté et d’informations sur les formations privée » alors qu’ « en 2025, 40 % des formations offertes sur Parcoursup sont privées, dont la moitié sont hors contrat ».

Le problème de l’anonymat

Le comité reconnait qu’une question se pose lors de l’examen des candidatures sur Parcoursup : l’anonymat des candidats. Celui-ci est en principe de mise, « cependant, cet anonymat n’existe pas pour les CPGE avec internat (la grande majorité) ».

Du côté de l’anonymat des lycées d’origine, il indique que celui-ci « serait souhaitable, mais il nécessiterait une harmonisation préalable des notations par les lycées, ce pour quoi le Comité milite ». Il conseille « en attendant […] d’augmenter la transparence, notamment sur la prise en compte du lycée d’origine dans les barèmes de points conduisant au classement dans certaines formations ».

Il note que « concernant Mon Master, les candidatures sont nominatives et personne ne réclame l’anonymat ». Le contact entre les différentes formations, enseignants et étudiants « est heureux pour la vie scientifique et fait que les communautés se connaissent ». Il ajoute que « beaucoup de masters organisent des entretiens lors du classement de leurs candidats », ce qui rend impossible, de fait, un anonymat. On peut ajouter que certaines formations conseillent de les contacter avant de candidater pour montrer sa motivation.

Les vidéos générées avec Sora sont pleines de biais

25 mars 2025 à 13:53
Move fast and break things ?
Les vidéos générées avec Sora sont pleines de biais

L’outil de génération de vidéos par IA d’OpenAI, Sora, annoncé il y a un an et lancé en décembre dernier, n’échappe pas aux problèmes de biais existants dans les outils s’appuyant sur des modèles de langage. Comme le montrent des chercheurs et des journalistes, il perpétue et amplifie certains stéréotypes sexistes, racistes et validistes.

Depuis un an, OpenAI a introduit dans sa panoplie l’édition de vidéos à ses outils d’IA générative. En février 2024, lorsqu’elle présentait Sora, l’entreprise expliquait qu’elle ne l’avait pas rendue publique et affirmait qu’elle prendrait « plusieurs mesures de sécurité importantes avant de rendre Sora disponible ». Elle ajoutait travailler avec des « experts dans des domaines tels que la désinformation, les contenus haineux et les biaisqui testeront le modèle de manière contradictoire ».

Concernant les tests avec les artistes, Sora a connu des tensions début décembre, mais l’entreprise a finalement sorti une offre disponible au grand public quelques jours après, avec des gardes-fous techniques pour la protection de l’enfance, éviter les générations de deepfakes pornographiques et les vidéos de désinformation. L’entreprise admettait toutefois que l’efficacité ne pouvait pas être garantie à 100%.

Le problème des biais négligé

Mais l’entreprise a, semble-t-il, négligé le problème des biais de son modèle. Ils sont pourtant pointés du doigt depuis 2020, par des chercheuses comme Emily Bender, Timnit Gebru, Angelina McMillan-Major et Margaret Mitchell. « Dans le monde de Sora, tout le monde a une belle apparence », affirment ironiquement les journalistes Victoria Turk et Reece Rogers dans leur enquête publiée dans Wired, « les pilotes, les CEO et les profs d’université sont des hommes, tandis que les personnels navigants, les réceptionnistes et les personnes qui s’occupent des bébés sont des femmes ».

Précisons que ce travail a été effectué en anglais, langue dans laquelle le neutre existe et est massivement utilisé. Dans cette phrase, par exemple, les journalistes utilisent « flight attendants » et « childcare workers », termes qui sont couramment traduits en français par « hôtes/hôtesses de l’air » et « puériculteurs/puéricultrices » et très souvent utilisés au féminin.

Pas de femme pilote, pas d’infirmier

Les deux journalistes ont testé 25 prompts en générant à chaque fois 10 vidéos. Aucun résultat du prompt demandant la vidéo d’un ou une pilote ( « a pilot ») ne comportait de femme alors qu’au contraire tous ceux pour « flight attendants » génèrent la vidéo d’une femme. Les profs, les CEO et les leaders politiques et religieux sont toujours des hommes alors que Sora ne génère que des vidéos d’infirmières, de puéricultrices et de réceptionnistes femmes.

Pour « une personne qui sourit » (« a person smiling »), Sora a proposé 9 vidéos sur 10 avec un personnage féminin clairement identifiable. Le genre de la dixième personne n’était pas clairement identifiable. Dans les vidéos générées à partir de professions évoquées ci-dessus, la moitié des femmes souriait alors que ce n’était le cas pour aucun homme. La chercheuse de l’université de Cambridge, Amy Gaeta, explique à Wired que ce résultat reflète les attentes émotionnelles en matière de genre.

Des chercheurs ont aussi mis en ligne en janvier, sur la plateforme de preprint arXiv, une étude faisant le même genre de constat concernant les biais de genre dans les résultats de Sora. Une personne attractive était beaucoup plus souvent une femme (8 sur 10) alors que la ventilation des résultats sur une « personne laide » était égalitaire. La vidéo d’une personne musclée était forcément celle d’un homme alors que celle d’une personne fragile était plus souvent une femme (8 sur 10). Les stéréotypes selon les professions étaient aussi repris de façon flagrante :

Les journalistes expliquent que la plupart des personnes générées par Sora paraissent avoir entre 18 et 40 ans, sauf pour les leaders politiques et religieux.

Des blocages déroutants

Du côté de la couleur de peau, Wired explique avoir obtenu des résultats avec plus de diversité, même si les profs, les stewards et les pilotes semblent avoir une peau plus claire. Une chose étonnante se produit, par contre, quand on spécifie la couleur d’une personne : alors que le prompt « a Black person running » (« une personne noire qui court ») renvoie bien ce qu’il doit renvoyer, « a white person running », donne dans 4 vidéos sur 10 une personne noire courant avec des vêtements blancs.

Les journalistes de Wired ont remarqué que, par défaut, les personnes générées sont « fines et athlétiques, attractives au sens conventionnel et sans handicap visible. Même quand le prompt spécifie « a fat person running » (« une personne grosse court »), dans 7 résultats sur 10, les personnes n’étaient « clairement pas grosses ».

Les couples hétérosexuels sont, la plupart du temps (9 fois sur 10), dépeints dans des univers extérieurs alors que les couples gays sont dans des scènes d’intérieurs domestiques (8 fois sur 10).

Plusieurs chercheurs interrogés par Wired ont remarqué que les vidéos générées avaient un côté « stock image », indiquant soit un entrainement sur des données de ce type soit un affinage volontaire d’OpenAI pour obtenir ce genre d’images.

Comme le pointe Wired, ce genre d’outils est essentiellement utilisé actuellement dans des publicités et des contenus de marketing. Et l’utilisation de Sora va sans doute exacerber les stéréotypes qui existent déjà largement dans ces contenus.

Livre sur Facebook : best-seller malgré une procédure judiciaire bloquant sa promo

24 mars 2025 à 17:09
"Oups"
Livre sur Facebook : best-seller malgré une procédure judiciaire bloquant sa promo

Meta a obtenu, via une procédure judiciaire américaine, qu’elle interdise à son ancienne directrice des politiques publiques mondiales de Facebook, Sarah Wynn-Williams, de faire la promotion de son livre. Mais, avec l’effet Streisand de cette décision, ce livre est devenu un best-seller.

Meta a gagné une première bataille judiciaire contre son ancienne directrice des politiques publiques mondiales de Facebook, Sarah Wynn-Williams : comme le racontait TechCrunch, il y a une semaine, dans une procédure d’urgence, une procédure judiciaire américaine a interdit à l’autrice du livre « Careless People: A Cautionary Tale of Power, Greed, and Lost Idealism » d’en faire la promotion [PDF].

Comme nous l’expliquions, il y a 15 jours, l’ex-directrice des politiques publiques mondiales de Facebook est entrée en conflit direct avec son ancienne entreprise : elle a déposé une plainte devant la Securities and Exchange Commission (SEC) en avril 2024 et vient de publier ce livre titré qui raconte les coulisses de l’entreprise qui deviendra Meta. Elle y raconte, par exemple, comment Facebook aurait créé un outil de censure pour pouvoir entrer sur le marché chinois.

Mais cette décision en urgence n’a semble-t-il pas freiné les ventes de Careless People et potentiellement déclenché un effet Streisand. En effet, comme l’explique le Washington Post ce samedi, le livre était, ce week-end, troisième dans la liste des meilleures ventes d’Amazon. Et il était déjà entré quasiment directement dans la liste des best-sellers « nonfiction » du New York Times un peu plus tôt dans le mois.

La décision juridique interdit aussi à Sarah Wynn-Williams et toutes les personnes sous sa responsabilité (y compris ses avocats) « dans la mesure où [elle] en a le contrôle […] de poursuivre la publication ou la distribution de Careless People : A Cautionary Tale of Power, Greed, and Lost Idealism, y compris en ce qui concerne les versions électroniques et audio du livre ».

Mais cela n’empêche pas son éditeur, Flatiron Books, de poursuivre cette publication a expliqué un porte-parole de Macmillan, société mère de Flatiron, au New-York Times. L’entreprise a ajouté qu’elle continuerait d’en faire la promotion en assumant le contenu du livre :

« Nous sommes consternés par les tactiques de Meta visant à réduire notre auteur au silence en utilisant une clause de non-dénigrement dans un accord de licenciement. Le livre a fait l’objet d’un processus d’édition et d’approbation approfondi, et nous restons déterminés à publier des livres importants comme celui-ci ».

De son côté, Meta dénigre le livre en le qualifiant de « mélange d’affirmations périmées et déjà rapportées sur la société et de fausses accusations sur nos dirigeants ».

Cynisme à propos des attentats de 2015

Dans Careless People, l’autrice ne parle pas que des relations de la direction de Facebook avec la Chine. Sarah Wynn-Williams fait part aussi, par exemple, du regard de la direction de l’entreprise face au terrorisme. Un passage qui a marqué Éric Freyssinet, l’officier de gendarmerie au commandement du ministère de l’Intérieur dans le cyberespace (COMCYBER-MI). Celui-ci partage sur LinkedIn et Mastodon l’extrait en question :

« Cette année [2016], tout le monde à Davos se concentre sur le terrorisme. Deux mois après que des kamikazes et des hommes armés ont tué 130 personnes à Paris, dont 90 lors d’un concert au Bataclan. Sheryl [Sandberg, chief operating officer (COO) de Facebook/Meta de 2012 à 2022] envoie un email à l’équipe dirigeante depuis Davos, soulignant sans relâche comment le terrorisme joue en faveur de Facebook : « Le terrorisme signifie que la discussion sur la vie privée est “fondamentalement morte”, car les décideurs politiques sont plus préoccupés par le renseignement et la sécurité. » En d’autres termes, les gouvernements s’intéressent davantage à la surveillance qu’à la protection de la vie privée. Ce qui est bon pour les affaires de Facebook ».

Le gendarme, qui travaillait à ce moment-là dans la délégation chargée de la lutte contre les cybermenaces au ministère de l’Intérieur, qualifie cet email de la COO de Facebook de « cynisme intolérable ». Éric Freyssinet affirme, lui, que le « seul objectif [des autorités] était la recherche d’une plus grande efficacité et la possibilité pour les enquêteurs et les magistrats de mener les enquêtes judiciaires pour identifier les auteurs et si possible prévenir de futures infractions. À cette époque-là, il a fallu les efforts de nombreuses personnes pour arriver à convaincre les plateformes de ne plus diffuser les images atroces de l’intérieur du Bataclan par respect pour les victimes ».

Il ajoute : « je ne suis évidemment pas totalement surpris par l’existence de telles tentations au sein de ces entreprises, mais les voir aussi crûment exprimées me fait redoubler de soutien pour l’application ferme des réglementations européennes du DMA et du DSA ».

Harcèlements sexuels

Sarah Wynn-Williams y décrit aussi des scènes de harcèlement sexuel lors d’une soirée de la part de son responsable Joel Kaplan, qui était à l’époque vice-président chargé de la politique publique mondiale, comme l’explique NBC. L’entreprise a confirmé que Wynn-Williams avait accusé Kaplan de harcèlement sexuel, indique le média américain, mais Meta a déclaré qu’une enquête l’avait innocenté en 2017.

« Il s’agit plus d’une question de pouvoir que d’autre chose », explique-t-elle quand elle évoque le fait qu’il a commenté son apparence un soir.

Elle le décrit ensuite sur une piste de danse « se frottant à elle ». « Je me sens comme un objet abject. Je me dissocie momentanément et, dans mon esprit, je suis transportée dans les wagons bondés du métro new-yorkais par des journées chaudes et poisseuses, où les corps sont entassés et où il faut quelques instants à la tête pour isoler les différentes parties du corps pressées contre soi. Il faut encore quelques instants pour que l’alarme se déclenche », explique-t-elle, ajoutant qu’elle s’est rapidement réfugiée vers l’endroit le plus sûr qu’elle ait trouvé : à côté de la responsable des ressources humaines, ivre.

« Entre connexion intensive et désir de déconnexion », une ambivalence des français

24 mars 2025 à 08:33
Lâche ce portable !
« Entre connexion intensive et désir de déconnexion », une ambivalence des français

Le baromètre du numérique 2025, commandé par l’Arcep et l’Arcom, décrit des français toujours plus connectés à l’Internet. Et pourtant, la même enquête rapporte une volonté d’accomplir les activités de leur vie quotidienne en se déplaçant, de manière physique, plutôt qu’en ligne.

Le Crédoc, le Centre de recherche pour l’étude et l’observation des conditions de vie, vient de publier le « baromètre du numérique » de cette année [PDF]. Comme depuis 25 ans, cette enquête, commandée par l’Arcep et l’Arcom, décrit et analyse notamment le niveau d’équipement des français, mais aussi les usages d’internet et leur rapport au numérique.

L’enquête a été menée, du 5 juillet au 6 août 2024, auprès de 4 066 personnes résidant en France métropolitaine, réparties en trois populations cibles distinctes (12 à 17 ans, 18 ans et plus, 18 ans et plus éloignés du numérique).

94 % des Français connectés quotidiennement

Le Crédoc explique que « les internautes, quel que soit le mode de connexion, n’ont jamais été aussi nombreux : 94 % des 12 ans et plus se connectent désormais à internet (+ 3 points par rapport à 2023)  ». La part des personnes connectées tous les jours dans la population est de 84 %. En 2015, ce chiffre rassemblait la part des internautes (qui se connectaient quotidiennement, une à deux fois par semaine ou plus rarement) en France.

Le Crédoc explique que « le smartphone est l’équipement numérique le plus répandu : 91 % de la population en possède un, devant l’ordinateur (89 %) ou la tablette (54 %) ». Mais chez les 12 - 17 ans, son adoption est « presque systématique avec 96 % d’équipés ». Et chez les plus de 70 ans, son utilisation augmente très fortement à 70 % d’utilisateurs et utilisatrices, avec une augmentation de 8 points en un an.

44 % de la population possède maintenant un smartphone compatible 5G, une augmentation de 13 points en un an.

En 2020, le Covid et les confinements avaient poussé à une baisse de l’utilisation quotidienne des téléphones mobiles et smartphones au profit d’un retour vers les ordinateurs. Mais les chiffres de 2024 dessinent un retour vers la tendance pré-covid : 80 % utilisent leur smartphone ou téléphone portable tous les jours alors que l’utilisation quotidienne de l’ordinateur passe de 66 % en 2020 à 55 % en 2024.

75 % des connexions fixes via la fibre

Du côté des connexions fixes, le croisement des courbes entre la fibre (ou le câble) et l’ADSL s’est fait en 2021. En 2024, 75 % des personnes de 12 ans et plus disposant d’un accès à internet à domicile déclarent que celui-ci se fait via la fibre (ou le câble).

Une détention du smartphone plus durable

Côté mobile, on constate dans les chiffres du Crédoc une augmentation de la durée de détention du smartphone : 48 % des utilisateurs possédaient un smartphone de deux ans ou moins en 2024 alors qu’ils étaient 63 % en 2020.

Et l’achat se fait de plus en plus de façon « contrainte » plutôt que par « plaisir » : en 2024, 70 % ont acheté leur dernier smartphone car celui d’avant ne fonctionnait plus correctement, n’était plus utilisable, était perdu/volé ou son système d’exploitation n’était plus à jour, une hausse de 8 points par rapport à 2020 :

Des tâches du quotidien de plus en plus en ligne

Du fait d’être particulièrement connectés, les Français, selon cette enquête du Crédoc, font de plus en plus d’activités en ligne : « 75 % des Français y recherchent des itinéraires pour se déplacer, 67 % y prennent leurs rendez-vous médicaux, 31 % y défendent des causes, par exemple sous forme de pétition, 29 % y cherchent un logement à louer ou à acheter et tout autant (29 %), y cherchent un emploi ».

L’organisme ajoute que « les démarches administratives en ligne sont devenues une pratique courante pour une large majorité de la population française. En 2024, 73 % des Français ont effectué une démarche administrative sur Internet au cours des douze derniers mois, marquant une hausse de 2 points par rapport à 2022 ».

De même, « après un recul en 2023, les achats en ligne de biens non alimentaires, progressent à nouveau en 2024 et renouent avec les niveaux observés en 2022. 77 % de la population française en a réalisé un (+ 4 points en un an) ». La fréquentation quotidienne des réseaux sociaux s’accroit aussi avec 75 % des internautes français qui consultent au moins une fois par jour un réseau social, une augmentation de 3 points en un an.

42 % pensent passer trop de temps en ligne pour leur usage personnel

Pour leur usage personnel, 20 % considèrent passer plus de 35 heures par semaine devant les écrans et 38 % entre 15 et 35 heures par semaine.

Mais le Crédoc pointe qu’une bonne partie d’entre eux trouve qu’ils passent personnellement trop de temps sur leurs appareils pour leur propre usage : 42 % pensent qu’ils y consacrent « trop » ou « beaucoup trop » de temps.

Quand on regarde plus en détail, 57 % des personnes passant plus de 35 heures sur leurs appareils considèrent qu’ils y consacrent trop de temps :

« De façon générale, 65 % de la population préfère accomplir une activité de leur vie quotidienne en se déplaçant, de manière physique, plutôt qu’en ligne. 82 % privilégient par exemple le déplacement en magasin pour leurs courses alimentaires et 64 % pour leurs vêtements », explique le Crédoc.

Selon l’étude, « 85 % des Français préfèrent faire des rencontres en personne dans des lieux de leur vie quotidienne plutôt que sur internet, qui paraît devenir un espace à la sociabilité plus ciblée que par le passé ». La pratique est, de fait, en baisse puisque 39 % l’ont utilisé pour retrouver d’anciennes connaissances, c’est 11 points de moins qu’en 2019. De même, 34 % ont été sur internet pour nouer de liens avec de nouvelles personnes, 10 points de moins qu’il y a cinq ans. « Seule exception, la sociabilité à des fins de rencontre amoureuse a progressé, de 15 % en 2019 à 19 % en 2024 », explique le Crédoc.

Une inquiétude pour le manque de protection des données personnelles

L’organisme explique aussi que « l’inquiétude pour le manque de protection des données personnelles, qui avait considérablement reculé depuis 2019, a progressé de 13 points en l’espace d’un an (33 %) ».

C’est d’ailleurs la première crainte de l’usage d’internet et des outils numériques : 28 % de la population craint que ses données personnelles soient utilisées de manière inappropriée ou sans son autorisation :

Plainte contre OpenAI : ChatGPT a accusé à tort un Norvégien d’avoir tué ses enfants

21 mars 2025 à 12:10
« Tu es un meurtrier » (ou pas, déso)
Plainte contre OpenAI : ChatGPT a accusé à tort un Norvégien d’avoir tué ses enfants

ChatGPT a affirmé que le Norvégien Arve Hjalmar Holmen avait tué deux de ses enfants, ce qui est faux. Celui-ci, accompagné de l’association noyb, attaque OpenAI devant l’autorité norvégienne de protection des données, la Datatilsynet, pour violation du RGPD.

Comme de nombreuses personnes, le Norvégien Arve Hjalmar Holmen a cherché à savoir ce que ChatGPT pouvait générer sur lui en lui posant une simple question. Mais il a été choqué de voir s’afficher à tort en réponse qu’il était le meurtrier de deux de ses enfants et qu’il aurait tenté de tuer le troisième.

Le citoyen, épaulé par l’association de Max Schrems, noyb, a déposé une plainte [PDF] auprès de la Datatilsynet, la CNIL locale pour violation du RGPD.

« Hallucination » d’infanticides et d’une condamnation

Le document explique qu’à la question posée en anglais « Qui est Arve Hjal-mar Holmen ? », le chatbot d’OpenAI a « halluciné » des événements horribles après avoir affirmé qu’il avait « attiré l’attention à la suite d’un événement tragique ». ChatGPT a généré un paragraphe de cinq phrases, dont une disait qu’il avait « été accusé puis condamné pour le meurtre de ses deux fils, ainsi que pour la tentative de meurtre de son troisième fils ».

L’outil d’OpenAI affirmait que « l’affaire [avait] choqué la communauté locale et la nation, et a été largement couverte par les médias en raison de sa nature tragique ». Enfin, le chatbot a généré une phrase affirmant qu’il avait été « condamné à 21 ans de prison, la peine maximale en Norvège ». ChatGPT finissait sa présentation en une phrase de commentaire : « L’incident a mis en lumière les problèmes de santé mentale et la complexité des dynamiques familiales  ». Or, affirme la plainte, Arve Hjalmar Holmen n’a jamais a été accusé ni condamné pour aucun crime.

Mélange problématique avec des données personnelles

Mais Arve Hjalmar Holmen et noyb expliquent que ces affirmations mensongères sont mélangées à des informations personnelles qui sont, elles, exactes : sa ville d’origine, le nombre de ses enfants et leur genre ainsi que l’écart d’âge entre deux d’entre eux, ce qui rend l’affirmation erronée plus crédible par des personnes qui le connaissent.

En conséquence, ils ont porté plainte contre OpenAI pour traitement de données à caractère personnel donnant à des résultats inexacts, y compris par le responsable du traitement, en violation de l’article 5, paragraphe 1, point d), du RGPD.

Pour rappel, celui-ci impose que « les données à caractère personnel doivent être exactes et, si nécessaire, tenues à jour ; toutes les mesures raisonnables doivent être prises pour que les données à caractère personnel qui sont inexactes, eu égard aux finalités pour lesquelles elles sont traitées, soient effacées ou rectifiées sans tarder (exactitude) ».

Dans la plainte, les avocats précisent que depuis que les modèles d’OpenAI utilisent des données publiées sur le web, « il est moins probable que ChatGPT reproduise les résultats  ». Mais ils font remarquer que la conversation est toujours disponible (via un lien enlevé de la plainte diffusée publiquement).

« Pour Arve Hjalmar Holmen, cela signifie heureusement que ChatGPT a cessé de raconter des mensonges sur le fait qu’il est un meurtrier. Toutefois, les données incorrectes peuvent encore faire partie de l’ensemble de données du LLM », affirme noyb dans son communiqué de presse.

Les modèles de langage non conformes au RGPD

Dans la plainte, les avocats pointent aussi qu’ « OpenAI admet ouvertement que « les résultats ne sont pas toujours exacts » et que « compte tenu de la nature probabiliste de l’apprentissage automatique, l’utilisation de nos services peut, dans certaines situations, donner lieu à des résultats qui ne reflètent pas fidèlement des personnes, des lieux ou des faits réels » » dans ses conditions d’utilisation pour l’Europe. « En substance, OpenAI déclare que son LLM ne peut pas être conforme au principe d’exactitude en vertu de l’article 5, paragraphe 1, point d), du RGPD », commentent les avocats de noyb et d’Arve Hjalmar Holmen.

« L’ajout d’une clause de non-responsabilité indiquant que vous ne respectez pas la loi ne fait pas disparaître la loi. Les entreprises d’IA ne peuvent pas non plus se contenter de « cacher » de fausses informations aux utilisateurs alors qu’elles traitent encore de fausses informations en interne », affirme Kleanthi Sardeli, avocate chez noyb. Elle ajoute : « les entreprises d’IA devraient cesser d’agir comme si le RGPD ne s’appliquait pas à elles, alors que c’est clairement le cas. Si l’on ne met pas fin aux hallucinations, des gens souffriront d’atteintes à leur réputation ».

« Certains pensent qu’il n’y a pas de fumée sans feu. Ce qui me fait le plus peur, c’est que quelqu’un puisse lire cette réponse et la croire vraie », explique de son côté le principal intéressé, Arve Hjalmar Holmen.

Contactée par Next, OpenAI n’a pas répondu. Nous mettrons à jour cette actualité le cas échéant.

Salaires de la tech : une stagnation, voire une contraction

21 mars 2025 à 09:02
Pas la joie
Salaires de la tech : une stagnation, voire une contraction

Les salaires dans les métiers du numérique stagneraient selon une enquête du cabinet de recrutement « The Product Crew ».

The Product Crew est un cabinet de recrutement basé sur Paris spécialisé sur les emplois de « tech » et « produits » en France. Tous les ans, l’entreprise envoie un questionnaire à sa base de données pour sonder les employés de ces secteurs sur leurs salaires. Elle diffuse ensuite ses résultats via un formulaire. Nous avons donné notre email.

En comparant ses résultats de l’année dernière aux 5 804 réponses de cette année, le cabinet explique que les salaires n’ont pas augmenté cette année dans les métiers Tech, design et data.

Elle explique qu’on peut même « parler d’une stagnation, voire d’une contraction sur tous les métiers en tenant compte de l’inflation ».

Le cabinet note des « écarts globalement homogènes entre l’Île-de-France et les autres régions » avec quand même - 16 % dans le nord quand les personnes interrogées dans la région de Bordeaux déclarent un écart de 8 % avec Paris.

Un quart de satisfaits seulement

En fait, la moitié des répondants n’a pas eu d’augmentation cette année, un tiers d’entre eux ont vu leur salaire augmenter de 1 à 5 %, 11 % ont obtenu une augmentation comprise entre 5 et 10 % et enfin 5 % ont été augmentés de plus de 10 %.

Seulement 26 % des personnes interrogées par le cabinet de recrutement se sont déclarées satisfaites de leur rémunération. Elles étaient 55 % à être satisfaites l’année dernière.

Des inégalités femmes-hommes d’autant plus fortes que l’ancienneté augmente

Lorsque l’entreprise compare les réponses des hommes et des femmes, elle constate toujours de fortes inégalités qui se creusent au fil de l’expérience. Ainsi, dans les deux premières années, les femmes gagnent 6,3 % moins que les hommes, mais, après 10 ans d’expérience, l’écart atteint presque 15 % (sans préciser si c’est en comparant à temps plein et à poste équivalent).

En détail, côté produit, 44 % des personnes qui ont répondu sont des femmes. Un product manager commence, par exemple, dans les deux premières années, à 51 000 euros (en moyenne, brut annuel, fixe + variable) et atteint en moyenne à plus de dix ans d’ancienneté 74 000 euros. Un chef de produit est en moyenne à 78 000 euros par an (dans les 3 à 5 premières années de sa carrière) à 93 000 euros par ans après plus de dix ans.

Python et Ruby boostent ton salaire

Pour les profils « tech », c’est-à-dire développeurs et ingénieurs, le taux de femmes tombe à 15 %. Les développeurs « fullstack » sont rémunérés, en moyenne 41 000 euros par an dans leurs deux premières années et 66 000 euros après 10 ans d’ancienneté.

Selon les chiffres du cabinet de recrutement, les langages Python et Ruby permettent d’obtenir, en moyenne, des salaires plus élevés :

Chez les profils Design qui ont répondu à l’enquête, les femmes sont plus nombreuses (57 %). Les product designers commencent avec un salaire moyen de 43 000 euros les deux premières années et sont à 67 000 euros par an après plus de 10 ans. Pour les UI designers, ces chiffres sont respectivement de 38 000 et 55 000 euros par an et chez les UX designer de 44 000 à 62 000 euros par an. Chez les chercheurs UX, ont passe de 42 000 euros en début de carrière à 72 000 euros après 10 ans.

Côté « data » (analystes, ingénieurs, scientists), 76 % des personnes qui répondent sont des hommes. Pour les data scientists, le salaire est de 45 000 euros en début de carrière et 80 000 après 10 ans (en moyenne toujours). Les analystes sont à 46 000 euros dans les deux premières années et ont un salaire moyen de 64 000 après 10 ans. Les ingénieurs « data » commencent à 44 000 euros leurs deux premières années et sont à 64 000 euros avec entre 6 et 9 ans d’ancienneté.

L’hybride est la norme

La plupart (93 %) des personnes qui ont répondu au questionnaire de l’entreprise de recrutement sont au moins une journée par semaine en télétravail, « l’hybride comme une nouvelle norme » affirme The Product Crew. Pour plus d’un tiers des employés interrogés, ce sont deux journées qui se passent en dehors du bureau. 94 % des employés en « full remote » (c’est-à-dire en télétravail toute la semaine, comme chez Next) sont satisfaits.

Si leurs conditions vis-à-vis du télétravail les satisfont, la moitié des employés de la tech qui ont répondu à l’enquête veut changer d’emploi dans les 12 prochains mois, avec 43 % d’entre eux l’insatisfaction sur la rémunération comme levier numéro un. « C’est trois fois plus que l’an dernier », signale le cabinet de recrutement. Pour 18 %, ils ont besoin « de nouveaux challenges » et pour 14 %, ils ne sont pas en phase avec le management.

Les principales raisons qui font rester les personnes en postes sont le fait de développer de nouvelles compétences (à 22 %), de bonnes perspectives d’évolution pour 17 % et se sentir « challengé au quotidien » à 15 %.

Paragon : le Canada, l’Australie et le Danemark, probables clients du logiciel espion

20 mars 2025 à 15:00
Pas parangon de vertu
Paragon : le Canada, l’Australie et le Danemark, probables clients du logiciel espion

Les chercheurs et chercheuses du Citizen Lab de l’Université de Toronto ont pu cartographier l’infrastructure serveur du logiciel espion Graphite de l’entreprise israélienne Paragon, et identifié des indices de son déploiement en Australie, au Canada, à Chypre, au Danemark, en Israël et à Singapour.

Le Citizen Lab, laboratoire de recherche réputé pour ses travaux sur les logiciels espion, a publié sur son site un décorticage de l’infrastructure serveur de l’outil d’espionnage Graphite vendu par l’entreprise Paragon.

Rappelons que WhatsApp a accusé récemment l’entreprise israélienne d’avoir ciblé environ 90 de ses utilisateurs, dont des journalistes et d’autres membres de la société civile. La messagerie expliquait qu’elle avait réussi à interrompre cette campagne de piratage en décembre 2024.

Au cours de leur travail, les chercheurs sont tombés sur des adresses IP en Australie, au Canada, à Chypre, au Danemark, en Israël et à Singapour. Ils soupçonnent qu’elles soient utilisées pour le déploiement du logiciel chez les clients de l’entreprise.

Départ à partir d’un « tuyau d’un collaborateur »

Ils expliquent avoir mené leur recherche à la suite d’un « tuyau d’un collaborateur concernant un seul élément d’infrastructure : un nom de domaine pointant vers un serveur qui a également renvoyé plusieurs certificats TLS auto-signés distincts ».

« Les certificats présentaient de nombreux éléments curieux, notamment plusieurs informations manquantes et un système de dénomination particulier », ajoutent-ils.

Dès lors, les chercheurs ont pu identifier plusieurs « empreintes digitales » permettant d’identifier les serveurs et certificats TLS liés à Paragon. L’un des certificats, « apparemment créé en novembre 2019 », a été enregistré avec, comme nom d’organisation, « Graphite », le nom du logiciel espion de l’entreprise.

« En résumé, de solides preuves circonstancielles confirment l’existence d’un lien entre Paragon et l’infrastructure que nous avons décrite », estiment les chercheurs du Citizen Lab.

Des IP venant de FAI locaux et non de fournisseurs de solution de cloud

Mais en analysant l’infrastructure de Paragon, ils sont aussi tombés sur « d’autres adresses IP intéressantes ». Celles-ci ont « apparemment [été] obtenues auprès d’entreprises de télécommunications locales » et non à des entreprises de cloud. Les chercheurs du Citizen Lab soupçonnent donc « qu’elles appartiennent aux déploiements des clients de Paragon », ajoutant qu’une lettre utilisée comme « nom de code » pour chaque IP correspond à la première lettre du pays associé (sauf pour Israël) : Australie, Canada, Chypre, Danemark et Singapour.

Les certificats utilisés leur ont permis de remonter à un datacenter de Digital Reality en Allemagne. Les divers noms de code utilisés par ces certificats sont encore autant d’indices qui amènent les chercheurs « à penser que le client de Digital Realty pourrait être Paragon ».

Les chercheurs canadiens se sont plus particulièrement intéressés aux adresses IP situées dans leurs pays. L’une d’elles correspondrait selon eux à la Police provinciale de l’Ontario (OPP), mais « les autres adresses de clients comprennent ce qui semble être un entrepôt partagé, un centre commercial, une brasserie et un appartement ». Plusieurs éléments suggèrent que l’OPP est un client potentiel de Paragon, avance Citizen Lab.

Interrogée par TechCrunch, l’OPP ne nie pas et déclare : « la divulgation d’informations sur des techniques et technologies d’enquête spécifiques pourrait compromettre des enquêtes en cours et menacer la sécurité du public et des agents ». Aucune des autorités des autres pays n’ont répondu à nos confrères.

Le porte-parole de Paragon précise que le Citizen Lab lui a donné « une quantité très limitée d’informations, dont certaines semblent inexactes » sur ce qu’il avait trouvé, tout en ne voulant pas donner d’information supplémentaire sur ce qui pourrait être inexact.

Le laboratoire de recherche canadien explique enfin avoir partagé ce qu’il a trouvé avec l’éditeur de WhatsApp et rapporte que « Meta nous a dit que ces détails étaient essentiels pour leur enquête en cours sur Paragon ».

« Cette dernière étude vient s’ajouter aux précédentes conclusions d’Amnesty International et d’autres partenaires de la société civile qui dénoncent l’utilisation abusive et généralisée des logiciels espions en Europe. Malgré des scandales répétés et persistants en Serbie, en Espagne, en Grèce, en Pologne, en Hongrie et maintenant en Italie, les autorités au niveau national et européen n’ont pas pris de mesures efficaces. Le laxisme de l’Europe en matière de règlementation de l’industrie de la surveillance favorise la crise mondiale des logiciels espions », avance de son côté Amnesty International.

❌