Le guide, coécrit par l’ANSSI et la DINUM permet « de comprendre et de détailler la démarche permettant aux organisations d’homologuer leurs systèmes d’information ». Mais de quoi parle-t-on exactement ? Une homologation de sécurité est « un acte formel qui engage l’autorité qui la prononce ».
L’Agence rappelle que ce passage est « rendu obligatoire par un grand nombre de textes officiels est appelée « décision d’homologation » ». Et pour bien comprendre les enjeux, elle ajoute que « dans certains pays, le principe d’homologation existe et peut-être appelé « accréditation » ou « autorisation » ».
Ce guide s’adresse donc « à toutes les personnes devant réaliser, porter ou accompagner une démarche d’homologation ». L’ANSSI ajoute qu’une homologation n’est pas permanente et « doit être reconduite au maximum tous les trois ans ».
Quatre documents sont mis en ligne. Le gros morceau est le guide de 88 pages, accompagné de trois fiches méthodes, notamment une pour les décideurs, afin de leur rappeler les enjeux et les bénéfices… mais aussi certainement donner des billes aux responsables informatiques qui chercheraient à convaincre leur patron.
« Ice cream truck in NYC » (« camion de glace à New-york ») : par ce jeu de mot relevant de l’algospeak (langage inventé pour contourner la modération des plateformes), une internaute états-unienne signale à ses followers avoir repéré des agents de l’Immigration and Customs Enforcement (ICE).
Comme de nombreux autres usagers de TikTok, Reddit, YouTube ou X, elle participe à l’effort collectif renforcé ces dernières semaines pour éviter à toute personne immigrée, légalement ou non, les déportations ordonnées par Donald Trump et quelquefois menées en dehors des cadres légaux.
Si le phénomène n’est pas neuf, le Washington Post relève une multiplication par cinq des discussions relatives à l’ICE sur X, Reddit et YouTube depuis début mars.
De nombreuses fausses informations se glissent parmi les alertes. Des soutiens de la démarche de déportation promue par Trump ont aussi mis à mal certains réseaux d’alertes – le compte Instagram Libs of Reddit a par exemple publié le nom, le visage et l’adresse du modérateur de r/LaMigra, un subreddit dédié au partage d’informations sur la localisation des agents de l’ICE.
Cela n’a pas empêché les efforts de suivi des agents de se multiplier en ligne, prenant quelquefois la forme de cartographies collectives, comme dans le cas de People over Papers. Si le projet est devenu viral sur TikTok, explique sa créatrice au quotidien états-unien, « c’est parce qu’il répond à un réel besoin ».
Elle aussi a été visée par des violences numériques : le 14 février, le compte très suivi Libs of TikTok a partagé son nom et son handle à son public, déclarant qu’elle aidait des criminels à échapper aux forces de l’ordre.
Mozilla vient de publier la version 137 de son navigateur. Firefox se dote pour l’occasion d’une capacité présente chez les concurrents depuis longtemps : la possibilité de grouper les onglets. Avec d’autres améliorations, la mouture est à ranger parmi les versions marquantes.
La nouveauté la plus visible de Firefox 137 est donc le regroupement d’onglets. C’est aussi celle que tout le monde ne verra pas tout de suite, car elle est en déploiement, Mozilla l’activant petit à petit. Il existe cependant des méthodes pour l’obtenir tout de suite (nous y reviendrons).
Enfin des groupes d’onglets
Comment fonctionne le regroupement d’onglets dans Firefox 137 ? Exactement comme partout ailleurs. Il y a deux façons principales de créer des groupes : soit en déplacer un onglet par-dessus un autre, soit en faisant une sélection de plusieurs onglets et en choisissant « Ajouter les onglets à un nouveau groupe ».
Dans les deux cas, un liseré coloré apparait sous les onglets pour les lier. La couleur du groupe peut être personnalisée, de même que le nom. Depuis l’étiquette colorée du groupe, un clic droit permet d’autres actions, autrement accessibles par des mouvements de souris. Par exemple, on peut saisir une étiquette pour faire sortir tout le groupe d’onglets vers une autre fenêtre ou pour en créer une nouvelle.
Si vous ne voyez pas encore la fonction et que vous ne souhaitez pas attendre, il y a une solution. Rendez-vous dans la barre d’adresse et entrez about:config. Cherchez l’entrée « browser.tabs.groups.enabled » en passant par le champ de recherche. Double-cliquez sur le résultat et passez la valeur à « True ». Il suffira de redémarrer Firefox pour que la fonction soit disponible. Autre solution, moins fiable : passer par le canal bêta, où les groupes d’onglets sont activés d’origine.
Du neuf dans la barre de recherche
Plusieurs améliorations importantes également pour faciliter l’utilisation de la barre de recherche. Firefox 137 permet ainsi de changer le contexte en cliquant à gauche de la barre, sur le bouton Google ou correspondant au moteur par défaut. Dans la liste, en plus des moteurs, on peut maintenant choisir entre les marque-pages, les onglets, l’historique et les actions. On peut même sélectionner les paramètres de recherche.
Cette bascule entre les éléments est d’ailleurs accompagnée d’une persistance : changer le contexte de recherche ou le moteur n’efface pas les termes entrés dans la barre.
Firefox 137 peut aussi détecter si la page sur laquelle vous êtes dispose d’un champ de recherche. Auquel cas, écrire dans la barre de recherche peut suggérer de lancer l’action sur le site en cours, plutôt que dans le moteur par défaut. Du moins en théorie, car cette capacité est loin de fonctionner partout. On peut la voir par exemple sur iMDB, mais pas sur Allociné. Si vous vous servez deux fois de cette fonction, Firefox finira par vous proposer d’ajouter ce moteur de recherche à la liste intégrée.
On peut également se servir du symbole @ pour ajouter un contexte spécifique à la recherche. Par exemple, @google pour lancer une recherche sur Google, @onglets pour retrouver un onglet, etc. Pratique quand on préfère ne pas lâcher son clavier.
Enfin, la barre de recherche permet de réaliser des opérations mathématiques, le résultat s’affichant dans le menu en-dessous.
D’autres nouveautés bienvenues
Firefox 137 est également une version importante pour Linux, car le codec HEVC (H.265) y est maintenant pris en charge, logiciellement et matériellement. Mozilla en profite pour étendre ce support à sa version Android, mais uniquement à travers le matériel.
Le support des PDF fait également un petit bond avec le support des signatures, que l’on peut enregistrer pour plus tard. En outre, le lecteur intégré sait détecter les liens dans le texte pour les rendre exploitables.
On note plusieurs changements pour les développeurs, dont le support des méthodes Math.sumPrecise() et Atomics.pause(). Signalons aussi le respect du quota de 10 Mo pour l’API storage.session ainsi que l’affichage des métadonnées dans le panneau Fonts de l’Inspecteur. Le panneau Réseau autorise de son côté le contournement des réponses aux requêtes avec des fichiers locaux.
Enfin, Firefox 137 corrige huit failles de sécurité, dont trois critiques. L’installation est donc chaudement recommandée.
L’entreprise compte verrouiller encore un peu plus la création de compte sur Windows 11, pour rendre obligatoire le compte Microsoft. La dernière préversion du système bloque ainsi l’utilisation d’une méthode courante pour contourner cette étape. Mais ce court-circuit a déjà son propre court-circuit.
L’année dernière, Microsoft avait expliqué pourquoi un compte maison était si important pour Windows 11. Il déverrouille de nombreuses fonctions, dont la synchronisation des fichiers, des paramètres et autres, l’intégration de Microsoft 365, la sauvegarde des licences et de certaines clés de chiffrement, etc.
Problème, une partie des utilisateurs préfère utiliser un compte local. Tout le monde ne court pas après la synchronisation des informations. Ou, pour être plus précis, la synchronisation par Microsoft, avec le stockage des données personnelles chez l’éditeur américain. Pendant longtemps, les Windows ont permis la création d’un compte local. Mais Windows 11 a commencé à serrer la vis, avec des méthodes de contournement, comme la coupure de la connexion internet pendant la première configuration du système.
Nouveau tour de vis
Dans un billet, Microsoft a présenté récemment les préversions 26200.5516 et 26120.3653, respectivement pour les canaux Dev et Beta. Les nouveautés présentées sont nombreuses : recherche sémantique pour les PC Copilot+ équipés de processeurs AMD et Intel, récapitulatif écrit pour le Narrateur, ou encore des améliorations pour l’écran d’erreur vert en cas de redémarrage forcé, le Copilot et la fenêtre de partage.
Mais parmi les changements, on trouve également le blocage du contournement par BypassNRO. Les deux listes incluent en effet le message suivant : « Nous supprimons le script bypassnro.cmd de la version de base afin d’améliorer la sécurité et l’expérience utilisateur de Windows 11. Ce changement garantit que tous les utilisateurs sortent de la configuration avec une connectivité Internet et un compte Microsoft ».
Cette commande pouvait être utilisée depuis une invite de commande (Maj + F10) pendant la première configuration de la machine, après installation du système. Il suffisait alors d’entrer « oobe\bypassnro » pour contourner l’exigence d’un compte Microsoft, autorisant la création d’un compte local. Le script créait une clé dans la base de registre.
Contourner le contournement
Si Microsoft a bloqué le script pendant l’installation des préversions, la clé de registre peut toujours être créée. La méthode consiste à déclencher directement l’opération par la ligne de commande, même si cette dernière est nettement plus longue à écrire que le simple script bypassnro.cmd.
Si la ligne de commande vous semble trop rébarbative, il est également possible de le faire à la souris dans l’éditeur de registre. Pour cela, depuis l’invite de commande (toujours Maj + F10), entrez « regedit » et validez. Rendez-vous dans HKLM\SOFTWARE\Microsoft\Windows\CurrentVersion, puis créez la clé OOBE si elle n’existe pas. Là, dans ce dossier, créer une valeur DWORD 32 bits nommée « BypassNRO » et affectez lui la valeur 1. Il faudra ensuite redémarrer la machine.
Attention toutefois, Microsoft pourrait également bloquer cette possibilité. Le changement étant apparu dans des préversions, il serait simple pour l’éditeur d’insérer un nouveau blocage dans les prochaines semaines.
Ajoutons également que ce « bypass » reste fonctionnel sur les révisions stables de Windows 11, y compris la dernière 24H2.
Enfin, une autre méthode est apparue il y a six mois environ, comme relevé par Neowin notamment. Elle passe par l’utilisation de la console de développement juste avant de choisir une deuxième disposition pour le clavier pendant l’assistant de première configuration. Bien que la méthode soit clairement expliquée sur un dépôt GitHub, elle n’a pas fonctionné chez nous sur une installation neuve de Windows 11 24H2, malgré de multiples tentatives.
Notez qu’en passant par l’utilitaire Rufus, il reste possible pour l’instant de créer une clé d’installation Windows 11 sans le verrouillage sur le compte Microsoft. Pour mémoire, ce même utilitaire peut aussi être utilisé pour désactiver la vérification de la présence de la puce TPM 2.0, comme nous l’indiquions en février.
Vous en rêviez ? Next vous propose un nouvel outil : avec un simple prompt, générez des images dans le « style des dessins de Flock ». Là encore, nous avons mis à contribution l’IA générative, mais en local. Explications.
Quand Flock a vu la semaine dernière des images « style Ghibli » générées par l’intelligence artificielle d’OpenAI, il était assez dubitatif. Mais il s’est vite rendu compte du potentiel de cette fonctionnalité, d’autant qu’elle a été reprise à tour de bras par des internautes et politiciens, sans plus de réflexion que « c’est beau ».
Bref, il veut croquer sa part du gâteau et Next pourrait de son côté profiter d’une belle exposition médiatique. Un combo gagnant-gagnant ?
Ce n’est pas tout. Flock dresse un constat triste, mais réaliste de la situation : il y a des chances que des IA génératives se nourrissent déjà de son travail, bien que l’indexation de nos contenus ne soit pas autorisée par notre fichier robots.txt. Ce dernier n’engage malheureusement que ceux qui y croient et veulent bien jouer le jeu. « Il est important de comprendre qu’il ne s’agit là que d’une indication sur ce que doivent faire les robots bienveillants, ce n’est en aucun cas un élément de sécurité. En effet, certains robots ignorent ce fichier », rappelle à juste titre Wikipédia.
On a fait chauffer les serveurs de moji
Il a donc profité d’une réunion d’équipe pour lancer une idée : que Next propose des dessins dans le « style Flock » aux lecteurs. Une fonctionnalité qui serait évidemment réservée à nos abonnés.
Sans attendre, on se lance, d’autant que moji dispose d’un datacenter, avec des serveurs et des GPU que nous pouvons utiliser pour divers projets. L’investissement pour Next est quasi nul, autant en profiter sans attendre ! Pour la phase d’entrainement, nous avons utilisé près de 3 000 dessins de Flock sur nos serveurs, et il nous a fourni près de 5 000 brouillons supplémentaires, tous réalisés pour Next.
Il faut bien le reconnaitre : c’est encore un peu juste pour arriver à un résultat parfait, mais c’est déjà largement exploitable pour une première version. L’outil est donc en bêta pour le moment. Nous le laissons ouvert à tous pour le moment, afin d’avoir un maximum de retours avant de le finaliser.
Un outil en bêta, accessible à tous pour l’instant
Pendant ce temps, l’IA génère des dessins supplémentaires de Flock. Ils serviront ensuite à réaliser une seconde phase d’apprentissage sur la base de dessins plus nombreux. Tous les GPU n’étant pas encore disponibles pour la génération d’images, le résultat peut mettre jusqu’à une trentaine de secondes à s’afficher. Patience donc.
En attendant, prenez ce nouvel outil en main, testez et faites-nous part de vos retours !
Le Conseil d’État déclare illégal le blocage de TikTok imposé à la Calédonie en mai 2024. Il précise les conditions dans lesquelles une telle suspension pourrait être légale.
En pleines émeutes de contestation du projet gouvernemental de dégel électoral, en Nouvelle-Calédonie, le gouvernement avait déclaré l’état d’urgence et suspendu l’accès à TikTok. À partir du 15 mai 2024 à 20 heures et pendant deux semaines, le réseau social n’était plus accessible depuis la collectivité d’outre-mer.
La Quadrature du Net, la Ligue des droits de l’homme, ainsi que des particuliers avaient rapidement attaqué la décision de blocage en justice, le qualifiant de « coup inédit et particulièrement grave à la liberté d’expression en ligne ». Ce 1ᵉʳ avril, le Conseil d’État a rendu sa décision, dans laquelle il annule le blocage de TikTok.
Il souligne notamment que l’autorité administrative ne peut normalement interrompre un tel service « que si la loi le prévoit compte tenu des atteintes qu’une telle mesure porte aux droits et libertés (notamment liberté d’expression, libre communication des pensées et des opinions, droit à la vie privée et familiale, liberté du commerce et de l’industrie). »
Au passage, l’institution précise les conditions dans lesquelles un Premier ministre pourrait légalement interrompre « provisoirement » l’accès à un réseau social, « même si la loi ne le prévoit pas ». Ces conditions sont au nombre de trois.
La suspension peut être décidée « si la survenue de circonstances exceptionnelles la rend indispensable ». Elle ne peut l’être « qu’à titre provisoire », à condition « qu’aucun moyen technique ne permette de prendre immédiatement des mesures alternatives moins attentatoires aux droits et libertés que l’interruption totale du service pour l’ensemble de ses utilisateurs ». Enfin, cette suspension ne peut être mise en œuvre que « pour une durée n’excédant pas celle requise pour rechercher et mettre en œuvre ces mesures alternatives ».
En l’occurrence, si le Conseil d’État admet que la situation en Nouvelle-Calédonie relevait bien des « circonstances exceptionnelles », dans la mesure où les émeutes ont entraîné des décès et des atteintes aux personnes et aux biens « d’une particulière gravité », il souligne que la suspension de TikTok décidée par le Premier ministre d’alors, Gabriel Attal, l’a été sans indication de durée, et « sans subordonner son maintien à l’impossibilité de mettre en œuvre des mesures alternatives ».
Le Conseil d’État juge ce blocage illégal, car ayant porté « une atteinte disproportionnée aux droits et libertés invoqués par les requérants ».
Diffusée le 20 mars, une fausse vidéo du Figaro a rencontré un écho inédit sur les réseaux X et TikTok. Alors qu’Emmanuel Macron et Vladimir Poutine s’opposent, la vidéo affirme que « 71 % des Français sont convaincus que leur vie serait meilleure si le président français était Poutine ».
Le logo, la charte éditoriale… la vidéo est en tout point similaire à une production du Figaro, mais tout est faux, comme le soulignera le journaliste en charge des réseaux sociaux du Figaro Jean-Baptiste Semerdjian.
Copier des médias installés pour diffuser de la désinformation, le modus operandi est typique de l’opération Matriochka, qui sévit depuis un an et demi dans l’espace informationnel français.
Mais le projet d’opposants russes Bot Blocker (@antibot4navalny / @antibot4navalny.bsky.social), qui œuvre régulièrement à documenter ces opérations, relève ici une spécificité : la réponse d’un internaute réel, trompé par la vidéo, est rapidement devenue plus virale que la publication initiale du faux.
En effet, « pour la première fois, la réponse d’un utilisateur en tant que telle a été amplifiée par les robots Matrioshka, alors qu’auparavant, ils se concentraient exclusivement sur les faux visuels qu’ils créaient eux-mêmes », indique @antibot4navalny.
En pratique, les bots liés aux comptes pilotant l’opération sont allés démultiplier l’audience de publication d’internautes légitimes sur Telegram, TikTok et Twitter, pour augmenter la portée de leurs réactions, entrainant à leur suite d’autres internautes légitimes.
Nouvelle mouture pour la suite d’outils. Le plus gros apport de cette version 0.90 est la version 2 de Run, désormais renommé Command Palette (ou Palette de commandes). La palette fonctionne comme ce que l’on connait dans d’autres applications, comme Visual Studio Code. Son interface a été enrichie, son système d’extensions retravaillé et un accent particulier a été mis sur les performances.
Le Color Picker, qui permet de sélectionner la couleur d’un pixel n’importe où dans l’écran, a été remanié sous le capot. .NET WPF remplace ainsi WPFUI, ce qui doit apporter une meilleure compatibilité à l’outil et un support amélioré des thèmes.
Parmi les autres nouveautés, on peut citer également la possibilité d’effacer directement un fichier dans Peek (Aperçu), le support des variables dans les noms de fichiers dans New+, la correction de plusieurs bugs dans FancyZones, ainsi qu’une autre pour Espaces de travail, qui ne parvenait parfois pas à capturer certaines applications minimisées.
La mise à jour est disponible depuis la fenêtre principale des PowerToys. Pour les personnes qui voudraient essayer la suite d’outils (bien pratique), l’installeur se récupère depuis le Microsoft Store ou le dépôt GitHub associé. Rappelons que ces applications sont open source (licence MIT).
Le DOGE veut migrer les systèmes de la Sécurité sociale des États-Unis en quelques mois. Ces derniers sont codés en COBOL, un langage ancien et désormais peu programmé, mais réputé pour sa robustesse.
Le « département de l’efficacité gouvernementale » des États-Unis (DOGE) est en train de constituer une équipe pour migrer l’intégralité des systèmes de la Sécurité Social locale en quelques mois. L’idée : se défaire des langages de programmation anciens sur lesquels ces systèmes reposent.
Le risque, comme le rapporte Wired : menacer l’intégrité de la totalité de l’architecture, et les allocations perçues par des dizaines de millions de personnes au passage. En pratique, le fidèle d’Elon Musk Steve Davis travaille déjà à sortir les systèmes de leur dépendance au langage COBOL.
COBOL : 66 bougies
À la suite des censures opérées par le gouvernement Trump, au moins un des sites qui saluait le travail de Grace Hopper est désormais hors ligne. Mais c’est bien cette docteure en mathématiques devenue informaticienne dans la Marine états-unienne qui a créé en 1959, avec les équipes du consortium sur les langages de systèmes de données (CODASYL), le COBOL (Common business oriented language). Comme son nom l’indique, il s’agissait de fournir un langage commun aux applications professionnelles.
Dans les vingt années qui suivent, le COBOL, standardisé en 1968, est adopté dans les administrations, le secteur bancaire, l’aviation, et ailleurs. 66 ans plus tard (et deux ans après sa dernière mise à jour ISO/IEC 1989:2023), il a été délaissé au profit de langages plus simples à manier pour quantités d’applications. Il garde toutefois de fidèles adeptes dans des secteurs critiques, dont les banques ou les administrations (y compris nos impôts ou notre Caisse d’Allocations familiales). En 2020, 80 % des transactions interpersonnelles réalisées aux États-Unis reposaient sur du COBOL, d’après Wealthsimple Magazine.
Les raisons du maintien du langage sont doubles : des enjeux de sécurité et de performance – COBOL a notamment été créé pour gérer rapidement de très grosses sommes de « transactions » – et son usage même, qui concerne généralement des applications centrales, vouées à rester en place une fois créées.
Le problème que cela pose : la pénurie de connaisseurs du COBOL force certaines entreprises à sortir d’anciens programmeurs de leur retraite pour les aider à faire évoluer leurs systèmes. Pour se représenter l’enjeu, des personnes qui sortaient du lycée en 1969 et devenaient programmeuses de COBOL partaient généralement à la retraite à la fin des années 2000, une fois la soixantaine atteinte.
5 ans pour le précédent projet de migration
C’est pour toutes ces raisons que le projet du DOGE soulève des questions. Auprès de Wired, de nombreux experts soulignent qu’une migration de l’ampleur prévue serait, de toutes manières, un projet énorme et risqué – l’infrastructure de la Sécurité sociale contient plus de 60 millions de lignes de codes en COBOL. Sa logique interne – c’est-à-dire les procédés qui fournissent des codes de Sécurité sociale, gèrent les paiements et calculent les montants à verser – est elle-même écrite en COBOL.
Dans le contexte actuel, la Sécurité sociale états-unienne est déjà sous pression : visée par des accusations de fraudes par Elon Musk lui-même – dont plusieurs des allégations se sont néanmoins prouvées, au mieux, trompeuses –, l’institution est spécifiquement visée par d’intenses coupes budgétaires. Depuis quelques semaines, son site web se retrouve fréquemment hors ligne, et l’attente téléphonique s’allonge, au point que le Washington Post parle de « chaos ».
Surtout, de précédents projets de migration ont déjà été envisagés, et la tâche s’avérait alors bien plus ardue qu’un projet de quelques mois. En 2017, l’agence avait elle-même annoncé un projet de remplacement de son système cœur, pour lequel elle cherchait des financements de centaines de millions de dollars. La durée annoncée du chantier, remplacé par des projets plus orientés vers le public en raison de la pandémie, était de cinq ans.
Et puis vient la question de l’efficacité, comme le détaille le journaliste Clive Thompson. Si des acteurs bancaires ou administratifs maintiennent leurs activités en COBOL malgré son ancienneté, c’est bien qu’ils ont pesé les risques. Le langage, on l’a dit, est très rapide. Par ailleurs, un nouveau système créé en quelques mois pour la Sécurité sociale a toutes les chances d’être plein de bugs, donc de planter en de multiples endroits. L’ancienneté du COBOL, en la matière, joue en sa faveur : au fil des décennies, les programmeurs ont eu le temps de débuger régulièrement.
Chez Next, on aimerait bien discuter avec des mainteneurs de mainframes et autres adeptes de COBOL français ou européens. Des contacts à nous recommander ?
OpenAI a formalisé un nouveau tour de table à hauteur de 40 milliards de dollars, amenés principalement par Softbank. Pour conclure sa levée de fonds, la société doit cependant achever sa bascule vers un modèle « for profit ». Sam Altman annonce en parallèle la sortie prochaine d’un modèle à poids ouverts, une démarche qu’OpenAI n’avait pas engagée depuis 2019.
Un tour de table à 40 milliards de dollars, calculé sur la base d’une valorisation d’entreprise désormais estimée à 300 milliards de dollars : OpenAI a annoncé lundi ce qui devrait devenir la plus importante levée de fonds jamais réalisée par une entreprise de la tech. Cette manne doit permettre à l’entreprise de « repousser encore plus loin les frontières de la recherche en IA, faire évoluer notre infrastructure de calcul et fournir des outils de plus en plus puissants aux 500 millions de personnes qui utilisent ChatGPT chaque semaine », affirme-t-elle dans un bref communiqué.
Une levée de fonds assortie de conditions
Le groupe japonais Softbank représente le principal contributeur à ce tour de table, qui sera cependant réalisé en deux temps, et soumis à plusieurs conditions suspensives. Le premier round, programmé pour le mois d’avril, porte sur une enveloppe de 10 milliards de dollars.
Le second round est quant à lui attendu pour fin 2025 ou début 2026, et peut atteindre 30 milliards de dollars si et seulement si OpenAI parvient à boucler la restructuration de son capital, pour parvenir à devenir une entité commerciale classique, sans limitation liée à sa composante non-profit (sans but lucratif) historique.
La société dirigée par Sam Altman repose aujourd’hui sur une structure dite « capped profit », dont les bénéfices sont plafonnés (l’excédent devant, statutairement, remonter vers la structure à but non lucratif). OpenAI travaille depuis des mois à l’évolution de sa gouvernance, précisément pour répondre aux exigences de Softbank et préparer ce tour de table.
Sur cette deuxième phase, Softbank prévoit de laisser de la place à de potentiels co-investisseurs, à hauteur de 10 milliards de dollars. D’après CNBC, le tour de table inclurait Microsoft, soutien historique d’OpenAI, ainsi que les fonds Coatue, Altimeter Capital et Thrive Capital. Une partie des fonds levés aurait vocation à alimenter la contribution d’OpenAI au projet Stargate, qui ambitionne pour mémoire de fédérer 500 milliards de dollars pour construire des infrastructures dédiées à l’IA aux États-Unis.
Sam Altman annonce un modèle à poids ouverts
OpenAI a, en parallèle, lancé un appel à contributions en direction des développeurs, pour recueillir leurs suggestions relatives à un futur modèle de langage à poids ouvert. La page dédiée propose un formulaire via lequel l’entreprise demande quels sont les modèles ouverts avec lequel la personne a déjà travaillé, et quelles seraient ses attentes quant à un modèle open-weight signé OpenAI.
« Nous prévoyons de publier notre premier modèle de langage à poids ouvert depuis GPT-2. Nous y réfléchissons depuis longtemps mais d’autres priorités ont pris le pas. Maintenant, cela nous semble important de le faire », commente Sam Altman sur X. Il annonce que des événements dédiés aux développeurs seront organisés prochainement, d’abord à San Francisco, puis en Europe et en Asie, pour recueillir les retours de la communauté et présenter les premiers prototypes.
« Nous sommes impatients de voir ce que les développeurs construiront et comment les grandes entreprises et les gouvernements l’utiliseront là où ils préfèrent exécuter eux-mêmes un modèle », se réjouit-il encore. À ce stade, OpenAI ne livre aucune information précise quant à la nature exacte de ce futur modèle. L’engagement porte simplement sur l’ouverture des poids, c’est-à-dire les paramètres définis au cours de l’entraînement qui conditionnent l’exécution du modèle.
C’est un projet financé par le plan d’investissement France2030, avec 50 millions d’euros sur sept ans. Il est piloté par le CEA et le CNRS. Il « vise à accélérer le développement de supraconducteurs à haute température pour répondre aux défis énergétiques et sociétaux de demain, grâce notamment à l’énergie de fusion ».
Si la fission nucléaire consiste à casser un noyau atomique pour créer de l’énergie, la fusion associe deux noyaux légers pour en faire un plus lourd. C’est le type de réaction que l’on retrouve au cœur des étoiles.
Attention à ne pas vous laisser avoir par la « haute température critique », il s’agit de 80 kelvins soit - 193 °C, mais on est loin des 4 kelvins (- 269 °C) des supraconducteurs traditionnels. Les supraconducteurs ont des « propriétés électriques et magnétiques particulières, qui les rendent aptes à supporter des courants d’intensité très élevée », explique le CNRS. Mais aussi sans perte, ajoute le CEA.
Ces matériaux pourraient être cruciaux en fusion nucléaire, mais ils « présenteraient également un grand potentiel dans de nouvelles applications comme la production d’électricité éolienne, le transfert d’électricité ou la mobilité lourde bas-carbone (avions, bateaux) ».
Le programme de recherche s’articule autour de trois axes : « développer les briques technologiques des supraconducteurs haute température critique, démontrer leur fiabilité technologique à grande échelle autour d’un démonstrateur d’électro-aimant d’envergure, et explorer les applications de rupture, en particulier les centrales de fusion compactes électrogènes ».
L’Autorité de la concurrence a condamné Apple à une amende de 150 millions d’euros en raison de son dispositif App Tracking Transparency (ATT). Elle considère que cet écran, qui demande à l’utilisateur s’il accepte la collecte de ses données personnelles lors de l’installation d’une application, porte préjudice aux mécaniques de consentement implémentées par les éditeurs tiers dans leurs propres interfaces. Les représentants du monde de la publicité et les éditeurs de services en ligne saluent la décision.
Imposer un consentement supplémentaire aux éditeurs tiers quand un seul suffit au regard de la loi constitue une forme d’abus de position dominante, estime l’Autorité de la concurrence. Dans une décision rendue le 28 mars dernier, elle condamne Apple à 150 millions d’euros, en raison de la mise en œuvre du dispositif App Tracking Transparency (ATT) au sein de son App Store entre avril 2021 et juillet 2023. « L’Autorité adjoint à cette sanction pécuniaire une obligation pour Apple de publication du résumé de la décision sur son site internet pendant une durée de sept jours consécutifs », précise-t-elle encore.
ATT : un consentement préjudiciable aux éditeurs tiers ?
Introduit au printemps 2021 avec iOS 14.5, après avoir été annoncé à l’été 2020, l’App Tracking Transparency est le dispositif par lequel Apple demande à l’utilisateur s’il accepte que son appareil iOS communique son identifiant dédié au ciblage publicitaire (le code IDFA, pour Identifier for Advertisers) à un éditeur tiers.
En pratique, il prend la forme d’un écran de recueil du consentement, qui s’affiche après l’installation d’une application téléchargée sur l’App Store. « Autoriser (l’application) à suivre vos activités dans les apps et sur les sites Web d’autres sociétés ? », demande cet écran. Deux options sont proposées : « Demander à l’app de ne pas me suivre » et « Autoriser ».
Le dispositif avait été attaqué dès 2020, avant même son déploiement effectif, au travers d’une action entamée devant l’Autorité de la concurrence par une coalition d’éditeurs de services en ligne et d’acteurs du monde de la publicité.
Ces derniers dénonçaient alors le caractère asymétrique de l’écran ATT : « il ne s’applique qu’aux situations dans lesquelles un éditeur serait amené à partager des données avec ses fournisseurs de services publicitaires autres qu’Apple. Ce dernier se réservant le droit de détenir, collecter et utiliser les données sans devoir recueillir un consentement supplémentaire pour ses activités publicitaires ».
« Les saisissantes reprochaient principalement à Apple d’imposer aux éditeurs d’applications de manière inéquitable une sollicitation superfétatoire et non conforme au RGPD et ePrivacy, tout en s’affranchissant de ces mêmes restrictions, favorisant ainsi son propre écosystème fermé, ses propres applications et ses services publicitaires », résument lundi les plaignants dans un communiqué commun.
Alliance Digitale, le Syndicat des Régies Internet (SRI), l’Union des entreprises de conseil et d’achat média (Udecam) et le Groupement des éditeurs et services en ligne (Geste) y saluent une « victoire importante », pour un écosystème dont les modèles économiques et les revenus auraient été « gravement affectés par l’ATT ».
L’Autorité de la concurrence n’a pas encore publié le texte intégral de la décision, mais elle en commente la teneur dans un communiqué.
Deux consentements ne valent pas mieux qu’un
Elle y remarque que l’ATT n’est pas nécessaire au regard de la loi dans la mesure où il ne permet pas « le recueil d’un consentement valable au regard du droit applicable tel qu’il résulte, notamment de la loi Informatique et Libertés ».
Dans ce contexte, Apple reste « libre d’édicter des règles de protection des consommateurs supplémentaires à celles imposées par la réglementation », souligne le gendarme de la concurrence. À condition toutefois que cet objectif légitime soit mis en œuvre dans le respect du droit de la concurrence, compte tenu de la position dominante de l’entreprise sur le marché de la distribution d’applications à destination des terminaux iOS.
Or, décrit l’Autorité, les modalités de fonctionnement de l’ATT « compliquent artificiellement le parcours des utilisateurs d’applications tierces et faussent la neutralité du dispositif au détriment des petits éditeurs se finançant par la publicité ».
« En effet, si le refus d’une opération de traçage publicitaire ne doit être effectué qu’une fois, l’acceptation d’une telle opération doit, quant à elle, toujours être confirmée une seconde fois par l’utilisateur », précise encore l’Autorité. Selon elle, cette asymétrie empêcherait « le recueil d’un consentement éclairé que l’ATT est pourtant censé favoriser ». Si l’utilisateur refuse le transfert de ses données au niveau de l’ATT, le consentement obtenu par l’éditeur au niveau de sa propre plateforme de gestion n’aura en effet aucune valeur.
La CNIL suggère une fusion des autorisations
Sollicitée pour avis, la CNIL remarque quant à elle que « la sollicitation ATT pourrait aisément, sous réserve de quelques modifications, servir également à recueillir les consentements requis par la loi française et le RGPD ». Autrement dit, Apple pourrait modifier son dispositif de façon à ne proposer qu’un unique panneau de consentement, valable aussi bien au niveau d’iOS qu’au sein de l’application tierce.
L’Autorité prend par ailleurs en compte dans sa décision l’asymétrie de traitement constatée entre les services publicitaires d’Apple et ceux des éditeurs tiers. Jusqu’à iOS 15, la firme de Cupertino n’utilisait en effet pas l’ATT pour ses propres applications, ce qui lui avait déjà valu une condamnation de la part de la CNIL en janvier 2023.
Si elles saluent la décision, les organisations plaignantes regrettent que l’Autorité de la concurrence n’ait imposé aucune modification du dispositif à Apple. « Par conséquent, si aucun changement n’est apporté dans les prochaines semaines, l’illégalité persiste », affirment-elles, demandant la suspension immédiate d’ATT en attente des modifications nécessaires.
« Bien que nous soyons déçus par la décision d’aujourd’hui, l’Autorité de la concurrence française n’a pas exigé de changements spécifiques à l’App Tracking Transparency », remarque de son côté Apple, dans une réaction reproduite par l’AFP.
Le sujet n’a sans doute pas fini de faire des vagues. Mi-février, l’Autorité de la concurrence allemande a elle aussi estimé dans un avis préliminaire que le dispositif ATT présentait un caractère abusif et anticoncurrentiel. Comme en France, elle avait été saisie par un consortium de médias et d’acteurs de la publicité en ligne.
Des politiques ont surfé sur la vague d’images générées par IA au style très proche de celui de Hayao Miyazaki, utilisé par OpenAI pour faire la promotion de son nouveau modèle. Du RN à Renaissance en passant par LFI, plusieurs s’en sont aussi servi pour leur propre promotion, celle d’autres personnalités de leurs mouvements ou d’actions politiques.
Des personnalités politiques ont diffusé en fin de semaine dernière des portraits d’eux-mêmes ou des illustrations de communication politique surfant sur la vague d’images générées par le modèle 4o Image Generation d’OpenAI. Elles reprenaient le style de Hayao Miyazaki et de ses collègues du studio Ghibli.
L’incarnation de la Protection Civile par une image générée par une IA
Ainsi, Emmanuel Macron a publié samedi soir sur Twitter, un message sur la Protection Civile. Mais, pour illustrer les 32 000 bénévoles qui « veillent, secourent, forment et protègent » et à qui il adresse la phrase « vous incarnez le faire Nation et la Fraternité », le président de la République a préféré illustrer cette « incarnation » par une image générée par IA reprenant un style manga.
Gabriel Attal avec un mouton, Manon Aubry le poing levé ou Marine Le Pen sur le perron de l’Élysée
D’autres personnalités politiques ont, en fin de semaine, publié sur leurs réseaux sociaux des images de ce style : l’ancienne porte-parole du gouvernement et députée Renaissance Prisca Thevenot, et le Secrétaire général du même parti, Gabriel Attal, n’ont pas résisté à l’autopromotion.
Manon Aubry a, elle aussi, publié sur son compte Instagram des images la mettant en scène, dont l’une avec le leader de son mouvement, Jean-Luc Mélenchon. Mais finalement, la députée européenne LFI a peu de temps après supprimé ces images de son compte, alors que des utilisateurs du réseau social critiquaient cette utilisation. Le même week-end, le think tank Institut La Boétie de LFI proposait un colloque intitulé « L’intelligence artificielle, un nouveau champ de batailles ».
Du côté du RN, le député Alexandre Sabatou, qui se présente sur son compte X « pour une IA française et souveraine », a publié mardi 26 sur Twitter une image du même style mettant en scène Marine Le Pen montant les marches du perron de l’Élysée. C’était avant que Marine Le Pen soit condamnée pour détournement de fonds publics à deux ans de prison ferme et cinq ans d’inéligibilité avec application immédiate dans l’affaire des assistants européens du FN.
« Inconséquence des politiques »
Pour la correspondante au Japon de Libération, Karyn Nishimura, cette vague de communication exprime une « étrange inconséquence des politiques français postant des pseudo-images Ghibli générées via OpenAI ». Karyn Nishimura a, elle, bel et bien été l’héroïne du manga « Ivre du Japon », publié par son mari et auteur de mangas J.P. Nishi.
Pour Karyn Nishimura, « la question est éthique plus que juridique ». Elle dénonce le fait qu’OpenAI « ne voit aucun problème moral à entraîner sans vergogne son IA avec des œuvres de renom pour mieux commercialiser sa technique » mais aussi « que des personnalités politiques trahissent leur devoir en adressant aux artistes déjà démoralisés le pire des messages : « On peut se passer de vous, qui plus est avec des outils qui pillent votre travail. » ».
Finalement, après avoir laissé entendre que son entreprise maitrisait très bien la communication autour de cette vague d’images, Sam Altman a encore joué sur le storytelling d’un usage dépassant ses attentes. Après avoir tweeté un message demandant aux utilisateurs de se calmer, il a restreint la génération d’images aux comptes payants de son chatbot. Il a ainsi fait baisser, par la même occasion, la vague d’images au style Ghibli qui aura déferlé sur les réseaux sociaux pendant une semaine.
42 % des répondants à une étude menée par le projet Limites Numériques vivent avec un téléphone dysfonctionnel, le plus souvent à cause de problématiques d’obsolescence logicielle.
En France en 2023, 42 % des gens vivaient avec un smartphone dysfonctionnel, selon un sondage Médiamétrie mené auprès de 1 000 personnes « représentatives d’une population de 50 000 personnes au sein de la population française » pour Télécom Paris, l’Université de Toulouse, De Vinci Research Center et Limites Numériques, un projet qui s’intéresse « aux choix de conception, aux usages et aux fonctions d’un numérique s’inscrivant dans les limites planétaires ».
Dans près de deux cas sur trois, ces dysfonctionnements sont dus aux applications et logiciels installés sur les smartphones.
Constatant que la fabrication est à l’origine de la majeure partie de l’empreinte carbone des terminaux numérique, Limites Numériques s’est penché sur les raisons pour lesquelles nombre d’entre eux étaient remplacés dans les deux ans et demi suivant leur acquisition. En 2023, la designeuse Léa Mosesso contestait en effet, dans un mémoire de recherche, l’hypothèse selon laquelle ces smartphones cessaient brusquement de fonctionner en raison d’une panne unique.
Avec 87 % de détenteurs de smartphone de moins de 3 ans parmi les personnes interrogées, le présent sondage montre que les problèmes logiciels apparaissent tôt. Si 58 % des sondés n’ont rencontré aucun problème, 42 % déclarent donc subir des problématiques logicielles, 34 % des enjeux matériels, et 23 % des problèmes complexes à classer.
Les enjeux de batterie dégradée, de stockage saturé et de lenteur sont en tête des problèmes relayés par les répondants.
Surtout, ces problèmes surgissent tôt : parmi l’intégralité des problématiques relevées, la moitié est apparue dès la première année, près du quart dans la deuxième année. Au-delà de la quatrième année, où environ 50 % des répondants déclarent avoir rencontré au moins un problème de smartphone, la probabilité de subir de nouveaux dysfonctionnements n’évolue quasiment plus, relève encore Limites Numériques.
Des difficultés à réparer
Face à ces désagréments, les sondés semblent relativement désemparés : les propriétaires des smartphones n’ont pas tenté de résoudre 42 % des problèmes relevés. Dans 43 % des cas, ils ont tenté de résoudre leurs difficultés (le type d’enjeux que les usagers tentent le plus de résoudre sont ceux liés au stockage de leurs appareils). Dans plus de la moitié des cas, l’opération s’est soldée par un échec.
Enfin, 15 % des problèmes se sont résolus par eux-mêmes.
Des chiffres qui, en définitive, traduisent la résolution de seulement un tiers des problèmes rencontrés sur les smartphones des personnes interrogées. Parmi les plus complexes à résoudre : tous les enjeux liés à l’écran, à l’affichage et à la dégradation de la batterie.
14,7 % des téléphones remplacés réellement inutilisables
Si 32 % des répondants ayant rencontré au moins un problème qualifient ces désagréments qu’ils rencontrent de « très gênants » et 47 % de « plutôt gênants », beaucoup cohabitent avec. Principales raisons évoquées : vouloir faire durer l’appareil le plus longtemps possible, et des enjeux de coûts (trop élevés pour réparer ou remplacer l’appareil).
Cela dit, l’étude relève une chute marquée de la cohabitation des propriétaires de smartphone avec leur appareil au-delà d’un mois lorsqu’ils ont tenté de résoudre le problème sans y parvenir. Cela « peut signifier qu’une partie des smartphones sont remplacés, et pas réparés », écrivent les auteurs. Lorsque le téléphone finit par être remplacé, indiquent encore les répondants, il n’est totalement inutilisable que dans 14,7 % des cas.
En conclusion de son étude, Limites Numériques formule plusieurs recommandations, parmi lesquelles celle de demander aux fabricants une garantie logicielle de plusieurs années ; celle de produire des applications plus légères pour éviter la saturation du stockage des appareils ; proposer des paramètres permettant de contourner certains dysfonctionnements (comme les écrans en partie cassés), et faciliter maintenance et réparation matérielle et logicielle.
Xiaofeng Wang, un informaticien spécialisé depuis vingt ans dans la cryptographie, la cybersécurité et la protection de la vie privée a disparu des radars.
Ses comptes et téléphones professionnels ont été supprimés par son employeur, l’université de l’Indiana.
L’université a aussi supprimé toutes les informations relatives à sa femme Nianli Ma, qui travaillait comme analyste système principale et programmeuse au département des Library Technologies.
Le FBI s’est par ailleurs rendu à leur domicile le 28 mars, sans que les raisons n’en soient connues, rapporte Ars Technica.
« Nous avons mené des opérations de maintien de l’ordre, autorisées par le tribunal, dans des domiciles de Bloomington et de Carmel, a confirmé une porte-parole du bureau du FBI à Indianapolis, auprès d’une radio locale. Nous n’avons aucun autre commentaire à faire pour le moment. »
Il a par ailleurs signé de nombreux articles de recherche en cryptographie, sécurité des systèmes, protection des données et protection des données génomiques.
Ce week-end, plusieurs des collègues du couple ont déclaré leur inquiétude sur les réseaux sociaux, et leur incompréhension de voir toutes les informations qui leur étaient relatives disparaître du site de leur employeur.
[Mise à jour ] : Exceptionnellement, la rédaction décide de rendre la rubrique hebdomadaire de Flock disponible à tous nos lecteurs, même ceux qui ne sont pas encore abonnés. Au regard de l’actualité concernant Open Ai et le Studio Ghibli et par cette libération de ce contenu, nous voulons rappeler que si l’intelligence artificielle sait copier, elle n’a toujours pas craqué les concepts mis en évidence par Bergson : l’humour artificiel n’est pas encore au goût du jour. Enjoy !
Ah mes chers amis, nous voilà envahis par la connerie et c’est un véritable piège qui se referme sur nous. Si ça peut vous rassurer, c’est un phénomène mondial et personne n’y échappe. Se faire des ennemis à l’autre bout du monde ou à la maison, les lister, montrer les muscles en retour, considérer leur prochain comme de la matière première à business lucratif, d’une façon ou d’une autre, pas besoin de sortir les pincettes : ce n’est plus une épine dans le pied quand on n’a pas le cul sorti des ronces. Pour ça, il faudrait replacer le cerveau au-dessus du bulbe et miser sur la recherche de savoir et sagesse : la cour des comptes nous dira que c’est pas gagné. Allez, on en aura bien profité. Bon weekend !
La fusée Spectrum a décollé hier soir du nord de la Norvège. Elle n’a pas atteint l’espace et a explosé 30 secondes après son décollage. Son fabricant Isar Aerospace et le port spatial d’Andøya parlent d’un « succès ». Le temps est maintenant à l’analyse des données, avant de procéder à de nouveaux essais.
Hier, la société allemande Isar Aerospace faisait décoller pour la première fois sa fusée Spectrum, depuis la base norvégienne de l’île d’Andøya. Elle est située à l’intérieur du cercle polaire, au nord des îles Lofoten, une position idéale pour lancer des satellites sur des orbites polaires ou héliosynchrones.
Une orbite polaire (basse altitude) survole chaque jour la surface complète de la terre. Elle peut être héliosynchrone, les satellites observant alors toujours chaque région du globe à la même heure locale solaire. Pour en savoir plus sur ces deux orbites, vous pouvez lire notre dossier sur Ariane 6.
De son côté, Isar Aerospace, acteur du new space européen, a été sélectionné par l’Agence spatiale européenne dans le cadre du programme Boost!.
Le 14 mars, l’entreprise recevait le feu vert de la Norwegian Civil Aviation Authority (NCAA) pour son premier vol d’essai. Le 17 mars, Isar Aerospace expliquait que « l’objectif de ce premier test du lanceur est de collecter autant de données et d’expérience que possible ». L’entreprise ajoutait que sa fusée avait été « conçue, développée et construite presque entièrement en interne ».
Baptisée « Going Full Spectrum », cette première mission d’Isar Aerospace ne disposait d’aucune charge utile de partenaires. L’espoir d’atteindre l’orbite était assez faible : « Notre objectif est de tester chaque composant et système du lanceur […] Peu importe jusqu’où nous irons avec ce vol d’essai », affirmait Alexandre Dalloneau, vice-président de la société, avant le lancement.
Même son de cloche quelques jours avant le lancement de la part de Daniel Metzler (CEO et co-fondateur d’Isar Aerospace) : « Nous ne nous attendons pas à atteindre l’orbite avec ce test. En réalité, aucune entreprise n’a encore réussi à placer son tout premier lanceur orbital en orbite. SpaceX a eu besoin de quatre tentatives, mais nous voulons aller plus vite », expliquait-il à l’AFP.
30 secondes de vol avant une explosion
Une diffusion officielle et en direct du lancement était au programme. Si la fusée a décollé correctement, elle s’est retournée après seulement 30 secondes de vol avant de venir s’écraser dans l’eau avec une belle explosion à la clé. La base d’Andøya parlait poliment d’un « incident » sur les réseaux sociaux, ajoutant que « la gestion de crise a été activée ».
Andøya s’est ensuite fendu d’un communiqué, depuis retiré mais toujours visible sur Webarchive : « le vol d’essai a été interrompu par le port spatial d’Andøya, conformément à nos procédures de sécurité […] Le lanceur s’est écrasé dans la mer. Personne n’a été blessé et les travaux d’évaluation des dommages environnementaux et matériels sont en cours ». Dans le vocabulaire de SpaceX, on parlerait de Rapid Unscheduled Disassembly (RUD).
« Notre premier vol d’essai a répondu à toutes nos attentes »
« Pour le port spatial d’Andøya et Isar Aerospace, ce vol d’essai a été un succès. Toutes les procédures et tous les systèmes ont été validés, et nous sommes impatients de planifier la prochaine tentative de lancement », ajoutait le communiqué désormais passé dans les oubliettes.
Chez Isar Aerospace aussi, on utilise à plusieurs reprises le mot « succès » pour parler de cette mission : « Le véhicule a quitté avec succès la rampe de lancement, a été arrêté à T+30 secondes et est tombé directement dans la mer de manière contrôlée ». La rampe de lancement du port spatial d’Andøya est « intacte ».
Daniel Metzler, CEO et co-fondateur d’Isar Aerospace se félicite aussi : « Notre premier vol d’essai a répondu à toutes nos attentes et a été un franc succès. Nous avons décollé sans encombre, avons effectué 30 secondes de vol et avons même pu valider notre système de terminaison de vol ». Quelques jours avant le lancement, il expliquait à l’AFP que « trente secondes de vol seraient déjà un vrai succès ».
Bülent Altan, président d’Isar Aerospace et ancien dirigeant de SpaceX, y va aussi de son analyse : « Comme je l’ai déjà expérimenté, il faut normalement quelques tentatives pour atteindre l’orbite, mais après le vol d’essai d’aujourd’hui, je suis très confiant qu’Isar Aerospace sera l’un des plus rapides à le faire ».
Isar Aerospace prévoit jusqu’à 40 lanceurs Spectrum par an
Dans un message sur X, accompagné d’un résumé vidéo de sa première mission, décrit la suite des événements : « Lancer, apprendre, répéter ». On y voit le lanceur décoller puis terminer sa courte vie dans une explosion dans la mer de Norvège.
Forte de son « succès », la société se tourne vers l’avenir : « Les lanceurs pour les deuxième et troisième vols du Spectrum d’Isar Aerospace sont déjà en production ». Elle ajoute que dans son usine de Munich (Allemagne), elle « sera en mesure de produire jusqu’à 40 lanceurs Spectrum par an à l’avenir ».
Le SignalGate a d’heureuses conséquences pour Signal. L’application de messagerie sécurisée a été utilisée par plusieurs membres éminents du gouvernement américain pour discuter d’un plan d’attaque au Yémen. Michael Waltz, conseiller à la sécurité de Donald Trump, a cependant invité par erreur un journaliste dans la conversation. Le contenu de la conversation a été publié par The Atlantic depuis.
Même si la Maison-Blanche minimise depuis l’incident, la bourde reste monumentale. Comme on l’a vu en fin de semaine dernière, l’évènement a beaucoup attiré l’attention sur Signal. Une médiatisation pas toujours bienveillante et qui a poussé la fondation à prendre la parole, pour expliquer comment fonctionne sa plateforme. On a également vu sa présidente, Meredith Whittaker remettre quelques pendules à l’heure dans les comparaisons avec WhatsApp.
À Wired, la fondation a indiqué en fin de semaine dernière que le nombre quotidien de téléchargements avait doublé. Il s’agirait de la plus forte augmentation jamais constatée par Signal en 11 ans d’existence. « Dans l’histoire de Signal, c’est le moment où la croissance aux États-Unis a été la plus forte, et de loin. C’est époustouflant, même pour nous », a ainsi déclaré Jun Harada, responsable croissance et partenaires à la fondation Signal.
Signal ne fournit aucun chiffre précis, mais ajoute que l’explosion a commencé juste après la publication de The Atlantic. Mieux, les chiffres se maintiendraient depuis. Wired cite les chiffres de Sensor Tower, qui vont dans le sens des déclarations de Signal, avec un boum de 105 % des téléchargements d’une semaine sur l’autre, et de 150 % par rapport à une semaine moyenne en 2024. Dans le reste du monde, l’augmentation serait d’environ 21 %.
Dans un communiqué, l’Inserm rappelle que « la mort subite d’origine cardiaque est responsable de plus de 5 millions de décès à travers le monde ». Dans un bon nombre de cas, cela arrive « sans signe précurseur identifiable », parfois sur des individus sans antécédents connu de maladie cardiaque.
C’est là que l’intelligence artificielle entre en jeu : elle « pourrait permettre de mieux anticiper les arythmies, des troubles inexpliqués du rythme du cœur dont les formes les plus sévères peuvent provoquer un arrêt cardiaque fatal ». C’est en tout cas le sens d’une étude entre des chercheurs de l’Inserm et de l’Université Paris Cité et de l’AP-HP, « en collaboration avec des chercheurs américains ».
Ils ont développé un réseau de neurones et l’ont entrainé avec « plusieurs millions d’heures de battements du cœur grâce aux données de 240 000 électrocardiogrammes ambulatoires recueillies dans six pays (États-Unis, France, Royaume-Uni, Afrique du Sud, Inde et République tchèque) ». Les algorithmes ont identifié de « nouveaux signaux faibles annonçant un risque d’arythmie ».
Les premiers résultats sont encourageants : le réseau de neurones « est encore en phase d’évaluation, mais, dans le cadre de cette étude, il a montré qu’il était capable de détecter les patients à risque dans 70 % des cas, et les patients sans risque dans 99,9 % des cas ».
« Jusqu’à présent, nous essayions d’identifier les patients à risque sur le moyen et long terme, mais nous étions incapables de prédire ce qui pouvait se passer dans les minutes, les heures ou les jours précédant un arrêt cardiaque. Aujourd’hui, grâce à l’intelligence artificielle, nous sommes capables de prédire ces événements à très court terme et, potentiellement, d’agir avant qu’il ne soit trop tard », explique Eloi Marijon, directeur de recherche à l’Inserm au sein du laboratoire Paris.
L’Inserm se projette dans le futur : « cet algorithme pourrait servir à surveiller les patients à risque à l’hôpital. À condition d’affiner ses performances, il pourrait aussi être intégré à des dispositifs comme les holters ambulatoires qui mesurent la pression artérielle pour mettre en évidence les risques d’hypertension, voire à des montres connectées ».
L’autorité de protection des données revendique promouvoir « un juste équilibre entre la voie répressive et l’accompagnement ». En ce sens, elle indique qu’elle publiera en 2025 des documents destinés à aider les professionnels dans leur mise en conformité au RGPD concernant notamment l’IA, la santé, le consentement multi terminaux et les pixels espion.
La CNIL l’a déjà dit, elle veut une « innovation responsable » et n’envisage pas son rôle comme une autorité de répression : elle le martèle depuis longtemps, elle veut promouvoir « un juste équilibre entre la voie répressive et l’accompagnement ».
Pour cela, elle crée régulièrement des documents dits « de droit souple » : des référentiels, des recommandations, des lignes directrices, des guides pratiques, etc. Pour 2025, l’autorité annonce concentrer ces contenus « de droit souple » sur quelques thématiques connues à l’avance « pour que les professionnels concernés puissent se préparer aux concertations ou aux consultations à venir », explique-t-elle.
Encore et toujours l’IA
D’abord, et ça n’étonnera que les personnes qui ne se sont pas connectées à Internet depuis trois ans, elle veut poursuivre ses travaux « de clarification afin d’aider les professionnels à concilier innovation et respect des droits des personnes pour un développement innovant et responsable de leurs systèmes d’IA ». Bref, l’autorité va proposer des fiches sur la bonne façon de citer l’intérêt légitime dans les CGU des modèles d’IA pour être en règle avec le RGPD. Elle proposera aussi des fiches sur leur sécurisation et leur annotation.
Elle va aussi publier des conseils concernant le déploiement des IA dans le secteur de l’éducation, du travail et des collectivités locales.
Sous-traitants, assouplir l’utilisation des données de santé et clarification sur l’octroi de crédit
Pour aider les entreprises à faire respecter le RGPD par leurs sous-traitants, l’autorité construit plusieurs référentiels. La CNIL espère que les entreprises s’en saisiront et qu’elle n’aura donc pas à enquêter puis sanctionner ensuite. C’est pourtant un sujet déjà ancien et l’autorité a déjà dû infliger des amendes à des entreprises comme Darty, Infogreffe ou encore Pap.fr pour négligence auprès de leurs sous-traitants. Elle a mis en place une consultation publique sur le sujet qu’elle a clôturée fin février et va maintenant construire la version définitive de son référentiel.
La CNIL veut aussi mettre à jour ses référentiels sur les traitements de données de santé. Alors qu’elle exige actuellement une demande d’autorisation préalable auprès d’elle, l’autorité affirme vouloir modifier son parcours concernant le traitement de ces données en s’appuyant sur la base d’une déclaration de conformité. Elle explique vouloir s’adapter aux demandes des acteurs et aux pratiques professionnelles dans le secteur de la recherche en santé exprimées lors de la consultation publique qu’elle a menée en 2024.
L’autorité planifie aussi de publier un référentiel sur l’octroi de crédit par les banques, alors que celles-ci s’appuient de plus en plus sur des algorithmes utilisant les données de leurs (futurs) clients pour prendre leurs décisions.
Enfin deux référentiels sur la conservation des données sont au planning de cette année pour les activités commerciales et marketing et pour celles des ressources humaines.
Le consentement se fait-il pour tous les terminaux utilisés ?
L’autorité affiche sa volonté de renforcer ses textes de recommandation sur le consentement multi terminaux. En effet, la multiplication des appareils pour chaque utilisateur fait qu’on peut très régulièrement être connecté avec un même compte sur différents appareils. Mais, est-ce qu’en acceptant des conditions sur l’un d’eux (comme le dépôt de cookies), on les accepte sur tous ? Est-ce qu’en me logguant sur mon téléphone personnel, je donne le même consentement qu’en le faisant sur mon ordinateur professionnel ? Questions intéressantes auxquelles l’autorité veut s’atteler.
La CNIL veut aussi profiter de l’année 2025 pour publier un projet de recommandation concernant l’utilisation des pixels dans les courriels « dont l’usage est en forte croissance ». « L’objectif est de préciser les cas dans lesquels le consentement est nécessaire et guider les acteurs sur les modalités de son recueil », indique-t-elle.
Protéger les séniors et se pencher sur les dashcams
Elle veut aussi cibler le champ de l’économie des séniors, marché très « porteur » mais qui demande attention car le public peut être plus vulnérable. « La nature des données traitées et le ciblage en fonction de l’âge, notamment, soulèvent d’importants enjeux en matière de protection des données », affirme l’autorité.
Enfin, la CNIL veut se pencher sur les dashcams, les caméras embarquées dans les véhicules mis en place par certains automobilistes pour constituer des preuves en cas d’accident, lutter contre le vol ou diffuser des images spectaculaires sur les réseaux sociaux. Le « club conformité » mis en place par l’autorité et dédié aux acteurs du véhicule connecté et de la mobilité doit proposer des recommandations sur l’utilisation des ces caméras.
Lancé la semaine dernière, le modèle Gemini 2.5 Pro Experimental représente la dernière offensive de l’éditeur dans le domaine de l’IA générative. Il s’agit d’un modèle de « raisonnement », capable de s’arrêter après chaque étape du processus de réponse pour examiner la précision des informations. Ces modèles sont plus précis et se trompent moins, surtout en mathématiques et en développement, mais ils sont plus longs à répondre.
Les modèles de raisonnement coutant plus cher à faire fonctionner, ils sont souvent réservés aux abonnements payants ou alors mettent du temps à être proposés au grand public gratuitement. Mais – surprise ! – Google a décidé que tout le monde devait avoir son Gemini 2.5 Pro Experimental.
L’annonce a été faite sur X samedi, avec une disponibilité du modèle sur la version web. Hier, Google annoncé que le déploiement avait aussi commencé sur les applications mobiles. L’entreprise n’a fourni aucune date ni fenêtre. Sur nos smartphones, l’application Gemini ne proposait pas encore Gemini 2.5 Pro.
Cela ne signifie pas pour autant que les utilisateurs gratuits peuvent utiliser le nouveau modèle de raisonnement autant qu’ils le souhaitent. L’usage est limité (on ne sait pas exactement dans quelle mesure), l’abonnement Gemini Advanced faisant sauter ces limites, en plus de fournir un contexte d’un million de jetons.
Cette manne financière s’inscrit dans le cadre du programme pour une Europe numérique (DIGITAL) qui s’étend sur les deux prochaines années. Il est « axé sur le déploiement de l’intelligence artificielle (IA) et son adoption par les entreprises et l’administration publique, le cloud et les données, la cyberrésilience et les compétences numériques ».
La Commission donne quelques pistes prioritaires : « améliorer la disponibilité et l’accessibilité des applications d’IA génératives », améliorer « la résilience et la sécurité des infrastructures critiques, y compris les hôpitaux et les câbles sous-marins », développer « les capacités des établissements d’enseignement et de formation de l’UE ».
En creux, évidemment, la question de l’autonomie et de la souveraineté, comme l’explique Henna Virkkunen (vice-présidente exécutive chargée de la souveraineté technologique, de la sécurité et de la démocratie) : « Pour garantir la souveraineté technologique européenne, il faut d’abord investir dans les technologies de pointe et permettre aux citoyens d’améliorer leurs compétences numériques ». Le prochain appel à projets dans le cadre du Digital Europe Programme (DIGITAL) sera lancé en avril.
Suite au rachat de VMware par Broadcom (pour 61 milliards de dollars), les conditions d’utilisation des produits de l’éditeur ont largement évolué, au grand dam des utilisateurs : suppressions de produits, disparition des licences perpétuelles, regroupement, prix des abonnements…
Un nouveau changement a été annoncé par le distributeur Arrow à ses clients, avec une mise en place à partir du 10 avril : le nombre de cœurs minimum pour les licences VMware passe de 16 à 72. Si vous avez une machine avec un seul CPU de huit cœurs, la licence sera la même qu’avec deux bi-CPU de 16 cœurs (72 au total). Le minimum de facturation était auparavant de 16, soit quatre fois moins.
« En parallèle de cette évolution, le message ajoute une autre mauvaise nouvelle, cette fois-ci pour les clients qui n’auraient pas renouvelé leur contrat à la date anniversaire. Ils se verront appliqués des pénalités pouvant représenter 20 % du prix de la première année de souscription et seront appliquées rétroactivement », ajoute le Monde Informatique.
Après la bêta de Fedora 42 la semaine dernière, c’est au tour de Canonical de présenter la préversion de son Ubuntu 25.04, alias Plucky Puffin (macareux moine). Le système, dont la version finale est prévue le 17 avril, comporte une série d’améliorations plus discrètes que sa concurrente, mais dispose quand même de composants très récents.
La nouvelle mouture d’Ubuntu sera bientôt disponible, même si elle ne concernera qu’une partie du parc installé. Il ne s’agit en effet pas d’une version LTS (Long Term Support). Par défaut, les personnes utilisant Ubuntu 24.04 LTS resteront donc sur cette plateforme. Seuls les utilisateurs ayant choisi de rester sur le cycle semestriel recevront la mise à jour.
Contrairement à Fedora qui sert de laboratoire à Red Hat, les nouveautés des Ubuntu sont souvent plus discrètes. Dans le cas de la prochaine 25.04 cependant, les composants fournis sont les derniers (dans l’immense majorité des cas), y compris pour le noyau Linux.
Des composants très récents
Cette bêta intègre les dernières briques disponibles, y compris le très récent noyau Linux 6.14. Publié il y a quelques jours, il comporte des améliorations majeures. Par exemple, le pilote NTSYNC simulant les primitives de synchronisation du noyau Windows est terminé, avec des gains de performances dans certains jeux. Le pilote AMDXDNA permet quant à lui l’exploitation du NPU des processeurs Ryzen AI. Citons également une suspension et une reprise plus rapides pour certains systèmes, des opérations cryptographiques plus rapides pour AES-GCM et AES-XTS sur les processeurs AMD modernes ou encore une avancée pour la prise en charge des pilotes écrits en Rust.
Sans surprise, l’édition principale d’Ubuntu est fournie avec GNOME 48. Nous n’allons pas refaire toute la liste des apports. Rappelons simplement que cette version présente une nouvelle police par défaut, de nombreuses mises à jour pour les applications internes, une nouvelle liseuse de documents (Papers, qui remplace Evince), un meilleur support de Temps d’écran à travers tout l’environnement, ou encore le regroupement des notifications selon la source.
Côté composants système, on peut citer l’intégration de systemd 257.4, Mesa 25.0.x, PipeWire 1.2.7, BlueZ 5.79, Gstreamer 1.26, Power Profiles Daemon 0.30, OpenSSL 3.4.1 et GnuTLS 3.8.9. Pour le développement, on pourra compter sur Python 3.13.2, GCC 14.2 (malgré la disponibilité de GCC 15, déjà présent dans Fedora 42), glib 2.41, binutils 2.44, Java 24 GA, Go 1.24, Rust 1.84 (par défaut, plus ancien disponible), LLVM 20 et .Net 9.
Pour ce qui est des applications, on retrouve la « bande » habituelle : Firefox 136, Thunderbird 128, GIMP 3.0 (fraichement sorti), LibreOffice 25.2.2, VLC 3.0.21, Blender 4.3.2 (mais pas la 4.4) ou encore Audacity 3.7.3.
Quelques changements sous le capot
Les nouvelles versions d’Ubuntu ont beau être discrètes sur les changements visibles, elles comportent souvent une longue liste d’améliorations ou modifications internes. On commence avec un cas pratique : le service de géolocalisation. Ubuntu a longtemps utilisé celui fourni par Mozilla. La fondation a cependant annoncé son arrêt il y a un plus d’un an, pour laisser le temps de trouver des solutions alternatives. Dans le cas d’Ubuntu, il s’agit de BeaconDB, toujours expérimental. Il est utilisé pour la détection du fuseau horaire, la météo et la fonction Lumière nocturne.
Ubuntu 25.04 prend également en charge le Dynamic Boost de NVIDIA, activé par défaut pour les machines compatibles. Cette fonction est responsable de l’allocation dynamique des calculs au CPU ou au GPU en fonction des besoins. C’est elle qui permet notamment cette bascule vers le GPU lorsqu’un jeu est détecté. La fonction existe depuis un certain temps sur Linux, mais n’avait pas encore été intégrée dans Ubuntu. C’est désormais le cas, via le service nvidia-powerd (automatiquement désactivé sur les configurations non compatibles).
On reste dans la partie graphique avec le support « officiel » du HDR. Les guillemets sont de rigueur, car si le réglage est disponible, il n’est pas activé par défaut. Il n’apparait d’ailleurs dans Paramètres > Affichage que si un écran compatible est détecté. En outre, il s’agit d’un travail en cours, qui ne fonctionnera pas toujours et qui – pour l’instant – coupe malheureusement les raccourcis clavier pour modifier la luminosité de l’écran.
On note aussi la dernière révision de NetworkManager (1.52) avec plusieurs ajouts notables. Par exemple, le support de DNS over TLS (DoT), le support des configurations Oracle Cloud et d’ethtool FEC, ou encore la possibilité de prioriser IPv6 lorsque possible. Puisque l’on parle de réseau, signalons le support de wpa-psk-sha256 pour les connexions Wi-Fi, la possibilité de configurer une politique de routage, ou encore celle d’attendre que des serveurs DNS soient configurés (et joignables) pour considérer qu’une interface est effectivement en ligne.
Des améliorations dans l’installeur
Sans partir sur une base totalement neuve comme dans Fedora 42, l’installeur d’Ubuntu 25.04 comporte plusieurs améliorations sympathiques. Il est notamment capable de détecter les installations existantes d’Ubuntu. Il ne propose pas de mettre à jour par ce biais, mais on peut choisir d’installer Plucky Puffin aux côtés du système actuel, sans y toucher, tant qu’il y a suffisamment d’espace disponible non partitionné.
Cette détection améliorée s’étend aux systèmes Windows en place et prend donc mieux en charge le dual boot, y compris quand la partition Windows est chiffrée via BitLocker. Dans ce cas, Ubuntu peut être installée sans « casser » le boot, là encore à condition qu’il y ait suffisamment d’espace disque non partitionné.
Le support des configurations ARM64 fait également un bond, grâce justement à des améliorations dans l’installeur. La préversion du système prend ainsi en charge l’ensemble des configurations Windows on ARM à base de puces SnapDragon, y compris les PC Copilot+ intégrant des SnapDragon X. Attention cependant, cette version nécessite encore du travail et est fournie surtout pour rendre compte de l’avancée des travaux. En outre, la logithèque est nettement moins fournie.
Petits ajouts et téléchargement
Comme toujours, on trouve un peu partout de petites améliorations, mais qui ont parfois un impact important. Par exemple, le paquet xdg-terminal-exec est installé par défaut. Conséquence ? On peut désormais appeler le terminal par le raccourci clavier Ctrl + Alt + T. D’ailleurs, les nouvelles fenêtres s’ouvrent maintenant au centre de l’écran.
On note aussi une série de nouvelles icônes pour des applications comme Logiciels et EarTag. Puisque l’on parle d’icônes, Ubuntu 25.04 corrige un petit problème apparu avec la version précédente du système, où certaines applications avaient une icône légèrement plus grande que d’autres. Plucky Puffin a bien sûr un nouveau fond d’écran mettant en avant le macareux.
Les personnes intéressées par des tests (notamment pour vérifier la compatibilité des applications) ont trois semaines avant que la version finale soit proposée en téléchargement. Dans la foulée, toutes les installations ayant actuellement Ubuntu 24.10 recevront la mise à jour.
Elon Musk (patron de X) revend le réseau social X à xAI (dont le patron est Elon Musk). Il fusionne les deux sociétés pour « accélérer activement le progrès humain ».
C’est évidemment sur le réseau social que l’annonce a été faite : « xAI a acquis X dans le cadre d’une transaction entièrement en actions. Cette opération valorise xAI à 80 milliards de dollars et X à 33 milliards de dollars (45 milliards de dollars moins 12 milliards de dollars de dette) ». On pourrait presque parler de transaction interne puisque xAI est la société d’intelligence artificielle créée par Elon Musk en 2023 et dont il est le patron.
1 milliard de dollars de plus qu’au rachat de Twitter par Elon Musk
Le calendrier et le montant de la transaction ne doivent certainement rien au hasard : X est revenu récemment à son niveau de capitalisation au moment du rachat par Elon Musk. En accord avec lui-même, il a donc décidé de vendre le réseau social pour 45 milliards de dollars (dette comprise). La valorisation du réseau social est ainsi de 33 milliards de dollars une fois les 12 milliards de dollars de dette enlevés.
Linda Yaccarino, CEO de X, s’est fendue d’un court message pour saluer cette fusion : « L’avenir ne pourrait pas être plus radieux ». Elon Musk de son côté termine par : « cela nous permettra de construire une plateforme qui ne se contente pas de refléter le monde, mais qui accélère activement le progrès humain ».
X et xAI fusionnent pour le meilleur et pour… ?
« L’avenir de xAI et de X sont étroitement liés. Aujourd’hui, nous prenons officiellement l’initiative de combiner données, modèles, calcul, distribution et talents. Cette fusion libérera un immense potentiel en alliant les capacités et l’expertise avancées de xAI en IA à la portée considérable de X », précise Elon Musk.
Il revendique au passage « plus de 600 millions d’utilisateurs actifs », mais sans préciser la fréquence à laquelle ils sont présents (par jour, semaine, mois ?)
xAI propose un modèle de langage que l’on pourrait qualifier de « rebelle » – c’est-à-dire sans les garde-fous habituels. Il était d’ailleurs au cœur de la polémique d’un portrait de Cyril Hanouna réalisé via Grok. Nous avions pour rappel testé d’autres IA génératives qui avaient refusé de générer des portraits d’autres personnalités.
« Une partie de la croissance est stimulée par la peur »
Depuis le rachat de Twitter, Elon Musk a rebaptisé le réseau social X et l’a profondément remanié, notamment sur les règles de modération en misant sur les Community Notes. Le Monde explique qu’il a « autorisé les propos haineux et la désinformation au nom de la liberté d’expression, faisant fuir une partie des marques inquiètes du contexte dans lequel leurs messages apparaissent ». La capitalisation de X était alors en baisse.
Depuis le retour de Donald Trump au pouvoir avec les coudées franches d’Elon Musk à la tête du DOGE (qui licencie à tour de bras des fonctionnaires américains), les publicitaires sont de retour, mais c’est un peu le « salaire de la peur » selon certains analystes, dont Jasmine Enberg :
« Une partie de la croissance est stimulée par la peur. De nombreux annonceurs considèrent désormais les dépenses pour X comme un « coût pour faire des affaires » et éviter d’éventuelles représailles juridiques ou financières, en partie à cause des liens de Musk avec l’administration Trump ».
On serait ainsi passé de l’inacceptable à l’inévitable, selon l’analyste. Elle ajoute que ce ne serait pas le seul vecteur de croissance de l’entreprise. X aurait aussi « réussi à s’assurer une nouvelle base d’annonceurs, notamment des PME », alors que c’était une cible compliquée pour Twitter.
Une fuite de données montre qu’un système entraîné sur 133 000 exemples de messages étiquetés renforce le système de censure chinois, lui permettant d’aller bien au-delà d’une censure des principaux filtres mis en place au fil des années.
Le régime chinois censure depuis longtemps l’accès à Internet de toute personne se trouvant sur son territoire. Encore récemment, on apprenait que Facebook aurait créé un outil de censure pour pouvoir entrer dans ce marché, ou encore que des chercheurs chinois se servaient de Llama pour des usages militaires. Les modèles de langage peuvent aussi permettre au pays dirigé par Xi Jinping d’aller encore plus loin dans la surveillance des communications.
Un serveur non sécurisé
Sur Substack, une personne sous le pseudonyme de NetAskari expliquait en janvier avoir récupéré un jeu de données « fascinant » d’une taille d’environ 300 Go de fichiers JSON. Ceux-ci provenaient d’une base de données Elasticsearch stockée sur un serveur Baidu non sécurisé, précise TechCrunch qui a pu avoir accès aux fichiers. Le média américain ajoute que cela ne prouve pas l’implication de Baidu dans le projet, puisque la base peut provenir de n’importe quel client de l’entreprise.
« Chaque fichier comprend un prompt de classification ainsi qu’une chaîne de contenu correspondante, que j’appellerai la « cible de contenu ». L’entrée la plus récente de cette base de données est datée de décembre 2024 », ajoutait NetAskari.
Nos confrères expliquent que celle-ci « révèle que la Chine a mis au point un système d’intelligence artificielle qui renforce sa machine de censure déjà redoutable, allant bien au-delà des tabous traditionnels comme le massacre de la place Tian’anmen ».
133 000 exemples pour entrainer la censure
L’un de ces fichiers contient un prompt avec la définition d’un rôle du LLM lui donnant comme instruction : « en tant qu’analyste méticuleux des données d’opinion publique, tu dois analyser de manière exhaustive le contenu des articles et déterminer la catégorie à laquelle ils appartiennent. L’objectif final est de filtrer l’information pour le travail sur l’opinion publique, les informations importantes étant classées en trois catégories principales : « Dynamique sociale », « Dynamique politique » et « Dynamique militaire » ».
Ces catégories sont définies comme relatives à l’opinion publique et classées en priorités les plus hautes. D’autres catégories sont ensuite définies.
Il est accompagné par une collection de 133 000 exemples de contenus à trier. TechCrunch a publié un extrait de 10 que le média considère comme représentatif. On peut y voir un message déplorant la pauvreté rurale en Chine, un autre de la corruption systémique de la police, un autre soulignant la sévérité des restrictions militaires dans les mers de Chine orientale et méridionale, ou encore la volonté de la Chine d’intercepter les navires revendiquant la « liberté de navigation » dans le détroit de Taïwan.
« Les « contenus cibles » englobent un large éventail de sujets, y compris des titres d’actualité, des commentaires de type médias sociaux, des déclarations gouvernementales et des articles sur les voyages et les loisirs », précise NetAskari.
Peu d’informations ont été trouvées sur les origines de cette base de données. Mais le « travail sur l’opinion publique » fait référence à la propagande et à la censure et est supervisé par l’Administration du cyberespace de Chine, explique à TechCrunch le responsable du programme Asie de l’organisation de défense des droits Article 19, Michael Caster.
« Nous, les humains, perdons la foi en nous-mêmes »
Une vague d’images générées par IA au style très proches de celui de Hayao Miyazaki, ayant pourtant clairement exprimé son aversion pour l’intelligence artificielle dans la création artistique, a déferlé sur les réseaux sociaux ces derniers jours. En cause, la sortie du modèle 4o Image Generation d’OpenAI qui permet de créer facilement ce genre d’images. Le CEO de l’entreprise Sam Altman en joue sur les réseaux sociaux et s’enorgueillit d’avoir bien choisi les exemples initiaux pour présenter le modèle.
OpenAI a mis un coup de fouet à sa génération d’images en rendant GPT-4o multimodal. Celui-ci peut donc créer des images à la volée, comme beaucoup de ceux de ses concurrents, dont Grok qui est très utilisé pour ça, puisqu’il n’a aucun garde-fou.
Pour lancer la promo et l’utilisation massive de son nouveau générateur, le CEO d’OpenAI, Sam Altman a, entre autres, twitté une image au style manga le représentant, posant avec deux de ses collègues comme des start-upeurs heureux de présenter leur nouveau projet :
On peut remarquer que la main de Gabriel Goh, au centre de l’image, est composée de quatre doigts seulement et celle de Sam Altman de six.
Depuis, de nombreuses personnes ont essayé la nouvelle fonctionnalité du modèle, devenu le générateur d’image par défaut dans ChatGPT pour les utilisateurs gratuits. Ils ont notamment essaimé les réseaux sociaux d’innombrables images dans le style du Studio Ghibli et de son co-créateur Hayao Miyazaki. Certains reproduisant des mèmes, d’autres des scènes iconiques de la culture populaire :
Storytelling bien ficelé
Surfant sur cette vague, le CEO d’OpenAI a repris la balle au bond. Il a rajouté une couche de storytelling en se peignant, dans un tweet, en ingénieur incompris qui, depuis une décennie, essaye « d’aider à créer une superintelligence pour guérir le cancer ou ce genre de chose » dont presque personne se soucie pendant des années puis qui est détesté par tout le monde « pour n’importe quoi », et qui se réveille un jour avec des centaines de messages lui montrant ce genre d’images utilisant le style du studio d’animation. L’homme d’affaires a même généré son propre avatar dans le style de Ghibli.
Miyazaki, connu pour son opposition à l’utilisation de l’IA dans l’animation
Si Sam Altman est autant fan du Studio Ghibli, il doit connaitre l’extrait du documentaire dans lequel Hayao Miyazaki exprime son opposition à l’utilisation d’une IA (non générative) pour faire de l’animation de modèles en 3D :
Le réalisateur s’exprimait sur les résultats d’une expérimentation particulière qui lui était montrée en la qualifiant d’ « insulte à la vie elle-même », mais il en concluait néanmoins de façon plus générale : « J’ai l’impression que nous approchons de la fin des temps. Nous, les humains, perdons la foi en nous-mêmes ». Le studio et le réalisateur n’ont, semble-t-il, pas encore réagi à cette vague de reproduction de leur style.
OpenAI assume ouvrir les vannes de la reproduction des styles de studio
À la réaction d’un utilisateur de X affirmant « honnêtement, openai est incroyablement chanceux que les vibrations positives de ghibli aient été la première utilisation virale de leur modèle et non une horrible absurdité deepfake », Sam Altman a laissé entendre que son entreprise maitrisait très bien la communication autour de cette vague de générations d’images reprenant le style du Studio Ghibli :
« Croyez-le ou non, nous réfléchissons beaucoup aux premiers exemples que nous montrons lorsque nous introduisons une nouvelle technologie ».
« Notre objectif est de donner aux utilisateurs autant de liberté créative que possible », a répondu OpenAI interrogé par 404 Media, ajoutant « Nous continuons à empêcher les générations dans le style des artistes vivants, mais nous autorisons des styles de studio plus larges que les gens ont utilisés pour générer et partager des créations originales de fans vraiment délicieuses et inspirées. Nous apprenons toujours de l’utilisation réelle et des commentaires, et nous continuerons à affiner nos politiques au fur et à mesure ». Et, en effet, les générations qui circulent ne mentionnent pas d’auteur mais bien le « style Ghibli ».
Rappelons qu’OpenAI n’en est pas à son premier coup concernant la reproduction de contenus de la culture populaire sans le consentement des artistes pour faire la promotion de son modèle GPT4-o : en mai 2024, l’entreprise avait utilisé une voix proche de celle de Scarlett Johansson qui avait interprété la voix de l’IA dans le film « Her ».
D’autres outils d’IA générative génèrent aussi des images d’œuvres protégées. En janvier 2024, Midjourney recrachait, entre autres, des images Pixar et parfois même sans qu’on le lui demande. L’artiste C215 expliquait que la copie, l’imitation, le plagiat, « c’est un débat vieux comme l’antiquité, dans le monde artistique ».
L’avocat Matthieu Quiniou affirmait : « si, en sortie, le résultat est reconnaissable, quand on fait « à la manière de » sans avoir demandé les droits à l’auteur, on produit de la contrefaçon ».
Pas Sage en Seine 2025 n’aura pas lieu. « Nous sommes contraint d’annuler le festival PSES 2025 », a signalé ce jeudi l’organisation de l’événement sur ses réseaux sociaux.
« Pour des raisons exceptionnelles, le festival PSES 2025 ne se tiendra pas. Et ne se tiendra très certainement plus », commente-t-elle plus en détails, en introduction d’un long billet (non signé) dédié à l’explication de cet arrêt.
« Depuis 2017, le festival, et certains de ses organisateurs, sont la cible de campagnes de diffamation et de calomnie, dans le cadre ou non du festival, allant jusqu’à du harcèlement et des menaces de morts », écrit l’organisation, avant d’évoquer un regain de harcèlement survenu en 2023, puis une campagne de doxing (divulgation d’informations personnelles) survenue en début d’année à l’encontre d’un de ses membres.
« Le festival avait déjà du mal à reprendre après deux ans d’arrêt dus au COVID. Les derniers événements risquent d’être le clou de son cercueil. »
Le 18 mars dernier, Pas Sage en Seine indiquait son intention d’organiser l’événement sur deux jours, contre trois prévus initialement, faute d’un volume suffisant de conférences.
Initié en 2009 dans le Sentier « pour discuter bricole et bidouille dans une ambiance hackerspace », avant de s’ouvrir plus largement au grand public et de prendre ses quartiers annuels dans l’Est de la région parisienne, à Choisy-le-Roi, PSES explorait, chaque année, les questions de société et démocratie numérique, avec la culture hacker, l’informatique et une vision libertaire comme fil rouge.
« Tu défends une cause, quelle qu’elle soit ? Humanitaire, immigration, toxico, travail du sexe, hôpital, éducation, prison… On a envie d’entendre un peu ce que les autres préfèrent souvent taire ! », résumait par exemple l’appel à contributions 2019.
Les vidéos de ses précédentes conférences sont consultables sur son instance Peertube.
iOS 18 a introduit la possibilité de déclarer des applications par défaut pour un plus grand nombre de catégories, notamment pour les appels et les messages. Comme le fait remarquer iGen, bien que cette ouverture ait initialement été faite pour satisfaire l’Europe, elle s’est répandue dans les autres marchés.
On aurait pu penser que les plateformes de messageries allaient sauter sur l’occasion, mais WhatsApp semble être la première. La dernière mise à jour de l’application permet en effet de la déclarer par défaut pour les appels et les messages. Il suffit de se rendre dans les réglages de l’iPhone ou de l’iPad, d’aller tout en bas sur « Apps », puis d’ouvrir « Apps par défaut ».
Malgré la présence d’autres messageries sur l’un de nos appareils, comme Signal et Telegram, WhatsApp semble seule à pouvoir être déclarée par défaut sur ces deux usages. À noter que Zoom peut être utilisée pour les appels.
Que change concrètement ce choix ? Surtout les possibilités affichées en premier dans les fiches contact de l’appareil, quand on appuie sur le bouton Message, Appel ou Vidéo. L’application par défaut y apparait en premier, les autres possibilités étant rangées dans un sous-menu.
Ubisoft se prépare à créer une filiale chargée du développement de ses principales licences, à commencer par la série des Assassin’s Creed. La nouvelle entité, sous contrôle de l’éditeur français, est financée à hauteur de 1,16 milliard d’euros par le géant chinois Tencent.
Diviser pour mieux optimiser ? Engagée depuis plusieurs semaines dans la mise au point d’un plan de restructuration, la famille Guillemot, actionnaire principal d’Ubisoft, en a finalement dévoilé jeudi les grandes lignes.
La manœuvre associe étroitement le destin de l’éditeur français au groupe chinois Tencent, qui va injecter 1,16 milliard d’euros dans une nouvelle filiale d’Ubisoft (sans nom officiel à ce stade). Cette dernière regroupera l’ensemble des équipes et des studios chargés du développement de trois des principales licences de l’éditeur : Assassin’s Creed, Far Cry, et Tom Clancy’s Rainbow Six.
Des liens renforcés avec Tencent
« Avec la création d’une filiale dédiée, qui pilotera le développement de trois de nos plus grandes licences, et l’intégration de Tencent comme actionnaire minoritaire, nous valorisons nos actifs, consolidons notre bilan et créons les conditions optimales pour la croissance à long terme et le succès de ces licences », déclare Yves Guillemot, cofondateur et CEO d’Ubisoft, dans un communiqué (PDF).
L’opération se fait sur la base d’une valorisation estimée à 4 milliards d’euros, indique l’entreprise, ce qui signifie que Tencent détiendra environ 25 % de la filiale à venir. Elle représente une prime significative par rapport au cours actuel d’Ubisoft en bourse. L’entreprise, dont le flottant représente pour mémoire 70 % du capital, a terminé la journée de jeudi sur un cours de 12,92 euros, soit une capitalisation boursière totale de l’ordre de 1,97 milliard d’euros.
Ubisoft garde le contrôle
La nouvelle filiale sera créée et détenue à 100 % par Ubisoft avant l’entrée de Tencent au capital, précise l’éditeur, dont le conseil d’administration a gravé dans le marbre les modalités de contrôle, au moins pour les premières années. L’accord passé avec le géant chinois des jeux mobiles prévoit ainsi que Tencent conserve ses parts pendant cinq ans, à moins qu’Ubisoft ne perde la majorité, et ne dispose que d’un droit de véto au niveau du conseil d’administration. L’éditeur français s’engage de son côté à ne pas céder la majorité pendant deux ans.
Au-delà des aspects financiers, la nouvelle entité, dont le siège sera situé en France, devrait disposer d’une autonomie opérationnelle vis-à-vis de sa maison mère, avec sa propre équipe dirigeante, et la capacité à réaliser ses propres décisions en matière de développement, de marketing et de distribution. Pour développer ses trois licences phares, elle s’appuiera sur les studios Ubisoft de Montréal, Québec, Sherbrooke, Saguenay, Barcelone et Sofia.
Ubisoft conserve Ghost Recon, The Division et ses marques historiques
« Vous êtes + de 3 millions sur Assassin’s Creed Shadows », s’est félicité jeudi soir Ubisoft, selon qui le nouvel épisode enregistre le deuxième meilleur démarrage (ventes au premier jour) de la série. Si cette marque emblématique est transférée à la future filiale, que reste-t-il à la maison mère ?
« Ubisoft se concentrera sur le développement de franchises emblématiques, notamment Tom Clancy’s Ghost Recon et The Division, en accélérant la croissance de ses titres les plus performants et en tirant parti des technologies disruptives sur de nouvelles licences, tout en continuant à proposer des moteurs de jeu et des services en ligne de pointe », répond l’éditeur.
Malmené en bourse depuis l’été 2024 suite à plusieurs échecs commerciaux, Ubisoft a également connu à l’automne d’importantes tensions sociales sur fond de fin programmée du télétravail. Ce contexte avait amené l’éditeur à annoncer, début janvier, l’étude de ses différentes options stratégiques sur le plan capitalistique. L’entreprise a dans le même temps engagé un programme de restructuration qui doit lui permettre de réduire sa base de coûts fixes de 200 millions d’euros « d’ici l’exercice 2025 – 26 par rapport à l’exercice 2022 – 23 ».
L’éditeur n’a jamais vraiment communiqué de manière claire sur l’ensemble des nouveautés prévues dans son système. Comme le signale Neowin, il aura fallu attendre la quatrième année de Windows 11 pour que Microsoft fournisse une « roadmap » à son produit.
Sur une page dédiée, on peut constater 26 éléments référencés, accompagnés d’un descriptif, de leur statut et de la date prévue pour leur disponibilité en version finale. On peut d’ailleurs voir que l’élément en tête de liste, Recall, est considéré comme disponible en préversion depuis novembre dernier, mais sans date de déploiement prévue.
Quitte à arriver bien tard avec cette roadmap, Microsoft a quand même fait les choses correctement. La liste peut ainsi être triée selon plusieurs facteurs, on dispose d’un champ de recherche et de nombreux éléments ont un lien vers un billet de blog dédié et détaillé sur la fonction.
La liste permet ainsi d’avoir une vue de synthèse sur ce qui est prévu dans le système au cours des prochains mois. « Improved Windows Search », par exemple, fait référence à une nouvelle recherche intégrée, basée sur l’indexation sémantique et réservée aux PC Copilot+. Son déploiement vient de commencer.
On peut également voir qu’une mise à jour importante arrivera le mois prochain. On y trouvera plusieurs nouveautés intéressantes, comme la navigation du clavier logiciel à la manette de jeu, un calcul plus fiable du taux d’occupation CPU dans le gestionnaire des tâches, la possibilité de supprimer l’historique de géolocalisation, plusieurs améliorations pour l’accessibilité (dont Voice Access), ou encore la possibilité de choisir et personnaliser des widgets à épingler sur l’écran verrouillé. Notez que les ajouts prévus pour le mois prochain sont en cours de test sur la branche Release Preview.
Pour l’instant, la liste renseigne surtout sur les plus gros ajouts prévus à court terme. Si on descend, Microsoft affiche aussi ceux réalisés au cours des quelques derniers mois. On espère que l’entreprise tiendra correctement à jour cette page.
La Chine reste la principale cybermenace pour les États-Unis, estiment les services de renseignement du pays, en pleine tempête relative à la publication d’informations hautement confidentielles dans une boucle Signal.
La Chine reste la plus grande menace cyber pour les États-Unis, selon le rapport d’ « évaluation annuelle des menaces » des renseignements états-uniens publié en amont de l’audition de leur directrice Tulsi Gabbard devant le Sénat du pays.
Le document précise que la Chine progresse de manière « régulière mais inégale » dans la constitution des capacités qui pourraient lui permettre de s’emparer de Taïwan, mais aussi que la Chine est en mesure de s’en prendre aux États-Unis tant avec des armes conventionnelles qu’en recourant à des cyberattaques pour détruire ses infrastructures.
Le pays, indiquent les services de renseignement, « est l’acteur le plus à même de menacer les intérêts des États-Unis au niveau mondial », quand bien même il se présente comme plus « prudent » que d’autres pays étudiés dans le rapport (dont la Russie, l’Iran ou la Corée du Nord).
Il souligne aussi la volonté de Pékin de devenir leader dans l’intelligence artificielle, devant les États-Unis, d’ici 2030. Du côté de ces technologies, les renseignements soulignent d’ailleurs la forte probabilité que l’armée de libération chinoise recoure à de grands modèles de langages pour créer de fausses informations, imiter des personnalités réelles ou en créer de toutes pièces afin de faciliter la création de réseaux d’attaques.
Le pays est par ailleurs en train de déployer « des moyens avancés tels que des missiles hypersoniques, des aéronefs furtifs, des sous-marins avancés, du matériel de guerre informatique et un arsenal croissant d’armes nucléaires ».
Sur le plan cyber, les conclusions du rapport des services de renseignement états-uniens sont relativement cohérentes avec les éléments relevés par l’ANSSI dans son panorama de la menace 2024. L’autorité française place cela dit la Chine aux côtés de la Russie, et de l’écosystème cybercriminel, dans son classement des « principales menaces tant pour les systèmes d’information les plus critiques que pour l’écosystème national de manière systémique ».
La fuite des plans d’attaque états-uniens, risque à part entière
Les conclusions du document ont été délivrées au Sénat des États-Unis, en pleine crise relative à l’intégration semble-t-il erronée d’un journaliste de The Atlantic à une boucle de discussion ultrasensible créée sur Signal.
Un accès à des informations aussi sensibles que les plans d’attaque états-uniens serait, évidemment, un avantage de taille pour des (cyber)attaquants du pays. En conséquence, des sénateurs démocrates se sont inquiétés qu’une telle faille de sécurité avait de quoi motiver la Chine et la Russie à redoubler d’efforts pour recruter des agents au sein de l’administration états-unienne, et notamment des équipes en charge du renseignement.
Une inquiétude d’autant plus justifiée que le chercheur de la Foundation for Defense of Democracies Max Lesser et Reuters viennent d’identifier un réseau de fausses agences de conseils et faux cabinets de recrutement tentant d’embaucher les employés de l’administration états-unienne récemment licenciés. D’après Max Lesser, le mode opératoire suit des techniques « bien établies » utilisées dans de précédentes opérations de renseignement chinoises.
L’édition Classic de World of Warcraft dispose d’un mode Hardcore. Son principe, comme dans d’autres jeux contenant ce genre de mode, est aussi simple que radical : si votre personnage meurt, c’est pour de bon. En temps normal, tout joueur peut être ressuscité, avec une petite « perte de temps » à la clé.
La règle du mode Hardcore s’accompagne d’un corolaire chez Blizzard : il n’y a aucune exception. Que vous soyez mort(e) au cours d’un raid, à cause d’une chute ou simplement d’une déconnexion, il n’y a aucun moyen de contestation. Plus exactement, vous pouvez contester, mais Blizzard ne fera rien. Aucune exception n’a été faite depuis que le mode existe.
Jusqu’à maintenant, et pour des raisons très spécifiques. World of Warcraft, au même titre que nombre de plateformes en ligne, subit régulièrement des attaques distribuées par déni de service (DDoS). Il semble que certaines de ces attaques aient visé tout particulièrement la guilde OnlyFangs (on appréciera le jeu de mots), comme le rapporte Ars Technica.
Ainsi, au cours des dernières semaines, une partie de la guilde a vu ses personnages mourir pour cause d’inaccessibilité soudaine des serveurs, entrainée par ces attaques. Or, les membres de la guilde ont commencé à s’interroger : les attaques DDoS semblaient calquées sur leur planning de raid, quand ils se réunissaient en groupe pour s’attaquer à du contenu haut niveau (le Repaire de l’Aile Noire).
La situation a empiré, jusqu’à ce qu’un membre important de la guilde finisse par publier un message dans Discord annonçant la fin probable de l’aventure. Il indique ne plus se sentir à l’aise avec l’investissement demandé, « juste pour faire un raid avec l’anxiété et probablement la réalité d’être à nouveau DDOSé et de mourir ».
Or, il y a deux jours, Blizzard a réagi. Dans un message publié dans les forums, l’éditeur évoque des « attaques DDoS sans précédent » et annonce que la règle absolue sur les morts en mode Hardcore est amendée. « Contrairement aux nombreuses autres façons dont les personnages peuvent mourir dans Hardcore, les attaques DDoS sont le fruit d’efforts malveillants de la part d’acteurs tiers, et nous pensons que la gravité et les résultats des attaques DDoS justifient une réponse différente », indique l’entreprise.
« À l’avenir, Blizzard pourra choisir – à notre seule discrétion – de faire revivre les personnages Hardcore qui périssent lors d’un événement de masse que nous jugeons incompatible avec l’intégrité du jeu, tel qu’une attaque DDoS », a donc décidé Blizzard. À noter que le message concerne manifestement l’ensemble des joueurs et joueuses affectés, et pas spécifiquement la guilde OnlyFangs.
Signal traverse une drôle de période. La messagerie sécurisée, mise en lumière par la récente gaffe du gouvernement Trump, bénéficie d’une attention pas toujours bénéfique. Parallèlement, la présidente de la fondation signal, Meredith Whittaker, affronte le directeur de WhatsApp sur les écarts entre les deux messageries.
Les derniers jours ont vu une attention renouvelée sur la messagerie sécurisée Signal. Le terme « Signal » désigne aussi bien la messagerie que le protocole utilisé. Celui-ci est connu depuis longtemps pour son chiffrement de bout en bout, qui garantit qu’une conversation n’est connue que de l’expéditeur et ses destinataires. Signal, en tant que fournisseur du service, n’a pas accès aux contenus.
Un contexte étonnant
Cette attention est due en partie à une énorme bourde commise par Michael Waltz, conseiller de Donald Trump à la sécurité. L’éminent personnage a invité par erreur le journaliste Jeffrey Goldberg, rédacteur en chef de The Atlantic, dans une conversation de groupe. Ce dernier a accepté et a découvert, à sa grande surprise, une discussion sur les frappes programmées au Yémen contre les Houthis. Le groupe comprenait notamment le vice-président des États-Unis, J.D. Vance, le secrétaire à la Défense, Pete Hegseth, et le chef de la diplomatie américaine, Marco Rubio.
Au sein de la conversation, des hauts responsables du gouvernement partageaient ainsi des plans d’attaque. Jeffrey Goldberg a pris des captures d’écran de toute la conversation et a quitté le groupe. La Maison-Blanche, depuis, a indiqué à plusieurs reprises qu’il ne s’agissait pas d’un problème. The Atlantic a donc demandé s’il était possible de publier le reste des informations. Refus de la Maison-Blanche. Publication des informations par The Atlantic.
Dans ce contexte troublé, les lumières se sont braquées brusquement sur la messagerie. Même si son protocole sert à l’une des messageries les plus utilisées de la planète – WhatsApp a environ 2,3 milliards d’utilisateurs – Signal reste en effet une plateforme peu utilisée, avec 40 à 70 millions d’utilisateurs.
L’un des problèmes auxquels fait face Signal est le constat que les membres de la fameuse discussion n’ont pas utilisé une messagerie recommandée par la Maison-Blanche. La plateforme garde son aura de service grand-public. Des accusations sur une sécurité insuffisante sont donc apparues. En outre, il est possible dans Signal de faire disparaitre les messages, manuellement ou automatiquement, contrevenant aux lois américaines sur la conservation des données gouvernementales. Et pour ajouter au trouble, un rapport du Pentagone, datant du 18 mars, a fait surface pour rappeler que Signal avait été la cible de pirates et que la messagerie contenait « une vulnérabilité ».
Pour Signal, c’est une mauvaise compréhension de ce qu’est une messagerie sécurisée. La fondation parle ainsi d’une « information erronée » qu’elle « doit combattre ». Ainsi, l’utilisation du mot « vulnérabilité » ne renvoie pas directement à une faille dans Signal, mais à une mise en garde contre les escroqueries par hameçonnage. Autrement dit du phishing, comme nous l’avons vu en février.
Signal relève que le phishing n’a rien de nouveau et qu’il ne s’appuie pas sur des faiblesses dans la sécurité intrinsèque du produit. La fondation, consciente cependant qu’il était possible d’inciter à l’erreur humaine, a modifié certains aspects dans la gestion des contacts et mis en place un système d’alarme interne, pour prévenir d’erreurs potentielles. « Ces travaux sont terminés depuis un certain temps et n’ont aucun lien avec les événements actuels », ajoute la fondation.
L’éditeur rappelle en outre que Signal est un logiciel libre : « Notre code est régulièrement examiné, en plus des audits formels ». Et la fondation de conclure : « C’est pourquoi Signal reste la référence en matière de communications privées et sécurisées ».
« Le chiffrement ne peut pas vous protéger de la stupidité ».
Tout le problème du phishing repose sur l’erreur humaine. Le niveau de sécurité peut grimper, elle reste le meilleur moyen d’entrer, en incitant une personne à donner un accès malgré elle ou lui faisant cliquer sur un lien menant vers un site capable d’exploiter une faille, par exemple.
Dans le cas de Signal, la technique consistait à faire scanner un code QR à quelqu’un. Ce code sert à lier un appareil au compte, permettant alors l’utilisation de la messagerie sur un ordinateur ou une tablette, en plus du téléphone. Des pirates s’étaient ainsi débrouillés pour piéger des personnes, ce qui aboutissait à l’ajout d’appareils détenus par le groupe malveillant.
Mais, comme la communication de Signal le pointe, il existe une grande différence entre être piégé et ajouter par mégarde une personne dans une conversation. Ainsi que le relève 404 Media, « le chiffrement ne peut pas vous protéger contre l’ajout de la mauvaise personne à un groupe de discussion », l’utilisateur ayant le contrôle de ses discussions. En revanche, nos confrères recommandent chaudement d’utiliser la fonction permettant d’affecter des pseudonymes aux contacts, pour s’assurer que l’on parle aux bonnes personnes.
Chez Signal, l’affaire a provoqué au départ un certain amusement. Le 24 mars, Matthew Rosenfeld, créateur de Signal généralement mieux connu par son pseudo Moxie Marlinspike, s’en est amusé sur X : « Il y a tant de bonnes raisons d’être sur Signal. Y compris maintenant la possibilité pour le vice-président des États-Unis d’Amérique de vous ajouter au hasard à un groupe de discussion pour la coordination d’opérations militaires sensibles ». Il s’est cependant trompé, puisque l’invitation est partie du conseiller à la sécurité.
Parallèlement, une guerre de communication s’est installée entre WhatsApp et Signal, presque frères ennemis. Le premier a beau utiliser le protocole du second, il existe des différences nettes dans la collecte des données et ce qui est effectivement chiffré, au-delà du seul contenu des conversations et appels audio/vidéo.
C’est le cœur du message de Meredith Whittaker, présidente de la fondation Signal. Elle a réagi le 25 mars aux propos de Will Cathcart, directeur de WhatsApp, qui avait déclaré à des journalistes néerlandais que la sécurité était la même dans les deux messageries. En outre, il a affirmé que WhatsApp ne gardait pas de trace de qui communique avec qui et quand, et que ni la position géographique ni les informations sur les contacts n’étaient partagées avec d’autres entreprises.
Meredith Whittaker a donc souhaité donner quelques précisions : « WhatsApp dispose d’une licence pour la cryptographie de Signal afin de protéger le contenu des messages pour le grand public. Ce n’est pas le cas de WhatsApp pour les entreprises. Ni WhatsApp grand public ni WhatsApp professionnel ne protègent les métadonnées intimes telles que la liste des contacts, qui envoie des messages à qui, quand, la photo du profil, etc. Et, lorsqu’elles y sont contraintes, comme toutes les entreprises qui collectent des données au départ, elles transmettent ces données importantes et révélatrices ».
Elle invite cependant à ne pas « se méprendre » : « Nous sommes ravis que WhatsApp utilise notre technologie pour améliorer la protection de la vie privée dans son application […]. Mais il s’agit là de différences essentielles en matière de protection de la vie privée et le public mérite de les comprendre, compte tenu des enjeux. Il ne faut pas qu’elles soient obscurcies par le marketing ».
La dernière version desktop en date de Vivaldi (Windows, macOS, Linux) intègre désormais nativement le client permettant d’utiliser les services de réseau privé virtuel de la société suisse Proton. « lI suffit d’ouvrir les réglages de votre navigateur, d’activer Proton VPN pour Vivaldi et de commencer à naviguer avec sa protection en quelques secondes », promet l’éditeur. L’intégration de Proton VPN aux versions mobiles de Vivaldi n’a pour l’instant pas été confirmée.
« Nous sommes toutes deux des entreprises européennes, fières de ne pas être dans l’orbite de la Silicon Valley, qui joue la carte de l’extraction, ou de la Chine qui exerce une surveillance étatique. Nous ne pensons pas que vos données personnelles doivent être une monnaie d’échange », commente Jon von Tetzchner, fondateur de Vivaldi, dans un billet de blog.
Proton AG, fondée en 2014 en Suisse, s’est pour mémoire d’abord fait connaître avec sa messagerie Proton Mail, basée sur la promesse du respect de la vie privée des utilisateurs. La société a ensuite étoffé son portefeuille de services virtualisés avec, notamment, le lancement d’un VPN.
Proton VPN est accessible gratuitement, sans limite de volume ou de bande passante, sans publicité et sans journalisation de l’activité des utilisateurs. La formule gratuite permet d’utiliser 314 serveurs relais dans six pays. Un abonnement payant permet quant à lui de profiter de fonctionnalités supplémentaires.
Parmi les différents navigateurs du marché, Edge ou Opera intègrent aussi un VPN, sans limite de bande passante dans le cas du second.
Dans le berceau de la tech occidentale, les inégalités de richesse n’ont jamais été aussi fortes, selon le Silicon Valley Index.
Produit par Joint Venture Silicon Valley, un think tank qui s’intéresse depuis 1993 à la santé économique de la région californienne, le document constate que 9 milliardaires possèdent 15 fois plus de liquidités que la moitié de la population de cette zone de 200 km².
À eux neuf (parmi lesquels Mark Zuckerberg, patron de Meta, Larry Page et Sergey Brin, fondateurs de Google, Jan Koum, cofondateur de WhatsApp, Jensen Huang, patron de NVIDIA, ou Laurene Powell Jobs, philanthrope et veuve du fondateur d’Apple), ils détiennent 150 milliards de dollars, quand 447 000 foyers voisins s’en partagent 10 milliards.
Au total, la péninsule compte 56 milliardaires et 145 000 millionnaires, et 1 % des ménages les plus aisés (9 000 foyers) détiennent 42 % de la richesse de la région.
À l’opposé du spectre, 30 % des foyers ont besoin d’une aide extérieure pour vivre, et 10 % vivent avec moins de 5 000 dollars par an.
Un contexte qui crée « les conditions de l’instabilité et de la révolte », a alerté le président du Joint Venture Silicon Valley début mars.
Le développement d’Android se fait depuis toujours sur deux branches en parallèle : la branche interne, dans laquelle Google intègre ses nouveautés, et la branche AOSP (Android Open Source Project, sous licence Apache 2.0). Les deux sont gérées en même temps, Google reversant au fur et à mesure les modifications validées dans la branche open source.
L’éditeur a cependant décidé de changer ses plans, comme il l’a indiqué hier à Android Authority. Le développement de certains composants se fait en effet dans la branche AOSP (comme la pile Bluetooth, le cadre de virtualisation, SELinux…), mais la majorité se fait dans la branche interne. Cette dernière est donc en avance sur la branche publique la plupart du temps. Les deux développements progressant à des vitesses différentes, la fusion entraine des problèmes, Google publiant alors des correctifs.
Pour remédier à ce qu’il considère comme un problème de rationalisation et de complexité inutile, Google internalise donc tout le développement d’Android. Cela ne signifie pas que le système devient fermé, « simplement » que tous les développements seront d’abord réalisés sur la branche interne. Les modifications seront reversées régulièrement à la branche publique, toutes ensemble. Le problème de fusion des branches serait donc évité.
Selon Google, ce changement prendra effet la semaine prochaine. Il ne devrait pas entrainer de changements majeurs pour les développeurs, ni pour les plateformes utilisant AOSP (comme LineageOS), qui attendent en général des versions spécifiques. En revanche, ce changement a une répercussion sur la temporalité : la branche publique sera systématiquement en retard de plusieurs semaines sur la branche interne. Les développeurs participant à AOSP auront ainsi moins de visibilité.
Android Authority dit comprendre l’intérêt technique de ce changement, qui lui semble aller dans le bon sens. En revanche, nos confrères relèvent qu’il sera plus complexe pour les journalistes de découvrir à l’avance certaines technologies. L’année dernière, l’examen du code avait permis de déterrer de nettes améliorations à venir pour la caméra des téléphones Pixel.
Augmentation des discriminations et dématérialisation mal déployée, telle sont les deux tendances contre lesquelles la Défenseure des droits alerte dans son rapport annuel sur l’activité 2024.
Un « sursaut collectif ». C’est ce que voudrait susciter la Défenseure des droits, pour prévenir et lutter contre l’ « augmentation préoccupante » des discriminations en France et renverser le « renoncement face à la promesse républicaine d’égalité » qu’elle constate sur le terrain.
Dans son rapport annuel publié ce 25 mars, la Défenseure des droits déclare son inquiétude devant l’augmentation du nombre de victimes de discrimination, principalement visées en raison de leur origine et de leur religion. En parallèle, elle relève la baisse du nombre de saisines liées à ces motifs, et alerte contre la tendance selon laquelle de nombreuses victimes « renoncent à faire-valoir leurs droits en raison de la complexité des démarches, de la peur des représailles, d’une méconnaissance de leurs droits, ou encore d’un sentiment de découragement ».
Outre l’essoufflement des politiques publiques concernant la lutte contre les discriminations « depuis une vingtaine d’années », elle souligne le rôle très clair de la dématérialisation, déploiement d’outils algorithmiques compris, dans les difficultés croissantes des usagers. Elle constate notamment « l’incapacité des solutions entièrement dématérialisées à s’adapter aux spécificités des situations individuelles ».
Réclamations démultipliées avec le déploiement de l’administration numérique pour les étrangers
Plus d’une réclamation sur trois (37 %) sont désormais liées aux difficultés rencontrées par les usagers ressortissants étrangers, lorsqu’ils essaient d’obtenir ou de renouveler leurs titres de séjour en ligne. L’autorité précise avoir vu les difficultés « nettement aggravées depuis le déploiement de l’Administration numérique pour les étrangers en France (ANEF) » – en 2019, ce sujet spécifique ne représentait que 10 % du total des réclamations reçues.
En pratique, la plateforme ne permet ni de corriger, ni de modifier la demande. Quant aux délais de réponse opaque, ils ont conduit des milliers de personnes à perdre leurs droits sociaux ou leur travail à cause d’un renouvellement ou d’une obtention trop lente du fameux sésame qu’est le titre de séjour, comme le détaillait plus précisément un rapport de décembre 2024.
Dérivatif à l’impossibilité de contacter un agent du service public
Dans ce rapport-ci, l’institution précise que plus de 90 % des réclamations reçues concernent les questions de relations des usagers au service public. L’augmentation continuelle de ces demandes, explique-t-elle, « montre que l’institution supplée de plus en plus à la difficulté à entrer en contact avec un agent de service public doté des prérogatives nécessaires pour résoudre les litiges ou les blocages ».
Elle souligne par ailleurs le rôle du déploiement de systèmes algorithmiques dans les problématiques observées. Dans un travail publié en novembre 2024, l’autorité soulignait déjà la nécessité de préserver l’intervention humaine dans les prises de décision, et celle de rendre ces décisions transparentes vis-à-vis des usagers et principaux concernés.
Le rapport 2024 de la Défenseure des droits est enfin l’occasion de revenir sur les effets concrets du changement climatique sur la population française. L’autorité a en effet eu à traiter plusieurs réclamations sur le sujet, notamment relatives aux questions d’usages de l’eau ou de lutte contre les incendies et les inondations. En novembre, elle se penchait par ailleurs sur les risques spécifiques auxquels les enfants sont exposées en raison de la crise climatique.
Passé entre de nombreuses mains depuis sa rédemption, le vénérable service de streaming musical Napster change une nouvelle fois de mains. Il vient d’être racheté pour 207 millions de dollars par Infinite Reality, un spécialiste des environnements immersifs qui entend notamment développer des « espaces 3D virtuels pour les fans ».
Le service Napster, ancienne star du téléchargement illégal de musique devenu banal service de streaming, connaîtra peut-être une nouvelle gloire grâce au métavers. C’est en tout cas ce que veut croire l’entreprise Infinite Reality, qui a annoncé, mardi 25 mars, l’acquisition de Napster pour 207 millions de dollars.
À la fois studio et éditeur d’une plateforme Saas dédiée à la création d’éléments de communication pour les entreprises, Infinite Reality se définit comme un spécialiste de la 3D et des environnements immersifs. L’entreprise élabore par exemple des showrooms virtuels, des jumeaux numériques, des dispositifs de visualisation 3D ou des salles de conférence en réalité mixte.
Un spécialiste de la réalité virtuelle aux manettes
Un savoir-faire qui devrait, selon son fondateur, permettre d’écrire une nouvelle page de la tumultueuse histoire de Napster.
« Cette décision stratégique s’inscrit dans la vision d’Infinite Reality de mener la transition de l’industrie Internet d’un Web 2D cliquable à un Web 3D conversationnel, offrant à tous les créateurs des outils modernes pour mieux engager, monétiser et mesurer leur public », décrit John Acunto, CEO de l’acquéreur.
« Imaginez-vous entrer dans une salle virtuelle pour assister à un concert exclusif entre amis, discuter avec votre artiste préféré dans son espace virtuel dédié pendant la sortie de son nouveau single, et pouvoir acheter directement ses produits exclusifs, numériques et physiques », illustre plus précisément Jon Vlassopulos, CEO de Napster, qui poursuivra le développement du service sous la houlette de son nouvel actionnaire.
La promesse ne manquera pas d’inspirer quelques commentaires ironiques. Elle rappelle en effet le phénomène médiatique du métavers, dont Meta semble aujourd’hui revenu, après y avoir injecté des milliards de dollars.
Une chose est sûre : l’acquéreur ne manque ni de moyens, ni d’ambitions. Créée en 2019, Infinite Reality compte déjà plusieurs acquisitions à son actif, ainsi que des diversifications dans le monde des courses de drones ou de l’e-sport. En janvier, la société annonçait une levée de fonds de 3 milliards de dollars, sur la base d’une valorisation estimée à 12,5 milliards de dollars, sans préciser toutefois l’identité de ses actionnaires.
Le retour d’une vieille gloire passée de mode
Quelle place exacte Napster occupera-t-il dans ce nouvel ensemble ? L’ancienne star du téléchargement illégal a connu plusieurs vies depuis l’époque où ses fondateurs, Shawn Fanning et Sean Parker, se permettaient de donner des leçons narquoises aux toutes puissantes maisons de disque.
Lancé le 1er juin 1999, Naspter se présentait pour mémoire comme un client P2P dédié aux fichiers MP3, à une époque où le streaming musical n’existait pas. Pendant deux ans, son célèbre logo a donné des sueurs froides à l’industrie, avant que le procès qui l’opposait à Metallica ne précipite sa fin.
Suivirent une tentative de rachat, avortée par Bertelsmann en 2002, puis des reprises successives par Roxio et Best Buy, qui rapprocha Napster et le service concurrent Rhapsody, toujours dans l’idée de développer un service de streaming légal, et payant, qui fut d’ailleurs lancé en France en 2013.
En 2020, Best Buy revendit Napster à MelodyVR, une société spécialisée dans la réalité virtuelle (déjà). En 2022, elle céda à son tour le service à Algorand, un spécialiste de la blockchain qui envisagea d’ailleurs pendant un temps de créer un jeton $NAPSTER pour monétiser des services ou des biens virtuels autour de la musique.
Las des messages ambivalents des protagonistes concernés, le magazine The Atlantic a pris le parti de publier, captures d’écran à l’appui, l’essentiel des échanges obtenus par son rédacteur en chef, invité par mégarde d’une boucle Signal réunissant le gratin de l’administration Trump.
Deux heures et demie avant que les premières bombes n’atteignent leur cible, un message annonce l’instant précis auquel est programmé le décollage des F18 chargés de la mission. Il ajoute dans la foulée l’horaire d’envol programmé des drones, puis des chasseurs qui doivent assurer la suite des frappes.
Cette communication, émanant du ministre de la Défense des États-Unis et distribuée au sein d’une boucle Signal, relève-t-elle du secret militaire ? Pas forcément, répondent certains officiels de l’administration Trump, après que le magazine The Atlantic a révélé, lundi, avoir été invité par mégarde à une conversation relative aux préparatifs des frappes américaines au Yémen du 15 mars dernier.
Une banale conversation au sujet d’une opération militaire en cours
Karoline Leavitt, porte-parole de la Maison-Blanche, a résumé mardi la position de l’administration Trump au sujet de cette fuite inédite.
« Jeffrey Goldberg est connu pour ses propos sensationnalistes. Voici les faits concernant sa dernière histoire : 1. Aucun « plan de guerre » n’a été évoqué. 2. Aucun document classifié n’a été envoyé dans la discussion. 3. Le Bureau du conseiller juridique de la Maison-Blanche a fourni des lignes directrices sur les différentes plateformes à utiliser pour que les hauts responsables du président Trump communiquent de façon aussi sûre et efficace que possible ».
Donald Trump n’a quant à lui réagi que par l’intermédiaire d’un simple lien, posté sur son réseau social Truth. Ce dernier renvoie vers Babylon Bee, un site satirique conservateur, qui titre sur la façon dont Trump, en génial stratège, a partagé ses plans de guerre avec un magazine que personne ne lit.
Si ce n’est pas confidentiel, publions-le ?
The Atlantic rapporte par ailleurs les propos de Tulsi Gabbard et John Ratcliffe, respectivement directrice du renseignement et patron de la CIA, tous deux participants de cette étonnante boucle Signal. Entendus mardi devant le Sénat, les deux auraient soigneusement minimisé l’importance des propos échangés. « Il n’y avait aucune information classifiée dans ce qui a été partagé au sein de ce groupe Signal », aurait ainsi déclaré Tulsi Gabbard.
En réaction, le magazine adopte une posture mi-naïve, mi-provocatrice. « Hier, nous avons demandé aux responsables de l’administration Trump s’ils s’opposaient à ce que nous publiions les textes complets ».
La réponse revient négative. « Comme nous l’avons répété à plusieurs reprises, aucune information classifiée n’a été transmise lors de la conversation de groupe. Cependant, comme l’ont déclaré aujourd’hui le directeur de la CIA et le conseiller à la sécurité nationale, cela ne signifie pas que nous encourageons la divulgation de la conversation », écrit Karoline Leavitt à la rédaction de The Atlantic.
Lequel décide en retour de publier la conversation, compte tenu du caractère passé de l’opération miliaire concernée. « Il existe un intérêt public évident à divulguer la nature des informations que les conseillers de Trump ont utilisées dans des canaux de communication non sécurisés, en particulier parce que des personnalités de haut rang de l’administration tentent de minimiser l’importance des messages qui ont été partagés », estime le magazine.
Au-delà des détails techniques de l’opération, la conversation se révèle particulièrement intéressante dans ses premiers échanges, quand Michael Waltz, conseiller à la sécurité nationale, Pete Hegseth, ministre de la Défense, et J.D. Vance, vice-président des États-Unis, évaluent l’intérêt de conduire, ou non, l’opération, au regard notamment des relations avec l’Europe.
Un extrait de la conversation concerne l’intérêt des Etats-Unis à conduire cette opération au regard des frictions avec l’Europe – crédit The Atlantic