↩ Accueil

Vue lecture

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.

☕️ La justice valide le blocage de quatre sites porno non établis en Europe, du répit pour cinq autres

La justice valide le blocage de quatre sites porno non établis en Europe, du répit pour cinq autres

Des associations de protection de l’enfance ont demandé à la justice d’ordonner des blocages de neuf sites pornographiques, indique Le Monde.

L’AFP explique que « la cour d’appel de Paris a ordonné le blocage de plusieurs sites pornographiques extra-européens en raison de l’absence de contrôle de l’âge des utilisateurs, mais a accordé un sursis aux plateformes hébergées dans l’Union européenne ».

Pourquoi une telle différence ? « Pour ceux établis en Europe, le droit européen prime sur toute autre considération », rappelle Alexandre Archambault, avocat spécialiste du numérique. Bref, « la justice enjoint ainsi aux fournisseurs d’accès à Internet de procéder au blocage des sites xHamster, TuKif, Mr Sexe, IciPorno « dans un délai de quinze jours » », explique Le Monde.

Concernant les sites établis au sein de l’Union européenne (Pornhub, Youporn, Redtube, Xvideos et XNXX), la cour d’appel de Paris attend une décision de la cour de justice de l’Union européenne, « qui doit examiner prochainement une série de questions préjudicielles posées par le Conseil d’État dans un dossier proche ».

Aylo (éditeur de Pornhub, établi en Europe), se félicite auprès de nos confrères que ce soit à la CJUE d’examiner « le sujet très complexe des restrictions par l’âge, avec ses questions de protection de la vie privée et d’application à travers différentes plateformes en ligne et dans différents pays ». e-Enfance parle d’une « première grande victoire », mais La Voix de l’enfant se dit « déçue » car « des sites majeurs échappent à un blocage qui devrait s’imposer ».

Il y a quelques jours, on apprenait que l’Arcom allait permettre un test temporaire du contrôle d’âge avec carte bancaire.

☕️ La justice valide le blocage de quatre sites porno non établis en Europe, du répit pour cinq autres

La justice valide le blocage de quatre sites porno non établis en Europe, du répit pour cinq autres

Des associations de protection de l’enfance ont demandé à la justice d’ordonner des blocages de neuf sites pornographiques, indique Le Monde.

L’AFP explique que « la cour d’appel de Paris a ordonné le blocage de plusieurs sites pornographiques extra-européens en raison de l’absence de contrôle de l’âge des utilisateurs, mais a accordé un sursis aux plateformes hébergées dans l’Union européenne ».

Pourquoi une telle différence ? « Pour ceux établis en Europe, le droit européen prime sur toute autre considération », rappelle Alexandre Archambault, avocat spécialiste du numérique. Bref, « la justice enjoint ainsi aux fournisseurs d’accès à Internet de procéder au blocage des sites xHamster, TuKif, Mr Sexe, IciPorno « dans un délai de quinze jours » », explique Le Monde.

Concernant les sites établis au sein de l’Union européenne (Pornhub, Youporn, Redtube, Xvideos et XNXX), la cour d’appel de Paris attend une décision de la cour de justice de l’Union européenne, « qui doit examiner prochainement une série de questions préjudicielles posées par le Conseil d’État dans un dossier proche ».

Aylo (éditeur de Pornhub, établi en Europe), se félicite auprès de nos confrères que ce soit à la CJUE d’examiner « le sujet très complexe des restrictions par l’âge, avec ses questions de protection de la vie privée et d’application à travers différentes plateformes en ligne et dans différents pays ». e-Enfance parle d’une « première grande victoire », mais La Voix de l’enfant se dit « déçue » car « des sites majeurs échappent à un blocage qui devrait s’imposer ».

Il y a quelques jours, on apprenait que l’Arcom allait permettre un test temporaire du contrôle d’âge avec carte bancaire.

Grande carte de l’Univers par Euclid : un premier morceau de 208 gigapixels

Alors, pas trop deg ?
Grande carte de l’Univers par Euclid : un premier morceau de 208 gigapixels

Les premières observations du télescope spatial Euclid donnent satisfaction aux scientifiques, qui peuvent déjà voyager dans une petite partie de l’univers et zoomer jusqu’à 600 fois dans certaines zones. Le travail continue pour la mission, qui doit durer six ans et couvrir plus d’un tiers du ciel.

Euclid est une mission de l’Agence spatiale européenne (ESA) lancée en juillet 2023, direction le point de Lagrange L2. Le but de sa mission : étudier la matière et l’énergie noires. Les observations scientifiques de routine ont débuté le 14 février 2024, mais le télescope a connu quelques déboires avec de la glace sur ses miroirs.

L’ESA annonce que le télescope vient d’écrire « la première page » de son grand atlas cosmique avec « le premier morceau de sa grande carte de l’Univers, qui montre des millions d’étoiles et de galaxies ». Il prend la forme d’une carte de 208 gigapixels basée sur 260 observations réalisées entre le 25 mars et le 8 avril de cette année. La carte existe, mais elle n’est malheureusement pas publique, impossible donc de s’y balader pour le moment.

132 degrés carrés… kesako les degrés carrés ?

« En seulement deux semaines, Euclid a couvert avec une précision parfaite 132 degrés carrés du ciel austral, soit plus de 500 fois la superficie de la pleine lune ». Cela ne représente cela dit qu’un seul pourcent de la surface du ciel qu’Euclid doit analyser pendant six ans. À la fin de sa mission, Euclid devrait en effet avoir cartographié « plus d’un tiers du ciel ».

L’ensemble du ciel est une sphère de 41 000 degrés carrés environ, soit environ 13 600 degrés carrés pour en avoir un tiers. « Un degré carré permet de mesurer une partie de la sphère de la même façon qu’un degré permet de mesurer une partie d’un cercle », explique Wikipédia. On parle de degré carré et on écrit tout simplement deg², comme on utilise cm², de km², etc.

Jusqu’à présent (de février à octobre), Euclid a effectué 12 % des relevés qu’elle doit réaliser. « D’autres données seront révélées en mars 2025 avec la publication de 50 degrés carrés de l’étude Euclid comprenant un aperçu des zones du champ profond Euclid. La première année de données cosmologiques de la mission sera communiquée en 2026 », précise le CEA.

Euclid va s’intéresser uniquement aux zones en orange

Un « petit » miroir de 1,2 m de diamètre

Le télescope se concentre principalement sur les parties du ciel en dehors de la Voie lactée pour éviter d’être « pollué » par les étoiles de notre galaxie, qui font bien trop de lumière pour espérer chasser des indices permettant de remonter à la matière et a l’énergie noire.

Avec seulement 1,2 m de diamètre, le miroir principal d’Euclid pourrait sembler modeste face aux 2,4 m de Hubble et 6,5 m de Webb), mais « cet observatoire qui travaille à 1,5 million de kilomètres de nous au point de Lagrange Terre-Soleil L2 a déjà démontré sa capacité à produire de très belles images », explique la Cité des sciences. Il a des caméras en lumière visible et infrarouge proche.

Une image valant mille mots, voici des présentations faites par le CEA (ci-dessus) et la Cité des sciences (ci-dessous). Elles illustrent la profondeur des images et la capacité de zoom (600x) proposée par les relevés. On se rend également bien compte de la toute petite partie du ciel pour le moment cartographiée (la zone jaune sur la première image).

Vers « la plus grande carte cosmique en 3D jamais réalisée »

L’ambition de l’ESA est grande : il s’agit de créer « la plus grande carte cosmique en 3D jamais réalisée » avec les formes, distances et mouvements de milliards de galaxies, dont certaines sont situées jusqu’à 10 milliards d’années-lumière. Pour rappel, cela signifie que la lumière met 10 milliards d’années à rejoindre la Terre et que nous les observons donc telles qu’elles étaient il y a 10 milliards d’années.

100 millions de sources

Dans le premier morceau de ciel observé se trouvent environ 100 millions de sources, c’est-à-dire des étoiles et des galaxies dans l’Univers. Dans le lot, « 14 millions de galaxies pourraient être utilisées pour étudier l’influence cachée de la matière noire et de l’énergie noire sur l’Univers », ce qui est la mission première d’Euclid.

Les scientifiques estiment que la matière noire et de l’énergie noire « représentent tout de même 95 % du bilan énergétique de l’univers, le 5 % restant étant celui de la matière « ordinaire » (les atomes qui nous constituent, ceux des planètes, des étoiles, etc.) ».

Vous avez peut-être remarqué des régions vides dans la mosaïque d’Euclid. Elles « ont été intentionnellement évitées pendant l’étude en raison de la présence d’étoiles très brillantes qui auraient « aveuglé » les instruments sensibles d’Euclid », explique le CNES.

Grande carte de l’Univers par Euclid : un premier morceau de 208 gigapixels

Alors, pas trop deg ?
Grande carte de l’Univers par Euclid : un premier morceau de 208 gigapixels

Les premières observations du télescope spatial Euclid donnent satisfaction aux scientifiques, qui peuvent déjà voyager dans une petite partie de l’univers et zoomer jusqu’à 600 fois dans certaines zones. Le travail continue pour la mission, qui doit durer six ans et couvrir plus d’un tiers du ciel.

Euclid est une mission de l’Agence spatiale européenne (ESA) lancée en juillet 2023, direction le point de Lagrange L2. Le but de sa mission : étudier la matière et l’énergie noires. Les observations scientifiques de routine ont débuté le 14 février 2024, mais le télescope a connu quelques déboires avec de la glace sur ses miroirs.

L’ESA annonce que le télescope vient d’écrire « la première page » de son grand atlas cosmique avec « le premier morceau de sa grande carte de l’Univers, qui montre des millions d’étoiles et de galaxies ». Il prend la forme d’une carte de 208 gigapixels basée sur 260 observations réalisées entre le 25 mars et le 8 avril de cette année. La carte existe, mais elle n’est malheureusement pas publique, impossible donc de s’y balader pour le moment.

132 degrés carrés… kesako les degrés carrés ?

« En seulement deux semaines, Euclid a couvert avec une précision parfaite 132 degrés carrés du ciel austral, soit plus de 500 fois la superficie de la pleine lune ». Cela ne représente cela dit qu’un seul pourcent de la surface du ciel qu’Euclid doit analyser pendant six ans. À la fin de sa mission, Euclid devrait en effet avoir cartographié « plus d’un tiers du ciel ».

L’ensemble du ciel est une sphère de 41 000 degrés carrés environ, soit environ 13 600 degrés carrés pour en avoir un tiers. « Un degré carré permet de mesurer une partie de la sphère de la même façon qu’un degré permet de mesurer une partie d’un cercle », explique Wikipédia. On parle de degré carré et on écrit tout simplement deg², comme on utilise cm², de km², etc.

Jusqu’à présent (de février à octobre), Euclid a effectué 12 % des relevés qu’elle doit réaliser. « D’autres données seront révélées en mars 2025 avec la publication de 50 degrés carrés de l’étude Euclid comprenant un aperçu des zones du champ profond Euclid. La première année de données cosmologiques de la mission sera communiquée en 2026 », précise le CEA.

Euclid va s’intéresser uniquement aux zones en orange

Un « petit » miroir de 1,2 m de diamètre

Le télescope se concentre principalement sur les parties du ciel en dehors de la Voie lactée pour éviter d’être « pollué » par les étoiles de notre galaxie, qui font bien trop de lumière pour espérer chasser des indices permettant de remonter à la matière et a l’énergie noire.

Avec seulement 1,2 m de diamètre, le miroir principal d’Euclid pourrait sembler modeste face aux 2,4 m de Hubble et 6,5 m de Webb), mais « cet observatoire qui travaille à 1,5 million de kilomètres de nous au point de Lagrange Terre-Soleil L2 a déjà démontré sa capacité à produire de très belles images », explique la Cité des sciences. Il a des caméras en lumière visible et infrarouge proche.

Une image valant mille mots, voici des présentations faites par le CEA (ci-dessus) et la Cité des sciences (ci-dessous). Elles illustrent la profondeur des images et la capacité de zoom (600x) proposée par les relevés. On se rend également bien compte de la toute petite partie du ciel pour le moment cartographiée (la zone jaune sur la première image).

Vers « la plus grande carte cosmique en 3D jamais réalisée »

L’ambition de l’ESA est grande : il s’agit de créer « la plus grande carte cosmique en 3D jamais réalisée » avec les formes, distances et mouvements de milliards de galaxies, dont certaines sont situées jusqu’à 10 milliards d’années-lumière. Pour rappel, cela signifie que la lumière met 10 milliards d’années à rejoindre la Terre et que nous les observons donc telles qu’elles étaient il y a 10 milliards d’années.

100 millions de sources

Dans le premier morceau de ciel observé se trouvent environ 100 millions de sources, c’est-à-dire des étoiles et des galaxies dans l’Univers. Dans le lot, « 14 millions de galaxies pourraient être utilisées pour étudier l’influence cachée de la matière noire et de l’énergie noire sur l’Univers », ce qui est la mission première d’Euclid.

Les scientifiques estiment que la matière noire et de l’énergie noire « représentent tout de même 95 % du bilan énergétique de l’univers, le 5 % restant étant celui de la matière « ordinaire » (les atomes qui nous constituent, ceux des planètes, des étoiles, etc.) ».

Vous avez peut-être remarqué des régions vides dans la mosaïque d’Euclid. Elles « ont été intentionnellement évitées pendant l’étude en raison de la présence d’étoiles très brillantes qui auraient « aveuglé » les instruments sensibles d’Euclid », explique le CNES.

☕️ #LIDD : des trombones à la destruction de l’Univers en passant par des super IA

#LIDD : des trombones à la destruction de l’Univers en passant par des super IA

Hier, Mathilde vous a proposé un bonus après la mise en ligne du deuxième épisode du podcast Algorithmique, avec une transcription de l’interview de Raziye Buse Çetin. On y parle évidemment d’intelligence artificielle. gg40 propose une vidéo qui fait le buzz ces derniers jours : L’horreur existentielle de l’usine à trombones par EGO.

Ne vous arrêtez pas aux trombones, c’est un prétexte pour aller bien plus loin. La vidéo commence par de clics pour produire des trombones, puis s’accélère avec des (sur)optimisation, avant de passer à l’intelligence artificielle et la « super intelligence », entre fantasme et espoirs.

En tout cas, tout le monde est conscient d’avoir conscience qu’il faut être conscient… mais on s’égare et on vous laisse regarder la vidéo. Je ne sais pas pour vous, mais la conclusion me fait un peu penser au Guide du voyageur galactique

☕️ #LIDD : des trombones à la destruction de l’Univers en passant par des super IA

#LIDD : des trombones à la destruction de l’Univers en passant par des super IA

Hier, Mathilde vous a proposé un bonus après la mise en ligne du deuxième épisode du podcast Algorithmique, avec une transcription de l’interview de Raziye Buse Çetin. On y parle évidemment d’intelligence artificielle. gg40 propose une vidéo qui fait le buzz ces derniers jours : L’horreur existentielle de l’usine à trombones par EGO.

Ne vous arrêtez pas aux trombones, c’est un prétexte pour aller bien plus loin. La vidéo commence par de clics pour produire des trombones, puis s’accélère avec des (sur)optimisation, avant de passer à l’intelligence artificielle et la « super intelligence », entre fantasme et espoirs.

En tout cas, tout le monde est conscient d’avoir conscience qu’il faut être conscient… mais on s’égare et on vous laisse regarder la vidéo. Je ne sais pas pour vous, mais la conclusion me fait un peu penser au Guide du voyageur galactique

Western Digital intègre 11 plateaux dans des disques durs de 3,5″

+1
Western Digital intègre 11 plateaux dans des disques durs de 3,5″

Alors que cela semblait difficile, voire impossible, il y a quelques années, Western Digital vient d’ajouter encore un plateau dans ses disques durs de 3,5″, pour un total de 11. Il propose ainsi une version CMR de 26 To et une SMR de 32 To. Pour y arriver, pas de révolution, mais « quelques microns » par-ci par-là.

Il y a quelques jours, l’Institute of Electrical and Electronics Engineers (IEEE) publiait sa feuille de route pour les années à venir dans le petit monde du stockage, avec des disques durs de 100 To à l’horizon 2037.

Après la théorie, la pratique en 2024 avec Western Digital qui annonce une première mondiale : l’expédition des premiers disques durs avec 11 plateaux, alors que la limite semblait être à 10. Deux gammes en profitent : les Ultrastar DC HC590 et Ultrastar DC HC690.

Jusqu’à 26 To en CMR

Commençons par les Ultrastar DC HC590 avec une capacité de 24 ou 26 To, disponibles avec une interface SAS ou S-ATA. Avec 11 plateaux, cela nous donne une densité de 2,36 To par plateau sur le modèle de 26 To. Ils tournent à 7 200 tpm et le fabricant annonce des taux de transfert jusqu’à 302 Mo/s.

Le disque dur utilise la technologie ePMR (Energy-assisted PMR) du constructeur, avec PMR qui signifie Perpendicular Magnetic Recording. Les pistes de cet HDD sont en CMR (Conventional Magnetic Recording) et fonctionnent donc comme la grande majorité des disques durs actuels. La fiche technique donne plus de détails.

Jusqu’à 32 To en SMR

Ce n’est pas le cas des Ultrastar DC HC690 qui sont pour leur part en SMR (Shingled Magnetic Recording). Nous avons déjà longuement détaillé cette technologie qui permet de superposer en partie les pistes afin d’augmenter la densité des plateaux. Cela peut par contre provoquer une baisse des performances en écriture à cause d’un phénomène d’amplification. En lecture, rien ne change.

La densité est plus élevée avec des disques durs de 30 et 32 To, toujours en SAS ou S-ATA. Là encore, il y a 11 plateaux, soit une densité qui s’approche des 3 To par plateaux (2,9 précisément). La vitesse de rotation est toujours de 7 200 tpm, avec un débit maximum moins important que sur la gamme HC590 : 260 Mo/s « seulement ». La fiche technique se trouve par ici.

11 plateaux dans 26,1 mm de hauteur

Dans les deux cas, la technologie HelioSeal est de la partie. Elle consiste à remplacer l’air entre les plateaux par de l’hélium, pour réduire la consommation et l’échauffement, particulièrement lorsque les plateaux sont serrés comme des sardines, ce qui est d’autant plus le cas avec l’augmentation du nombre de plateaux. Rien de neuf pour autant, cette manière de faire est utilisée depuis des années par les fabricants.

Arriver à placer 11 plateaux dans un disque dur de 3,5″ relève de l’assemblage de précision tant l’espace est contraint. Les mensurations des deux séries de Western Digital sont de 146,7 x 101,6 x 26,1 mm. Il faut donc caser la carcasse du boîtier, les 11 plateaux et les 22 têtes de lecture/écriture dans seulement 26,1 mm de hauteur.

Quand intégrer 10 plateaux semblait déjà difficile

Preuve que les temps changent, placer 11 plateaux dans un HDD semblait inaccessible il y a encore quelques années. En novembre 2019, nous avions en effet discuté avec un technicien de Seagate qui nous expliquait être « au bout » (ou presque) de la technologie telle qu’elle était alors utilisée : « En hélium, on arrive à 9 plateaux, mais à mon avis 10 plateaux, je ne suis pas sûr que ça se fasse […] Il n’y a plus beaucoup de matière en haut et en bas, on est très proches des bords et il faut quand même garder une certaine rigidité » de l’ensemble.

Non seulement les fabricants ont intégré dix plateaux depuis maintenant quelques années, mais Western Digital passe donc à onze. Et pas seulement sur des prototypes puisque les expéditions ont débuté affirme le constructeur.

Économiser « quelques microns » ici et là

Ce dernier explique dans un billet de blog que les travaux sur l’intégration d’un onzième plateau ont débutés en 2022, avec une évaluation des options disponibles. Augmenter l’épaisseur des disques durs n’était pas envisageable, car les racks des datacenters (la principale cible des HDD avec une telle densité) sont standards, impossible donc d’en déroger pour toucher ce marché.

Cela ne laisse que trois options, comme l’indique Takaaki Deguchi (responsable de cette évolution chez WD) : « Vous devez soit réduire l’espacement entre les plateaux, soit l’épaisseur des plateaux, soit celle d’autres pièces comme le bas ou le haut du boîtier ». Jusqu’à présent, ajoute Western Digital, la technique utilisée était un mélange des deux premières options.

Pour son passage à 11 plateaux, la société s’est concentrée sur la réduction de l’espace entre les plateaux, visiblement sans toucher aux plateaux en eux-mêmes. Cela passe donc par des changements au niveau des bras avec les têtes de lecture et écriture afin de les rapprocher davantage des plateaux.

Ce n’était pas suffisant puisqu’il a aussi fallu diminuer l’épaisseur de la partie basse du châssis (une pièce moulée), sans rogner sur la rigidité pour ne pas fragiliser l’ensemble. Le PCB (avec les composants électroniques) a aussi été modifié « pour éviter tout chevauchement avec la pile des plateaux ».

Western Digital résume la situation : « Ce n’est pas un ou deux changements qui ont permis cela, mais plutôt un examen minutieux et une optimisation d’une multitude d’éléments. Il s’agissait littéralement d’économiser quelques microns d’espace dans des zones ciblées qui, collectivement, ont abouti à quelque chose d’assez important » pour installer un onzième plateau. Une manière de dire qu’on arrive au bout du bout des optimisations ? L’avenir nous le dira.

La relève est déjà là avec HAMR, MAMR, HDMR…

Quoi qu’il en soit, il existe bien d’autres moyens d’augmenter la densité sans ajouter de plateaux, notamment avec les technologies BPMR, HAMR, MAMR et autre HDMR. Et tous les fabricants s’y intéressent, avec plus ou moins d’affinités suivant les technologies. Les disques durs MAMR et HAMR sont déjà une réalité avec des versions de plus de 30 To et des modèles de 36 et 40 To à venir.

Ces technologies sont d’une certaine manière une cassure par rapport aux CMR et SMR actuels (dont on arrive à bout des optimisations) afin d’augmenter la densité des plateaux avec des lasers ou des micro-ondes. Elles commencent seulement à montrer leur potentiel, mais c’est grâce à elles (et leurs évolutions) que l’on pourrait atteindre les 100 To annoncés par l’IEEE. Bien sûr, si les fabricants arrivent à passer de 10 à 11 plateaux en HAMR/MAMR, cela permettra aussi de gagner 10 % de capacité à moindre coût.

Jungle dans la fibre : les armoires connectées ne prennent pas, Orange change de stratégie

Coke en STOC
Jungle dans la fibre : les armoires connectées ne prennent pas, Orange change de stratégie

Alors que le déploiement de la fibre avance à marche forcée, il y a toujours des problèmes de vandalisme et de qualité de travail dans les armoires. Des fabricants ont dans leurs cartons des serrures connectées, mais aucun opérateur n’en veut pour le moment. Orange prend même le contre-pied total et ne ferme plus à clé les armoires.

Il y a trois ans, lors de l’université d’été du THD, plusieurs fabricants exposaient fièrement des serrures connectées pour essayer de protéger les armoires de rue des actes de vandalisme et des dégradations, mais également pour assurer un suivi des interventions.

Sans refaire toute l’histoire, le fonctionnement actuel passe par le mode STOC (Sous Traitance Opérateur Commercial). Dans ce mode de fonctionnement, l’opérateur d’infrastructure (celui qui déploie le réseau) sous-traite le raccordement du client final à l’opérateur commercial.

Problème, les techniciens en bout de chaine sont parfois payés au lance-pierre et uniquement si le raccordement fonctionne, il faut donc activer le client, quitte parfois à en débrancher un autre (et à revenir pour un SAV…). Les dérives sont connues depuis longtemps et nous y avons déjà consacré des dossiers.

De l’enthousiasme il y a trois ans…

Il y a trois ans, l’entreprise Grolleau présentait sa serrure connectée G’Access. L’installation se voulait simple : « On remplace la poignée et on vient mettre un bloc tout prêt […] Il n’y a pas besoin de perçage supplémentaire », nous expliquait Benoit Tiercelin (chef de projet). La société nous indiquait même en être à la troisième génération de serrure.


Il reste 74% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Marc Ferracci hérite des télécoms : « Zut, on a oublié quelqu’un, ce sera toi »

Plouf plouf ou pique nique-douille ?
Marc Ferracci hérite des télécoms : « Zut, on a oublié quelqu’un, ce sera toi »

Alors que Marc Ferracci, ministre de l’Industrie au sein du gouvernement Barnier, devrait prochainement hériter du secteur des télécoms, le président de l’Avicca Patrick Chaize dresse un triste portrait d’un lent déclin du numérique dans les gouvernements successifs : « Je ne suis pas convaincu qu’il passe 80 % de son temps sur le sujet ».

Patrick Chaize (sénateur et président de l’Association des villes et collectivités pour les communications électroniques et l’audiovisuel) profite de l’Université de la Transition Numérique des Territoires pour faire le point sur le numérique dans les gouvernements successifs. Il rappelle que, au moment de l’élection d’Emmanuel Macron en 2017, il militait pour que « le ministre du numérique soit rattaché au Premier ministre ». Il considérait, en effet, que le numérique devait être « quelque chose de transversal et que toutes les politiques publiques pouvaient être concernées par les sujets numériques ».

Retour en 2017 avec Mounir Mahjoubi, comme secrétaire d’État

La nomination de Mounir Mahjoubi comme secrétaire d’État chargé du Numérique dans le gouvernement Édouard Philippe était donc « une victoire ». Par la suite, Mounir Mahjoubi « a plutôt milité pour rejoindre le ministère de l’Économie […] pour des questions de moyens ».

Un an plus tard, à l’occasion d’un remaniement ministériel, il est placé sous la tutelle du ministre de l’Économie (toujours comme secrétaire d’État). Le sénateur rappelle que « dans la première attribution des titres de sa nomination, ils avaient oublié le mot numérique. C’est quand même assez cocasse ». Il quitte le gouvernement début 2019.

Julien Denormandie et Cédric O prennent la suite

C’est alors Julien Denormandie qui « a pris un peu la main sur le sujet pour les questions des infrastructures pendant un temps, au ministère chargé des collectivités territoriales ». Lors du remaniement de 2018 il est, en effet, nommé ministre délégué auprès de la ministre de la Cohésion des territoires et des Relations avec les collectivités territoriales. Mais il y a du changement, explique Patrick Chaize, lorsque Julien Denormandie s’est aussi occupé du logement. Il avait alors « relâché le sujet » des infrastructures.

En parallèle, Cédric O prenait la relève de Mounir Mahjoubi au poste de secrétaire d’État chargé du Numérique. Pour le sénateur, il avait : « j’ose le dire, bien compris que les infrastructures avaient une importance dans la politique du numérique. Il n’y avait pas que la French Tech ». Il est resté en place lors du passage au gouvernement Castex avant de quitter le gouvernement en 2022.

De ministre délégué à secrétaire d’État

Jean-Noël Barrot prend la suite des opérations, d’abord comme ministre délégué chargé de la Transition numérique et des Télécommunications, puis comme ministre délégué chargé du Numérique lors du remaniement de 2023. Le passage du titre de secrétaire d’État à ministre délégué est une promotion au niveau du rang protocolaire lui permettant notamment d’assister aux conseils des ministres.

Pour les différences entre les postes de ministre d’État, ministre, ministre délégué et secrétaire d’État, Vie Publique propose un petit article explicatif.

« Ensuite, on est passé à un secrétaire d’État, Marina Ferrari, dans la chute, non pas libre, mais régulière » du numérique dans le gouvernement., Et, finalement, on arrive au gouvernement actuel avec « plus personne aux infrastructures ».

« Zut, on a oublié quelqu’un, ce sera toi »

Patrick Chaize n’y va pas avec le dos de la cuillère, partant du principe que le sujet des télécoms sera bien placé sous la tutelle de l’Industrie, comme vient de le révéler Les Echos : « Le fait que Marc Ferracci ait récupéré ce secteur, c’est qu’on lui a dit « zut, on a oublié quelqu’un, ce sera toi » ». Il y a bien Clara Chappaz, mais elle occupe le poste de secrétaire d’État chargée de l’Intelligence artificielle et du Numérique, sans mention des télécoms. Et alors que le numérique était traditionnellement rattaché au ministère de l’Économie, il passe à l’Enseignement supérieur.

L’allusion à ce supposé « oubli » vient en fait du décret des attributions ministérielles publié le 21 septembre. Clara Chappaz est bien en charge de l’intelligence artificielle et du numérique, Marc Ferracci à l’industrie, tandis que Marina Ferrari passe à l’économie du tourisme, tous les deux auprès du ministre de l’Économie, des finances et de l’industrie (Antoine Armand). Mais rien sur les télécoms, aucune attribution dans le décret.

Cela faisait hurler Philippe Le Grand (président d’InfraNum), à la Gazette des Communes : les télécoms « ont purement et simplement été oubliées, au même titre que le handicap ». Presque un mois plus tard, le gouvernement semble avoir corrigé le tir. Le cabinet de Marc Ferracci bénéficie ainsi depuis le 1er octobre de la présence d’une conseillère numérique, télécommunications et électronique, Mélanie Przyrowski, qui officiait précédemment auprès du ministère délégué au numérique.

« On a tous une part de responsabilité »

C’est donc bien le ministre de l’Industrie qui devra gérer les télécoms en plus de son portefeuille actuel, déjà bien chargé. « Je ne suis pas convaincu qu’il passe 80 % de son temps sur le sujet », s’inquiète Patrick Chaize. Ce dernier et Philippe Le Grand ont sollicité le ministre « dès sa nomination », sans succès pour l’instant.

Patrick Chaize s’interroge sur la situation actuelle : « Je pense très franchement que si on en est arrivé là, on a tous une part de responsabilité. C’est qu’on n’a pas su finalement mettre suffisamment en avant l’importance du numérique. Ça s’explique sûrement par le fait que c’est un secteur qui est assez confidentiel […] C’est vrai qu’on retrouve les mêmes acteurs au même endroit qui se côtoient finalement dans un cercle très fermé ».

Cybersécurité : le projet de loi NIS2 présenté en conseil des ministres… et maintenant ?

On m'disait tu comprendras plus tard
Cybersécurité : le projet de loi NIS2 présenté en conseil des ministres… et maintenant ?

Le projet de loi de transposition de la directive européenne a enfin été présenté en conseil des ministres. Il a été publié dans la foulée sur Legifrance, et va pouvoir entamer sa navette parlementaire.

Hier, le ministre et la secrétaire d’État de l’Enseignement supérieur ainsi que le ministre de l’Économie ont présenté un projet de loi attendu en conseil des ministres. Il s’agit de celui « relatif à la résilience des infrastructures critiques et au renforcement de la cybersécurité », dont la partie le plus visible est sans aucun doute NIS2.

Trois transpositions en un seul projet de loi

Le gouvernement explique qu’avec ce projet, la France transpose trois directives européennes adoptées le 14 décembre 2022 et « visant à renforcer les dispositifs nationaux de sécurisation des activités d’importance vitale et de lutte contre les menaces cyber ».

Nous avons tout d’abord la directive européenne 2022/2557 dont le but est de renforcer la résilience des infrastructures des entités critiques (alias « REC »). Il y a ensuite la directive 2022/2555 (alias « NIS2 », le gros morceau). Comme son nom l‘indique, il s’agit de prolonger NIS1 et de cibler davantage d’entités qualifiées d‘essentielles ou d’importantes. Il y a enfin la directive 2022/2556 (alias « DORA » pour Digital Operational Resilience Act) qui vise le secteur financier.

La porte-parole du gouvernement Maud Bregeon résume ainsi la situation : « c’est une loi qui nous donne de nouveaux outils pour protéger nos infrastructures critiques, énergie, transport, santé, eau potable et notre système financier ». NIS2 aura de fortes répercussions sur des petites et grandes entreprises.

Il reste encore de très nombreuses étapes

Les États membres ont jusqu’au 17 octobre pour transposer la directive au niveau du droit national. Mais Vincent Strubel avait déjà prévenu la semaine dernière que « le 17 octobre, il ne va pas se passer grand-chose de spécial, en tout cas dans le domaine de NIS2 ».

Hasard du calendrier, nous étions hier à une table ronde sur NIS2 avec Ionathan Noblins de l’ANSSI (coordinateur national pour la sécurité des télécommunications et des infrastructures du numérique) au moment de l’annonce du gouvernement. Nous lui avons donc demandé ce que cette présentation en conseil des ministres implique pour la suite des événements. En résumé, pas grand-chose.

« C’était prévu. Ça veut dire que ça avance […] Après, il y a de très nombreuses étapes », ajoute-t-il. Nous demandons également si le projet de loi est disponible : « Il sera rendu public au moment de son examen par le Parlement », mais il est finalement arrivé un peu plus tôt que prévu, nous confirme Ionathan Noblins.

En effet, comme repéré par le fin limier Marc Rees, le Projet de loi relatif à la résilience des infrastructures critiques et au renforcement de la cybersécurité est déjà disponible sur Legifrance, avec l’exposé des motifs. La seconde étape sera donc la présentation du projet de loi et son examen au Parlement, puis la navette parlementaire entre l’Assemblée nationale et le Sénat.

Il y a également l’avis du Conseil d’État, mais celui-ci date du 6 juin 2024 et le projet de loi a ainsi pu évoluer. Pour rappel, ce projet de loi avait été accueilli favorablement par le CSNP, malgré une longue liste de recommandations et de questions.

Le coordinateur de l’ANSSI ne communique aucun délai, mais Vincent Strubel (directeur général de l’ANSSI) avait un peu vendu la mèche la semaine dernière : « On a devant nous des mois encore de travail de consultation et de construction sur le cadre réglementaire, et des mesures techniques qui vont décliner tout ça ». L’analyse du projet de loi permettra de connaitre un peu plus l’articulation de NIS2 en France.

En attendant, « commençons à se préparer »

« Le message principal, c’est : commençons à se préparer pour faire face à la menace cyber. Mais sans précipitation », lâche Ionathan Noblins. « Que le projet soit examiné par le Parlement demain dans un an ou dans six mois, ce n’est pas l’essentiel. L’essentiel, c’est de commencer à se préparer, prendre conscience du risque de la menace cyber pour les plus petites entités et mettre en place des mesures d’hygiène ».

Ionathan Noblins comme Vincent Strubel renvoient vers le site Monespacenis2 pour s’informer et s’informer des dernières annonces sur cette directive européenne et sa transposition. Pour rappel, un règlement Cyber Resilience Act (CRA) est aussi en préparation au niveau européen et sera d’application directe, probablement en 2027.

Changer de fournisseur d’électricité : les choses à savoir, les pièges à éviter

On va vous faire aimer les FIS des opérateurs
Changer de fournisseur d’électricité : les choses à savoir, les pièges à éviter

En France, nous pouvons choisir notre fournisseur d’électricité parmi une multitude de sociétés, avec une belle jungle d’offres et d’abonnements. Dans cet article, on vous déblaye le chemin et on vous donne les principales clés pour vous aider dans vos recherches.

Dans un précédent article, nous avons expliqué comment suivre sa consommation instantanée en direct avec un Raspberry Pi et un module TIC à brancher sur un compteur connecté Linky. Aujourd’hui, on attaque le sujet par un autre bout : comment maitriser les coûts et choisir l’offre la mieux adaptée à votre consommation, et ainsi réduire votre facture.

Dans la première partie de notre dossier, on prépare le terrain avec une explication sur les différentes formules. Ensuite, on passera la seconde avec des cas pratiques en fonction de votre consommation et de vos usages.


Il reste 96% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

[T@LC] On a acheté des clés Windows 11 Pro à 0,02 euro (enfin, on pensait)

My2cents
[T@LC] On a acheté des clés Windows 11 Pro à 0,02 euro (enfin, on pensait)

Vous avez besoin d’une clé de licence pour Windows 11 Pro ? Vous hésitez entre la version vendue par Microsoft à 259 euros et une clé d’un revendeur sur une marketplace à deux centimes ? On a tenté l’expérience pour vous.

Déjà, pourquoi faut-il activer Windows ?

L’activation de Windows permet, selon Microsoft, « de vérifier que votre copie de Windows est authentique et n’a pas été utilisée sur un nombre d’appareils supérieur à celui prévu dans les Termes du contrat de licence logiciel Microsoft ». L’éditeur rappelle qu’il existe trois méthodes d’activation : en ligne, par téléphone via un système automatisé et enfin par l’intermédiaire d’un conseiller du support en direct.

Souvent, Windows est directement livré avec votre machine quand vous achetez un ordinateur prêt à l’emploi (portable ou fixe), mais ce n’est pas le cas si vous montez une machine vous-même, si vous recyclez un ancien ordinateur, etc. Parfois, certaines machines sont également vendues sans Windows. Et si vous changez trop de pièces de votre PC, la licence peut ne plus être valide.

Bref, il peut arriver de devoir acheter une licence pour Windows 11, même si utiliser Windows 11 sans l’activer, c’est possible aussi. Le système affiche alors en permanence un message pour vous rappeler d’activer Windows et vous n’avez pas accès à certains paramètres et options de personnalisations. Mais dans l’ensemble, Windows fonctionne comme n’importe quelle autre version activée.

Windows 11 Pro : 259 euros chez Microsoft, 0,02 euro chez Cdiscount…

Sur son site, Microsoft propose Windows 11 Famille (Home) à 145 euros sur clé USB ou en téléchargement, au choix. La version Pro est à 259 euros dans les mêmes conditions. Il n’est pourtant pas rare d’en trouver pour quelques euros sur les différentes places de marché. On peut déjà se douter qu’il y a un loup.


Il reste 92% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

[Édito] Quand la réalité dépasse la fiction

I, deadbot
[Édito] Quand la réalité dépasse la fiction

Des choses qualifiées de pure fiction il y a quelques décennies (ou dans un passé proche), sont pourtant une réalité aujourd’hui. De la loi sur les robots à la gestion des réseaux sociaux et vos données après la mort, les sujets sont nombreux et inquiétants ; ils méritent que l’on s’y attarde dès à présent.

La réalité dépasse la fiction, rien de neuf me direz-vous ? C’est un fait depuis bien longtemps maintenant, bien que cela dépende de la réalité et de la fiction dont nous parlons. La fiction d’il y a 100 ans (dans les années 20, après la Première Guerre mondiale) n’a rien à voir avec celle d’aujourd’hui.

Les trois lois d’Asimov…

C’est à cette époque que de grands noms de la littérature de science-fiction sont nés. C’est notamment le cas d’Isaac Asimov (1920 - 1992), largement connu pour son Cycle des robots et ses fameuses « trois lois » qui ont tant inspiré d’autres auteurs/réalisateurs par la suite :

  1. Un robot ne peut porter atteinte à un être humain ni, restant passif, laisser cet être humain exposé au danger ;
  2. Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres sont en contradiction avec la Première Loi ;
  3. Un robot doit protéger son existence dans la mesure où cette protection n’entre pas en contradiction avec la Première ou la Deuxième Loi ;

Formulées dans les années 40, ces lois n’avaient aucune application pratique à l’époque. Avec l’arrivée des robots (sous toutes leurs formes) et le galop effréné ces dernières années de l’intelligence artificielle générative, on peut dire que la réalité est en passe de rattraper la fiction.

Mais nous sommes encore loin pour le moment d’une intelligence artificielle générale, c’est-à-dire capable de réaliser toutes sortes de tâches, y compris cognitives, à la place des humains. Une telle IA serait douée d’une forme de sensibilité ou de volonté… et c’est précisément ici que la réalité se heurte à la fiction, ou vice-versa.

Les intelligences artificielles qui animent les robots sont programmées par des humains pour effectuer des tâches précises. Si un drone doit larguer des bombes pour tuer des personnes, il le fera une fois la cible atteinte, sans « réfléchir » ou être bloqué par les lois de la robotique.

Partons du principe qu’une intelligence artificielle générale arrivera un jour. Quelles devraient alors être les « lois » à mettre en place ? Et, comment s’assurer de leur fiabilité ? Le film I, Robot montre comment des règles en apparences simples (celles d’Azimov) peuvent être détournées.

De Terminator à Matrix en passant par Tron, les réalisateurs s’en donnent à cœur joie sur les « dérives » des intelligences artificielles. Parfois pour assurer leur survie, parfois pour répondre de manière trop stricte aux règles en prenant le contrôle sur la vie des humains, incapables de la gérer correctement avec leur environnement. Dominer et asservir pour assurer la survie de l’espèce.


Il reste 78% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

Starship : SpaceX réalise un « exploit technique » avec son Mechazilla

Spacezilla
Starship : SpaceX réalise un « exploit technique » avec son Mechazilla

Hier, SpaceX a procédé au cinquième essai de Starship et le moins que l’on puisse dire c’est que SpaceX a fait briller les yeux des internautes. Maintenant que la récupération du premier étage de sa fusée Falcon 9 est une formalité, la société a réussi à « attraper » au vol le premier étage de Starship avec une tour. C’était le cinquième essai de Starship.

Le premier vol de Starship remonte à avril 2023 et s’était soldé par une explosion après trois minutes de vol. Lors du second vol en novembre 2023, la séparation entre les deux étages avait bien eu lieu, mais une explosion est venue mettre un terme à cet essai. Lors du troisième essai en mars 2024, Starship a réussi à se mettre en orbite, mais le retour de la fusée était un échec. Le quatrième essai, en juin, était un succès sur les deux principaux objectifs : le retour des deux étages de la fusée, dans l’eau (c’était prévu).

Attraper au vol un « Boeing 747 sans les ailes »

Pendant cette cinquième tentative, SpaceX devait essayer de rattraper le premier étage de sa fusée (alias le booster Super Heavy) avec des « baguettes » placées sur une tour baptisée Mechazilla. Le début de la mission se déroule sans accroc : décollage et ascension à l’aide des 33 moteurs, séparation des étages (à un peu moins de trois minutes et 70 km d’altitude) et retour du premier étage après sept minutes de vol, avec succès.

Il n’était pas question pour le premier étage de se poser sur une plateforme sur Terre ou en mer (ce que fait Falcon 9), mais d’être attrapé au vol avant de se poser sur Terre. Thomas Pesquet y est allé de ses félicitations : « Encore un exploit technique pour les équipes de SpaceX ! 🚀 Honnêtement, je n’étais pas prêt pour ça : c’est la tour de 145 m de haut 🏗 qui attrape en plein vol le booster, des dimensions d’un Boeing 747 sans les ailes ✈, avec ses bras mobiles… ».

Mechazilla has caught the Super Heavy booster! pic.twitter.com/6R5YatSVJX

— SpaceX (@SpaceX) October 13, 2024

Starship voyage à plus de 200 km d’altitude et revient en mer

Pendant ce temps-là, l’étage supérieur Starship (oui, l’étage supérieur porte le même nom que la fusée complète) continuait sa route dans l’espace. Il a grimpé à plus de 200 km l’altitude à une vitesse de croisière de plus de 26 000 km/h. Une heure après le début de la mission, il est venu amerrir, comme prévu. La vidéo complète de la mission est disponible par ici.

SpaceX félicite ses équipes pour cette nouvelle étape dans la quête de la société et d’Elon Musk de « rendre la vie multiplanétaire. Le monde a pu voir à quoi ressemblera l’avenir lorsque Starship commencera à transporter son équipage et son fret vers des destinations sur Terre, sur la Lune, sur Mars et au-delà ».

Starship en quelques chiffres

La fusée Starship mesure pour rappel 121 mètres de hauteur (9 mètres de diamètre) avec ses deux étages. La capacité de charge varie entre 100 et 150 tonnes, pour le lanceur en version entièrement réutilisable. L’étage supérieur Starship mesure 50 m, contre 71 mètres pour le booster Super Heavy. C’est ce dernier qui vient donc d’être attrapé au vol par SpaceX avec une tour de 144 mètres.

Chez SpaceX, le développement de Starship avance à grands pas, qu’importe si la fusée explose pendant les tests. C’est d’ailleurs un mode de fonctionnement revendiqué par la société, et déjà utilisé avec Falcon 9 : « Avec chaque vol, Starship fait d’énormes progrès et atteint des objectifs de plus en plus difficiles, rendant l’ensemble plus performant et plus fiable. Notre approche consistant à placer du matériel de vol dans un environnement de vol le plus souvent possible » permet d’apprendre toujours plus vite, expliquait l’entreprise en septembre dans un long billet de blog.

La société en profitait pour tacler le régulateur : « malheureusement, nous continuons d’être coincés dans une réalité où il faut plus de temps pour remplir des documents gouvernementaux pour autoriser le lancement d’une fusée que pour la concevoir et la construire ».

Falcon Heavy dans les starting-blocks

SpaceX se prépare désormais à envoyer une fusée Falcon Heavy (avec trois boosters) pour la mission Europa Clipper de la NASA. Lancement prévu aujourd’hui à 18h05, avec une autre fenêtre de lancement demain à 17h58 heure française. Elle devrait atteindre Europe, une lune de Jupiter dans 5 ans, en 2030.

❌