↩ Accueil

Vue normale

☕️ Noms, emails, adresses IP… le nouveau site de Sarah Knafo était une véritable passoire

Ce midi, Clément Domingo (alias SaaX sur les réseaux sociaux) explique, capture d’écran à l’appui, que « le site internet de l’euro-députée Sara Knafo expose toutes les données personnelles des parisiens qui expriment leurs souhaits pour un futur Paris ! ».

🚨🔴 Élections Municipales – Le site internet de l'euro-députée Sara Knafo expose toutes les données personnelles des parisiens qui expriment leurs souhaits pour un futur Paris ! 😬

Attention aux sites internet "vibecodé"… qui exposent/exposeront les données personnelles des… pic.twitter.com/S6pojT781V

— SaxX ¯\_(ツ)_/¯ (@_SaxX_) January 9, 2026

1h30 plus tard, CheckNews confirme. En quelques clics, nos confrères ont « pu constater que ces données privées étaient effectivement accessibles ce vendredi midi. Parmi les 607 contributions enregistrées, nous avons pu distinguer 458 mails uniques, 437 adresses IP, et 187 numéros de téléphone renseignés ».

Lorsque SaaX a publié son message sur X, la faille était toujours donc présente, permettant ainsi à n’importe qui de récupérer les données. D’ailleurs, sur Breachforum, on retrouve déjà des publications à ce sujet. Un des membres « s’amuse » d’ailleurs de la situation : « Ce n’est pas une divulgation responsable, tu es un pirate informatique, SaxX ! Bienvenue du côté obscur ».

La coupe est pleine ? Peut être pas… selon Seblatombe, toujours sur X : « Pire encore, les cartes et photos d’identités apparaissent en clairs dans le code. Les photos ne sont pas demandées par le site. Elles sont publiées de manière volontaire par certaines personnes ayant rédigé un commentaire. Certains commentaires n’en contiennent aucune, tandis que d’autres en affichent », explique-t-il.

Pire encore, les cartes et photos d'identités apparaissent en clairs dans le code.. https://t.co/LQyKbJ8TaG pic.twitter.com/3HdagY1vBM

— Seb (@seblatombe) January 9, 2026

CheckNews a aussi repéré un même email « utilisé jusqu’à 20 fois, avec des pseudonymes différents ». Des propositions étaient aussi associées à un email de Sarah Knafo, mais cette dernière affirme à nos confrères qu’elle n’est pas à l’origine des messages. Dans ce genre de formulaire, il est possible d’indiquer n’importe quel email pour rappel.

La principale intéressée affirme à nos confrères avoir « corrigé » l’erreur. Le site participatif Paris à cœur ouvert de la candidate du parti d’extrême droite Reconquête fondé par son compagnon Eric Zemmour affiche désormais une « information importante » : « L’ultra gauche n’aime pas la démocratie et tente de pirater le site ». Rappelons qu’il n’y a a priori pas de piratage ici puisque les données étaient lisibles directement depuis la console des navigateurs.

La première ligne de la politique de confidentialité du site affirme que « Sarah Knafo pour Paris (ci-après, « Nous »), s’engage, en tant que responsable du traitement de vos Données Personnelles, à protéger votre vie privée ».

Dans la même journée, ce site de Sarah Knafo faisait l’objet d’un signalement à la procureure de la République par le sénateur Ian Brossat : « À peine en ligne, le site participatif de Mme Knafo est déjà un déferlement de propos racistes, y compris d’appels au meurtre. Le racisme n’est pas une opinion. C’est un délit », indique-t-il sur X, avec une copie de son signalement.

Check News parlait de 607 contributions à 13h30, il y en a 634 à l’heure actuelle. Mais, pour le moment, la page des contributions n’affiche plus que l’« information importante ».

☕️ Noms, emails, adresses IP… le nouveau site de Sarah Knafo était une véritable passoire

9 janvier 2026 à 18:24

Ce midi, Clément Domingo (alias SaxX sur les réseaux sociaux) explique, capture d’écran à l’appui, que « le site internet de l’euro-députée Sara Knafo expose toutes les données personnelles des parisiens qui expriment leurs souhaits pour un futur Paris ! ».

🚨🔴 Élections Municipales – Le site internet de l'euro-députée Sara Knafo expose toutes les données personnelles des parisiens qui expriment leurs souhaits pour un futur Paris ! 😬

Attention aux sites internet "vibecodé"… qui exposent/exposeront les données personnelles des… pic.twitter.com/S6pojT781V

— SaxX ¯\_(ツ)_/¯ (@_SaxX_) January 9, 2026

1h30 plus tard, CheckNews confirme. En quelques clics, nos confrères ont « pu constater que ces données privées étaient effectivement accessibles ce vendredi midi. Parmi les 607 contributions enregistrées, nous avons pu distinguer 458 mails uniques, 437 adresses IP, et 187 numéros de téléphone renseignés ».

Lorsque SaxX a publié son message sur X, la faille était toujours donc présente, permettant ainsi à n’importe qui de récupérer les données. D’ailleurs, sur Breachforum, on retrouve déjà des publications à ce sujet. Un des membres « s’amuse » d’ailleurs de la situation : « Ce n’est pas une divulgation responsable, tu es un pirate informatique, SaxX ! Bienvenue du côté obscur ».

La coupe est pleine ? Peut être pas… selon Seblatombe, toujours sur X : « Pire encore, les cartes et photos d’identités apparaissent en clairs dans le code. Les photos ne sont pas demandées par le site. Elles sont publiées de manière volontaire par certaines personnes ayant rédigé un commentaire. Certains commentaires n’en contiennent aucune, tandis que d’autres en affichent », explique-t-il.

D’après nos constatations, il y a une petite vingtaine de photos, dont une seule avec une pièce d’identité tronquée. Pour le reste, ce sont des photos de la ville de Paris, de personnes… Il y a aussi un chien et des poubelles.

Pire encore, les cartes et photos d'identités apparaissent en clairs dans le code.. https://t.co/LQyKbJ8TaG pic.twitter.com/3HdagY1vBM

— Seb (@seblatombe) January 9, 2026

CheckNews a aussi repéré un même email « utilisé jusqu’à 20 fois, avec des pseudonymes différents ». Des propositions étaient aussi associées à un email de Sarah Knafo, mais cette dernière affirme à nos confrères qu’elle n’est pas à l’origine des messages. Dans ce genre de formulaire, il est possible d’indiquer n’importe quel email pour rappel.

La principale intéressée affirme à nos confrères avoir « corrigé » l’erreur. Le site participatif Paris à cœur ouvert de la candidate du parti d’extrême droite Reconquête fondé par son compagnon Eric Zemmour affiche désormais une « information importante » : « L’ultra gauche n’aime pas la démocratie et tente de pirater le site ». Rappelons qu’il n’y a a priori pas de piratage ici puisque les données étaient lisibles directement depuis la console des navigateurs.

La première ligne de la politique de confidentialité du site affirme que « Sarah Knafo pour Paris (ci-après, « Nous »), s’engage, en tant que responsable du traitement de vos Données Personnelles, à protéger votre vie privée ».

Dans la même journée, ce site de Sarah Knafo faisait l’objet d’un signalement à la procureure de la République par le sénateur Ian Brossat : « À peine en ligne, le site participatif de Mme Knafo est déjà un déferlement de propos racistes, y compris d’appels au meurtre. Le racisme n’est pas une opinion. C’est un délit », indique-t-il sur X, avec une copie de son signalement.

Check News parlait de 607 contributions à 13h30, il y en a 634 à l’heure actuelle. Mais, pour le moment, la page des contributions n’affiche plus que l’« information importante ».

IA : l’Autorité de la concurrence s’autosaisit sur les chatbots et l’e-commerce agentique

Toujours pas d’agent Smith ?
IA : l’Autorité de la concurrence s’autosaisit sur les chatbots et l’e-commerce agentique

Cette année, l’Autorité de la concurrence va rendre un avis sur les agents conversationnels, et notamment les conséquences pour l’e-commerce via des IA. Une révolution à venir qui nécessite des adaptations aussi bien côté revendeurs que fournisseurs de services et des solutions de paiement.

Après le cloud et l’IA générative, l’Autorité de la concurrence s’autosaisit d’un nouveau dossier, dans le prolongement des précédents : les agents conversationnels. Pour le dire plus simplement, on parle des « chatbots » tels que ChatGPT d’OpenAI, Claude d’Anthropic ou encore Le Chat de Mistral, pour ne citer que ces trois-là.

Ne pas confondre chatbot et agents conversationnels

Attention, précise l’Autorité, à ne pas amalgamer tous les chatbots. Son avis du jour ne concerne que les « agents conversationnels de type ChatGPT », pas l’ensemble des chatbots. En effet, ceux « qui gèrent les interactions avec des clients à l’aide d’un arbre de décision ne faisant pas nécessairement appel à l’intelligence artificielle » sont laissés de côté. De même que les « assistants virtuels fondés sur l’IA générative, comme Siri d’Apple, Alexa d’Amazon ».

L’Autorité de la concurrence dresse le portrait du secteur, qui s’organise autour de quelques grands acteurs : « ChatGPT d’OpenAI, serait le premier outil conversationnel avec 21,6 millions de visiteurs uniques au mois de septembre 2025. Derrière lui se trouverait Google Gemini (2,8 millions), Le « Chat » de Mistral AI (1,5 million), Perplexity (1,3 million), Microsoft Copilot (1 million) ».

On parle ici d’agents conversationnels « capables de comprendre le langage naturel, de répondre à des questions, de générer du texte, d’expliquer du code ou encore de créer des contenus visuels ». C’est un secteur « en pleine effervescence », selon l’Autorité.

Les acteurs cherchent à diversifier les possibilités et à monétiser

Dans le précédent dossier sur l’IA générative, l’Autorité s’est déjà penchée sur la base des agents conversationnels – les fameux modèles de fondation ; ce n’est donc pas l’objet de l’autosaisie du jour. Les entreprises derrière ces agents conversationnels « cherchent à diversifier les possibilités d’utilisation »… et s’intéressent surtout aux possibilités de monétisation « afin que ces services deviennent rentables ». Actuellement, les entreprises d’IA dépensent des milliards de dollars comme des petits pains.

Dans son enquête, l’Autorité va donc s’intéresser à plusieurs thématiques : l’intégration de la publicité (modalités d’affichage et conséquence sur le modèle économique), l’intégration des agents dans les services existants (effets de levier et autoréférence), car ces agents sont « mis en œuvre par des acteurs dominants », les partenariats et enfin la transformation des agents conversationnels en plateformes.

Les agents ne sont pas simplement des interfaces de questions et réponses, ils « tendent à devenir de véritables plateformes, permettant aux utilisateurs d’accéder directement à des services tiers sans quitter la fenêtre de conversation ». Une fonction qui tend à se développer avec les agents d’IA, c’est-à-dire des IA capables « d’agir en votre nom », pour reprendre une citation de Sundar Pichai (patron de Google) et d’interagir entre elles.

Des agents toujours plus présents et avec davantage « d’autonomie »

Une norme ouverte est en train de se développer à ce sujet : MCP pour Model Context Protocol. OpenAI saute les deux pieds dedans et propose même aux développeurs d’intégrer leurs applications directement dans ChatGPT. Pour prendre le contrôle sur le web, les sociétés développent leurs propres navigateurs (OpenAI et Perplexity) ou bien proposent des extensions qui peuvent prendre le contrôle du navigateur (c‘est le cas d’Anthropic).

L’Autorité consacre d’ailleurs une partie de son communiqué à la question du (e-)commerce agentique. Non seulement les « éditeurs déploient des efforts importants pour développer des agents accompagnant les utilisateurs dans leur parcours d’achat », mais de manière plus générale « c’est tout l’écosystème de la vente en ligne qui pourrait devoir s’adapter à l’irruption et au développement du commerce agentique ».

Contrairement au sujet du cloud où l’Autorité avait bien pris son temps avant de s’autosaisir, elle est cette fois-ci bien plus réactive. Des agents d’IA et notamment pour de l’e-commerce, sont certes déjà une réalité, mais nous sommes encore au début de cette technologie.

L’Autorité va par contre laisser de côté tout un pan du sujet : « la relation entre les agents conversationnels et les moteurs de recherche ne fait pas partie du champ de l’avis ». Pourtant, ces agents sont de plus en plus utilisés comme moteur de recherche, avec des enjeux importants sur la diversité des sources. En plus du bien connu SEO (Search Engine Optimization), le GEO (Generative Engine Optimization) a largement le vent en poupe. Dommage, le sujet mériterait pourtant de s’y attarder.

Comme toujours en pareille situation, l’Autorité de la concurrence lancera prochainement une consultation publique, avant de rendre son avis dans le courant de l’année. « Les observations des parties prenantes viendront nourrir les travaux de l’Autorité ».

IA : l’Autorité de la concurrence s’autosaisit sur les chatbots et l’e-commerce agentique

9 janvier 2026 à 12:46
Toujours pas d’agent Smith ?
IA : l’Autorité de la concurrence s’autosaisit sur les chatbots et l’e-commerce agentique

Cette année, l’Autorité de la concurrence va rendre un avis sur les agents conversationnels, et notamment les conséquences pour l’e-commerce via des IA. Une révolution à venir qui nécessite des adaptations aussi bien côté revendeurs que fournisseurs de services et des solutions de paiement.

Après le cloud et l’IA générative, l’Autorité de la concurrence s’autosaisit d’un nouveau dossier, dans le prolongement des précédents : les agents conversationnels. Pour le dire plus simplement, on parle des « chatbots » tels que ChatGPT d’OpenAI, Claude d’Anthropic ou encore Le Chat de Mistral, pour ne citer que ces trois-là.

Ne pas confondre chatbot et agents conversationnels

Attention, précise l’Autorité, à ne pas amalgamer tous les chatbots. Son avis du jour ne concerne que les « agents conversationnels de type ChatGPT », pas l’ensemble des chatbots. En effet, ceux « qui gèrent les interactions avec des clients à l’aide d’un arbre de décision ne faisant pas nécessairement appel à l’intelligence artificielle » sont laissés de côté. De même que les « assistants virtuels fondés sur l’IA générative, comme Siri d’Apple, Alexa d’Amazon ».

L’Autorité de la concurrence dresse le portrait du secteur, qui s’organise autour de quelques grands acteurs : « ChatGPT d’OpenAI, serait le premier outil conversationnel avec 21,6 millions de visiteurs uniques au mois de septembre 2025. Derrière lui se trouverait Google Gemini (2,8 millions), Le « Chat » de Mistral AI (1,5 million), Perplexity (1,3 million), Microsoft Copilot (1 million) ».

On parle ici d’agents conversationnels « capables de comprendre le langage naturel, de répondre à des questions, de générer du texte, d’expliquer du code ou encore de créer des contenus visuels ». C’est un secteur « en pleine effervescence », selon l’Autorité.

Les acteurs cherchent à diversifier les possibilités et à monétiser

Dans le précédent dossier sur l’IA générative, l’Autorité s’est déjà penchée sur la base des agents conversationnels – les fameux modèles de fondation ; ce n’est donc pas l’objet de l’autosaisie du jour. Les entreprises derrière ces agents conversationnels « cherchent à diversifier les possibilités d’utilisation »… et s’intéressent surtout aux possibilités de monétisation « afin que ces services deviennent rentables ». Actuellement, les entreprises d’IA dépensent des milliards de dollars comme des petits pains.

Dans son enquête, l’Autorité va donc s’intéresser à plusieurs thématiques : l’intégration de la publicité (modalités d’affichage et conséquence sur le modèle économique), l’intégration des agents dans les services existants (effets de levier et autoréférence), car ces agents sont « mis en œuvre par des acteurs dominants », les partenariats et enfin la transformation des agents conversationnels en plateformes.

Les agents ne sont pas simplement des interfaces de questions et réponses, ils « tendent à devenir de véritables plateformes, permettant aux utilisateurs d’accéder directement à des services tiers sans quitter la fenêtre de conversation ». Une fonction qui tend à se développer avec les agents d’IA, c’est-à-dire des IA capables « d’agir en votre nom », pour reprendre une citation de Sundar Pichai (patron de Google) et d’interagir entre elles.

Des agents toujours plus présents et avec davantage « d’autonomie »

Une norme ouverte est en train de se développer à ce sujet : MCP pour Model Context Protocol. OpenAI saute les deux pieds dedans et propose même aux développeurs d’intégrer leurs applications directement dans ChatGPT. Pour prendre le contrôle sur le web, les sociétés développent leurs propres navigateurs (OpenAI et Perplexity) ou bien proposent des extensions qui peuvent prendre le contrôle du navigateur (c‘est le cas d’Anthropic).

L’Autorité consacre d’ailleurs une partie de son communiqué à la question du (e-)commerce agentique. Non seulement les « éditeurs déploient des efforts importants pour développer des agents accompagnant les utilisateurs dans leur parcours d’achat », mais de manière plus générale « c’est tout l’écosystème de la vente en ligne qui pourrait devoir s’adapter à l’irruption et au développement du commerce agentique ».

Contrairement au sujet du cloud où l’Autorité avait bien pris son temps avant de s’autosaisir, elle est cette fois-ci bien plus réactive. Des agents d’IA et notamment pour de l’e-commerce, sont certes déjà une réalité, mais nous sommes encore au début de cette technologie.

L’Autorité va par contre laisser de côté tout un pan du sujet : « la relation entre les agents conversationnels et les moteurs de recherche ne fait pas partie du champ de l’avis ». Pourtant, ces agents sont de plus en plus utilisés comme moteur de recherche, avec des enjeux importants sur la diversité des sources. En plus du bien connu SEO (Search Engine Optimization), le GEO (Generative Engine Optimization) a largement le vent en poupe. Dommage, le sujet mériterait pourtant de s’y attarder.

Comme toujours en pareille situation, l’Autorité de la concurrence lancera prochainement une consultation publique, avant de rendre son avis dans le courant de l’année. « Les observations des parties prenantes viendront nourrir les travaux de l’Autorité ».

☕️ ownCloud, Nextcloud… : les vols de données se multiplient, activez la double authentification

9 janvier 2026 à 10:24

Dans un rapport pour Infostealers, la société spécialisée en cybersécurité Hudson Rock explique qu’un pirate est « en train de mettre aux enchères des données exfiltrées des portails de partage de fichiers d’environ 50 grandes entreprises mondiales ». Le pirate est entré dans des applications comme ShareFile, OwnCloud et Nextcloud qui permettent de stocker et partager des fichiers. Il n’avait plus qu’à se servir.

Le rapport explique que « ces défaillances catastrophiques de sécurité n’étaient pas le résultat d’exploitation de faille zero-day dans l’architecture de la plateforme, mais plutôt des suites d’infections malveillantes sur les appareils des employés, combiné à manque cruel de mise en place de l’authentification multi-facteurs (MFA) ».

Une des plateformes concernées, ownCloud, s’est fendue d’un billet de blog pour alerter ses utilisateurs. Elle rappelle qu’il ne s’agit pas d’une faille ni d’un piratage. Elle enjoint ses utilisateurs à activer la double authentification (ou authentification multi-facteurs) au plus vite si ce n’est pas déjà fait : « Des acteurs malveillants ont obtenu des identifiants utilisateurs via des logiciels malveillants de type infostealer installés sur les appareils des employés ». Sans double authentification, le pirate peut accéder au compte.

Ce rapport n’est qu’une goutte d’eau dans l’océan des manquements liés à la cybersécurité, mais il illustre bien les risques causés par un problème sur un compte. Si la double authentification n’est pas une protection absolue contre le piratage, c’est déjà une barrière de sécurité robuste et facile à mettre en œuvre, du moins si le service la propose.

La CNIL recommande évidemment d’utiliser l’authentification multifacteurs et va même plus loin. « En raison du grand nombre de violations intervenues l’an dernier [il était question de 2024, mais 2025 n’était pas mieux, ndlr] sur des bases de clients/prospects et usagers, la CNIL estime qu’un effort spécifique de sécurisation est nécessaire », expliquait-elle en avril dernier.

Ainsi, elle « renforcera dès 2026 sa politique de contrôle pour s’assurer de la mise en place de l’authentification multifacteur pour ces grandes bases de données. L’absence de cette mesure pourra justifier que soit initiée une procédure de sanction ».

Enfin, la Commission rappelle « que la mise en place d’une authentification multifacteur était déjà jugée en principe nécessaire au titre du RGPD pour des bases de données comprenant des données sensibles ou des données dont la violation exposerait les personnes à des risques importants (données bancaires et numéro de sécurité sociale notamment) ».

☕️ Android : Google ne publiera le code source d’AOSP que deux fois par an

8 janvier 2026 à 08:32

Google n’en finit pas de revoir sa gestion d’Android Open Source Project (alias AOSP). C’est la version open source (sous licence Apache 2.0) du système d’exploitation mobile utilisée par des fabricants et développeurs de ROM alternatives, comme LineageOS.

Google indique à Android Authority que la publication du code source se fera désormais deux fois par an, « au deuxième et au quatrième trimestre de chaque année ». Cela correspond au rythme de déploiement d’Android, avec une version majeure au deuxième trimestre et une mineure au quatrième.

Jusqu’à présent, la version AOSP était publiée « dans les jours suivant le déploiement de la mise à jour correspondante sur ses propres appareils mobiles Pixel », rappellent nos confrères. Désormais, Google va se garder une longueur d’avance.

Flock

L’annonce est confirmée sur cette page, avec un message pour les développeurs : « À partir de 2026, pour nous aligner sur notre modèle de développement stable et garantir la stabilité de la plate-forme pour l’écosystème, nous publierons le code source sur AOSP au deuxième et au quatrième trimestre. Pour créer et contribuer à AOSP, nous vous recommandons d’utiliser android-latest-release au lieu de aosp-main. La branche de fichier manifeste android-latest-release fera toujours référence à la version la plus récente envoyée à AOSP ».

Google précise à nos confrères que cela ne devrait rien changer pour les correctifs liés à la sécurité : « l’entreprise continuerait à publier chaque mois des correctifs de sécurité sur une branche dédiée uniquement à la sécurité pour les versions pertinentes du système d’exploitation, tout comme elle le fait aujourd’hui », affirme Android Authority. Pourtant, ce fonctionnement aussi a changé il y a quelques mois, au grand dam de LineageOS.

Il y a un peu moins d’un an, Google annonçait que le développement d’Android passait uniquement en interne, avec une conséquence visible : la version publique d’Android est toujours en retard sur la version interne. Google bascule de plus en plus dans un modèle où ses smartphones seront en avance sur les autres niveau logiciel.

Le Wi-Fi 8 est déjà une réalité au CES

7 janvier 2026 à 14:25
Alors qu’on est toujours à la 5G… pfff !
Le Wi-Fi 8 est déjà une réalité au CES

Le CES est l’occasion pour Asus de dégainer son premier routeur Wi-Fi 8… enfin un « concept » plus exactement, pas encore un produit commercial. Broadcom continue de décliner sa gamme de puces pour le Wi-Fi, tandis que MediaTek occupe le terrain médiatique avec une annonce (vide). 2026 devrait être l’année des premières annonces de produits.

Depuis des années, les fabricants sont en avance sur la norme. Le Wi-Fi 8 n’est pas encore officiel que déjà les annonces pleuvent durant le CES de Las Vegas. Asus par exemple présente un « concept » de routeur en Wi-Fi 8 : le ROG NeoCore.

Asus partage une image, mais ne donne aucune caractéristique technique. Le fabricant se contente de déclarations du genre : « le Wi-Fi 8 ne consiste pas seulement à augmenter les débits – il s’agit de rendre chaque connexion plus intelligente et plus fiable », explique Tenlong Deng, vice-président chez Asus.

Alors que les routeurs de nouvelles générations sont souvent bardés d’antennes bien visibles, le ROG NeoCore n’en a aucune extérieure. Le fabricant affirme que « ses premiers routeurs domestiques WiFi 8 arriveront en 2026 ». L’entreprise propose plus de détails sur la technologie du Wi-Fi 8 sur cette page.

Des puces Wi-Fi 8 chez Broadcomm et MediaTek

Broadcomm de son côté annonce un APU BCM4918 ainsi que deux puces BCM6714 et BCM6719 ; tous avec le Wi-Fi 8 en ligne de mire. Le fabricant avait déjà présenté sa puce BCM6718 en octobre dernier, elle aussi en Wi-Fi 8. Des échantillons sont déjà disponibles pour certains clients triés sur le volet.

La BCM6714 propose 3 flux en 2,4 GHz (3×3) et 4 flux en 5 GHz (4×4), tandis que la BCM6719 est en 4×4 sur les deux bandes de fréquences. Les deux disposent d’un amplificateur de puissance sur les 2,4 GHz pour « réduire les composants externes et améliorer l’efficacité des ondes ». La BCM6718 prend pour sa part en charge trois bandes de fréquences (2,4, 5 et 6 GHz) en 4×4, mais sans amplificateur intégré.

MediaTek aussi répond présent à l’appel du Wi-Fi 8 avec sa famille Filogic 8000… et c’est à peu près tout. Le reste du communiqué parle des avantages et espoirs du Wi-Fi 8, pas des caractéristiques des futures puces de MediaTek, dont les premiers exemplaires « devraient être livrés aux clients plus tard cette année ».

Le Wi-Fi 8 fonctionne déjà (en labo), les nouveautés attendues

En octobre, TP-Link affirmait réaliser pour la première fois des échanges de données en Wi-Fi 8, via un prototype développé dans le cadre d’un partenariat industriel (sans précision supplémentaire).

Le Wi-Fi 8 ne devrait pas révolutionner les débits – même si certains parlent de 100 Gb/s, bien au-delà de ceux théoriques du Wi-Fi 7 (46 Gb/s) – mais augmenter grandement la fiabilité, notamment dans des conditions difficiles. Le Wi-Fi 8 est aussi connu sous la norme IEEE 802.11bn Ultra High Reliability (UHR).

« Le Wi-Fi  8 pourrait atteindre des débits théoriques proches de 100 Gb/s, mais sa priorité serait une expérience plus fluide et stable », affirmait TP-Link. « L’objectif de cette norme de nouvelle génération est d’améliorer l’expérience utilisateur en augmentant, non seulement la vitesse, mais aussi la fiabilité ». La latence devrait aussi être améliorée », expliquait HPE.

Qualcomm en parle comme « un tournant fondamental : il va au-delà des débits pour privilégier des performances fiables dans des conditions réelles et difficiles ». Le Wi-Fi proposera une « connectivité cohérente, à faible latence et presque sans perte, même dans des environnements (mobiles) très encombrés, sujets aux interférences ».

Rendez-vous en 2028 pour la finalisation, cette année pour les produits

L’été dernier, nous avions publié un tour d’horizon des attentes du Wi-Fi 8, avec par exemple la coordination multi-AP (points d’accès multiples) souvent mise en avant. Citons également des améliorations sur la gestion du spectre, avec « le fonctionnement dynamique du sous-canal DSO/l’accès au canal non principal NPCA ». La finalisation de la norme est attendue pour 2028.

Comme c’était déjà le cas pour les précédentes versions, des produits seront commercialisés bien avant, dès cette année selon les déclarations du jour d’Asus par exemple. Le programme de certification du Wi-Fi 7 est par exemple arrivé en janvier 2024… bien après les premiers produits sur le marché, basés sur des brouillons de la norme.

Ryzen AI 400, Max+ et 9850X3D… au CES, AMD assure (à peine) le service minimum

7 janvier 2026 à 08:35
Le non changement dans la continuité
Ryzen AI 400, Max+ et 9850X3D… au CES, AMD assure (à peine) le service minimum

Lors du CES, AMD a présenté ses nouveautés qui n’ont pas grand chose de nouveau. Les Ryzen AI 400 sont des copies des 300, le Ryzen 7 9850X3D est une version plus rapide du 7 9800X3D et les Ryzen AI Max+ ont droit à un GPU plus rapide.

Après Intel qui a lancé ses Core Ultra Series 3 (Panther Lake), passons chez AMD avec les Ryzen AI 400 (Pro) alias Gorgon Point. Les processeurs sont construits autour de l’architecture Zen 5 (et sa déclinaison allégée 5c), déjà présente dans les Ryzen AI 300 (Strix Point) lancé en juin 2024. On retrouve aussi un NPU XDNA de 2ᵉ génération, là encore comme dans la série 300. La partie graphique ne change pas non plus avec du RDNA 3.5 (Radeon 8x0M).

Ryzen AI 400 : vous voyez les 300 ? Ben c’est pareil…

À référence identique, le nombre de cœurs est le même. Le Ryzen AI 9 465 par exemple a 10 cœurs, exactement comme le Ryzen 9 365. La répartition est identique avec 4x Zen 5 et 6x Zen 5c pour les deux CPU. Les fréquences aussi sont les mêmes : jusqu’à 5 GHz en mode Boost pour Zen 5, 3,3 GHz maximum pour les cœurs Zen 5c et 2 GHz en fréquence de base, aussi bien pour le Ryzen AI 9 365 que le 465.

Pour d’autres, seule la fréquence Boost change avec jusqu’à 5,2 GHz pour les Ryzen 9 AI HX 475 et 470 au lieu de 5,1 GHz pour les AI HX 375 et 370. Parfois, c’est la partie graphique qui est légèrement améliorée, comme le Ryzen AI 5 430 qui a une Radon 840M au lieu d’une 820M pour le AI 330, ou alors la fréquence du GPU est augmentée (3,1 GHz sur le AI 9 HX 475 au lieu de 2,9 GHz sur le 375 par exemple).

Il y a également un peu de changement sur le NPU dont la puissance de calcul peut désormais atteindre 60 TOPS.

Bref, rien de révolutionnaire, une simple petite mise à jour avec principalement un « 4 » à la place du « 3 ». Les premières machines avec un Ryzen AI de la série 400 sont attendues à partir de ce trimestre chez Acer, ASUS, Dell, HP, Gigabyte et Lenovo.

Deux nouveaux Ryzen AI Max+ avec un GPU plus performant

Deux nouvelles références Ryzen AI Max+ sont aussi annoncées : les 392 et 388. Cette gamme de processeurs ne dispose pour rappel que de cœurs Zen 5 (aucun cœur n’est en Zen 5c, moins performants mais plus économes). Le Ryzen AI Max+ 392 en a 12 comme le AI Max+ 390, tandis que le Ryzen AI Max+ 388 en a 8 comme le AI Max+ 385.

Contrairement à leur grand frère, ces deux nouveaux CPU ont une partie graphique Radeon 8060S avec 40 cœurs graphiques au lieu d’une 8050S avec seulement 32 cœurs, tandis que la fréquence gagne 100 MHz pour arriver à 2,9 GHz. AMD renforce donc la partie graphique de ses processeurs, déjà un point fort de cette gamme.

Le NPU est toujours à 50 TOPS. Là encore la disponibilité est prévue pour ce trimestre.

Sur le jeu, AMD enfonce le clou avec le Ryzen 7 9850X3D

Enfin, AMD annonce un Ryzen 7 9850X3D avec 8 cœurs Zen 5 et un 3D V-Cache de 2ᵉ génération de 96 Mo, pour un total de 104 Mo de mémoire cache sur le processeur. Il vient donc redonner un coup de jeune au Ryzen 7 9800X3D (qui a lui aussi 104 Mo de cache) avec une fréquence plus élevée de 5,6 GHz en boost (au lieu de 5,2 GHz), mais toujours à 4,7 GHz de base.

AMD annonce des performances « jusqu’à 27 % supérieures à celles de l’Intel Core Ultra 9 285K ». Le processeur est toujours sur socket AM5 et AMD promet aussi quelques pourcents de gain par rapport au Ryzen 7 9800X3D, comme on peut le voir dans le graphique ci-dessous comparant le Core Ultra 9 285K, le Ryzen 9800X3D et le 9850X3D.

Six AMD Ryzen AI Embedded P100

AMD pense aussi au monde de l’embarqué avec des AMD Ryzen AI Embedded P100 Series doté de 4 ou 6 cœurs Zen 5. Le NPU affiche 30 ou 50 TOPS, la connectivité est en 10 Gb/s, la DDR5 à 5 600 MT/s, etc. Le TDP varie entre 15 et 54 watts suivant les références.

Voici le détail des puces :

Lisa Su expose des dies : GPU MI455X et CPU Venice (Zen 6)

Enfin, AMD profite du CES pour parler un peu de ses prochains GPU pour serveurs et pour l’intelligence artificielle : les AMD Instinct. Il était notamment question de la série MI500 « prévue pour 2027 », qui devrait proposer « jusqu’à 1 000 fois plus de performances en AI que les GPU AMD Instinct MI300X introduits en 2023 ».

AMD présentait aussi son rack Helios, déjà annoncé en octobre dernier. Il comprend des processeurs AMD Epyc Venice avec la future architecture Zen 6 ainsi que des GPU Instincts MI455X. Lisa Lu présentait durant la conférence un (imposant) die du GPU de l’Instinct MI455X (le rectangle dans les photos ci-dessous) et un tout aussi imposant die du CPU Venice (le carré).

AMD annonce jusqu’à 2,9 ExaFLOPS de puissance de calcul (sans indiquer la précision) pour son rack Helios, avec 31 To de mémoire HBM4 et 4 600 cœurs CPU Zen 6. Pour la connectivité, AMD affiche le logo de l’Ultra Ethernet sur ses documents, sans plus de détails.

La version 1.0 de cette norme, qui se pose comme un concurrent de l’Infiniband de NVIDIA, a été mise en ligne au début de l’été 2025. Dans le comité directeur, on retrouve AMD, mais aussi Arista, Broadcom, Cisco, Eviden, HPE, Intel, Meta, Microsoft et Oracle. Google Cloud, NVIDIA, Qualcomm, Synopsys et Marvell (pour ne citer qu’eux) sont des membres du consortium.

☕️ Les caméras « touristiques » des communes dans le viseur de la CNIL

6 janvier 2026 à 08:50

Lorsque la CNIL parle des caméras « touristiques », il s’agit de celles utilisées par des communes pour « valoriser un territoire ». La Commission rappelle qu’elles « ne devraient pas permettre la collecte de données personnelles ».

Problème : « lors de contrôles, la CNIL a constaté qu’il était parfois possible de distinguer, sur les vidéos et photographies diffusées par les communes sur leurs sites web à des fins de promotion touristique, des personnes dans leur quotidien ainsi que des plaques d’immatriculation des véhicules dans le champ des caméras ».

La Commission explique que cela constitue un traitement de données personnelles et qu’il doit donc respecter le RGPD. Certaines communes ont fait valoir « que l’utilisation de ces caméras […] reposait sur la base légale de l’intérêt légitime ».

La CNIL n’est pas du même avis et parle d’un « traitement de données personnelles disproportionné au regard de sa finalité ». De plus, « ce type de dispositif ne permet pas aux personnes de s’opposer à cet enregistrement avant le recueil des images ». Les communes ciblées et les griefs précis ne sont pas indiqués.

Les caméras permettaient d’observer « des moments de vie personnels » comme ceux aux terrasses de bars, ou lors de manifestations sur la voie publique, mais aussi des moments « intimes » avec des caméras sur les entrées et fenêtres d’habitations par exemple. La Commission rappelle aussi qu’il existe des risques de « cambriolages, harcèlement, chantage, violences conjugales ».

La CNIL n’interdit pas les caméras touristiques, mais à condition qu’elles respectent la vie privée des personnes. Un exemple de bonnes et mauvaises pratiques est donné avec Notre-Dame à Paris :

PC Copilot+, voitures et robots : le triptyque de Qualcomm au CES

6 janvier 2026 à 08:19
Triptyque et pas criptyque !
PC Copilot+, voitures et robots : le triptyque de Qualcomm au CES

Au CES, Qualcomm fait des annonces autour des ordinateurs portables avec ses deux nouvelles puces Snapdragon X2 Plus, des voitures (connectées) avec Snapdragon Digital Chassis et des robots avec Dragonwing IQ10.

Comme toujours avec le CES de Las Vegas, les annonces sont nombreuses du côté des fabricants de puces. On ouvre le bal avec Qualcomm et sa gamme de SoC Snapdragon X2 Plus, avec des cœurs Oryon de 3ᵉ génération.

Snapdragon X2 Plus : 6 ou 10 cœurs au choix, avec ou sans « Performance »

Le processeur vient donc se positionner en dessous des Snapdragon X2 Extreme et Elite annoncés en septembre dernier. Ils ont pour rappel eux aussi des cœurs Oryon de troisième génération : 18 jusqu’à 4,4 GHz pour la version Extreme, 18 ou 12 jusqu’à 4 GHz pour la version Elite.

La version Plus du Snapdragon X2 ne propose que six ou dix cœurs maximum, là encore jusqu’à 4 GHz. Qualcomm dispose de deux types de cœurs : les Prime (les plus rapides) et les Performance (moins énergivores).

La version du X2 Plus avec dix cœurs dispose de deux six cœurs Prime et de quatre cœurs Performances, tandis que la version à six cœurs laisse tomber les cœurs Performance pour n’avoir que des Prime. À voir les conséquences que cela aura, surtout sur l’autonomie des machines.

Voici notre tableau récapitulatif des SoC Qualcomm avec des cœurs Oryon de 3ᵉ génération :

Des ordinateurs Copilot+ arrivent, avec jusqu’à 80 TOPS pour l’IA

Pas de changement pour le NPU qui revendique une puissance de calcul de 80 TOPS sur des entiers en 8 bits. La LPDDR5x grimpe jusqu’à 9 523 MT/s (MegaTransferts par seconde) avec une capacité de 128 Go au maximum ; le bus est sur 128 bits, la bande passante de 152 Go/s.

Attention toutefois à la partie graphique sur laquelle Qualcomm ne donne que très peu d’informations (comme trop souvent) : il s’agit dans les deux cas d’un Adreno X2-45 cadencé à 1,7 GHz sur le Snapdragon X2 Plus avec dix cœurs, contre 0,9 GHz seulement sur la version six cœurs ; soit un rapport quasiment du simple au double…

Du classique pour le reste avec huit lignes PCIe 5.0, quatre lignes PCIe 4.0, de l’USB4 (40 Gb/s), du Wi-Fi 7 et Bluetooth 5.4 via le FastConnect 7800 System, de la 5G jusqu’à 10 Gb/s avec le modem Snapdragon X75, un ISP Spectra pour le traitement des images, etc. Tous les détails sont disponibles dans ce document (pdf).

Les nouveaux Snapdragon X2 Plus seront disponibles dans des PC estampillés Copilot+ durant le premier semestre de l’année. Ce sont pour rappel des portables avec au moins 40 TOPS pour le NPU. Les machines seront moins performantes que celles avec des SoC Snapdragon X2 Elite (et Extreme évidemment) : l’autonomie sera aussi à surveiller, surtout pour la version six cœurs.

Voitures et robots : les autres annonces de Qualcomm

Cette nouvelle gamme de puces n’était pas la seule annonce, loin de là. Qualcomm annonce aussi un renforcement de son partenariat avec Google autour de la voiture connectée et de sa plateforme Snapdragon Digital Chassis. Le fabricant veut notamment apporter de « l’IA agentique et du calcul haute performance aux véhicules ». Le CES est aussi l’occasion d’annoncer un partenariat avec Leapmotor.

Toujours dans le monde de l’automobile, mais plus particulièrement sur les fonctions d’aide à la conduite ADAS (Advanced Driver Assistance System), Qualcomm s’associe à ZF « pour fournir une solution ADAS de pointe et évolutive qui combine des capacités avancées de calcul et de perception de l’IA ».

L’autre gros morceau des annonces de Qualcomm concerne les robots avec la plateforme Qualcomm Dragonwing IQ10. Le constructeur parle du « cerveau du robot » avec un ensemble complet qui « intègre matériel, logiciel et IA ».

Qualcomm indique travailler avec plusieurs entreprises du secteur : Advantech, APLUX, AutoCore, Booster, Figure, Kuka Robotics, Robotec.ai et VinMotion « afin de proposer à grande échelle des robots ». Le robot VinMotion’s Motion 2 (présenté il y a une semaine) est exposé sur le stand de Qualcomm ; il est par contre équipé de la plateforme de la génération précédente, la Qualcomm Dragonwing IQ9.

☕️ Flipper Zero et Raspberry Pi étaient interdits lors de l’investiture de Zohran Mamdani (New York)

5 janvier 2026 à 13:40

Sur son site Transition2025.com, le nouveau maire de New-York, Zohran Mamdani, a publié fin décembre des invitations pour sa cérémonie d’investiture. L’événement s’est déroulé à Broadway, entre Liberty St. et Barclay Street (au niveau de l’hôtel de ville de New York, dans le sud de Manhattan).

Rien de bien surprenant, jusqu’à se rendre dans la liste des objets autorisés et interdits dans la foire aux questions. Du classique à première vue, avec en-cas et thermos de boissons autorisés, tandis que les armes, drones, boissons alcoolisées, drogues, bâtons… étaient interdits.

En fin de liste, deux produits ont tapé dans l’œil d’Adafruit (un revendeur bien connu dans le monde de la bidouille) : Raspberry Pi et Flipper Zero.

« Si les inquiétudes tournaient autour des interférences, de la perturbation des ondes ou du piratage, le document ne le précise pas. Il reste vague, citant quelques appareils et espérant que le message passe. La curiosité est désormais interdite », fustige Adafruit.

Alors que le reste de la liste comprend des catégories de produits (parapluies, stylos laser, drones…), ce n’est pas le cas pour le Raspberry Pi et le Flipper Zero. Le premier est un micro-ordinateur vendu quelques dizaines de dollars, le second une boite à outils principalement conçue pour des tests d’intrusion et/ou de cybersécurité.

Les usages des deux machines peuvent être détournés, mais comme n’importe quel autre produit du genre… et il en existe de nombreuses autres références chez d’autres fabricants. Sans compter les smartphones, dont certains peuvent aussi avoir ce genre de capacité.

« Si l’objectif était d’interdire « les appareils électroniques non identifiés », « les dispositifs d’interférence de signal » ou « les outils de piratage », la liste devrait l’indiquer clairement », indique enfin Adafruit. Le revendeur ajoute que « donner des noms de marque risque de créer de la confusion ».

Plusieurs de nos confrères (dont BleepingComputer) ont contacté le service presse de Zohran Mamdami, sans réponse pour le moment.

☕️ « Flash ingérence » de la DGSI : les risques de l’IA et des réseaux sociaux pour les entreprises

5 janvier 2026 à 08:14

La Direction générale de la Sécurité intérieure (DGSI) publie depuis janvier 2025 des « Flash ingérence ». Il s’agit de présenter « des actions d’ingérence économique dont des sociétés françaises sont régulièrement victimes ».

Le 9ᵉ numéro date de décembre et porte sur « l’usage de l’intelligence artificielle dans le monde professionnel ». Le flash « évoque le cas de trois entreprises françaises ayant été confrontées à des dérives ou des comportements à risque associés ou permis par l’usage de l’IA ». Trois exemples sont donnés :

  • Des salariés d’une entreprise française stratégique ont utilisé un outil d’IA générative pour traduire des documents confidentiels
  • Une société délègue entièrement l’évaluation de ses partenaires commerciaux à un outil d’IA
  • Une entreprise française a été victime d’une tentative d’escroquerie par hypertrucage (deepfake) associant le visage et la voix de son dirigeant grâce à l’IA

Le numéro précédent portait sur les approches malveillantes sur les réseaux sociaux, avec là encore trois exemples :

  • Une start-up se voit proposer un investissement par un intermédiaire au profil douteux à la suite d’échanges sur un réseau social professionnel.
  • Un chercheur est approché sur un réseau social professionnel par un individu prétendant qu’une célébrité internationale souhaite financer ses travaux.
  • Après avoir créé un faux profil sur un réseau social professionnel, un individu parvient à obtenir des informations sensibles auprès de salariés d’une société.

Les flashs précédents portaient notamment sur l’absence de protection des logiciels à usage industriel, des incidents impliquant des chercheurs étrangers accueillis dans le cadre de programmes académiques officiels, sur le facteur humain (principal vecteur de compromission des systèmes d’information), sur l’utilisation d’outils numériques personnels à des fins professionnelles, sur les visites publiques de sites industriels, de sociétés ou de laboratoires, sur les risques d’atteinte à la réputation d’entreprises ou de laboratoires français évoluant à l’international, etc.

Panne chez Netatmo : « Les applications et le contrôle à distance ne sont pas disponibles »

3 janvier 2026 à 17:35
Panne chez Netatmo : « Les applications et le contrôle à distance ne sont pas disponibles »

Aujourd’hui, les serveurs de Netatmo ont décidé de fêter la nouvelle année à leur manière, avec une panne. En conséquence, « les applications et le contrôle à distance ne sont pas disponibles ». C’est déjà la quatrième fois en cinq mois…

Les messages sont nombreux sur les réseaux sociaux : les serveurs Netatmo ne répondent plus. C’est également confirmé par les retours sur Downdetector, avec les premiers signalements aux alentours de 10 h et une montée en puissance jusqu’à la fin de la matinée. Cet après-midi aussi les serveurs semblent hors service. Cela tombe mal alors que la France est traversée par une vague de froid.

Sur la page dédiée à la gestion des incidents, Netatmo confirme et précise que ses « équipes travaillent actuellement à la résolution de l’incident afin que tout rentre dans l’ordre dans les meilleurs délais », sans plus de détail. Par contre, aucun message sur X ni réponse aux internautes pour le moment, que ce soit avec le compte officiel ou le compte support.

Le fabricant précise que « les applications et le contrôle à distance ne sont pas disponibles, mais le contrôle manuel et l’enregistrement des données continuent de fonctionner normalement », ces dernières seront donc disponibles quand la situation sera revenue à la normale.

« Toutes les fonctionnalités seront restaurées automatiquement, aucune action de votre part n’est nécessaire », ajoute le fabricant. Il précise aussi qu’une « partie des utilisateurs de Home + Control ne peuvent pas accéder à l’application ».

Comme le rapporte mac4ever, les applications affichent un message un peu plus précis : « vos produits continuent de fonctionner en autonomie même s’ils ne sont plus connectés : les Caméras enregistrent les événements, les Thermostats régulent le chauffage, les interrupteurs contrôlent les lumières… et vous retrouverez le contrôle total très bientôt ! ».

Selon certains, la situation semble revenir doucement à la normale. N’hésitez pas à nous faire part de vos retours si vous êtes concernés. Quoi qu’il en soit, Netatmo enchaine les pannes ces dernières semaines, avec un incident du même genre le 5 novembre, un autre le 29 octobre, le 27 septembre

Cela relance encore une fois la question de la dépendance des produits connectés aux serveurs du fabricant. Nous en avions fait un édito il y a déjà plus de cinq ans… et la situation n’est pas franchement meilleure aujourd’hui.

IPv6 fête ses 30 ans… mais il reste encore du chemin à parcourir

2 janvier 2026 à 14:34
Bon anniversaire (et bonne année) !
IPv6 fête ses 30 ans… mais il reste encore du chemin à parcourir

30 ans, une éternité pour Internet et le numérique… et pourtant, le protocole IPv6 est loin d’avoir remplacé IPv4 qui est malgré tout à bout de souffle (à cause de la pénurie d’adresses). Si les internautes français sont plutôt bien lotis, ce n’est pas le cas partout dans le monde.

En décembre 1995, l’Internet Engineering Task Force publie la RFC 1883 intitulée « Internet Protocol, Version 6 (IPv6) Specification ». Elle fixait au passage le nom de ce qui était parfois appelé IP Next Generation ou IPng. Les spécifications d’IPv6 ont été finalisées quelques années plus tard, en décembre 1998 avec RFC 2460.

En guise d’introduction, il était précisé que l’« IP version 6 (IPv6) est une nouvelle version du protocole Internet, conçue pour succéder à IP version 4 (IPv4) », dont la RFC 791 datait de septembre 1981. La principale nouveauté était le passage des adresses de 32 à 128 bits. D’autres changements étaient aussi de la partie, comme une simplification du format d’en-tête. IPv6 intègre aussi « des fonctionnalités permettant de renforcer la sécurité par défaut et d’optimiser le routage », explique l’Arcep (le gendarme des télécoms en France).

667 millions d’adresses IPv6… par mm² !

La différence est très importante puisqu’on passe de 4,3 x 10⁹ (soit 4,3 milliards) à 3,4 x 10³⁸ adresses possibles, soit une quasi-infinité à l’échelle de la Terre, puisque cela correspond à environ 667 millions d’adresses IPv6 pour chaque millimètre carré de surface terrestre.

4,3 milliards d’adresses peuvent sembler beaucoup, mais ce n’est pas le cas. Le RIPE NCC (Network Coordination Centre, en charge de l’Europe, du Moyen-Orient et de certaines régions d’Asie centrale) est « à court d’adresses IPv4 » depuis fin 2019. Les alertes avaient été lancées des années auparavant et la solution existait déjà depuis longtemps avec IPv6. Mais la transition est longue, très longue… elle n’est toujours pas terminée en 2026.

Cette même année, l’Arcep a décidé « d’initier la création d’une Task-Force IPv6, co-pilotée avec Internet Society France ». Son but est de « favoriser l’accélération de la transition vers IPv6 en permettant aux participants d’aborder des problèmes spécifiques et de partager les bonnes pratiques ».

La France en tête du taux d’utilisation d’IPv6 !

L’Arcep tient à jour une carte du taux d’utilisation d’IPv6, qui correspond au « pourcentage d’utilisateurs raccordés en IPv6 par leur fournisseur d’accès à internet ». Selon le dernier décompte de décembre 2025, la France est… en première position avec 75,1 %, devant l’Inde à 73,1 % et la Malaisie à 67 %.

Les États-Unis sont 11ᵉ avec 56,4 %. Les pays africains sont dans le bas du classement avec 27 % au maximum pour la République du Congo, contre 0,2 % seulement en Algérie.

En Afrique d’ailleurs, la situation était compliquée en 2025 avec des doutes sur des élections à l’AfriNIC et une question d’influence de brokers d’IP, le tout sur fond de bataille juridique et de pénurie d’IPv4. Il faut dire que l’« AfriNIC est le dernier registre internet régional à avoir des blocs d’adresses IPv4 à distribuer », nous expliquait Pierre Bonis, le directeur général de l’Afnic qui gère les noms de domaine en France. Cela attise donc les convoitises.

Risque de scission d’Internet : IPv4 et IPv6 « ne sont pas compatibles »

En France, l’Arcep publie chaque année un baromètre de la transition vers IPv6. Le dernier date de juillet 2025. Le régulateur y rappelait que IPv4 et IPv6 « ne sont pas compatibles », ce qui implique un risque de scission d’Internet. En effet, un service ou un site en IPv6 seulement (c’est-à-dire sans adresse IPv4) n’est pas accessible aux utilisateurs qui n’ont qu’une adresse IPv4, et vice-versa.

IPv6 : la France passe en tête au niveau mondial, mais la route est encore longue

Ce n’est pas qu’une chimère, comme l’expliquait l’Arcep : « Bien que ce ne soit pas encore le cas en France, en Inde, des sites web indiens importants ne sont actuellement plus accessibles qu’en IPv6 et la Chine a planifié l’arrêt complet d’IPv4 en 2030 ».

En République tchèque, le gouvernement a annoncé la fin des services officiels accessibles en IPv4 à partir du 6 juin 2032. Un compte à rebours est lancé. Il reste 2346 jours.

Cinq grandes étapes, la première d’ici 2 à 3 ans ?

L’Arcep prévoit cinq grandes étapes de la transition mondiale vers IPv6 :

  • IPv6 est activé par défaut sur la quasi-totalité des offres grand public
  • IPv6 est activé par défaut sur la quasi-totalité des offres grand public, pro et entreprises
  • Une part non négligeable des sites web sont hébergés en IPv6 uniquement
  • Une part non négligeable des FAI ne proposent plus d’IPv4
  • La majorité des sites abandonnent IPv4

La première étape « devrait être atteinte au cours des trois prochaines années ». En France, Bouygues Telecom, Orange et Free sont à plus de 90 % de clients activés en IPv6 sur le grand public. Sur le pro, Orange était à la traine au dernier décompte avec 57 % fin 2024. Restait SFR à 54 % sur le grand public et 10 % sur le pro, mais la marque au carré rouge prévoyait de dépasser les 90 % de clients activés fin 2026.

Sur le mobile, Free était pendant longtemps le vilain petit canard, mais le fournisseur d’accès à Internet a enfin activé ses clients en mars 2025.

Si vous vous demandez comment fonctionne Internet, nous avons pour rappel publié un long dossier sur le sujet :

☕️ [MàJ] Sur Steam, Linux gagne finalement du terrain avec 3,58 % de parts de marché

7 janvier 2026 à 08:15

Mise à jour du 6 janvier à 16h30. Steam a mis à jour ses chiffres, comme nous l’a fait remarquer un lecteur. La part de marché est désormais de 3,58 %, en hausse de 0,38 point sur un mois. Linux ne stagne donc pas en décembre, mais progresse plus qu’en novembre et quasiment autant qu’en octobre.

Les autres chiffres précédemment communiqués étaient également faux, SteamOS remonte à 26,32 % de parts de marché sur les systèmes Linux, suivi par Arch Linux à 9,54 % et Linux Mint à 7,85 %. Windows descend finalement à 94,23 %, en baisse de 0,56 point, tandis que MacOS gagne aussi du terrain à 2,18 % (+ 0,16 point).

Les chiffres actualisés de Steam sont disponibles par ici. Aucune explication sur les changements ne semble avoir été donnée.


Brief original du 2 janvier à 11h15. En octobre, Linux dépassait pour la première fois les 3 % de parts de marché sur Steam (+ 0,37 point en un mois), la plateforme de jeux vidéo de Valve. Rappelons que, dans le même temps, Microsoft arrêtait le support de Windows 10, sauf en Europe avec un an supplémentaire.

En novembre, le système d’exploitation confirmait sa croissance avec 3,2 % de parts de marché. C’était donc une progression de 0,2 point, mais le score restait toujours sans commune mesure avec Windows, présent sur près de 94,79 % des machines des joueurs.

Les chiffres de décembre viennent de tomber et… Linux stagne avec 3,19 % de parts de marché, soit même une petite baisse de 0,01 point en un mois. Windows de son côté grimpe à 94,95 % (73 % pour Windows 11, 27 % pour Windows 10), les 1,86 % restant étant attribués à macOS.

SteamOS reste le système Linux le plus utilisé avec 20,4 % de part de marché, mais chute considérablement par rapport au mois de novembre avec 6 points de moins. Arch Linux est toujours en deuxième place avec 12,24 % et conforte sa position avec 2,27 points de plus en décembre. Il est suivi par CachyOS à 8,45 % au coude à coude avec Linux Mint 22.2 à 8,43 %.

Concernant les seules machines sous Linux, on retrouve un CPU AMD dans 72 % des cas, en hausse de plus de 5 points sur un mois. Par contre, sur l’intégralité des machines utilisant Steam, la part de marché d’AMD n’est que de 47,3 % (+ 4,7 points en un mois,+ 7 points depuis août).

☕️ TSMC lance la production de masse en 2 nm et accélère sur le 1,4 nm

2 janvier 2026 à 08:28

Sur cette page dédiée aux différentes technologies de gravure de puces, TSMC indique désormais que la production en 2 nm « a commencé au quatrième trimestre 2025 comme prévu ». Il y a encore quelques jours, il était simplement précisé que cette technologie était « sur la bonne voie ».

Le fabricant taïwanais explique que sa gravure N2 (ou 2 nm) exploite la technologie des « transistors nanofeuilles de première génération, avec des progrès en termes de performance et de consommation d’énergie ». Selon l’entreprise, sa « technologie N2 est la plus avancée de l’industrie des semi-conducteurs, tant en termes de densité qu’en efficacité énergétique ».

TSMC propose une chronologie de ses différentes technologies. Avant le 2 nm, il y a eu le 3 nm en 2022, le 5 nm en 2020, le 7 nm en 2018, etc. L’entreprise parle aussi de l’avenir avec A16 pour cette année et A14 pour 2028. Comme chez Intel, le « A » signifie angström, une unité de mesure qui vaut 0,1 nanomètre.

« Comparé au procédé N2P de TSMC, la technologie A16 offre un gain de vitesse de 8 à 10 % avec la même tension Vdd, une réduction de la consommation d’énergie de 15 à 20 % à vitesse égale et une densité de puces jusqu’à 1,10 fois supérieure ».

Avec le passage à la technologie A14, TSMC prévoit « jusqu’à 15 % d’amélioration de la vitesse à consommation égale ou jusqu’à 30 % de consommation en moins à vitesse égale, ainsi qu’une hausse de plus de 20 % de la densité ».

Selon Wccftech (qui se base sur le média chinois Economic Daily News), TSMC « serait également en train d’accélérer la construction de son usine de 1,4 nm, ayant apparemment obtenu de meilleurs rendements grâce à sa lithographie de nouvelle génération ». L’entreprise pourrait se lancer plus tôt que prévu, dès 2027.

Rappelons enfin que parler de nm pour la finesse de gravure ne correspond pas à une réalité physique, mais marketing. Nous en parlions dans un #Nextquick récemment. La finesse de gravure est « devenue un argument marketing sans lien avec la taille réelle des éléments ou la densité de transistors ».

❌