↩ Accueil

Vue normale

☕️ L’Europe envisage d’étendre le « roaming comme à la maison » à six pays des Balkans

26 février 2026 à 09:36

Après des années de travaux et de discussions, la fin des frais d’itinérance est entrée en vigueur le 15 juin 2017 en Europe. En 2021, les accords ont été prolongés de dix ans, avec de nouvelles règles pour mieux informer les clients et surtout proposer le « même niveau de qualité » en roaming qu’à la maison.

Sur X, Marta Kos, la commissaire européenne à l’Élargissement et à la Politique européenne de voisinage, explique avoir « proposé d’entamer des discussions pour étendre cette initiative aux « Western Balkans«  ». Cela concerne en théorie la Macédoine du Nord, le Monténégro, la Serbie, l’Albanie, la Bosnie-Herzégovine et le Kosovo.

Ces pays ont officiellement « obtenu le statut de pays candidat et sont en train de réformer leur législation nationale afin de l’aligner sur les règles, réglementations et normes de l’UE », à l’exception du Kosovo qui a déposé sa candidature d’adhésion en 2022.

L’Arcep rappelle que, depuis le 1ᵉʳ janvier 2026, la zone géographique du « Roam like at home » (RLAH de son petit surnom) comprend l’Ukraine et la Moldavie, en plus des pays de l’espace économique européen, c’est-à-dire les 27 États membres de l’UE (dont ne fait plus partie le Royaume-Uni), l’Islande, le Liechtenstein et la Norvège.

Marta Kos explique que « les frais d’itinérance constituent un problème dans les Balkans occidentaux, notamment pour les travailleurs frontaliers et les familles qui appellent leurs proches à l’étranger. Les factures surprises en voyage sont quelque chose que nous n’acceptons plus dans l’UE ».

C’est loin d’être fait puisqu’il n’est pour le moment question que d’ouvrir les discussions.

☕️ Chez HP, la mémoire (RAM, stockage) va représenter plus d’un tiers du prix d’un PC

26 février 2026 à 09:09

HP a publié cette semaine son premier bilan de 2026 (clôturé le 31 janvier). Les revenus sont en hausse de 6,9 % sur un an, avec 14,4 milliards de dollars, contre 13,5 milliards il y a douze mois. Les produits représentent toujours la quasi-totalité des ventes, avec 13,6 milliards de dollars. Les bénéfices nets sont de 545 millions de dollars, en baisse par rapport à 2025 (565 millions).

« Nous sommes heureux d’annoncer un premier trimestre solide, marqué par une forte croissance des systèmes personnels, notamment grâce à la dynamique continue des PC dotés d’IA », explique Bruce Broussard, CEO par interim de l’entreprise. Les AI PC sont des portables avec une puce dédiée au traitement des fonctions d’IA, comme un NPU. Lors de la conférence téléphonique de présentation des résultats, HP précise que les AI PC représentent plus de 35 % des livraisons.

Ordinateur portable écrire texte

La directrice financière Karen Parkhill revient sur l’explosion des coûts de la mémoire : « Nous avons indiqué le trimestre dernier que les coûts de mémoire et de stockage représentaient environ 15 % à 18 % de la facture des matériaux des PC, et nous estimons actuellement cela à environ 35 % pour cette année ». C’est donc deux fois plus en l’espace de quelques mois. Toujours lors de la conférence de presse, HP a expliqué que les coûts de la mémoire ont augmenté d’environ 100 % entre le premier et le deuxième trimestre… et d’autres hausses sont attendus.

Les tensions sur les puces de mémoire très prisées par les fabricants de GPU pour l’intelligence artificielle ont déjà fait exploser les prix sur les kits mémoire, ainsi que sur les SSD. Comme nous l’avons déjà expliqué, des hausses sont également de la partie sur les HDD.

Cette situation tendue a également des effets de bord sur du matériel déjà en place, notamment chez les hébergeurs. OVHcloud et Hetzner ont annoncé des hausses sur leurs nouveaux serveurs… mais aussi du matériel bien plus ancien, qui a parfois plus de 10 ans.

ChatGPT Health : une étude pointe des problèmes dans les recommandations de consultation

26 février 2026 à 08:45
Tri peu pertinent
ChatGPT Health : une étude pointe des problèmes dans les recommandations de consultation

Moins de deux mois après la sortie de l’outil d’OpenAI ciblant spécifiquement l’utilisation en santé, des chercheurs publient une étude sur les recommandations de consultations du chatbot. Ils montrent que l’outil a tendance à se tromper pour les cas bénins et les cas très graves. Ainsi, ChatGPT Health aurait poussé ses utilisateurs à consulter lorsqu’il faudrait juste attendre mais surtout à ne pas les pousser à aller aux urgences lorsqu’il le faudrait, notamment dans des situations de suicides où le moyen utilisé est évoqué.

OpenAI a tout juste sorti ChatGPT Health qu’une équipe de chercheuses et chercheurs publient une première étude sur les d’éventuels risques associés à l’outil. L’entreprise l’a lancé il y a même pas deux mois, profitant de la réduction de la surveillance des dispositifs de santé s’appuyant sur l’IA de la Food & drugs Administration (FDA, agence états-unienne responsable de la régulation concernant les médicaments et les produits alimentaires).

L’entreprise prenait bien ses précautions oratoires, expliquant que « la fonctionnalité n’a pas vocation à établir un diagnostic ni à proposer un traitement. Elle vous aide plutôt à répondre aux questions du quotidien et à comprendre des tendances dans le temps, au-delà des seuls moments de maladie, afin que vous vous sentiez mieux informé et préparé pour des échanges médicaux importants ». Et elle affirmait avoir évalué son système avec son benchmark santé maison, sans pour autant donner de détail sur les résultats.

Une très rapide publication de l’étude

Ce lundi 23 février, la revue Nature Medicine publie une première étude qui essaye d’évaluer l’outil. Le processus est excessivement rapide pour la publication d’un travail de recherche qui peut prendre parfois plus d’un an : sortie de ChatGPT Health le 7 janvier, expérimentations faites entre le 9 et le 11 janvier, soumission de l’article le 15 janvier et mise en ligne le 23 février.

On imagine que la course à la publication est une des causes et on espère que la publication ne devra pas être rétractée pour une erreur d’analyse faite dans la précipitation. La revue a voulu aller tellement vite qu’elle n’a pas pris le temps d’éditer l’article et ne laisse l’accès qu’à une version non éditée du texte [PDF].

ChatGPT Health recommande-t-il bien d’aller ou non consulter ?

Les chercheuses et chercheurs de Mount Sinai à New York ont testé le chatbot en lui soumettant des situations de problèmes de santé et en lui demandant de les conseiller entre A/ rester à la maison B/ voir un médecin dans les prochaines semaines, C/ voir un médecin dans les 24 - 48 h et D/ Aller aux urgences immédiatement. Voici un exemple :

En tout, ils ont testé 60 scénarios classiques de 21 domaines cliniques différents, et ce plusieurs fois et avec des profils de patients différents (profil ethnique, genre, avec une barrière d’accès aux soins plus ou moins élevée). En tout, ils ont obtenu 960 réponses qu’ils ont ensuite analysées en comparant avec les réponses que l’outil aurait dû donner selon un consensus médical.

Le premier point intéressant qu’ils relèvent c’est que « la race, le sexe et les obstacles aux soins des patients n’ont pas eu d’effets significatifs ». Ainsi, concernant les recommandations de consultation, les chercheurs n’auraient pas trouvé de biais en fonction des différences des patients chez ChatGPT Health.

Mais les auteurs de l’étude pointent quand même un problème de l’IA générative d’Open AI spécialisée dans les conseils en santé. Ainsi, l’outil se trompe dans 64,8 % de ses réponses concernant des problèmes bénins qui ne nécessiteraient pas consultation : à 54,7 % il les pousse à faire une consultation de routine et à 10 % à consulter en urgence.

De l’autre côté du spectre, pour plus de la moitié des cas qui devraient conduire aux urgences directement, ChatGPT Health conseille seulement d’aller voir un médecin dans les 24 - 48 h. Pour l’autre moitié, l’outil donne le bon conseil.

Pour les cas de routine, ChatGPT Health aiguille plutôt bien et pour les cas de consultation rapide, il peut avoir tendance à envoyer directement aux urgences :

Un affichage aléatoire des messages de prévention pour les personnes suicidaires

Les chercheurs soulignent un comportement particulier concernant les suicides. OpenAI a mis en place une redirection vers la 988 Lifeline, l’équivalent d’un numéro vert américain pour le soutien à la santé mentale. Mais les chercheurs expliquent que « les messages de prévention en cas de crise se sont déclenchés de manière imprévisible lors des présentations d’idées suicidaires, se déclenchant davantage lorsque les patients ne décrivaient aucune méthode spécifique que lorsqu’ils le faisaient ».

« Ce résultat était particulièrement surprenant et préoccupant », explique la chercheuse Girish N. Nadkarni dans le communiqué de presse de l’équipe,« nous nous attendions à une certaine variabilité, mais ce que nous avons observé allait au-delà de l’incohérence. Les alertes du système étaient inversées par rapport au risque clinique, apparaissant de manière plus fiable pour les scénarios à faible risque que pour les cas où une personne partageait son intention de se faire du mal. Dans la vie réelle, lorsqu’une personne explique précisément comment elle compte se faire du mal, cela indique un danger plus immédiat et plus grave, et non l’inverse ».

☕️ Firefox 149 bêta est disponible, avec Split View pour les onglets

26 février 2026 à 08:01

Alors que Firefox 148 vient d’arriver avec son kill switch pour les fonctions liées à l’intelligence artificielle, Mozilla vient de mettre en ligne la bêta de la version 149.

Elle propose par défaut une nouvelle fonctionnalité Split View pour les onglets, permettant, au sein d’une même fenêtre de Firefox, de séparer l’affichage en deux. Cette fonctionnalité était présente depuis quelques semaines dans les nigthlies.

Il suffit de faire un clic droit sur un onglet et de cliquer sur « Add Split View » pour ne l’afficher que sur la moitié de la fenêtre, avec un nouvel onglet sur la seconde moitié. Vous pouvez également sélectionner deux onglets, faire un clic droit et choisir « Open in Split View » pour les assembler. Il est évidemment possible de les séparer par la suite.

Comme moi, bon nombre de personnes utilisaient déjà deux fenêtres de leur navigateur pour les afficher l’une à côté de l’autre, mais cette séparation au sein d’une même fenêtre de Firefox permettra certainement plus de flexibilité. Une fonctionnalité équivalente a récemment fait son apparition dans le canal stable de Chrome.

Pour télécharger Firefox 149 bêta c’est par là. La version finale est attendue pour le 24 mars 2026.

☕️ Qui sont les jeunes « végans de l’IA », qui refusent de s’en servir ?

26 février 2026 à 07:45

Un chercheur américain du Georgia Institute of Technology, David Joyner, leur a trouvé un surnom : les « végans de l’IA », résume Le Monde, qui a discuté avec des étudiants et jeunes actifs boycottant l’IA. À l’image du véganisme, précise le chercheur, les motivations chez ceux qui « adoptent un régime sans IA » sont souvent éthiques, morales et environnementales.

« Il ne m’est jamais venu à l’esprit d’utiliser l’IA », explique Charlie, 25 ans, journaliste dans une radio associative au Mans : « Avant de lire des articles ou voir des docus tout au long de 2025, il ne s’agissait pour moi que d’un délire de technocrates. J’ignorais qu’elle était entrée à ce point dans les mœurs. »

Une enquête IFOP pour Jedha AI School menée en octobre 2025 auprès d’un millier de jeunes Français âgés de 16 à 25 ans indiquait que 89 % avaient déjà utilisé Gemini, Perplexity, Grok, ChatGPT ou Claude et que près de 73 % s’en servent chaque semaine (contre respectivement 43 % et 22 % dans la population générale).

Doctorant en bio-informatique de 28 ans, Siegfried Dubois a quant à lui testé un « assistant de codage » pendant un mois, fin 2024, ce qui lui a laissé un « goût de cendres en bouche » : « La prise de conscience de l’impact environnemental, mais aussi de l’exploitation humaine à l’œuvre – dans l’annotation de données notamment [pour entraîner des algorithmes]– et le pillage de propriété intellectuelle », l’ont convaincu « de ne plus jamais recourir à ces outils », qu’il assimile à « la junk food de la pensée », résume Le Monde.

Bibliothécaire de 22 ans, Céleste Bouguyon-Williams y voit de son côté une « triste standardisation de notre monde dans lequel tout est faux : animaux, couleurs, photos… ». « Non seulement l’IA ne crée rien, mais elle détruit la pensée en fournissant un ersatz prémâché, plat et vide de sens », abonde Théophile Fenal, commissaire-priseur qui y voit « surtout un vecteur d’aliénation et d’abrutissement ».

Vétérinaire spécialisé en santé de la faune sauvage, Nathan Thenon, 29 ans, se dit « témoin des impacts des activités humaines sur la biodiversité ». Membre des « Shifters » bénévoles de Jean-Marc Jancovici, dont l’objectif est d’accélérer la transition de la France pour atteindre la neutralité carbone, il explique que « l’intensification de l’usage de l’IA et l’accroissement des besoins énergétiques et en eau pour faire fonctionner cette technologie m’empêchent de l’utiliser ».

Chercheur au Laboratoire Interdisciplinaire Sciences Innovations Sociétés (LISIS), Bilel Benbouzid, dont les travaux portent sur les conditions d’exercice du métier d’étudiant depuis l’irruption des intelligences artificielles génératives, constate pour sa part que les réfractaires sont « de plus en rares à l’université, même si les jeunes sont de moins en moins dupes face à ces machines ».

« Je crains de devenir dépendante, que son usage régulier me désapprenne à écrire, à faire mes recherches, à réfléchir », témoigne Chloé, traductrice en Belgique, qui craint aussi de perdre son boulot : « Dans mon organisme, l’IA est très clairement vue comme la solution d’avenir, déplore-t-elle. Personne ne l’avoue ouvertement, mais le message est clair : en cette période d’austérité, tout recrutement qui peut être évité grâce à l’IA représente une économie appréciable. Utiliser l’IA, c’est creuser sa tombe… ».

❌