Vue normale
ChatGPT atteint 900 millions d’utilisateurs et vise le milliard
-
Siecle Digital
- Windows 11 bondit à 72% de parts de marché en quelques semaines mais ces chiffres soulèvent des questions
Windows 11 bondit à 72% de parts de marché en quelques semaines mais ces chiffres soulèvent des questions
-
Siecle Digital
- Cyberattaque massive contre un logiciel médical : jusqu’à 15 millions de Français concernés
Cyberattaque massive contre un logiciel médical : jusqu’à 15 millions de Français concernés
Une étude révèle un décalage massif entre SEO classique et citations par les IA
L’OTAN valide l’iPhone pour traiter des données militaires sensibles
OpenAI : 110 milliards levés et un accord stratégique avec le Pentagone
Jack Dorsey supprime 4 000 postes et revendique un virage radical vers l’IA
-
Siecle Digital
- Avec 300 millions de dollars de revenus annuels, Suno s’impose comme le nouveau géant de la musique générée par IA
Avec 300 millions de dollars de revenus annuels, Suno s’impose comme le nouveau géant de la musique générée par IA
BreeZip 1.4.46.0
Thales sécurise les cartes SIM 5G contre la menace quantique, et c’est une première
Thales vient de réaliser une première mondiale en démontrant qu'il est possible de mettre à jour la protection cryptographique des cartes SIM et eSIM 5G déjà en circulation, à distance et sans couper la connexion. De quoi préparer dès maintenant les réseaux mobiles à la menace des futurs ordinateurs quantiques, et ce sans avoir à remplacer physiquement les cartes.
Une mise à jour silencieuse, et c'est tout
Thales a donc montré qu'on peut télécharger de nouveaux algorithmes cryptographiques directement sur une carte SIM ou eSIM 5G, sans que l'utilisateur n'ait quoi que ce soit à faire. La mise à jour se lance en arrière-plan, un peu comme un update logiciel classique, sauf que c'est la carte SIM elle-même qui reçoit une nouvelle couche de protection (et vous n'avez même pas à cliquer sur « installer plus tard »). Le service n'est pas interrompu, les données sont préservées, et la connexion continue de fonctionner normalement. Bref, c'est totalement transparent.
Des milliards de cartes SIM à protéger
Les ordinateurs quantiques, quand ils seront assez puissants, pourront casser les systèmes de chiffrement actuels. Et la 5G ne sert pas qu'à regarder des vidéos ou envoyer des messages. Elle transporte aussi les communications des véhicules connectés, des services d'urgence et de nombreuses infrastructures du quotidien. Du coup, sécuriser ces réseaux avant l'arrivée des ordinateurs quantiques, c'est tout sauf un détail. Remplacer physiquement toutes les cartes SIM en circulation dans le monde serait impossible, trop long et beaucoup trop cher. C'est ce mur que Thales a contourné avec ce qu'il appelle l'agilité cryptographique : mettre à jour les SIM existantes à distance, plutôt que d'attendre la prochaine génération de cartes.
La France en première ligne
Thales ne fait pas que démontrer la faisabilité de la chose. Le groupe conçoit ses propres algorithmes résistants au quantique, soumis aux organismes de standardisation internationaux dont le NIST américain. L'ANSSI a d'ailleurs émis fin 2025 ses deux premières certifications de produits intégrant de la cryptographie post-quantique, et Thales en fait partie. Avec plus de 4 milliards d'euros investis chaque année en R&D et 83 000 collaborateurs dans 68 pays, le groupe avait déjà travaillé avec SK Telecom et Samsung sur le chiffrement post-quantique de la 5G. Le déploiement à grande échelle sur les réseaux commerciaux et privés est la prochaine étape.
Ce n'est franchement pas tous les jours qu'un industriel français arrive premier sur un sujet aussi pointu. Thales a prouvé que la sécurité post-quantique n'est pas uniquement un truc de labo : on peut déjà préparer les réseaux existants sans tout casser. Maintenant, il va falloir que les opérateurs suivent et décident de pousser ces mises à jour sur leurs parcs. Parce que la démo, c'est bien, mais tant que votre eSIM n'a pas reçu sa couche de crypto post-quantique (punaise ça claque), on est toujours dans la théorie. Bref, un jour votre carte SIM se mettra à jour toute seule pour résister à un ordinateur quantique. Et vous ne vous en rendrez même pas compte.
Source : Socialnews , AFP

Cutia - Montage vidéo open source, direct dans le navigateur
Bon, vous connaissez tous CapCut car TOUT LE MONDE connaît CapCut. Sauf qu'avec ce truc, vos fichiers atterrissent directement sur les serveurs de l'entreprise chinoise ByteDance. Hé bien Cutia , c'est pareil mais en open source, dans le navigateur, et vos vidéos restent chez vous ! Elle est pas belle la vie ?
Cutia c'est donc un éditeur vidéo qui tourne entièrement dans votre browser, genre Chrome ou Firefox et côté fonctionnalités, on a le kit classique bien fichu de la timeline multi-pistes pour empiler de la vidéo, de l'audio, du texte et même des stickers, sans oublier une preview en temps réel, et de l'export en MP4 ou WebM. Y'a pas de watermark et c'est gratuit !
Alors oui, c'est pas Premiere Pro, clairement, mais pour du montage rapide ça fait largement le taf (sauf si vous devez gérer du 4K sur 2 heures, évidemment). Et le truc cool, c'est que tout est local-first. Vos rushs restent sur votre disque, le traitement se fait côté navigateur, et à aucun moment vos fichiers ne transitent par un serveur tiers.
Si vous faites des Reels, des TikTok ou des petites vidéos pour vos projets, c'est donc largement suffisant. Y'a pas besoin de sortir l'artillerie lourde pour couper trois clips et coller du texte par dessus. D'ailleurs, si vous êtes plutôt du genre à automatiser vos montages vidéo avec CapCut et ChatGPT , j'ai un tuto pour ça.
Y'a aussi des éditeurs vidéo libres comme Shotcut qui existent depuis longtemps, mais ils nécessitent une installation. L'avantage de Cutia, vous l'aurez compris, c'est que vous ouvrez un onglet et c'est parti mon kiki !
Le projet est un fork d' OpenCut , sous licence MIT, et c'est encore jeune donc y'a du boulot sur pas mal de trucs (par exemple l'export rame un peu sur les grosses vidéos et ça ne marche pas encore sur Safari), mais la base est là.
Pour les plus barbus d'entre vous, c'est auto-hébergable avec du Docker ou Vercel en un seul clic. Après sur la home, le site présente l'app comme "AI-native", mais en fait y'a RIEN de visible côté IA pour l'instant. C'est surtout un éditeur vidéo solide dans le navigateur, et c'est déjà pas mal du tout.
Bref, pour du montage rapide sans prise de tête, ça vaut le coup d’œil. Merci à Lorenper pour le partage !

RetroTick - Vos vieux .exe qui tournent dans le navigateur
Bonjour les nostalgiques qui aimaient quand l'informatique c'était simple ! Aujourd'hui, j'aimerai vous parler de RetroTick , qui est un émulateur x86 qui fait tourner des exécutables Windows à l'ancienne et DOS directement dans votre navigateur. De FreeCell au Démineur en passant par SkiFree, hop, vous glissez-déposez le .exe (ou le .com pour le DOS) et ça tourne impeccable !
Ce projet reproduit une couche Win32, Win16 et DOS, le tout codé en TypeScript (99,8% du repo) sans avoir besoin ni de VM, ni de Wine / QEMU qui rame dans un coin. Vous ouvrez une page web, vous balancez votre fichier .exe, et ça s'exécute.
Le rendu 3D s'appuie sur WebGL2 pour interpréter les vieilles commandes OpenGL, du coup le screensaver Maze ou 3D Pipes (oui, les tuyaux moches de Windows 98) s'affichent nickel. Il y a même un gestionnaire de fenêtres multi-fenêtre avec barre des tâches, z-order et tout le bazar. Ambiance 1998 assurée dans un onglet de navigateur.
D'ailleurs, RetroTick ne se limite pas à faire du fun rétro. Si vous bossez par exemple dans une boîte qui traîne encore des outils legacy, genre des logiciels métier qui tournent uniquement sur Windows XP ou un truc codé en 2003 sous Visual Basic 6, ce genre de projet pourrait ouvrir quelques portes...
L'interface RetroTick dans le navigateur, ambiance Windows 98
En effet, rendre ces vieux programmes accessibles via un navigateur, sans avoir à maintenir des machines virtuelles sur chaque poste, c'est carrément pas bête. Pour les DSI qui gèrent des parcs hétérogènes, ça pourrait donc éviter pas mal de prises de tête.
Le système de fichiers est virtuel, et vos fichiers survivent entre les sessions grâce à IndexedDB (sauf si vous videz le cache du navigateur, évidemment). Et si vous connaissez déjà v86, l'émulateur x86 en WebAssembly , RetroTick est en fait assez différent parce qu'il n'émule pas un PC complet. Il traduit directement les appels Win32/DOS vers des API web natives, donc forcément, c'est bien plus léger.
Côté licence, c'est du CC0 1.0, en gros du domaine public et toute la base de code a été générée par IA (il y a même un CLAUDE.md dans le repo).
C'est donc brouillon par endroits, les rendus plantent encore et il manque des trucs et ça ne marche pas avec tous les .exe non plus. Mais au final, c'est un projet qui progresse assez vite donc ça devrait se bonifier avec le temps ! Voilà.
Et si les émulateurs rétro dans le navigateur vous branchent, allez jeter un oeil aussi à cet article.

Constrict - Vos vidéos pile à la bonne taille
Vous avez une vidéo trop lourde pour Discord et sa limite pourrie à 10 Mo ? Du coup, vous passez une demi-heure à bidouiller les réglages d'encodage pour trouver le bon bitrate... sauf que ça marche jamais du premier coup.
Constrict , c'est une app GNOME (Linux uniquement, du coup...) qui règle ce problème de la façon la plus logique possible. Vous lui donnez une taille cible en Mo, et elle se débrouille toute seule pour que votre vidéo rentre pile-poil dedans.
C'est le genre de truc indispensable quand Discord vous bloque à 10 Mo en compte gratuit, que Telegram impose aussi ses propres limites, ou que vous voulez envoyer un fichier par mail sans que ça foire.
En gros, au lieu de deviner quel débit binaire il faut, vous dites juste "je veux que ça fasse 8 Mo" et hop, l'outil calcule automatiquement le bitrate, la résolution, le framerate et la qualité audio pour coller à votre objectif.
Côté codecs, c'est plutôt complet puisqu'on a du H.264 pour la compatibilité, HEVC si vous voulez du lourd sans le poids, AV1 pour les plus patients (attention, l'encodage prend nettement plus longtemps que du H.264... mais le ratio qualité/taille est dingue !) et VP9 pour les adeptes des formats ouverts. Du coup, que vous envoyiez votre clip sur un réseau social, une messagerie instantannée ou par mail, y'a toujours un codec adapté !
Et si vous avez tout un dossier de vidéos à réduire, Constrict gère également le traitement par lot. Vous sélectionnez vos fichiers, vous choisissez la taille cible et un répertoire de sortie, et ça mouline tout seul (sauf si vous lancez 50 fichiers en AV1... là, prévoyez beaucoup de café). En tout cas, c'est quand même plus agréable qu'un script FFmpeg bricolé à la main.
Après si vous essayez de faire rentrer un film 4K de 2h dans 8 Mo... ça va être super moche...
L'app fait de son mieux pour garder un max de qualité, mais y'a des limites physiques (hé oui la compression, ça ne marche pas comme de la magie). D'ailleurs, si la réduction demandée est trop violente, l'outil vous préviendra que c'est mort !
L'app est développée en Python avec GTK4 et Libadwaita, du coup l'interface est native et bien intégrée au bureau GNOME. Elle est certifiée GNOME Circle (ce qui est plutôt bon signe côté qualité) et le code est sous licence GPL-3.0, donc gratuit et open source. Pour l'installation, ça passe par Flatpak sur Flathub ... un :
flatpak install flathub io.github.wartybix.Constrict
... et c'est plié !
Si vous cherchez des alternatives dans le même genre, MystiQ fait de la conversion multiformat et Adapter est un bon couteau suisse basé sur FFmpeg. Mais aucun des deux ne propose ce ciblage par taille, et c'est ça le vrai plus de Constrict !
Merci à Lorenper pour la découverte !

Spank - Donnez des petites fessées à votre MacBook quand il n'est pas sage
Filer des petites claques à son MacBook pour qu'il couine... c'est le genre de projet qu'on s'attend à trouver sur GitHub d'un Otaku sauf que là, c'est du sérieux... Enfin presque.
Spank (Ah ah !), c'est un petit binaire en Go qui exploite l'accéléromètre de votre MacBook Apple Silicon via IOKit HID qui dès qu'il détecte un choc physique sur la machine, joue un petit son.
Dans Spank, y'a 4 modes au choix. D'abord le mode "pain" par défaut qui balance aléatoirement une dizaine de clips audio de protestation quand vous lui mettez une baffe. Là ça va vous plaire un peu plus car il y a également le mode --sexy, qui lui, monte en intensité au fil des claques sur une fenêtre glissante de 5 minutes, avec 60 niveaux d'escalade (ouch !).
Et pour les fans de Master Chief, il y a le mode --halo qui joue les sons de mort du jeu. Et si rien de tout ça ne vous parle, --custom /chemin/vers/vos/mp3 vous permettra de balancer vos propres fichiers audio.
En fait, derrière ce délire, il y a une détection plutôt costaud. Notamment des algorithmes qu'on retrouve en sismologie (comme STA/LTA, CUSUM, kurtosis) qui analysent les données brutes du capteur du MacBook pour distinguer une vraie claque d'un mouvement de sac à dos.
Vous pouvez également régler la sensibilité avec --min-amplitude... de 0.05 g (un effleurement suffit) à 0.50 g (là faut le déglinguer !!). Par défaut c'est calé à 0.30 et ça se combine avec les modes, genre sudo spank --sexy --min-amplitude 0.2 pour un laptop ultra-réactif dans les petits cris.
Pour l'installer :
go install github.com/taigrr/spank@latest
ET sinon y'a aussi des binaires précompilés sur la page des releases, donc pas besoin d'installer Go sur votre machine. Et ça nécessite sudo parce que macOS protège l'accès au capteur matériel via IOKit donc faut lancer comme ceci : sudo spank dans le terminal.
D'ailleurs si vous voulez que votre Mac réagisse H24, y'a égalemnt un template launchd fourni (fichier .plist à coller dans /Library/LaunchDaemons/) pour le configurer en daemon au démarrage, un peu comme quand on doit automatiser d'autres outils macOS . C'est parfait pour piéger un collègue (Le 1er avril arrive bientôt !!!)... Le gars qui pose son café un peu fort à côté de l'ordi, va rougir assez vite...
Seul bémol, attention, ça ne marche pas sur Mac Intel. Faudra du Apple Silicon M2 minimum, car le capteur accéléromètre n'existe tout simplement pas sur les anciens modèles. Le binaire fait ~4 Mo tout mouillé, y'a pas de dépendances et c'est sous licence MIT.
Voilà voilà. Tapez pas trop fort quand même ! Après je crois qu'Apple va bientôt sortir de nouveaux MacBooks, donc c'est peut-être l'occasion aussi d'en changer... ^^
Merci à Lorenper pour la fessée... euh pour le lien !

L'enshittification, ou comment les géants de la tech dégradent volontairement vos services
Le Conseil norvégien des consommateurs vient de publier un rapport au titre évocateur : Breaking Free. Avec le soutien de plus de 70 organisations en Europe et aux États-Unis, il met un mot sur ce que beaucoup ressentent : les services numériques se dégradent, et c'est tout sauf un accident. Le phénomène s'appelle l'enshittification, et le rapport propose des pistes pour inverser la tendance.
Le terme enshittification a été inventé par l'auteur et militant Cory Doctorow en 2023 pour décrire un mécanisme bien rodé : une plateforme commence par offrir un service de qualité pour attirer les utilisateurs, puis dégrade progressivement l'expérience pour maximiser ses revenus. Le rapport Breaking Free, publié il y a quelques jours par le Conseil norvégien des consommateurs, reprend ce concept et l'applique à l'ensemble du secteur de la tech. Le constat est clair : il ne s'agit pas d'un effet secondaire, mais de choix délibérés.
Des exemples que tout le monde connaît
Le rapport liste des cas très concrets, et il y a de fortes chances que vous en ayez fait l'expérience. Par exemple, les fils Facebook et Instagram sont envahis de publicités frauduleuses, et Meta toucherait environ 16 milliards de dollars par an grâce à ces pubs douteuses, soit 10 % de son chiffre d'affaires. Les résultats de recherche Google passent par un filtre IA qui les rend moins précis qu'avant. Snapchat fait payer pour conserver ses souvenirs. Si vous avez une voiture connectée, il faut parfois un abonnement pour démarrer le chauffage à distance. Même les enceintes connectées qui tombent en panne vous redirigent vers un chatbot incapable de résoudre quoi que ce soit.
Le Conseil norvégien ne se contente pas de dénoncer. Il propose aussi des mesures : renforcer les droits des consommateurs à contrôler, réparer et modifier leurs produits, imposer l'interopérabilité et la portabilité des données, financer des alternatives open source, et surtout réduire la dépendance des services publics aux géants du numérique. Les lettres ont été envoyées aux gouvernements de 12 pays et à la Commission européenne. Et pour accompagner le tout, le Conseil a produit une vidéo satirique qui met en scène le quotidien d'un "enshittificateur" dans une grosse boîte tech.
Franchement, c'est un sentiment qu'on a tous eu je pense. Entre les feeds de nos réseaux sociaux qui deviennent affligeants, les résultats de recherche qui deviennent infernaux, ou des appareils qui nous demandent subitement de payer un abonnement pour conserver une fonctionnalité, c'est infernal. Moi, ce qui m'agace, c'est que tout ça nous est présenté comme de "l'amélioration de l'expérience", alors qu'on sait très bien que c'est de la monétisation à outrance. Au moins, maintenant, il y a un mot pour ça.
Source : BoingBoing , Forbrukerradet

Cortical Labs CL1 - Des neurones humains jouent à Doom
Cortical Labs avait déjà fait jouer ses neurones à Pong. Du coup, forcément, fallait que ça leur monte à la tête... car cette fois, ils ont lâché environ 200 000 cellules cérébrales humaines sur Doom, et en moins d'une semaine, elles ont appris à y jouer !
Pour ceux qui auraient loupé l'épisode précédent, le CL1 c'est un bioordinateur avec environ 800 000 neurones humains cultivés sur une puce (dont ~200 000 utilisés ici). J'en avais parlé à son lancement, quand les neurones se contentaient de faire des parties de Pong (ce qui était déjà pas mal pour des cellules dans une boîte de Petri). Mais bon, Pong c'est sympa 5 minutes... mais l'équipe de Cortical Labs a visé plus haut !
Aidé par le développeur indépendant, Sean Cole, ils ont réussi à connecter Doom au CL1 via l'API cloud de Cortical Labs afin que les neurones reçoivent une version simplifiée de l'écran sous forme de stimulations électriques et renvoient des spikes décodés en commandes (avancer, tourner, tirer).
Le Dr. Brett Kagan, le directeur scientifique de la boîte, explique que "les cellules jouent un peu comme un débutant"... et arrivent quand même à chercher les ennemis, leur tirer dessus et tourner sur elles-mêmes.
Le truc carrément chelou, c'est que personne ne comprend exactement COMMENT les neurones apprennent à jouer. On sait juste qu'ils utilisent un truc appelé "adaptive real-time goal-directed learning"... ou plutôt, on sait qu'ils apprennent, mais en fait personne ne sait POURQUOI ça marche. Les cellules s'auto-organisent et bricolent des stratégies toutes seules, quoi...
D'ailleurs, la complexité de Doom a poussé Cortical Labs à développer le Cortical Cloud, une infra dédiée pour gérer le traitement en temps réel. Bref, Doom sur des neurones biologiques, ça demande un poil plus de tuyauterie que Pong et si vous pensiez que c'était réservé aux labos, détrompez-vous.
En effet, le projet est open source, dispo sur GitHub , et les développeurs peuvent accéder au CL1 via l'API cloud. Ça rappelle un peu le projet chinois Darwin Monkey qui simule un cerveau de singe, sauf qu'ici ce sont de VRAIS neurones humains, pas une simulation.
Attention quand même, faut pas s'emballer... les neurones jouent comme des pieds. Ils galèrent, ils tournent en rond, ils ratent des ennemis à bout portant. On dirait moi sur Arc Raider... Et ça ne marche pas à tous les coups non plus, puisque les performances varient d'une session à l'autre. Mais le fait qu'ils apprennent sans qu'on leur dise comment... je trouve ça carrément dingue.
Du coup, si vous voulez voir des neurones galérer sur Doom, je vous invite à regarder cette vidéo :
Je pense que je vais acheter un CL1 pour moi et lui apprendre à écrire des articles, parce que c'est pas bien compliqué ^^ et comme ça après, je pourrais prendre ma retraite et jouer à Doom ^^.

La 4K c'est surfait... Vive le cinéma en 24p !
Regarder un film dans des conditions parfaites en 2026, ça passe forcement par un écran des années 2000 ! Bah quoi ? Vous vous dites qu'est ce qu'il a encore fumé le gars ? Mais ouais, vous avez bien lu parce que pendant que tout le monde court après les dalles OLED 4K à 120 Hz à se toucher la nouille, y'a une petite communauté de passionnés qui redécouvre les bons vieux moniteurs CRT de PC pour mater des films en vrai 24p... et le résultat est vraiment chouette !
Car le problème avec la plupart des écrans, c'est qu'ils tournent à 60 Hz (ou sont configurés en 60 Hz par défaut). Et 24 images par seconde, ça rentre pas pile poil dans 60 (coucou les matheux !). Du coup, votre TV fait du "3:2 pulldown", c'est-à-dire qu'elle affiche certaines images 3 fois et d'autres 2 fois pour combler le trou. Et cela provoque une micro-saccade que vous voyez dans les travellings et qui est vite agaçante...
Bonne nouvelle, c'est pas le film qui est merdique, c'est votre écran qui galère sa mère. Et y'a pas grand-chose à faire côté logiciel pour compenser... ou plutôt, pas sur un écran 60 Hz classique.
Un moniteur CRT de PC, lui, s'en fiche complètement. Il peut se synchroniser sur n'importe quel taux de rafraichissement. Et c'est là que l'astuce de Bob (de RetroRGB) entre en jeu. Avec un simple Raspberry Pi 4, un convertisseur ACTIF HDMI vers VGA (genre un Lindy 38191 à une vingtaine d'euros) et LibreELEC avec Kodi, vous pouvez balancer du 23,976 Hz natif sur votre vieux tube cathodique. Et là, vous passez en mode cinéma pur, sans aucune interpolation !
En gros, plutôt que d'envoyer du 24p brut (certains CRT apprécient moyen les fréquences aussi basses), l'astuce c'est de multiplier par 3 : 23,98 x 3 = 71,94 Hz. Chaque image est ainsi affichée exactement 3 fois, à intervalles parfaitement réguliers comme ça, pas de saccade... Mais attention, ça ne fonctionne pas avec les TV CRT (car elles gèrent le multisync différemment). Et, ça marche aussi en x4 (95,92 Hz) si votre moniteur préfère ça.
Tout est expliqué dans cette vidéo :
Par contre, sachez le, le VGA ne transporte pas le son, du coup faudra brancher la sortie jack 3,5mm du Pi à des enceintes séparées.
Ensuite, côté résolutions, ça va du 640x480 au 1440x1080, tout en 4:3 bien sûr. Et pour pas avoir à bidouiller en SSH, Bob a créé un plugin EDID custom pour LibreELEC qui fait tout le boulot.
Vous sélectionnez votre résolution dans l'interface de Kodi et c'est réglé. C'est le plugin qui gère les timings EDID automatiquement, du coup Kodi détecte les modes disponibles tout seul.
D'ailleurs, si vous êtes plutôt Blu-ray physique, le RetroTINK 4K (environ 400 dollars le bouzin) peut aussi downscaler vers un CRT, mais il faudra ajouter un convertisseur HDMI-VGA en sortie vu qu'il ne sort qu'en HDMI. Du coup ça commence à faire pas mal de matos... et ça coûte un bras comparé à un Pi 4 qui traîne dans un de vos tiroirs !
Si le rétro-gaming sur CRT vous tente aussi, Vincent vous avait de Recalbox 10 qui gère la sortie CRT sur Raspberry Pi 5 . Et côté interpolation de frames, y'a aussi l'algorithme RIFE qui fait le chemin inverse en générant des images intermédiaires pour passer de 24 à 60 fps (mais avec des artefacts, forcément).
Bref, voilà de quoi redonner vie à ces bons vieux tubes cathodiques. Perso, je trouve ça délire qu'un écran à 20 balles en récup' fasse du cinéma mieux qu'une dalle à +2000 euros.
Merci à Lorenper pour le partage !

PokerTH 2.0.5
Converseen 0.15.2.1
Icecream Photo Editor 1.54
Bolt, le robot humanoïde chinois qui sprinte à 36 km/h
La startup chinoise MirrorMe Technology vient de dévoiler Bolt, un robot humanoïde de 75 kilos capable de sprinter à 36 km/h sur ses deux jambes, en conditions réelles. C'est le bipède artificiel le plus rapide jamais conçu et il dépasse allègrement la vitesse de course de la plupart d'entre nous. La Chine prend encore un gros coup d'avance dans la robotique humanoïde.
10 mètres par seconde sur deux jambes
MirrorMe Technology vient de présenter Bolt, un humanoïde qui a atteint 10 mètres par seconde lors de tests sur piste. Ça fait 36 km/h, soit à peu près la vitesse moyenne d'un sprinter humain sur un 100 mètres. La machine mesure 1,75 m pour 75 kg, des mensurations proches de celles d'un adulte moyen. La finition rouge métallisé donne un look qui rappelle plus un personnage de film de science-fiction qu'un robot de labo. La vidéo est assez rigolote, vous pouvez la visualiser ici .
Pour atteindre cette vitesse, les ingénieurs ont misé sur une approche un peu contre-intuitive. Bolt fait des foulées plus courtes qu'un coureur humain, mais à une cadence beaucoup plus rapide. Ce mouvement ultra-rapide des jambes lui permet de garder l'équilibre à grande vitesse, ce qui, vous l'imaginez bien, est le défi principal quand on fait courir une machine sur deux jambes. Wang Hongtao, le fondateur de MirrorMe, s'est d'ailleurs filmé en train de courir sur un tapis roulant à côté de sa création.
MirrorMe a été créée en mai 2024 à Shanghai, mais l'équipe qui la compose travaille sur le sujet depuis 2016, à l'université du Zhejiang. Bolt n'est pas leur premier sujet. La startup propose déjà plusieurs robots, dont le Black Panther II, un quadrupède qui a bouclé un 100 mètres en 13,17 secondes avec une pointe à 9,7 m/s. L'ambition est assez claire : concevoir des robots "super-espèces" capables de dépasser les performances humaines. Et le nom Bolt, c'est un clin d'œil direct à Usain Bolt. Le robot n'atteint pas encore les 44,72 km/h de pointe du Jamaïcain, mais il court quand même plus vite que la quasi-totalité des êtres humains sur Terre.
Les concurrents sont loin derrière
Côté concurrence, Bolt est donc devant. Le WildCat de Boston Dynamics plafonne à environ 8,8 m/s, et le Tien Kung, un autre humanoïde chinois, a mis 21,5 secondes pour boucler un 100 mètres aux World Humanoid Robot Games. Bolt fait quasiment deux fois mieux que ses rivaux bipèdes les plus proches. MirrorMe veut d'ailleurs utiliser ses robots comme "partenaires d'entraînement en acier" pour les athlètes chinois, avec l'idée d'offrir un adversaire qui tient le rythme sans jamais fatiguer.
Visiblement, la Chine ne plaisante pas avec la robotique bipède. 36 km/h pour un robot de 75 kg, respect. Par contre, entre un sprint contrôlé sur piste et un robot capable de courir dans une vraie rue avec des nids-de-poule et des passants, il y a probablement un gap à franchir. On aimerait aussi en savoir plus sur l'autonomie, parce que sprinter à 36 km/h pendant trois secondes c'est rigolo, mais pendant un kilomètre c'est un autre sujet. Et puis bon, si vous courez le dimanche à 10 km/h en vous trouvant pas mal, un robot chinois de 75 kilos vient officiellement de vous mettre un gros vent.
Sources : Cnevpost , Interesting Engineering

TCL 5G : CPE B50, B50 Pro et WR5360 démocratisent 5G et Wi‑Fi 7 à MWC26
Accélération des débits, ticket d’entrée revu à la baisse. TCL complète l’accès 5G et Wi‑Fi 7 avec un trio pensé pour la maison, le bureau et la mobilité.
TCL 5G structure une offre d’entrée de gamme cohérente
Au MWC26, TCL dévoile trois appareils : le CPE 5G B50, le hotspot 5G mobile B50 Pro et le routeur Wi‑Fi 7 LINKHUB WR5360. Objectif affiché : faciliter le passage du 4G au 5G tout en généralisant le Wi‑Fi 7 dans des produits au positionnement accessible.
Le TCL 5G CPE B50 vise la performance de base avec un modem 5G culminant à 5,47 Gbps, des antennes 5G NR à fort gain et un 4×4 MIMO pleine bande pour la portée et la robustesse face aux interférences. Côté LAN sans‑fil, le Wi‑Fi 7 en double bande annonce jusqu’à 3,6 Gbps, la prise en charge de 128 clients simultanés et la compatibilité EasyMesh R6 pour un roaming unifié en maison ou en open space.
L’administration passe par l’application TCL avec contrôle parental et filtrage d’URL. L’ensemble positionne le B50 comme pivot fixe 5G/Wi‑Fi 7 sans surenchère de fonctions, mais avec les bons fondamentaux de débit, stabilité et capacité multi‑appareils.
Hotspot 5G mobile et routeur Wi‑Fi 7 pour la couverture totale
Le TCL 5G Mobile Wi‑Fi B50 Pro cible la mobilité professionnelle et le partage de connexion. Le modem 5G atteint 3,27 Gbps et s’appuie sur un 4×4 MIMO avec NR 2CC pour l’efficacité spectrale et la latence. Le Wi‑Fi 6 en double bande (AX1200) connecte jusqu’à 32 terminaux. Un écran tactile de 1,83″ facilite le monitoring, tandis qu’une batterie amovible de 5000 mAh assure jusqu’à 17 heures d’autonomie avec charge rapide 18 W.
Le LINKHUB WR5360 complète le tableau côté filaire et mesh. Propulsé par du Wi‑Fi 7 BE3600, il monte à 3,6 Gbps et embarque un port WAN 2,5 GbE. La compatibilité EasyMesh R6 et une config 5 GHz en 3T3R avec 2SS visent une couverture plus large et des signaux plus stables. Contrôles parentaux, VPN intégré, application mobile et interface web facilitent le pilotage.
En alignant un CPE 5G à 5,47 Gbps, un hotspot 5G à 3,27 Gbps et un routeur Wi‑Fi 7 BE3600, TCL 5G installe une passerelle claire vers la 5G domestique et itinérante. La compatibilité EasyMesh R6 sur deux maillons de la chaîne est un levier pragmatique pour étendre la couverture sans complexité.
Source : TechPowerUp
Samsung Display : OLED optimisés IA, Flex Magic Pixel et OLEDoS 5 000 PPI au MWC26
Confidentialité gérée au niveau des pixels, immersion XR à 5 000 PPI et pliables malmenés au panier de basket. Samsung Display emmène l’OLED sur tous les fronts au MWC26.
Flex Magic Pixel et LEAD 2.0 : l’OLED comme solution de confidentialité
À Barcelone, du 2 au 5 mars, Samsung Display structure son stand “Intelligent OLED City” autour de quatre zones : AI Square, AI Edge District, AI Entertainment District et AI Sports District. Point focal, Flex Magic Pixel (FMP) contrôle l’orientation de la lumière au niveau du pixel pour une lisibilité frontale nette et une forte atténuation hors axe.

FMP s’appuie sur la plateforme propriétaire LEAD (faible consommation, haute luminance, commercialisée en 2021) et une structure multi-couches de Black Matrix alignées avec précision. La déclinaison LEAD 2.0 intègre désormais FMP et vise une adoption large côté clients. Des démonstrations incluent un Galaxy S26 Ultra intégrant cette technologie, ainsi que des prototypes illustrant une protection partielle de la zone d’affichage.
Durabilité des pliables et formats libres pour l’edge AI
Dans l’AI Sports District, une station de putting utilise un smartphone pliable comme trou pour démontrer la résistance aux impacts. Samsung Display dévoile aussi son test de tir au panier : 18 pliables montés sur une planche, soumis aux lancers d’un bras robotisé, un protocole aperçu en démonstration privée au CES 2026 et présenté ici au public.

Dans l’AI Edge District, les formats libres servent d’interface pour l’IA en périphérie. Le concept Mini PetBot embarque un OLED circulaire de 1,34 pouce pour interactions voix/tactile et expression d’états. L’AI Toy House combine un OLED circulaire de 13,4 pouces et un flexible de 18,1 pouces pliable/cintrable pour un présentoir premium, avec thèmes (espace, hanok) et perspective d’arrière-plans pilotés par IA.

OLEDoS RGB 5 000 PPI et murs OLED sans bords
L’AI Entertainment District met en scène des démos MR portées par l’OLEDoS RGB (dépôt séparé des couches rouge, verte et bleue sur wafer silicium, sans filtres couleur), garantissant large gamut et stabilité angulaire. Un casque MR avec dalle 1,4 pouce à 5 000 PPI offre une densité jusqu’à dix fois supérieure aux smartphones usuels (400–500 PPI) pour une expérience de concert K‑pop en ultra-haute résolution.
Une animation transforme les visiteurs en avatars de stars K‑pop via IA, synchronisés de façon cohérente sur smartphones, laptops, moniteurs 31,5 pouces et TV QD‑OLED 77 pouces, vitrine de la constance colorimétrique des OLED Samsung. Le Bezel-less OLED Wall, inspiré du parc Güell, assemble deux dalles 6,8 pouces et deux QD‑OLED 27 pouces en mosaïque aux bordures quasi imperceptibles.











En intégrant FMP à LEAD 2.0 et en poussant l’OLEDoS à 5 000 PPI, Samsung Display installe l’OLED comme brique matérielle clé pour la confidentialité et l’XR. Les démonstrations de robustesse des pliables et la multiplication des formats libres confortent une stratégie orientée vers l’edge AI et les usages premium, avec des signaux clairs pour les prochains flagships et les casques MR compacts.
Source : TechPowerUp