OpenAI prépare un gadget pour vous faire parler à Siri sans iPhone
![]()
![]()
Une nouvelle fuite de données affecte l'État Français : la DINUM a officialisé ce vendredi 16 janvier une intrusion au sein de la plateforme HubEE.
Le post Piratage HubEE : l’État confirme la fuite de 160 000 documents avec des données sensibles a été publié sur IT-Connect.
La mise à jour de janvier 2026 (KB5074109) pour Windows 11 bloque Outlook s'il y a un ou plusieurs profils POP configurés. Détails et solution dans cet article.
Le post La mise à jour de janvier pour Windows 11 bloque Outlook si vous utilisez un profil POP ! a été publié sur IT-Connect.
Microsoft a publié les mises à jour de janvier 2026 pour Windows Server, dont la KB5073379 pour Windows Server 2025 ! Voici les changements apportés.
Le post Le point sur les mises à jour de janvier 2026 pour Windows Server a été publié sur IT-Connect.
L'extension Copilot Studio pour Visual Studio Code passe officiellement en disponibilité générale (GA), de quoi éditer les agents IA depuis l'IDE local.
Le post L’extension Copilot Studio est disponible pour Visual Studio Code : à quoi sert-elle ? a été publié sur IT-Connect.
Wine 11.0 est disponible : cette nouvelle version apporte des nouveautés comme WoW64 et NTSync, ce qui va améliorer les performances des jeux Windows sur Linux.
Le post Wine 11 est disponible pour Linux : ce que ça change pour l’exécution des programmes Windows a été publié sur IT-Connect.
OVHcloud s'est associé à Veeam pour proposer à ses clients une nouvelle solution de sauvegarde managée pour les serveurs Bare Metal : OVHcloud Backup Agent.
Le post OVHcloud lance Backup Agent, une solution basée sur Veeam pour la sauvegarde des serveurs dédiés a été publié sur IT-Connect.
Selon une entrée récemment enregistrée auprès de l’Office américain des brevets et des marques, AMD s’est vu attribuer un nouveau brevet portant le nom de Balanced Latency Stacked Cache. Derrière cette appellation, le document, repéré par le média NeoWin, décrit une approche visant à faire évoluer l’empilement 3D du cache en l’appliquant non plus uniquement au cache L3, comme c’est le cas aujourd’hui, mais également au cache L2, avec l’ambition d’optimiser les latences et l’efficacité globale de la hiérarchie mémoire.
Le brevet décrit des liaisons verticales via TSV (through‑silicon vias) ou BPV (bond pad vias) entre matrices empilées. Particularité clé : les vias sont regroupés au « centre géométrique » des puces pour des chemins plus courts et symétriques. Cette topologie vise à équilibrer les temps d’accès entre couches, minimiser les étages de pipeline et contenir les pertes de transmission.



Sur un L2 typique de 1 Mo, AMD indique un passage de 14 à 12 cycles d’accès avec l’empilement 3D, une baisse modeste en apparence mais significative dans une plage habituelle de 10 à 50 cycles.

Après l’introduction du 3D V‑Cache (L3) en 2021, déjà arrivé en seconde génération et associé récemment aux processeurs gaming haut de gamme tel que le Ryzen 7 9800X3D, cette extension au L2 viserait des gains plus systématiques sur la réactivité des cœurs.
Le document est référencé US20260003794A1 et se trouve au stade de publication de demande. La concrétisation en produit peut prendre du temps et dépendra de contraintes physiques et d’intégration. Nous suivrons les étapes vers une mise en production et les premiers prototypes silicium.
Source : ITHome
OK les amis, là faut qu'on parle de ce qui se passe chez Rockstar. Je pense que vous passez probablement trop de temps à errer dans Los Santos au lieu de bosser, mais ce qui vient de tomber est bien plus inquiétant qu'un braquage de banque qui foire. En effet, d'après une enquête de Variety , Rockstar vient de supprimer des missions créées par des joueurs qui recréaient l'assassinat réel de Charlie Kirk, un fasciste américain tué en septembre dernier.
Le truc, c'est que ce n'est pas juste une petite polémique politique de plus. C'est LE SIGNE que Rockstar Games est en train de réaliser, un peu tard, qu'ils ne contrôlent plus leur propre bébé. Car même si les outils de création existent depuis 2013, une nouvelle fonctionnalité lancée en décembre dernier a visiblement boosté la créativité macabre de certains. Désormais, des joueurs s'improvisent game designer pour injecter des événements du monde réel directement dans le jeu sandbox de Rockstar.
Et là, c'est le drame ! Pour essayer de colmater les brèches, ils ont même dû repenser leur vieux "filtre de grossièretés" interne qui n'est plus juste là pour empêcher les gamins d'écrire des insultes dans le chat, mais pour modérer et bloquer massivement des noms de personnalités ou des événements sensibles. En gros, Rockstar est passé du statut de créateur de mondes virtuels à celui de modérateur de plateforme, un peu comme s'ils géraient un réseau social géant, mais avec des flingues et des bagnoles.
Certains se demandent si l'acquisition de Cfx.re (l'équipe derrière FiveM) en 2023 par Rockstar n'était pas justement un moyen de préparer le terrain avec des technos de contrôle plus musclées. Mais peu importe, car le vrai problème ici est structurel. GTA est devenu une plateforme UGC massive (User Generated Content) et quand on voit à quel point ils galèrent déjà, on peut légitimement se demander comment ils vont gérer le futur multi de GTA 6, prévu pour novembre 2026 ?
Sérieux, je m'inquiète car imaginez l'échelle du prochain titre avec des outils encore plus poussés... Ça va être un combat permanent pour supprimer les contenus problématiques. On est trèèèès loin de l'époque où on s'amusait simplement à regarder Los Santos sous l'eau grâce à un mod. Ici, Rockstar découvre à ses dépends que la liberté offerte aux joueurs est en train de se transformer en leur pire cauchemar de modération.
Allez, bon courage Rockstar, parce que là, vous allez en avoir besoin.

Il y a des combats comme cela auxquels pas grand monde ne pense et qui pourtant sont très importants. Je parle évidemment de la lutte contre le chaos du texte non structuré. Si vous avez déjà essayé d'extraire des données propres d'un tas de PDF (après OCR), de rapports ou de notes griffonnées, vous voyez de quoi je parle : c'est l'enfer ! (oui j'aime me faire du mal en tentant des regex impossibles).
Heureusement, Google a lâché début janvier 2026 une petite pépite en open source (même si c'est pas un produit "officiel") qui s'appelle LangExtract . C'est une bibliothèque Python qui utilise la puissance des LLM pour transformer vos documents textuels en données JSON bien rangées.
Exemple d'extraction sur le texte de Roméo et Juliette ( Source )
Ce qui fait que LangExtract sort du lot par rapport à d'autres outils comme Sparrow , c'est surtout son système de Source Grounding. En gros, chaque info extraite est directement liée à sa position exacte dans le texte source. Ça facilite énormément la vérification et la traçabilité puisque vous pouvez voir visuellement d'où vient la donnée grâce à un système de surlignage automatique.
Sous le capot, l'outil est optimisé pour les documents à rallonge (le fameux problème de l'aiguille dans une botte de foin). Il utilise des stratégies de découpage de texte et de passes multiples pour améliorer le rappel et s'assurer que le maximum d'infos soit capturé.
La visualisation interactive permet de valider les données en un clin d'œil ( Source )
Et cerise sur le gâteau, il permet de générer un fichier HTML interactif pour visualiser les milliers d'entités extraites dans leur contexte original. À la cool !
Côté installation, c'est hyper fastoche :
pip install langextract
Pour faire le job, vous avez le choix des armes : les modèles cloud de Google (Gemini 2.5 Flash/Pro), ceux d'OpenAI (via pip install langextract[openai]), ou carrément du local avec
Ollama
. Pas besoin de passer des heures à fine-tuner un modèle, il suffit de fournir quelques exemples structurés via le paramètre examples et hop, c'est parti mon kiki.
Voici à quoi ça ressemble sous le capot pour lancer une machine à extraire :
import langextract as lx
# 1. On définit les règles du jeu
prompt = "Extraire les noms de personnages et leurs émotions."
# 2. On donne un exemple (few-shot) pour guider le modèle
examples = [
lx.data.ExampleData(
text="ROMEO. But soft! What light...",
extractions=[lx.data.Extraction(extraction_class="character", extraction_text="ROMEO", attributes={"emotion": "wonder"})]
)
]
# 3. On lance l'extraction (nécessite une clé API ou Ollama)
results = lx.extract(
text_or_documents="votre_texte_brut_ici",
prompt_description=prompt,
examples=examples,
model_id="gemini-2.5-flash"
)
# 4. On sauvegarde et on génère la visualisation HTML
lx.io.save_annotated_documents(results, output_name="results.jsonl")
html_content = lx.visualize("results.jsonl")
with open("view.html", "w") as f:
f.write(html_content)
Honnêtement, je ne sais pas si ça va remplacer les solutions industrielles de RPA , mais pour un dev qui veut structurer du texte sans se prendre la tête, c'est vraiment impressionnant. Que vous fassiez du Grist ou de l'analyse de données pure, cet outil mérite clairement que vous y jetiez un œil !

Vous pensiez avoir tout vu en matière de projets geeks complètement déjantés ?
Hé bien accrochez-vous à vos slips, parce que des chercheurs, menés par le neuro-ingénieur Viktor Tóth, ont réussi à faire "jouer" des rats à DOOM. Pas en appuyant sur des boutons au hasard, non non, mais avec un casque de réalité virtuelle sur mesure, une boule de déplacement sous leurs pattes, et même une gâchette pour tirer sur les démons !
Je vous jure que c'est vrai. Le projet s'appelle " Rats Play DOOM " et c'est à la croisée de la neuroscience, de la robotique et du game design. L'idée de base, c'est de prouver qu'on peut entraîner des rongeurs à interagir avec des environnements virtuels contrôlés basés sur un moteur de jeu. Et quitte à faire ça, autant le faire avec le jeu le plus iconique des années 90.
Gros plan sur le casque VR panoramique pour rongeurs ( Source )
Le setup est assez dingue. Le rat est équipé d'un casque panoramique intégrant un écran AMOLED pliable qui offre 180 degrés de champ horizontal et 80 degrés de vertical. Il est installé sur une boule sphérique qui détecte ses mouvements via des capteurs, un peu comme une trackball géante. Quand il marche, court ou tourne, ça se traduit directement en déplacements dans le jeu.
Et pour ceux qui se demandent comment un rat peut vraiment dégommer des monstres... Hé bien oui, car Viktor a même fabriqué un levier custom avec un encodeur rotatif que le rat actionne avec ses pattes pour faire feu. Donc oui, les rats tirent sur des démons avec leurs petites papattes !
Le nouveau setup modulaire V2 ( Source )
Pour motiver nos petits rongeurs gamers, y'a évidemment un système de récompense. À chaque action réussie, le système distribue 10 microlitres d'eau sucrée via un solénoïde. C'est pas grand-chose mais pour un rat, c'est le graal. Au bout de deux semaines d'entraînement environ, les rats Todd, Kojima et Gabe (oui, ils ont des noms de légendes du jeu vidéo, on adore l'humour des chercheurs) ont réussi à naviguer dans l'environnement virtuel. Et là, ils ont même appris à déclencher le mécanisme de tir.
Bon, faut être honnête, ils n'ont pas encore terminé le jeu. L'équipe explique que les rats ont vieilli avant de pouvoir passer à l'entraînement avancé. Du coup, c'est plus une preuve de concept qu'un speedrun, mais quand même, c'est impressionnant. On est loin du simple contrôle neuronal de base, là car c'est une vraie interaction avec un moteur de jeu.
Setup V1 du projet Rats Play DOOM ( Source )
Côté technique, tout tourne sur un combo Raspberry Pi pour l'acquisition des capteurs en temps réel, et un PC qui fait tourner une version modifiée de ViZDoom. Le tout communique en TCP et hop, c'est géré par un script Python central. Et comme si ça suffisait pas, le projet est entièrement open source. Vous pouvez récupérer le code, les schémas électroniques et même les fichiers 3D pour imprimer les pièces sur le repo GitHub. Donc si vous avez un rat de compagnie et beaucoup trop de temps libre...
Le projet en est à sa deuxième version. Cette V2 est plus modulaire, avec des composants imprimables en 3D et une électronique plus fiable. C'est typiquement le genre de bidouille qui me rappelle pourquoi j'aime tant farfouiller dans les projets Raspberry Pi les plus improbables ^^.
D'ailleurs, si vous êtes fan de portages improbables, vous vous souvenez peut-être de cet article sur DOOM Retro , mais là avec les rats, on est clairement passé au niveau supérieur.
Bref, on vit vraiment une époque formidable où des gens financent des projets pour apprendre à des rats à buter des démons en VR. Et j'adore l'idée !

![]()
![]()
![]()
![]()
Les manettes GuliKit TT s’apprêtent enfin à sortir du bois : après des prototypes montrés fin été 2024 et une page produit apparue début janvier, des médias confirment des unités sur leurs bancs d’essai. Les GuliKit TT MAX et PRO, ex‑« Libra », prolongent la lignée KingKong avec une silhouette façon Xbox et un D‑pad flottant inspiré PlayStation. GuliKit TT arrive donc en version finalisée, presque deux ans après la première présentation publique.

Selon le descriptif détaillé du constructeur, les deux modèles visent le titre de « plus rapides en sans‑fil » grâce à l’adaptateur Hyperlink 2, fourni d’office. Ils embarquent des joysticks TMR symétriques avec tension réglable à 720°, et un système de D‑pad flottant interchangeable pensé pour les jeux de combat. D’après GuliKit, les manettes peuvent réveiller les consoles Nintendo Switch 2 ainsi que la Switch originale.
Le parcours a été plus long que prévu. Des previews tablaient sur un lancement à l’automne dernier, mais plusieurs reports s’en sont mêlés. Le site officiel reste muet sur les tarifs, comme souvent chez la marque, où les premiers prix filtrent plutôt via des fiches Amazon.

Les TT reprennent l’arsenal déjà vu sur les KingKong MAX/PRO : quatre palettes arrière détachables, enregistrement d’entrées APG, gâchettes intelligentes de 2e génération, visée gyroscopique et éclairage RGB. La version MAX se distingue en ajoutant des capuchons de sticks de hauteurs différentes dans la boîte. GuliKit avait aussi montré à la gamescom 2024 ses Elves de 2e génération et une Libra MAX plus radicale, tous avec D‑pad flottant et placement « à la PlayStation ».
Rappel utile pour les curieux : le design TT, scindé en MAX et PRO, demeure un dérivé des KingKong, mais cherche une polyvalence multi‑plateformes plus affirmée, avec la promesse d’une latence réduite « grâce à l’Hyperlink 2 ».

Source : TechPowerUp
Lenovo vient de lancer le Legion « 27Q-10 OLED », un écran gaming OLED de 26,5 pouces qui mise sur un rafraîchissement de 240 Hz en QHD. Au programme : une dalle QD‑OLED 2560×1440, un temps de réponse GtG de 0,03 ms et un traitement couleur 10 bits natif pour séduire les joueurs exigeants et les créateurs en quête d’un moniteur rapide et précis.

La dalle QD‑OLED de 26,5 pouces couvre 99 % des espaces sRGB et DCI‑P3, avec un signal 10 bits natif. La luminosité annoncée atteint 200 nits en typique et 400 nits en pic, suffisante pour une utilisation orientée gaming et création SDR. Le combo 240 Hz + 0,03 ms GtG promet une netteté accrue en mouvement et un input lag minimal.

Côté connectique, le moniteur propose deux ports HDMI 2.1 et un DisplayPort 1.4. Le pied autorise le réglage en hauteur, l’inclinaison et la rotation, tandis que la compatibilité VESA 100×100 mm facilite l’intégration sur un bras ou un support mural. Lenovo annonce un tarif de 2499 ¥ (environ 320 €) sur le marché chinois.

Avec cette fiche technique, le Lenovo Legion 27Q‑10 OLED se positionne comme une option QHD très fluide et colorimétriquement solide pour les joueurs PC et console via HDMI 2.1. Reste à évaluer la gestion de l’APL et des protections anti‑marquage en usage prolongé, points clés sur les dalles QD‑OLED modernes.
Source : ITHome
Valkyrie lance le N360 WHITE VK, un AIO watercooling de 360 mm qui vient de faire son apparition au catalogue avec un écran courbe 2K de 6,67 pouces intégré au bloc pompe. Affiché à 999 ¥ (environ 132 €), ce système de refroidissement mise sur un affichage personnalisable et un fonctionnement autonome pour la lecture de médias, sans solliciter les ressources du PC.

Le bloc intègre un écran courbe 6,67 pouces en définition 2K permettant d’afficher des contenus personnalisés. Valkyrie indique la présence d’un « système indépendant » au sein du bloc, capable de lire des fichiers multimédias sans mobiliser le processeur ou la carte graphique, afin d’éviter tout impact sur les performances.

Le radiateur de 360 mm est associé à des ventilateurs E2-PRO à double roulement à billes et pales annulaire, compatibles avec la synchronisation RGB. La vitesse couvre 500 à 2400 tr/min. Le débit d’air maximal atteint 82,33 CFM pour une pression statique de 3,14 mmH2O, avec un niveau sonore annoncé à 31,2 dB au maximum.
Ce positionnement vise les configurations blanches et les boîtiers vitrés, combinant affichage embarqué et performances de refroidissement élevées pour des CPU haut de gamme. Reste à confirmer la compatibilité sockets et le support logiciel sur nos marchés, éléments clés pour une adoption en Europe.

Source : ITHome