↩ Accueil

Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Aujourd’hui — 24 juin 2024Programmez!

WordPress 6.6 : nouvelle bêta

24 juin 2024 à 09:39

La version 6.6 du CMS WordPress est actuellement en développement. La bêta 3 est disponible depuis le 18 juin. Cette version doit sortir mi-juillet. Cette version proposera :

- une évolution de la vue donnée

- nouveau flux de publication avec une expérience unique que l'on soit dans l'éditeur de post ou dans l'éditeur de site

La bêta 3 inclut plus de 50 corrections. Il s'agit d'une version mineure du CMS.

Catégorie actualité: 
Image actualité AMP: 
  •  

TypeScript 5.5 est disponible

24 juin 2024 à 09:32

TypeScript 5.5 est disponible depuis le 20 juin dernier. Cette version apporte des corrections et améliorations assez nombreuses :

- ajout des méthodes Set (ECMAScript)

- optimisation des performances sur plusieurs modules dont transpileModule ou encore sur les filtres 

- nouveau type checker disponible 

- meilleure précision sur les types birds

- nouveau tag de commentaire : @import

- vérification des regex 

La prochaine version est prévue pour septembre 2024 : la v5.6.

Note de version complète : https://devblogs.microsoft.com/typescript/announcing-typescript-5-5/

Catégorie actualité: 
Image actualité AMP: 
  •  

HPE veut devenir une alternative à VMware

24 juin 2024 à 08:40

Depuis le rachat de VMware et les multiples changements de licences et les mutations dans l'écosystème partenaire, les utilisateurs et entreprises hésitent entre rester chez VMware ou trouver une alternative. Il y a quelques jours, HPE a dévoilé les contours d'une future offre de virtualisation dans sa gamme GreenLake. Cette offre s'appuie sur KVM, un hyperviseur open source connu et reconnu. Une première bêta de la solution doit être disponible courant de l'été. La disponibilité de la version 1.0 est attendue pour le 2e semestre 2024. 

L'objectif sera d'intégrer l'ensemble des briques technologiques à cette nouvelle plateforme de virtualisation : stockage, support des VM / bare metal, support des offres de sécurité de Zerto, etc. Il faudra attendre quelques mois pour voir les contours exacts de cette offre et comment HPE veut se positionner sur un marché déjà bien encombré. 

Catégorie actualité: 
Image actualité AMP: 
  •  

Murena : un financement participatif pour soutenir la société

24 juin 2024 à 08:24

Murena commercialise des smartphones indépendants des grands fournisseurs et des OS propriétaires. Murena personnalise des smartphones Fairphone, Teracube et même Pixel. Tous les modèles sont livrés sans services Google ni Android. Murena y installe l'OS libre : /e/OS. La société met en avant le respect de la vie privée : les données restent sur le téléphone. Murena propose aussi un espace collaboratif en ligne : Murena Workspace. Il s'agit d'une alternative à Office 365 et à Google Docs. 

Pour aider Murena à poursuivre les développements et à étendre son offre, un financement participatif est lancé jusqu'à 1er juillet. Vous pouvez investir dans la société et détenir des parts de la société. 

Pour en savoir plus : https://www.crowdcube.eu/companies/murena/pitches/bjgwvq?country=FR

Catégorie actualité: 
Image actualité AMP: 
  •  
À partir d’avant-hierProgrammez!

AI_dev Paris 2024 : de l’IA et des LLM

21 juin 2024 à 09:53

La fondation Linux organisait à Paris un événement sur l’IA : AI_dev. Comme son nom l’indique, le prisme était le développeur et la technologie IA. L’agenda était particulièrement riche et intense. Chaque journée démarrait par une série de courtes keynotes. Puis à partir de 11h / 11h30, de multiples sessions se jouaient dans l’ensemble des salles sur plusieurs thèmes : l’IA en action, la sécurité, régulation et standards, éthique, performance, etc. Le plus difficile était de choisir, comme souvent dans ce genre de conférence. Les sessions étaient courtes : 30 minutes ce qui permet d’en voir plus. 

Les keynotes de 2e journée étaient particulièrement intéressantes :

- the common pathway of AI and software par Waren Long (poolside) : un des problèmes de l’IA n’est pas l’IA proprement dite, mais les données. Bref, les capacités des IA demandent des données de qualités. Ce sont les données qui déterminent la pertinence des LLM. « La qualité de vos datasets détermine les capacités de votre modèle » martèle Warren. Derrière, il y a l’importance du pipeline des données / LLM. Comme l’explique sur scène Warren, il faut passer des données préparatoires (= données totalement brutes) aux données filtrées puis aux étapes de déduplications. On passe ainsi de 100 % de données à -15 %. C’est la véritable valeur des données. Poolside a décidé de se focaliser sur la génération logicielle et non sur les LLM généralistes. Pour ce faire, il faut des LLM spécifiques et entraînés. Un usage précis donc. Les défis sont nombreux : trouver les données de qualité et les bons LLM, comment les identifier, dédupliquer au maximum. Il met donc en avant les LLM communs et les LLM du développement logiciel qui ont un focus très précis. 

- Common Corpus par Anastasia Stasenko : comment créer des LLM open source avec des données open source. Est-il possible de le faire ? Anastasia rappelle que dans les datasets, nous trouvons des données vérifiables (et donc sourcées) et des données pirates non autorisées. Ce qui peut poser problème au niveau légal et de conformité. Elle rappelle qu’un modèle LLM a besoin de données, de beaucoup de données et de nouvelles données. Pour créer des modèles, elle rappelle ensuite le besoin d’avoir un corps commun et coordonné, par exemple en Europe. À partir de ce corpus, il y a la capacité à inférer les LLM. Il faut que tous les acteurs puissent y participer. Par exemple, Reddit qui conclut un accord avec Google pour que les LLM / IA Google puissent utiliser l’énorme corpus de Reddit. Dans le même temps, le New York Times avait engagé une action en justice contre OpenAI et Microsoft pour violation de propriétés. Anastasia évoque le Common Corpus publié sur HuggingFace : 500 milliards de mots d’appuyant sur une vaste diversité de sources. Le corpus comprend différentes langues. Le Français concerne 110 milliards de mots. Elle évoque un point important : le corps commun s’appuie sur les données historiques et connues, mais il existe une quantité incroyable de données en ligne peu ou pas exploitées. 

- Open Source AI Everywhere par Omar Sanseviero (HuggingFace) : cette keynote rappelle le rôle essentiel de l’open source et comment les communautés et l’écosystème font vivre les LLM et donc l’IA. HuggingFace se présente comme un site collaboratif. Pourquoi un modèle collaboratif du machine learning ? Si ce n’est pas le cas, Omar évoque : une progression plus lente, une communauté hostile et des défis commerciaux difficiles à résoudre. Aujourd’hui, il existe de nombreux LLM et d’IA. Certains sont open source, d’autres non. Cela peut être un argument pour utiliser tel ou tel LLM. 

- le standard DBRX par Databricks : Databricks a présenté sur scène le standard DBRX qui doit permettre de fournir un format de données défini et stable pour la GenAI notamment quand on parle des données d’entreprises pour les LLM. Une des couches du standard est Mosaic AI. 

- Cross-platform AI apps in Docker : nous étions curieux de voir ce qui allait être présenté et malheureusement cette dernière keynote a été frustrante. Les deux intervenants ont expédié la présentation, sans live demo. Le point à retenir est que pour Docker, il y a une nouvelle dépendance : les GPU et puces IA dédiées. Or l’abstraction est essentielle : elle doit garantir la portabilité, l’universalité et une disponible réellement partout. Docker et les conteneurs peuvent y aider. Si les GPU et puces IA se généralisent, cela apporte un risque de dépendances à la plateforme hardware. Pour Docker, il faut une abstraction du hardware : peu importe le hardware sur lequel tourne mon IA et des LLM. Docker et les couches agnostiques doivent masquer cette dépendance. C’est pour cela que Docker supporte désormais WebGPU. La preview de Docker Desktop avec support de WebGPU est disponible avec plusieurs modèles utilisables.

Catégorie actualité: 
Image actualité AMP: 
  •  

Eclipse IDE : au-delà de Java

20 juin 2024 à 18:01

Eclipse est apparu dans les années 1990. Il s'est imposé comme l'IDE référence pour les développements Java. Depuis, il traîne cette image même si ce n'est plus (totalement) le cas. L'IDE a su s'ouvrir à tous les langages actuels. Comme le note Java Code Geeks : Eclipse est taillé pour les langages modernes. L'IDE est agnostique, supporte aussi les spécificités de chaque langage et est ouvert pour supporter les nouveaux langages. Aujourd'hui, il convient pour coder en Java, Python, JS, C, C++, PHP, Rust, etc. Visual Studio Code, souvent mis en avant, supporte encore plus de langages et notamment tout ce qui est .Net. 

Eclipse traine aussi une image de lourdeur et d'une interface pas toujours intuitive. Effectivement, IdealJ ou VS Code offre une interface sobre et plus fluide. Mais Eclipse est aussi ouvert que d'autres IDE grâce son architecture de plug-ins. Un point faible reste la performance pure, pas toujours au rendez-vous avec Eclipse. La vélocité est souvent bonne avec VS Code. L'impression de complexité vient des multiples projets qui sont inclus et qui évoluent en parallèle. 

Eclipse IDE bénéficie tous les trimestres d'une évolution. La dernière version est la 2024-06 : https://eclipseide.org/release/noteworthy/

Catégorie actualité: 
Image actualité AMP: 
  •  

Replay de la conférence Game Dev du 13 juin

20 juin 2024 à 14:35

Retrouvez toutes les sessions de notre conférence DevCon 100 % Game Dev édition 2024 !

Keynote partie 1 / partie 2

Session : développer un jeu avec Phaser

Session spéciale : LibVLC 

Session : projet Nagory !

Session finale : moteur WARME-Y2K

Merci à tous les intervenants : Thomas Constant, Martin Finkel, Jonathan Buron, Grégory Bersegeay et Julien Rongiere

Merci à 42, aux équipes techniques de 42 et aux étudiants et étudiantes de 42 qui nous ont aidé toute la journée !

DevCon est une conférence développeur du magazine Programmez!

Catégorie actualité: 
Image actualité AMP: 
  •  

Sphero Bolt : la boule robot revient dans une nouvelle version

19 juin 2024 à 18:34

La boule Bolt permet de découvrir la programmation et (un peu) l'électronique grâce à sa capacité à bouger et à réagir. Sphero annonce une nouvelle version : le Bolt+. La principale nouveauté est un écran LCD affichant 128x128. Outre les animations, il sera possible d'y afficher les données des capteurs. La partie codage a été étendue pour supporter l'écran et les nouvelles fonctionnalités. Le LCD remplace la matrice LED de la génération actuelle. La matrice est limitée sur les capacités d'affichage. 

Il est possible de charger les batteries avec la technologie sans fil QI. Côté programmation, on peut utiliser Scratch et JavaScript. 

Bolt+ devrait être disponible en août prochain à 199 $. 

Catégorie actualité: 
Image actualité AMP: 
  •  

Oracle lance son CoPilot : Oracle Apex AI Assistant

19 juin 2024 à 08:30

Oracle vient d'annoncer la disponibilité d'Oracle Apex AI Assistant. Cette nouvelle version d'Apex doit aider les entreprises à développer les apps en langage naturel. "Le nouvel APEX AI Assistant simplifie le développement d’applications et aide les développeurs à créer rapidement des applications stratégiques riches en fonctionnalités à grande échelle. Les développeurs peuvent désormais créer des applications à l’aide d’instructions en langage naturel. Grâce à ces dernières, ils peuvent spécifier les fonctionnalités et les composants souhaités, générer automatiquement des instructions SQL et effectuer une correction de débogage en un clic. De plus, ils ne sont plus obligés de mémoriser les noms de table et ils sont en mesure d’ajouter facilement une interface conversationnelle prête à l’emploi à leurs applications." précise l'annonce. 

L'éditeur indique que Apex est pris en charge par la base de données Oracle, sans coût supplémentaire. 

Apex est l'outil de low code depuis 20 ans avec une approche déclarative. L'ajout d'un "CoPilot" va donc au-delà du simple Low code. L'éditeur indique que 850 000 développeurs utilisent cet environnement. 

Pour résumé : 

Les nouvelles améliorations apportées à l’IA dans Oracle APEX sont les suivantes :

  • APEX AI Assistant : permet de créer des instructions SQL valides à partir d’un prompt utilisateur en langage naturel. APEX AI Assistant se souvient de la syntaxe SQL à la place des développeurs et automatise l’écriture des requêtes SQL. Il explique le code existant et suggère des corrections de bugs dans le code qui peuvent être adoptées d’un simple clic, libérant les développeurs des tâches de codage de routine. 
  • Create App Assistant : permet de créer des modèles de base d’application à partir d’une aide utilisateur en langage naturel qui spécifie les attributs et les fonctionnalités souhaités. Cela simplifie le développement de nouvelles applications et permet aux développeurs de concentrer leur énergie et leurs ressources sur la création de fonctionnalités d’application uniques et sur mesure plutôt que sur le code sous-jacent.
  • IA conversationnelle : permet aux utilisateurs finaux de « converser » avec leurs applications en langage naturel via une interface conversationnelle prête à l’emploi que les développeurs peuvent facilement ajouter à leurs applications. Les développeurs peuvent ainsi offrir une expérience plus riche dans les applications sans avoir à créer des composants d’IA générative ou de traitement du langage naturel en partant de zéro.
Catégorie actualité: 
Image actualité AMP: 
  •  

GitLab : nouvelles intégrations avec Google Cloud

19 juin 2024 à 08:20

GitLab annonce la disponibilité des intégrations avec Google Cloud, en version bêta. "Ces intégrations, qui combinent les fonctionnalités de la plateforme DevSecOps de GitLab, dont la gestion du code source, la planification, le flux de travail CI/CD, et la sécurité, permettent aux développeurs de travailler de manière plus efficace, plus rapide et plus productive.Ainsi, les clients communs de Google et GitLab  bénéficient d'une visibilité complète sur l'ensemble du cycle de développement des logiciels directement à partir de la plateforme GitLab." précise l'annonce officielle. 

Ces intégrations avec les services Google concernent : Google Identity Access Management, Workload Identity Federation, Google Cloud Artifact Registry et Google Compute Engine. Depuis la plateforme GitLab, nous verrons suivre le cycle de vie de nos projets et les services Google Cloud intégrés sans devoir afficher les tableaux bords Google. 

Catégorie actualité: 
Image actualité AMP: 
  •  

Intel veut mettre l'IA partout à Paris 2024

Par : ftonic
18 juin 2024 à 08:44

Intel mise beaucoup sur l'IA et durant les JO de cet été, le fondeur met en place de nombreux services pour les spectateurs et les sportifs, le tout en s'appuyant sur la plateforme IA d'Intel et les partenaires technologiques. 

Parmi les usages pour les athlètes, nous trouvons l'amélioration des entraînements avec analyse des mouvements et des séances, en utilisant les données des capteurs mais aussi par l'analyse des images. Par exemple, analyse de la position du corps. Naturellement, à chaque usage, Intel met en face les technologies tels que Gaudi, Xeon, OpenVino, etc. 

Une des difficultés est de pouvoir fédérer les données en temps réel des 22 sites éparpillés. Ces données vont ainsi permettre de voir l'occupation en temps réel des gradins, le nombre de personnes site par site, analyse de l'occupation de l'espace, etc. Ces statistiques permettront de mieux comprendre le comportement de tel site ou de voir les problèmes de flux ou si tel ou tel aménagement est favorable ou bloquant. 

Le patrimoine n'est pas oublié. Le CIO possède un musée olympique et un des défis est de préserver les collections mais aussi de pouvoir les exposer au public. Dans cette perspective, les solutions Intel servent à modéliser en 3D les objets pour pouvoir les voir virtuellement. Les objets 3D doivent être le plus fidèle possible avec des textures réalistes. 

L'autre défi est la retransmission des Jeux et de proposer une expérience la plus inédite possible. Pour ce faire, Intel mobilise Geti Platform. Il s'agit d'une solution dédiée à la vidéo et aux traitements IA. Par exemple : créer les meilleurs moments d'une séquence, d'une compétition. L'IA est là pour aider les monteurs et générer plus rapidement les séquences grâce à des LLM spécifiques. Il s'agira aussi de créer en direct des séquences 3D, avec les journalistes, avec un équipement standard, les traitements IA (serveurs et services) sont là pour générer à la volée la 3D sur fond vert.

Un autre défi de la diffusion sera de proposer un contenu 8K ce qui exige du matériel et des flux constants et stables. L'encodage sera assurée par des infrastructures basées sur les processeurs Xeon. Les flux 8K sont particulièrement lourds et il faut des serveurs capables de tenir la charge.

Catégorie actualité: 
Image actualité AMP: 
  •  

APC Back-UPS Pro Gaming : un onduleur gaming

Par : ftonic
17 juin 2024 à 23:15

Schneider Electric pense aux gamers. Le constructeur propose un modèle un peu spécial au design moins austère que les modèles standards : le APC Back-UPS Pro Gaming. Nous pouvons y brancher les consoles, les écrans, les routeurs, etc. Il permet de protéger les matériels contre les sur-tensions et de lisser le courant :

-    Protégés : une batterie de secours protège le matériel électronique s systèmes de jeu de valeur contre plus de sept différents types de pannes de courant

-    Dans la partie : si l’alimentation est micro interrompue ou totalement coupée pendant une partie, l’alimentation de secours prend le relai pour permettre aux gamers de terminer leur partie et de récolter les récompenses qui auraient autrement été perdues.

En cas de coupure électrique, le temps restant s'affiche, pratique ! Une lumière dédiée prévient en cas d'anomalie. L'ondulateur dispose de 6 prises de secours : c'est le minimum. Il inclut aussi 4 prises contre les surtensions. Sa capacité est 1 500 VA soit 900W. L'autonomie annoncée est d'environ 22 minutes avec un PS5 et un écran 55''. Tarif : environ 450 €. Pour une capacité identique, on peut trouver moins cher. 

Catégorie actualité: 
Image actualité AMP: 
  •  

DevCon #23 - Sécurité & Qualité du code

Par : admin
17 juin 2024 à 16:36

Conférence sécurité / qualité du code / secure by design

Le 14 novembre 2024

Où : ESGI
242 Rue du Faubourg Saint-Antoine, 75012 Paris

4 sessions + 3 sessions courtes de 20 minutes

L’appel à session est ouvert !

Proposez-dès maintenant votre session

session technique : 45 minutes
session courte : 20 minutes chrono

Envoyez-nous : 

titre session
description

à ftonic- at - programmez.com

  •  

API Platform Conference : les 19 et 20 septembre à Lille

Par : ftonic
17 juin 2024 à 11:33

Pour la 4ᵉ année consécutive, la conférence dédiée aux API web et au framework, API Platform, est de retour à Lille, les 19 et 20 septembre 2024.
Rejoignez près de 700 participants originaires de toute l’Europe pour assister à des conférences de haut niveau données par des speakers de renommée internationale,
créateurs et mainteneurs de logiciels libres en PHP et JavaScript utilisés par les plus grandes firmes d’Europe (Xdebug, Symfony, React-Admin…).
Pour en savoir plus : https://api-platform.com/fr/con/2024/speakers/
Les conférences auront lieu simultanément à Lille et en ligne, pour celles et ceux qui ne pourraient pas se déplacer pour l’événement.
Le magazine Progr'ammez! sera présent sur place. 
Catégorie actualité: 
Image actualité AMP: 
  •  

Témoignez sur votre métier de développeuse/eur !

Par : ftonic
17 juin 2024 à 09:09

Le magazine Programmez! lance un appel à témoignages. Comment voyez-vous votre métier de développeur/euse ? Votre formation, votre quotidien, si vous aimez le code, comment voyez-vous l'évolution de votre métier, etc. 

Les témoignages seront publiés dans le numéro d'automne. 

Pour répondre au questionnaire : https://forms.gle/GQQA3gdJiwRcsCz3A

Catégorie actualité: 
Image actualité AMP: 
  •  

Platform Engineering Summit : rendez-vous le 24 juin avec les experts Microsoft

Par : ftonic
17 juin 2024 à 08:58

Microsoft organise une journée pour les développeurs et les ops pour voir les dernières technologies GitHub et Microsoft en actions mais aussi pour pouvoir discuter avec les experts de l'éditeur. La keynote sera l'occasion de discuter de la plateforme, de cloud native et d'IA. 

Les ateliers permettront de se plonger dans les outils et es technologies :

  • Pour les développeurs : Découvrez la puissance du platform engineering, sa rapidité et ses capacités de mise à l’échelle ; onboarding rapide avec Azure DevBox, Azure Deployment Environment et Azure Dev CLI. Et maintenez le cap avec Azure Load Testing et Azure Monitor 
     
  • Pour les Ops, IT consultants : Découvrez à travers des exemples concrets à quel point il est simple de définir et de maintenir une solution de platform engineering, de protéger les développeurs et de maximiser leur vitesse et leur liberté de développement ; une intégration rapide avec Azure DevBox, des environnements sécurisés avec Azure Deployment Environments, une conformité à grande échelle avec les stratégies Azure, et des pipelines simples avec GitHub Actions. 

Evenement au campus de Microsoft France et en virtuel.

Lien : https://msevents.microsoft.com/event?id=3293135919

Catégorie actualité: 
Image actualité AMP: 
  •  

AI_dev : conférence IA de la fondation Linux les 19 et 20 juin

Par : ftonic
17 juin 2024 à 08:14

La fondation Linux organise une conférence IA les 19 & 20 juin à Paris. Les deux journées s'annoncent particulièrement chargées avec plusieurs thèmes : IA par la pratique, sécurité, recherches, IA & éthique, performances, etc. 

Plusieurs tracks se joueront en même temps. Il est encore temps de s'inscrire.

Où : maison de la mutualité à Paris

Agenda complet : https://events.linuxfoundation.org/ai-dev-europe/program/schedule/

Catégorie actualité: 
Image actualité AMP: 
  •  

Python 3.13 : un nouveau PyREPL

Par : ftonic
17 juin 2024 à 07:40

Le prochain Python, la version 3.13, devrait normalement sortir en octobre prochain. Parmi les nouveautés annoncées, nous trouverons un nouveau REPL (Read Evaluate Print Loop). Le REPL est un interprêteur interactif du langage et on disposera du nouveau PyREPL. Il est écrit entièrement en Python. Pourquoi un nouveau REPL alors qu'il en existe déjà ? Pour les développeurs, l'objectif est de proposer de nouvelles fonctionnalités et de permettre une plus grande souplesse d'évolution. 

L'objectif est de proposer un REPL unifié avec une unique base de code en Python et permettre à la communauté de participer plus largement à ce projet. 

Parmi les nouveautés attendues :

- coloration syntaxique

- touches de fonction F1 et F3

- multiple ligne d'édition et historique

- meilleur copier-coller

La version supporte Linux et macOS sans oublier WIndows. Elle est disponible dans les bêtas de Python 3.13.

Présentation complète à la conférence Python Language Summit 2024 : https://pyfound.blogspot.com/2024/06/python-language-summit-2024-pyrepl-new-default-repl-for-python.html

Catégorie actualité: 
Image actualité AMP: 
  •  

La bibliothèque Microsoft AI Chat Protocol est disponible en préversion

14 juin 2024 à 14:08

Microsoft a annoncé la disponibilité la préversion publique de la bibliothèque Microsoft AI Chat Protocol pour créer des interfaces basées sur l'IA en JavaScript. La bibliothèque et la spécification API correspondante sont disponibles sur GitHub.

La bibliothèque est construite sur une base similaire à celle d’Azure Core, le processus d’utilisation de la bibliothèque devrait sembler familier aux clients du SDK Azure. La bibliothèque AI Chat Protocol est disponible sur npm.

npm i @microsoft/ai-chat-protocol

Une fois la bibliothèque installée, vous commencez par créer un objet client, tout comme les autres bibliothèques Azure SDK. Ensuite, un point de terminaison est transmis lors de l'instanciation du client. Ce point de terminaison doit respecter la spécification de l'API AI Chat Protocol. Si vous utilisez une authentification, vous pouvez également transmettre votre TokenCredential.

import {
    AIChatMessage,
    AIChatProtocolClient,
} from "@microsoft/ai-chat-protocol";

const client = new AIChatProtocolClient("/api/chat");

La bibliothèque Microsoft AI Chat Protocol est un logiciel libre sous licence MIT.

Catégorie actualité: 
Image actualité AMP: 
  •  

ChromeOS va bientôt s'appuyer sur la pile Android

14 juin 2024 à 12:06

Google a annoncé que ChromeOS sera prochainement développé sur de grandes parties de la pile Android, comme le noyau Android Linux et les frameworks Android. Dans quel but ? Comme en sans doute, le but de de mettre de l'IA dans ChromeOS.

Google explique : "L'intégration de la pile technologique basée sur Android dans ChromeOS nous permettra d'accélérer le rythme de l'innovation en matière d'IA au cœur de ChromeOS, de simplifier les efforts d'ingénierie et d'aider différents appareils tels que les téléphones et les accessoires à mieux fonctionner avec les Chromebooks. Dans le même temps, nous continuerons à offrir une sécurité inégalée, une apparence cohérente et des fonctionnalités de gestion étendues que les utilisateurs, les entreprises et les écoles de ChromeOS adorent."

On n'échappe pas à l'IA de Google facilement (à celle de Microsoft non pkus d'ailleurs, mais c'est un autre sujet). Quand cette IA arrivera-t-elle sur ChromeOS ? Google l'a précisé d'une manière que n'aurait pas reniée Fernand Raynaud : Ces améliorations de la pile technologique commencent maintenant, mais ne seront pas prêtes pour les consommateurs avant un certain temps... :-)

Catégorie actualité: 
Image actualité AMP: 
  •  

Une vulnérabilité critique de PHP sur Windows

14 juin 2024 à 11:32

Une vulnérabilité critique de PHP sur Windows a été découverte  sur toutes les versions de PHP de 5.x à 8.x. Sur Windows signifie qu'un server Web IIS avec le module php-cgi est vulnérable. Mais cela signifie aussi que les utilisateurs de XAMPP sont vulnérables. De plus il est important de savoir que si cette vulnérabilité est liée à php-cgi elle peut malgré tout être exploitée en dehors su mode cgi si les exécutables php.exe ou php-cgi.exe sont accessibles au serveur web.

Cette vulnérabilité est estampillée CVE-2024-4577. Elle existe sur Windows car si le système est configuré pour utiliser certaines pages de codes, il peut utiliser le comportement « Best-Fit » pour remplacer les caractères dans la ligne de commande donnée aux fonctions de l'API Win32. Le module PHP CGI peut alors interpréter à tort ces caractères comme des options PHP, ce qui peut permettre à un utilisateur malveillant de transmettre des options au binaire PHP en cours d'exécution, et ainsi de révéler le code source des scripts, d'exécuter du code PHP arbitraire sur le serveur, etc.

Cette vulnérabilité est exploitable via la simple insertion d’un caractère « Soft Hyphen » dans les paramètres d’une URL. Ce caractère est converti automatiquement en trait d’union classique via la fonctionnalité « Best-Fit » de Windows. Ce qui permet de contourner un mécanisme de vérification de PHP, et ainsi lui faire exécuter du code via l’exécutable « php.exe ».

Une URL attaquante peut-être repérée par la présence d’un caractère « Soft-Hyphen »  dedans, caracère dont l'encodage est %ad.

Le site beaglesecurity.com précise qu'à l'heure actuelle, il a été confirmé qu'un attaquant non autorisé peut exécuter du code arbitraire sur des serveurs distants exécutant Windows dans les paramètres régionaux suivants :

  • Chinois traditionnel (page de code 950)
  • Chinois simplifié (page de codes 936)
  • Japonais (page de code 932)

Pour Windows exécuté dans d'autres langues telles que l'anglais, le coréen et l'Europe occidentale, la diversité des scénarios d'utilisation de PHP rend difficile l'énumération et l'élimination de toutes les voies d'exploitation potentielles.

Pour se protéger de cette vulnérabilité, les administrateurs doivent mettre leur PHP à jour sur leurs systèmes. Mais s'ils ne peuvent pas le faire, par exemple en étant obligés de travailler avec un PHP 5.x qui n'est plus maintenu, beaglesecurity.com suggère une réécriture d'URL comme mesure d'atténuation :

RewriteEngine On
RewriteCond %{QUERY_STRING} ^%ad [NC]
RewriteRule .? - [F,L]

Catégorie actualité: 
Image actualité AMP: 
  •  

MariaDB : nouveau meetup à Paris le 19 juin

Par : ftonic
14 juin 2024 à 10:20

Retrouvez la communauté MariaDB le 19 juin prochain à partir de 18h30 dans les locaux de Centreon 

Ce nouveau MEET UP MariaDB se concentre sur la gestion de la supervision et volumétrie de MariaDB.

Au programme

  • ADM (actualité de MariaDB) par Christophe Villeneuve
  • La performance malgré l'augmentation de la volumétrie par Sébastien Giraud, MariaDB
  • La magie des prepared statements en bulk par David Boucher de Centréon

Ouverture des portes à 18h30

Début de la présentation 19h00
Les portes seront fermées à 21h00 maximum

Pour vous inscrire : https://www.meetup.com/fr-FR/mariadb-paris-meetup/events/301503167/

Catégorie actualité: 
Image actualité AMP: 
  •  
❌
❌