↩ Accueil

Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierProgrammez!

Windows 11 24H2 activera le chiffrement BitLocker par défaut, mais on peut éviter ça

17 mai 2024 à 16:22

Microsoft a confirmé à Windows Central son intention d'activer le chiffrement BotLocker par défaut dans Windows 11 24H2, non seulement dans l'édition Pro, mais aussi dans l'édition Home, ce qui promet pas mal de déboires aux utilisateurs peu avertis.

En effet si utiliser BitLocker est un excellent moyen de protéger ses données, perdre la clé de déchiffrement BitLocker fournie au cours de l'activation revient à perdre irrémédiablement ses données….

Windows Central rappelle pour l'occasion la documentation de Microsoft : Vous devez sauvegarder votre clé BitLocker sur votre compte Microsoft ou l'enregistrer sur un disque USB externe. Sans cela, vous ne pouvez pas accéder à vos données.

Pour l'occasion Windows Central souligne et avertit : Windows peut demander la clé de récupération BitLocker lors de la réinitialisation ou de la réinstallation du système d'exploitation. Cependant, l'obtention de la clé de récupération peut s'avérer difficile si la fonctionnalité est activée sans l'approbation de l'utilisateur. Si vous perdez l'accès à votre compte Microsoft, vous perdrez également l'accès au PC.

On peut aussi mentionner, comme inconvénient à cette activation, des pertes de performances palpables sur certaines machines peu puissantes.

Cette activation par défaut ne sera effectivement réalisée que sur les nouvelles installations de Windows 11, et non sur les mises à jour. Par exemple, pour plus de clarté, une mise à niveau de Windows 10 ou Windows 11 23H2 vers la version Windows 11 24H2, n'activera pas le chiffrement BitLocker par défaut. 

A priori, il sera possible de désactiver ce chiffrement dans les paramètres de Windows 11, mais, et plus intéressant à savoir, il y a un moyen de s'opposer à cette activation lors de l'installation du système. Windows Central donne la recette qui consiste à créer et positionner une clé de registre à la volée :

Lors de l'installation, vous pouvez désactiver le chiffrement du périphérique à l'aide d'un hack de registre :

1. Appuyez sur Maj + F10 pour ouvrir la fenêtre d'invite de commande. Tapez regedit et appuyez sur Entrée pour lancer l'Éditeur du Registre.

2. Accédez à la sous-clé HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Control\BitLocker .

3. Cliquez avec le bouton droit sur le côté vide et sélectionnez l'option  New > Dword (32-bit) Value dans le menu contextuel.

4. Nommez la valeur « PreventDeviceEncryption ».

5. Réglez la date de valeur sur 1 et cliquez sur le bouton OK .

6. Fermez l'éditeur de registre.

 

Catégorie actualité: 
Image actualité AMP: 
  •  

La fondation NetBSD ne veut pas de code généré par l'intelligence artificielle

17 mai 2024 à 15:19

Le vendredi après-midi, il est permis de lancer un petit troll... Allons-y donc. Alors que l'intelligence est omniprésente au point de nous abrutir, et de nuire à l'environnement, alors que Sundar Pinchai dans sa keynote d'ouverture de Google I/O a mentionné l'intelligence artificielle 120 fois en vantant les mérites de Gemini, nous apprécions les nouvelles directives de validation de code de la fondation NetBSD.

La fondation NetBSD a publié de nouvelles directives vraiment pleines de bon sens. Ne publier dans un référentiel que du code connu, que du code testé, que du code qui ne vient pas d'arborescences étrangères…

Nous apprécions particulièrement la seconde directive du document :

Ne validez pas de code corrompu dans le référentiel.

Si vous validez du code qui n'a pas été écrit par vous-même, vérifiez que la licence de ce code autorise l'importation dans le référentiel source NetBSD et autorise la distribution gratuite. Vérifiez auprès du ou des auteurs du code, assurez-vous qu'ils étaient le seul auteur du code et vérifiez avec eux qu'ils n'ont copié aucun autre code.

Le code généré par un grand modèle de langage ou une technologie similaire, tel que Copilot de GitHub/Microsoft, ChatGPT d'OpenAI ou Code Llama de Facebook/Meta, est présumé être du code corrompu et ne doit pas être validé sans l'approbation écrite préalable de la fondation.

Un peu de finesse et d'intelligence humaine dans un monde de brutes et de folie collective :-)

NetBSD, utilisé par exemple dans des projet de la NASA, est un système de type UNIX réputé être extrêmement solide, fiable, stable et performant. On voit ici un peu plus pourquoi :-)

Catégorie actualité: 
Image actualité AMP: 
  •  

Google I/O 2024 : Project IDX est en beta publique

17 mai 2024 à 13:50

Project IDX veut révolutionner l'expérience de développement multi plates-formes grâce à une interface dans un navigateur, des émulateurs intégrés, (Android, iOS…) des modèles de projets pour des frameworks tels que React, Vue, Angular, Flutte¸ Nextjs, … le support de nombreux langages de programmation, et, passage désormais obligé, l'intelligence artificielle, Gemini en l'occurrence, pour assister l'écriture de code. Google a annoncén lors de sa grand-messe Google I/O 2024, la disponibilité de l'outil en version bêta publique. Il était auparavant réservé à des testeurs triés par Google.

Project IDX dispose des fonctionnalités d'achèvement de code désormais habituelles dans les IDE, mais, bien entendu, Google veut surtout le démarquer grâce à la présence de son intelligence artificielle Gemini.

Gemini est, selon Google, capable de comprendre votre code et de vous aider à le déboguer, et est aussi, purement et simplement, capable d'écrire le code à votre place à partir de demandes formulées en langage naturel. Lorsqu'il suggère un morceau de code Gemini en indique la provenance et la licence ce qui est indéniablement un bon point. Par contre d'après ceux qui l'ont déjà éssayé (Korben par exemple) Gemini est aussi capable de partir en vrille et de générer du code incomplet ou bancal.

Site : idx.google.com

Catégorie actualité: 
Image actualité AMP: 
  •  

Google I/O 2024 : Android 15 plus sûr et mieux protégé contre le vol

16 mai 2024 à 14:11

Au deuxièmre jour de sa grand'messe Google I/O 2024, Mountain View a officiellement présenté Android 15. Nous avons précédemment évoqué les nouvelles API lors de la phase bêta ici et ici. Ce que nous retiendrons de la présentation de Google pour Android 15 est une amélioration de la sécurité ainsi que l'amélioration de la protection contre le vol.

Meilleure sécurité

Avec Android 15 les codes de validation reçus par SMS ou par mail n’apparaîtront plus dans les notifications, pour éviter qu’une personne malveillante se cache derrière vous pour vous pirater.

Meilleure protection contre le vol

Celle-ci se décline en trois point. Tout d'abord la dissuasion, puis la protection automatique ne cas devol et enfin le verrouilage après vol;

1 Dissuasion

Google améliorer la la protection contre le vol avec de nouvelles fonctionnalités améliorées qui inciteront les voleurs à réfléchir à deux fois avant d'essayer, selon Mountain View. Ce sont :

La mise à niveau de réinitialisation d'usine empêche une réinitialisation par un voleur. Pour certains criminels, l’objectif est de réinitialiser rapidement votre appareil volé et de le revendre. Google rend cela plus difficile avec une mise à niveau de la protection contre la réinitialisation d'usine d'Android. Avec cette mise à niveau, si un voleur force une réinitialisation de l'appareil volé, il ne pourra pas le configurer à nouveau sans connaître les informations d'identification de votre appareil ou de votre compte Google. Cela rend un appareil volé invendable, réduisant ainsi les incitations au vol de téléphone.

L'espace privé cache vos applications sensibles. Certains voleurs veulent simplement l'appareil, mais beaucoup visent à extraire de votre téléphone des données précieuses et à transférer des fonds qui peuvent valoir bien plus que votre matériel. L'espace privé est une nouvelle fonctionnalité qui vous permet de créer une zone distincte sur votre téléphone que vous pouvez masquer et verrouiller avec un code PIN distinct, vous offrant ainsi une sécurité supplémentaire pour les applications susceptibles de contenir des données sensibles, telles que des informations de santé ou financières.

Plus d'étapes pour modifier les paramètres sensibles de l'appareil afin de protéger vos données. La désactivation de Localiser mon appareil ou la prolongation du délai d'expiration de l'écran nécessitent désormais votre code PIN, votre mot de passe ou votre authentification biométrique, ajoutant ainsi une couche de sécurité supplémentaire empêchant les criminels qui ont mis la main sur votre appareil de le garder déverrouillé ou impossible à suivre en ligne.

Authentification accrue pour vous protéger au cas où votre code PIN serait connu par un voleur. Lorsqu'elle est activée, notre nouvelle authentification améliorée nécessitera des données biométriques pour accéder et modifier les paramètres critiques du compte Google et de l'appareil, comme la modification de votre code PIN, la désactivation de la protection contre le vol ou l'accès aux clés d'accès, à partir d'un emplacement non fiable.

2 Protection automatique dès que votre téléphone est volé

Se faire voler un appareil est inattendu et stressant et il peut être difficile de réagir rapidement au moment où cela se produit, explique Google pour présenter de nouvelles fonctionnalités capables de reconnaître automatiquement les signaux suspects et de protéger de manière proactive vos données sur l'appareil.

Verrouillage automatique de l'écran alimenté par l'IA lorsque votre téléphone est arraché. Le verrouillage de détection de vol est une nouvelle fonctionnalité puissante qui utilise l'IA de Google pour détecter si quelqu'un vous arrache votre téléphone des mains et essaie de courir, de faire du vélo ou de partir en voiture. Si un mouvement courant associé à un vol est détecté, l'écran de votre téléphone se verrouille rapidement, ce qui empêche les voleurs d'accéder facilement à vos données.

Protection supplémentaire lorsqu'un voleur s'empare de votre appareil. Si un voleur tente de déconnecter votre téléphone pendant des périodes prolongées, le verrouillage de l'appareil hors ligne verrouille automatiquement votre écran pour protéger vos données même lorsque votre appareil est hors réseau. Android peut également reconnaître d'autres signes indiquant que votre appareil est peut-être entre de mauvaises mains. Par exemple, il verrouillera l'écran de votre appareil en cas d'échec excessif des tentatives d'authentification.

3 Action après le vol

La fonctionnalité 'Localiser mon appareil' vous permet déjà de verrouiller ou d'effacer à distance un téléphone perdu ou volé et vous pouvez désormais le marquer comme perdu pour un suivi plus facile. Mais, selon Google, de nombreux utilisateurs sont choqués et stressés après la disparition d'un téléphone et ne peuvent pas se souvenir du mot de passe de leur compte Google pour accéder à Find My Device.

La fonction de verrouillage à distance vous offre une bouée de sauvetage si votre téléphone est déjà parti. Vous pourrez verrouiller l'écran de votre téléphone avec uniquement votre numéro de téléphone et un défi de sécurité rapide en utilisant n'importe quel appareil. Cela vous fait gagner du temps pour récupérer les détails de votre compte et accéder à des options utiles supplémentaires dans Localiser mon appareil, notamment l'envoi d'une commande de réinitialisation complète des paramètres d'usine pour effacer complètement l'appareil.

Certaines de ces nouvelles fonctionnalités seront poussées sur les appareils Android 10+ via une mise à jour des services Google Play plus tard cette année.

Catégorie actualité: 
Image actualité AMP: 
  •  

Le Raspberry Pi M.2 HAT+ est en vente

16 mai 2024 à 13:47

Le Raspberry Pi 5 a été lancé en septembre 2023. Il apportait une fonctionnalité intéressante : un connecteur d'extension PCI Express 16 voies FFC (flexible flat cable) Au moment du lancement du Raspberry Pi 5, un prototype du Raspberry Pi M.2 HAT+ avait été présenté. Celui-ci est désormais un produit en vente, au prix de 12 dollars.

Le Raspberry Pi M.2 HAT+ vous permet de connecter des périphériques M.2 M-key, tels que des lecteurs NVMe et des accélérateurs AI, à votre Raspberry Pi 5. Il permet un transfert de données rapide (jusqu'à 500 Mo/s) vers et depuis ces périphériques.

Site : raspberrypi.com/products/m2-hat-plus

Catégorie actualité: 
Image actualité AMP: 
  •  

Red Hat et Run:ai optimisent les workloads d’IA pour le cloud hybride

16 mai 2024 à 13:36

Red Hat et Run:ai annoncent leur collaboration afin d’apporter les capacités d’allocation des ressources de Run:ai à Red Hat OpenShift AI. En rationalisant les opérations d’IA et en optimisant l’infrastructure sous-jacente, cette collaboration permet aux entreprises de tirer le meilleur parti des ressources d’IA en maximisant les workflows pilotés par des humains ou par du matériel sur une plateforme MLOps de confiance dédiée à la construction, au réglage, au déploiement et au monitoring à l’échelle d’applications et de modèles augmentés par l’IA, expliquyent les deux partenaires.

En tant que moteurs de calcul des workflows d’IA, les GPU favorisent l’apprentissage des modèles, l’inférence ou encore l’expérimentation. Cependant, ces processeurs spécialisés peuvent être coûteux, en particulier lorsqu’ils sont utilisés pour des tâches de formation et d’inférence distribuées. Red Hat et Run:ai s’efforcent de répondre à ce besoin critique d’optimisation des ressources GPU avec l’Openshift Operator certifié de Run:ai sur Red Hat OpenShift AI. Cet opérateur aide les utilisateurs à mettre à l’échelle et optimiser leurs workloads d’IA, quel que soit leur emplacement.

En outre, la plateforme d’orchestration de calcul cloud native de Run:ai sur Red Hat OpenShift AI aide les entreprises à :

  • Résoudre les problèmes de planification des GPU pour les workloads d’IA grâce à un planificateur de workloads dédié, afin de prioriser plus facilement les workloads critiques et de confirmer que des ressources suffisantes sont allouées pour les prendre en charge.
  • Utiliser des capacités de GPU et de monitoring fractionnées pour allouer les ressources de manière dynamique en fonction des priorités et des politiques prédéfinies et ainsi permettre à l’infrastructure de gagner en efficacité.
  • Bénéficier d’un meilleur contrôle et d’une visibilité accrue sur l’infrastructure GPU partagée afin de faciliter l’accès et l’allocation des ressources au sein des équipes IT, de data science et de développement d’applications.

L’Openshift Operator certifié de Run:ai est désormais disponible.

 

Catégorie actualité: 
Image actualité AMP: 
  •  

Les développeurs passent 57% de leurs temps à résoudre des problèmes plutôt qu'à innover, selon une étude Cisco

15 mai 2024 à 17:21

Cisco présente les résultats d’une étude expliquant que les développeurs passent plus de la moitié de leur temps (57%) en cellule de crise à résoudre des problèmes de performance d’applications, plutôt que de se consacrer au développement de nouvelles applications et à la stratégie d’innovation de leur entreprise.

Les développeurs jouent un rôle essentiel dans la création, le déploiement et la maintenance des applications et des services numériques, indispensables aujourd’hui au fonctionnement des entreprises. Et la pression qui pèse sur eux n’a jamais été aussi forte. Au niveau mondial, 85% des développeurs interrogés déclarent voir augmenter la pression pour accélérer leur vitesse de production, tandis que 77% soulignent la pression croissante pour offrir des expériences numériques transparentes et sécurisées.

Mais, alors que l’on attend des développeurs qu’ils fournissent de nouveaux outils et de nouvelles fonctionnalités toujours plus rapidement, ils sont dans le même temps en charge de résoudre des demandes incessantes émanant des ingénieurs en fiabilité des sites (SRE: Site Reliability Engineers) et des équipes opérations (ITOps) pour gérer la disponibilité et la performance des applications. En conséquence, ils passent des heures en réunion de cellules de crise à résoudre les problèmes techniques de leurs applications, au lieu de coder et de construire de nouvelles applications.

Un manque d’informations essentielles sur la performance des applications

Pour les développeurs, ce problème est dû au fait que leurs entreprises ne disposent pas des bons outils pour leur donner la visibilité nécessaire afin de comprendre la cause des problèmes qui touchent aux applications. Selon eux, les services informatiques n’ont pas une visibilité complète et unifiée sur les applications et le stack applicatif. Ils sont donc très préoccupés par les conséquences potentielles de cette situation, les trois quarts (75%) d’entre eux craignant que le manque de visibilité et d’information sur les performances informatiques n’augmente les risques d’interruption de service et de perturbation des applications essentielles à l’activité de leur entreprise.

Cette situation affecte considérablement le moral des développeurs, 82% d'entre eux admettant qu'ils se sentent frustrés et démotivés, et 54 % étant de plus en plus enclins à quitter leur emploi actuel. Ces résultats devraient être un signal d’alerte pour les entreprises qui dépendent désormais des développeurs pour créer les expériences numériques fiables et intuitives que les utilisateurs attendent. Avec une demande très forte pour des compétences en développement sur un marché tendu et une réserve de talents limitée, les entreprises ne peuvent pas se permettre un exode des talents simplement parce que leurs équipes informatiques ne disposent pas des outils dont elles ont besoin pour faire leur travail.

« La plupart des services informatiques ont déployé une multitude d’outils de surveillance dans différents domaines, mais ils ne sont pas à la hauteur des environnements informatiques complexes et dynamiques d’aujourd’hui. Ce qui empêche les responsables IT de générer une vue complète et unifiée de leurs applications », a déclaré Shannon McFarland, vice-président de Cisco DevNet. « Lorsque les choses tournent mal, il est très difficile d’identifier la racine du problème, ce qui entraîne souvent des situations de crise et oblige les développeurs à passer des heures à essayer d’aider leurs collègues pour remédier à la situation. »

Le potentiel de l’observabilité full-stack

Il est encourageant de constater que les développeurs sont parfaitement conscients qu’il existe des solutions. 91% d’entre eux estiment qu’ils devraient jouer un rôle plus important dans l’élaboration et dans le choix des solutions nécessaires au sein de leur entreprise. Les développeurs considèrent que l’observabilité full-stack pourrait changer la donne, en offrant aux équipes SRE et ITOps, la visibilité unifiée sur les applications et l’infrastructure, à la fois dans les environnements cloud native et on-premises.

Bien que les développeurs ne soient pas les principaux utilisateurs des solutions d’observabilité full-stack – se concentrant plutôt sur leurs domaines d'expertise spécifiques – 78% pensent que la mise en œuvre de l’observabilité full-stack au sein de leur entreprise serait bénéfique. Ils reconnaissent les avantages d’une visibilité unifiée sur l’ensemble de l’environnement technologique et admettent que l’observabilité full-stack permettrait aux équipes IT d’identifier plus facilement et plus rapidement les problèmes, d’en comprendre les causes et de mettre en œuvre les mesures de remédiation nécessaires. Il en résulterait une diminution du nombre de responsables IT issus d’équipes de différents domaines qui devraient participer à des réunions en cellule de crise, libérant ainsi les talents, y compris les développeurs, pour qu’ils puissent se concentrer sur leur travail.

76% des développeurs sont allés jusqu’à déclarer qu’il leur était devenu impossible d'effectuer correctement leur travail parce que les équipes SRE et ITOps ne disposaient pas des informations dont ils avaient besoin pour gérer efficacement les performances informatiques. Ce qui explique pourquoi 94% des développeurs considèrent l’observabilité full-stack comme l’élément central qui les aiderait à se concentrer sur l’innovation.

Le rôle de l’intelligence artificielle (IA)

Au-delà de l’observabilité full-stack, de nombreux développeurs (39%) estiment également que leur entreprise (et eux-mêmes) bénéficieraient du déploiement de l’IA pour automatiser la détection et la résolution des problèmes applicatifs. Plutôt que de s’appuyer sur des processus manuels, l’IA permet aux équipes informatiques d’analyser des volumes considérables de données, d’identifier les problèmes et d’appliquer des correctifs en temps réel. En outre, les développeurs sont prêts à adopter de nouvelles méthodes de travail au sein du service informatique afin d’améliorer l’efficacité, la productivité et de rationaliser la gestion des performances des applications. La majorité d’entre eux (57%), pensent qu’il faut renforcer la collaboration entre les développeurs et les équipes informatiques. Cela se traduit déjà par la mise en œuvre de méthodes de tests amont œuvreet à l’adoption généralisée des méthodologies DevOps et DevSecOps, de sorte que les considérations relatives à la disponibilité, à la performance et à la sécurité des applications soient intégrées nativement dans le cycle de vie de développement de l’application.

« À une époque où les développeurs sont très demandés, les entreprises doivent faire tout ce qui est en leur pouvoir pour donner à leurs équipes les outils dont elles ont besoin pour réaliser leur plein potentiel et maximiser leur impact », a ajouté M. McFarland. « L’observabilité full-stack est devenue essentielle. Sans elle, les équipes informatiques ne peuvent tout simplement pas fournir les niveaux d’expériences numériques exigés par les consommateurs aujourd’hui. »

Cette étude a été menée étude auprès de 500 développeurs répartis entre les États-Unis (200), le Royaume-Uni (100), l'Australie (30) et le reste du monde (170 - dont l'Allemagne, la France, l'Italie, l'Espagne, la Scandinavie, le Japon, Singapour et l'Inde). L'étude a été menée par Insight Avenue en mars et avril 2024.

Catégorie actualité: 
Image actualité AMP: 
  •  

Google I/O 2024 : Google améliore Gemini Pro et présente Gemini 1.5 Flash

15 mai 2024 à 16:39

La grand'messe Google I/O 2024 a débuté hier 14 mai, et comme on pouvait s'y attendre, l'intelligence artificielle est le cheval de bataille de l'évémenent. Dans sa keynote d'ouverture Sundar Pinchai a prononcé IA 120 fois…

On retiendra surtout la présentation du modèle Gemini 1.5 Flash, plus petit que Gemini Pro plus petit et optimisé pour les tâches plus étroites ou à haute fréquence où la vitesse du temps de réponse du modèle compte le plus, ainsi que les améliorations apportées à Gemini Pro 1.5.

En ce qui concerne ce dernier, Google a apporté une série d'améliorations de la qualité dans des cas d'utilisation clés, tels que la traduction, le codage, le raisonnement et bien plus encore. Ces améliorations sont immédiatement disponible, et elles devraient, selon Google vous aider à accomplir des tâches encore plus vastes et plus complexes.

Sundai Pinchai a martelé que l'intelligence de Google va vous rendre la plus plus facile. La vie peut-être, la vie privée, c'est moins sûr. Par exemple, Google, à une époque, se défendait d'analyser les mails transitant par Gmail et avait expliqué avoir absolument cessé d'en analyser le contenu pour présenter des publicités pertinentes. Or voici comment Sundar Pinchai a présenté les fonctionalités de Gemimi Pro 1.5 dans Google Workspace et donc Gmail :

Jusqu’à présent, nous avons parlé de deux avancées techniques : la multimodalité et le contexte long. Chacun est puissant en soi. Mais ensemble, ils débloquent des capacités plus profondes et davantage d’intelligence.

Cela prend vie avec Google Workspace.

Les gens recherchent toujours leurs e-mails dans Gmail. Nous travaillons pour le rendre beaucoup plus puissant avec Gemini. Ainsi, par exemple, en tant que parent, vous souhaitez rester informé de tout ce qui se passe à l'école de votre enfant. Gemini peuvent vous aider à suivre le rythme.

Nous pouvons maintenant demander à Gemini de résumer tous les e-mails récents de l'école. En arrière-plan, il identifie les e-mails pertinents et analyse même les pièces jointes, comme les PDF. Vous obtenez un résumé des points clés et des actions à entreprendre. Peut-être que vous étiez en voyage cette semaine et que vous n'avez pas pu assister à la réunion du PTA. L'enregistrement de la réunion dure une heure. S'il s'agit de Google Meet, vous pouvez demander à Gemini de vous donner les points forts. Il y a un groupe de parents à la recherche de bénévoles, et vous êtes libre ce jour-là. Alors bien sûr, Gemini peut rédiger une réponse.

Il existe d’innombrables autres exemples montrant comment cela peut rendre la vie plus facile.

Nouvelles fonctionnalités pour les développeurs

Sur la base des commentaires des utilisateurs Google a introduit deux nouvelles fonctionnalités d'API : l'extraction d'images vidéo et l'appel de fonctions parallèles, qui vous permettent de renvoyer plusieurs appels de fonction à la fois. Et en juin, Google ajoutera la mise en cache contextuelle à Gemini 1.5 Pro, de sorte que vous n'aurez qu'à envoyer une seule fois des parties de votre invite, y compris des fichiers volumineux, au modèle. Cela devrait rendre le contexte long encore plus utile et plus abordable, assure Google.

Catégorie actualité: 
Image actualité AMP: 
  •  

Complexités de l’IA : Red Hat adopte une nouvelle approche « Policy-as-Code »

15 mai 2024 à 15:57

Red Hat annonce l’adoption d’une approche Policy-as-Code automatisée, une nouvelle fonctionnalité qui sera directement intégrée dans les futures versions de Red Hat Ansible Automation Platform. Cette approche permettra d’appliquer les politiques en vigueur et de favoriser le respect de la conformité dans les environnements de cloud hybride qui comprennent des applications d’IA toujours plus nombreuses et variées. Par ailleurs, pour aider l’automatisation à gagner en maturité, l’approche Policy-as-Code permettra de se conformer à l’évolution des exigences internes ou externes et de mieux se préparer à adopter une infrastructure tentaculaire qui prendra en charge les workloads d’IA évolutives.

L'aperçu technologique de l’approche Policy-as-Code pour Ansible Automation Platform sera disponible dans les mois à venir.

Catégorie actualité: 
Image actualité AMP: 
  •  

Devcon #22 - Game Dev édition 2024

14 mai 2024 à 16:00

Programmez! organise l'édition 2024 de sa conférence développeurs consacrée à la création de jeux. Celle-ci se déroulera le 13 juin 2024.

Les SDK, les frameworks, les moteurs 3D, les métiers du jeu feront partie des thèmes abordés cette année

Un agenda provisoire a été publié sur la page de l'événement.

Les inscriptions sont ouvertes.

Catégorie actualité: 
Image actualité AMP: 
  •  

JobRunr supporte les threads virtuels de Java

14 mai 2024 à 15:52

JobRunr est un framework qui simplifie la programmation concurrente en Java. Avec JobRunr il est aisé de réaliser des tâches de type "fire-and-forget", retardées, planifiées et récurrentes dans des applications Java en utilisant uniquement les lambdas de Java 8.

Les tâches gourmandes en CPU et en E/S, de longue durée et de courte durée, sont prises en charge. Le stockage persistant s'effectue soit via un SGBDR (par exemple Postgres, MariaDB/MySQL, Oracle, SQL Server, DB2 et SQLite) ou NoSQL (ElasticSearch, MongoDB et Redis).

JobRunr fournit un modèle de programmation unifié pour gérer les tâches en arrière-plan et les exécute sur un hébergement partagé, un hébergement dédié ou dans le cloud (Kubernetes  par exemple) au sein d'une instance JVM. JobRunr vient de sortir en version 7.0.

L'apport majeur de cette version 7.0 est la prise en charge des threads virtuels, activés par défaut, pour les applications exécutant JDK 21. L'outil détecte si l'application s'exécute sur JDK 21 et passe automatiquement aux threads virtuels sans nécessiter de configuration manuelle de la part des développeurs.

Il est à noter que JobRunr 7.0 maintient également une compatibilité descendante avec Java 8. JobRunr 7.1, en préversion au moment où nous écrivons ces lignes, prend également en charge les threads virtuels en mode natif GraalVM.

JobRunr est un logiciel libre sous plusieurs licences, disponible sur GitHub.

Catégorie actualité: 
Image actualité AMP: 
  •  

OVHcloud lance de nouveaux serveurs Bare Metal High Grade équipés des processeurs Intel Xeon Gold

14 mai 2024 à 13:28

OVHcloud annonce de nouveaux serveurs dédiés Bare Metal dans la gamme High Grade avec les processeurs Intel Xeon Gold de cinquième génération. Ces nouveaux serveurs Bare Metal se destinent avant tout à des charges de travail intensives et critiques, comme le HPC, la virtualisation ou l’informatique confidentielle. Les nouvelles références High Grade Bare Metal d’OVHcloud profitent de la technologie Intel TDX, ainsi que des nouveaux accélérateurs intégrés pour des performances supérieures. Elle répond en ce sens aux nombreux challenges des infrastructures hyperconvergées et des infrastructures de stockage, selon OVH.

Au cœur des nouvelles gammes OVHcloud HCI, SDS et STOR se trouve la microarchitecture Intel Emerald Rapids. Celle-ci offre de plus grandes capacités de calcul, des vitesses de mémoire accrues ainsi qu’une sécurité renforcée. Les technologies comme Intel TDX offrent aux machines virtuelles une isolation renforcée, et donc une meilleure sécurité, une meilleure conformité et un plus grand niveau de contrôle pour les applications legacy, toujours selon OVH.

Les nouveaux serveurs HGR-HCI-i, HGR-SDS et HGR-STOR-1 bénéficient des avantages des serveurs dédiés en termes de flexibilité, de contrôle, de performance et de disponibilité ainsi que d'une bande passante publique garantie et non mesurée comprise entre 1 Gbps et 10 Gbps, et jusqu'à 25 Gbps de bande passante privée non mesurée.

Catégorie actualité: 
Image actualité AMP: 
  •  

Les nouveautés annoncées à MongoDB.local NYC 2024

14 mai 2024 à 13:21

MongoDB a dévoilé plusieurs nouvelles fonctionnalités ainsi que des partenariats, à l’occasion de sa conférence annuelle MongoDB.local NYC 2024 qui s’est déroulée le 2 mai dernier. Ces nouvelles annonces visent à réduire la complexité de la construction et du déploiement des applications axées sur les données et alimentées par l'IA, souligne MongoDB.  

MongoDB Atlas, de nouvelles fonctionnalités qui optimisent les charges de travail d'IA générative. 

Parmi les nouvelles fonctionnalités proposées par MongoDB Atlas, figurent la disponibilité générale de MongoDB Atlas Stream Processing. Une évolution qui permet aux développeurs d'utiliser, de façon transparente, les données en temps réel provenant d'une grande variété de sources, pour exécuter des applications hautement réactives. En outre, l'introduction de MongoDB Atlas Search Nodes sur Microsoft Azure et d'autres plateformes, permet aux organisations d'optimiser les charges de travail d'IA générative en bénéficiant de temps de requête jusqu'à 60 % plus rapides, pour des coûts considérablement réduits. 

MongoDB AI Applications Program, une alliance pour créer un guichet unique de mise en œuvre de solutions d'IA pour les entreprises. 

MongoDB a lancé le programme MongoDB AI Applications Program (MAAP), pour accélérer le développement et le déploiement d'applications modernes utilisant l'IA générative avancée à l'échelle de l'entreprise. En se focalisant sur un cadre stratégique, le service d'expertise professionnelle, ainsi qu’une pile technologique intégrée, le MAAP offre un portefeuille complet aux organisations qui cherchent à exploiter la puissance de l'IA générative à l'aide d’outils de leur choix. Avec MongoDB, des partenaires comme Anthropic, Anyscale, AWS, Google Cloud, Microsoft Azure et d'autres, aident les clients à identifier les tâches qui se prêtent à l'utilisation de solutions d'IA. Grâce à cette collaboration, les clients ont accès à des stratégies de bout en bout, à des solutions d'IA puissantes et à un support au démarrage avec des experts du secteur.  

Intégration de MongoDB Atlas Vector Search avec Amazon Bedrock, une accélération significative des processus critiques. 

La disponibilité générale de MongoDB Atlas Vector Search on Knowledge Bases pour Amazon Bedrock, permet aux organisations de développer plus facilement des fonctionnalités d'application d'IA générative en utilisant des modèles de fondation (FM) entièrement gérés. Grâce à la collaboration entre MongoDB et AWS, les clients communs peuvent déployer efficacement des applications d'IA générative sur AWS, tout en garantissant un accès sécurisé et conforme aux données propriétaires. Des clients bien connus du secteur de la santé en bénéficient. C’est le cas, par exemple, de la solution NovoScribe de Novo Nordisk qui crée des rapports d'études cliniques en quelques minutes.

MongoDB et Google Cloud optimisent Gemini Code Assist. 

MongoDB et Google Cloud permettent à Gemini Code Assist de fournir des suggestions améliorées pour le développement et la modernisation d'applications sur MongoDB. Elle facilité également l'intégration de ces dernières de manière transparente aux bibliothèques et aux meilleures pratiques des organisations afin de rationaliser davantage les processus de développement logiciels. Gemini Code Assist fournit des suggestions de codage intelligentes, répond aux questions relatives au code existant et peut mettre à jour efficacement des bases de code entières. Grâce à cette collaboration, Gemini Code Assist peut aider les développeurs à obtenir des réponses et des informations sur le code, la documentation et les meilleures pratiques de MongoDB. Ceux-ci sont ainsi en mesure de prototyper plus rapidement de nouvelles fonctionnalités et d'accélérer le développement d'applications.

Certified by MongoDB, nouveau programme de certification pour les partenaires Cloud offrant des services de base de données MongoDB. 

Certified by MongoDB Database-as-a-Service (DBaaS) est le nouveau programme de MongoDB qui permet aux partenaires d'infrastructures cloud d'offrir à leurs clients une solution DBaaS MongoDB de première classe et entièrement prise en charge. Aujourd’hui, de nombreux clients ont besoin d'une solution DBaaS certifiée par MongoDB pour leurs cas d'utilisation sur des clouds spécifiques sur lesquels MongoDB Atlas n'est pas disponible. Les partenaires cloud du programme pourront déployer la base de données et les services de données de pointe de MongoDB en tant que service géré par le biais de leurs propres plateformes cloud. Ils pourront ainsi offrir à leurs clients une plateforme hautement fiable et évolutive pour créer et déployer en toute sécurité des applications natives pour le cloud. Le programme fournit également aux partenaires cloud le support dédié nécessaire pour construire des intégrations technologiques profondes, tout en ouvrant des initiatives conjointes de go-to-market avec l'écosystème de partenaires MongoDB pour aider à accélérer le succès de leurs clients.

 

Catégorie actualité: 
Image actualité AMP: 
  •  

Raspberry Pi Connect : restez connecté avec vos Raspberry Pi

13 mai 2024 à 16:55

La fondation Raspberry Pi propose un nouvel outil : Raspberry Pi Connect. Il s'agit d'un outil qui vous permet d'accéder à vos Raspberry Pi à distance, depuis un navigateur Web. L'outil fonctionne avec les Raspberry Pi 4, 5 et 400 exécutant une distribution 64 bits de Raspberry Pi OS Bookworm qui utilise le serveur de fenêtre Wayland. L'outil ne fonctionne pas avec Raspberry Pi OS Lite ou les systèmes qui utilisent le serveur X Window.

Pour utiliser Connect, vous devez installer le logiciel sur votre Raspberry Pi. Visitez ensuite connect.raspberrypi.com pour accéder à votre Raspberry Pi via le partage d'écran dans une fenêtre de navigateur. Vous pouvez utiliser le bureau comme si vous aviez branché un moniteur sur votre Raspberry Pi.

Connect utilise une connexion sécurisée et cryptée. Par défaut, Connect communique directement entre votre Raspberry Pi et votre navigateur. Cependant, lorsque Connect ne parvient pas à établir une connexion directe entre votre Raspberry Pi et votre navigateur, un serveur relais situé  à Londres est utilisé. Dans de tels cas, la fondation Raspberry Pi souligne qu'elle ne conserve que les métadonnées nécessaires au fonctionnement de Connect.

Le mode d'installation et d'emploi complet de Raspberry Pi Connect est ici.

Catégorie actualité: 
Image actualité AMP: 
  •  

Le noyau Linux 6.9 supporte Rust sur les architectures AArch64 (ARM64)

13 mai 2024 à 16:35

Linus Torvalds a annoncé ce week-end la disponiblité du noyau Linux 6.9. Celui-ci se distingue principalement par la pris en charge de Rust sur les architectures AArch64 (ARM64).  On remarque encore, entre autres la prise en charge du mécanisme Intel FRED (Flexible Return and Event Delivery) pour une meilleure diffusion des événements de bas niveau, et la prise en charge des invités AMD SNP (Secure Nested Paging)

A remarquer encore, le noyau Linux 6.9 supporte la fonctionnalité Named Address Spaces du compilateur GCC. Cette fonctionnalité permet au compilateur de mieux optimiser l'accès aux données par le CPU.

Catégorie actualité: 
Image actualité AMP: 
  •  

Red Hat OpenShift AI étend la flexibilité de l’IA prédictive et générative sur l’ensemble du cloud hybride

13 mai 2024 à 16:22

Red Hat annonce des évolutions pour Red Hat OpenShift AI, sa plate-forme hybride dédiée à l’intelligence artificielle (IA) et à l’apprentissage automatique (ML) basée sur Red Hat OpenShift, qui permet aux entreprises de créer et de mettre à disposition des applications alimentées par l’IA à grande échelle sur l’ensemble des clouds hybrides. 

Red Hat OpenShift AI 2.9, la dernière version de la plateforme, propose notamment :

  • La mise à disposition de modèles en périphérie, qui permet d’étendre le déploiement des modèles d’IA aux emplacements distants à l’aide d’une configuration OpenShift à un seul nœud. Cela offre des capacités d’inférence au sein d’environnements limités en ressources dont l’accès au réseau demeure intermittent ou lacunaire. Cette fonctionnalité disponible en avant-première technologique donne aux entreprises la possibilité de profiter d’une expérience opérationnelle évolutive et cohérente depuis le cœur de réseau jusqu’en périphérie en passant par le cloud et s’accompagne de capacités d’observabilité immédiatement disponibles.
  • Une distribution des modèles améliorée grâce à l’exploitation de multiples serveurs de modèles afin de soutenir l’IA prédictive et générative, incluant un support pour KServe, une définition des ressources Kubernetes sur mesure qui orchestre la distribution de tous types de modèles, un distributeur d’inférence de vLLM et de génération de texte, des moteurs de distribution pour les LLM et les environnements d’exécution Caikit-nlp-tgis, qui gèrent les modèles et les tâches de traitement du langage naturel (NLP). Cette distribution de modèles améliorée permet aux utilisateurs d’exécuter l’IA prédictive et générative sur une plateforme unique pour de nombreux cas d’usage, ce qui aide à réduire les coûts et à simplifier les opérations. Cela permet une distribution de modèles originale pour les LLM et simplifie les workflows utilisateurs correspondants.
  • Des workloads distribués avec Ray, à l’aide de CodeFlare et KubeRay, permettant un traitement des données et un entraînement des modèles plus rapides et plus efficaces à l’aide de multiples nœuds de cluster. Ray offre un cadre pour l’accélération des workloads d’IA et KubeRay permet de gérer ces workloads sur Kubernetes. CodeFlare joue un rôle central dans les capacités de distribution des workloads de Red Hat OpenShift AI, en offrant un cadre facile d’utilisation qui permet de simplifier l’orchestration et le monitoring des tâches. La file d’attente centrale et les capacités de gestion offrent une exploitation optimale des nœuds et permettent d’allouer des ressources, comme le processeur graphique, aux workloads et aux utilisateurs les plus pertinents.
  • Un développement des modèles amélioré grâce aux espaces de travail pour les projets et aux images de référence supplémentaires qui offrent aux data scientists un degré de flexibilité suffisant pour leur permettre d’exploiter des IDE et des boîtes à outils, y compris VS Code et RStudio, actuellement disponibles en avant-première, ou encore la version améliorée de CUDA, pour un vaste panel de cas d’usage et de types de modèles.
  • Des visualisations pour le monitoring des modèles afin d’obtenir des indicateurs de performance et opérationnels, ce qui renforce l’observabilité des performances des modèles d’IA.
  • De nouveaux profils d’accélérateurs permettent aux administrateurs de configurer différents types d’accélérateurs matériels pour les workflows de développement et de distribution des modèles. Cela permet aux utilisateurs d’accéder facilement et directement au type d’accélérateur adapté à un workload spécifique.
Catégorie actualité: 
Image actualité AMP: 
  •  

Oracle annonce un assistant pour le code basé sur l'IA

13 mai 2024 à 16:17

Oracle annonce ses plans autour d’Oracle Code Assist, un assistant pour le code basé sur l’IA, afin d’aider les développeurs à gagner en rapidité et à améliorer la cohérence du code. Alimenté par de grands modèles de langage (LLM) exécutés sur Oracle Cloud Infrastructure (OCI) et optimisé pour le développement Java et SQL, mais aussi d'applications sur OCI, Oracle Code Assist est destiné à fournir aux développeurs des suggestions spécifiques contextualisées qui peuvent être adaptées aux bonnes pratiques et au codebase, l’ensemble du code source d'une organisation. Oracle Code Assist permettra également de mettre à jour, de mettre à niveau et de refactoriser le code écrit dans la plupart des langages de programmation modernes.

Déployé en tant que module d'extension d'environnement de développement pour JetBrains IntelliJ IDEA ou Microsoft Visual Studio Code, Oracle Code Assist est programmé pour être spécialement entraîné pour fournir des commentaires avisés afin d'aider les développeurs à créer, optimiser et mettre à niveau des applications, quel que soit l’emplacement où elles sont exécutées.

« Les développeurs pourront utiliser Oracle Code Assist pour mettre rapidement à niveau des applications Java entières vers des versions plus récentes. Cette capacité à mettre rapidement à niveau Java à l'aide d'un assistant de codage augmente considérablement la capacité des entreprises à améliorer la résilience et les performances des applications, à intégrer les dernières fonctionnalités du JDK et à renforcer leur posture de sécurité », déclare Arnal Dayaratna, Vice-Président de la recherche d'IDC. « Oracle Code Assist peut également accélérer les mises à niveau de la base de données en ce qui concerne le refactoring et le test de code PL/SQL complexe et souvent customisé, ce qui peut prendre beaucoup de temps et coûter très cher. Compte tenu de l'omniprésence de Java et des bases de données dans les entreprises, Oracle Code Assist est susceptible d'être largement adopté par les grandes entreprises du monde entier. »

Selon Oracle, les développeurs vont gagner en rapidité grâce aux fonctionnalités d'Oracle Code Assist suivantes :

  • Génération de code : fournit des suggestions de code basées sur le contexte et les modèles appris et génère des fichiers de classe, des méthodes ou des lignes de code entières. Les développeurs peuvent ensuite accepter, modifier ou rejeter le fragment de code, réduire le temps passé à écrire du code standard et créer des applications plus rapidement.
  • Annotation de code : génère une documentation ou des commentaires sur l'interface de programmation d'application (API) pour décrire la fonctionnalité de code. Cela aide les développeurs à assurer la maintenance de l'application tout au long de sa vie.
  • Explicabilité du code : fournit un récapitulatif en langage simple du code. Cela aide les développeurs ayant la charge de réviser ou de refactoriser le code existant et permet de gagner du temps en fournissant un contexte précis et facile à comprendre.
  • Révisions de code plus rapides : lance une demande d'extraction pour fusionner les modifications dans un référentiel après avoir écrit des révisions de code, et recommande des modifications de code en fonction des instructions de performance, de qualité, d'efficacité et de style. Cela aide les développeurs à fournir un code de meilleure qualité.
  • Génération de couverture de test : crée des tests unitaires et fonctionnels selon le contexte du code. Cela aide les développeurs à améliorer la qualité des tests avec une meilleure couverture des tests couvrant une plus grande variété d'entrées de test.

Là où Oracle Code Assist est également attendu, c’est dans l’aide aux développeurs pour améliorer la cohérence et l'optimisation du code grâce à :

  • Suggestions personnalisées : intègrent les structures de codage, les bibliothèques internes, les bonnes pratiques et les normes propres au secteur d'activité d'une entreprise pour générer du code qui lui est propre. Cela aide les développeurs à réviser, à mettre à jour et à intégrer le code dans les bases de code existantes.
  • Contexte de l'origine du code : filtre le code qu'il génère pour garantir qu'il ne provient pas de licences non autorisées. Cela aide les développeurs à gérer les risques de conformité.
  • Mises à niveau du langage automatisées : convertit et met à jour le code existant dans la version du langage en cours à l'aide de bibliothèques plus récentes. Les développeurs peuvent ainsi améliorer la performance et la qualité d'une application en tirant parti des nouvelles fonctionnalités du langage ou de la structure utilisés.
  • Analyse du code : identifie les bugs et les inefficacités, et produit du code basé sur les pratiques de développement logiciel d'une entreprise. Cela aide les développeurs à fournir un code plus rigoureux qui est cohérent avec leur code base propriétaire.
  • Suggestions d'optimisation OCI : intègre les suggestions des API de service OCI, des modèles de codage et des bonnes pratiques pour permettre aux applications de fonctionner au mieux sur OCI. Les développeurs peuvent ainsi optimiser l'utilité et augmenter l'efficacité des applications exécutées sur OCI et utilisant les services OCI.

 

Oracle souligne que les développeurs travaillant dans l'entreprise utilisent activement Oracle Code Assist pour créer de nouveaux produits et services Oracle. Il est prévu de le rendre disponible pour les clients Oracle prochainement. Oracle n'a pas précisé davanatge la date de disponibilité

Catégorie actualité: 
Image actualité AMP: 
  •  

Microsoft a donné un million de dollars à la fondation Rust

10 mai 2024 à 16:12

La fondation Rust a annoncé de Micrsoft lui a fait un don sans restriction d'un million de dollars en décembre dernier et vient de communiquer sur la façon dont cette somme sera utilisée.

Ce don d'un million de dollars de Microsoft, membre Platinum de la Rust Foundation, sera investi sur une période de deux ans et appliqué aux domaines de besoins hautement prioritaires suivants dans l'écosystème Rust :

  • Embauche d’un ingénieur d’infrastructure supplémentaire pour la Rust Foundation
  • Financer le programme « Fellowship » de la Fondation Rust
  • Développer de nouveaux systèmes et programmes pour soutenir le travail des responsables du projet Rust et réduire la charge de travail.
Catégorie actualité: 
Image actualité AMP: 
  •  

Run0 : un outil de Systemd v256 pour remplacer sudo ?

10 mai 2024 à 16:00

Lennart Poettering est un important contributateur Linux, connu notamment pour avoir conçu Systemd, un système qui est venu remplacer les anciens scripts SysVInit pour le démarrage du système. Le moins que l'on puisse est qu'avant son adaption, Systemd a suscité la controverse et même de violentes polémiques. En résumé, le principal reproche fait à Systemd est qu'il abandonne la philosophie KISS des systèmes UNIX et donc Linux.

KISS, pour Keep It Simple and Stupid, veut qu'un outil soit aussi simple que possible, qu'il ne fasse qu'une seule chose et la fasse bien. Le fait est que Systemd est un système complexe et sans doute parce qu'il est complexe, on y a détecté des failles de sécurité alors que l'on n'en trouvait pas beaucoup dans les scripts SysV init.

Lennart Poettering récidive en voulant supprimer sudo, la célèbre commande qui permet à un administrateur système d'accorder à certains utilisateurs (ou groupes d'utilisateurs) la possibilité de lancer une commande en tant qu'administrateur, ou en tant qu'autre utilisateur, tout en conservant une trace des commandes saisies et des arguments passés.

Lennart Poettring détaille ses idées dans une suite de posts sur Mastodont :

Sudo a cependant de sérieux problèmes. Il s'agit d'un binaire SUID relativement volumineux, c'est-à-dire du code privilégié que les utilisateurs non privilégiés peuvent invoquer depuis leur propre contexte. Il a un langage de configuration compliqué, des plugins chargeables […] Les processus SUID sont des concepts étranges : ils sont invoqués par du code non privilégié et héritent du contexte d'exécution prévu et contrôlé par du code non privilégié […] Donc, dans mon monde idéal, nous aurions un système d’exploitation entièrement sans SUID. […] Avec systemd v256, nous faisons un pas dans cette direction. Il existe un nouvel outil dans systemd, appelé "run0". Ou en fait, ce n'est pas un nouvel outil, c'est en fait l'outil existant depuis longtemps "systemd-run", mais lorsqu'il est invoqué sous le nom "run0" (via un lien symbolique), il se comporte un peu comme un clone sudo. Mais avec une différence clé : ce n'est *pas* en fait SUID. Au lieu de cela, il demande simplement au gestionnaire de services d'appeler une commande ou un shell sous l’UID de l’utilisateur cible. Il alloue un nouveau PTY pour cela, puis déplace les données entre le TTY d'origine et ce PTY.

Nul doute que cette publication de Lennart Poettring, parfois surnommé " la plus grande primadonna que FOSS ait jamais connue" va susciter une nouvelle polémique. Sa proposition sera-t-elle finalement adoptée ? L'avenir nous le dira.

Catégorie actualité: 
Image actualité AMP: 
  •  

L'IA au cœur de la nouvelle solution Oracle Database 23AI

10 mai 2024 à 15:25

Oracle Database 23ai, la nouvelle version de la base de données convergée d'Oracle est désormais disponible dans le monde entier sous la forme d'un large éventail de services cloud. Cette version de support à long terme inclut Oracle AI Vector Search et plus de 300 fonctionnalités majeures supplémentaires axées sur la simplification de l'utilisation de l'IA avec les données, l'accélération du développement d'applications et l'exécution de workloads stratégiques.

Oracle Database 23ai est disponible dans Oracle Cloud Infrastructure (OCI) sur Oracle Exadata Database Service, Oracle Exadata Cloud@Customer et Oracle Base Database Service, ainsi que sur Oracle Database@Azure.

Les nouvelles fonctionnalités d'Oracle Database 23ai sont les suivantes :

IA pour les données

  • Oracle AI Vector Search : permet aux clients de rechercher facilement des documents, des images et des données relationnelles en fonction de leur contenu conceptuel plutôt que de mots, de pixels ou de valeurs de données spécifiques. AI Vector Search permet aux LLM (Large Language Models) d'interroger des données d'entreprise privées à l'aide d'une interface en langage naturel et aide les LLM à fournir des résultats plus précis et pertinents. En outre, AI Vector Search permet aux développeurs d'ajouter facilement des fonctionnalités de recherche sémantique aux nouvelles applications et aux applications existantes. Toutes les fonctionnalités essentielles d'Oracle Database fonctionnent désormais de manière transparente avec les vecteurs d'IA, ce qui permet aux clients Oracle d'exécuter AI Vector Search pour leurs applications les plus stratégiques. En stockant et en traitant des données opérationnelles et vectorielles dans la même base de données à hautes performances, les clients peuvent intégrer aisément AI Vector Search dans des applications métier existantes pour implémenter des nouveaux cas d'usage d'IA innovants, sans compromettre la sécurité des données.
  • Oracle Exadata System Software 24ai : le stockage intelligent d'Exadata accélère AI Vector Search de plusieurs ordres de grandeur. Cela permet aux applications d'exécuter AI Vector Search à la fois pour de grands volumes de données et pour un grand nombre d'utilisateurs.
  • OCI GoldenGate 23ai : GoldenGate permet l'intégration de données hétérogènes et la haute disponibilité dans les banques de données cloud. GoldenGate 23ai offre de nouvelles fonctionnalités qui permettent de répliquer des vecteurs en temps réel dans des banques vectorielles hétérogènes. Cette fonctionnalité permet également aux entreprises d'intégrer rapidement l'IA à toutes leurs données avec un risque minimal en répliquant les données de leurs bases de données existantes vers Oracle Database 23ai où elles peuvent être vectorisées et indexées pour une recherche rapide d'IA.

Accélération du développement d'applications

  • Unification relationnelle JSON : JSON Relational Duality corrige la non-concordance entre la façon dont certaines applications veulent utiliser les données et la façon dont les bases de données relationnelles stockent les données. Depuis des dizaines d'années, les développeurs sont capables de lire et d'écrire des données relationnelles à l'aide de SQL. Désormais, ils peuvent également utiliser JSON pour extraire et stocker facilement les mêmes données à l'aide d'API REST ou JSON natives sans compromettre la cohérence des données, l'efficacité du stockage et la flexibilité inhérentes au modèle de données relationnel. Grâce aux vues avec JSON Relational Duality, les développeurs et les clients n'ont plus à choisir un modèle de données unique pour leurs données. Ils bénéficient des avantages des modèles de données JSON et relationnels sur les mêmes données.
  • Unification relationnelle de graphe : Operational Property Graph permet aux développeurs de créer facilement des applications qui naviguent dans les connexions entre et au sein des données à l'aide de requêtes de graphe de propriétés. Les requêtes de graphe de propriétés peuvent être exécutées sur tous les types de données pris en charge par Oracle Database, y compris les données relationnelles, les données JSON et les données spatiales. Les développeurs peuvent définir un modèle de graphe directement sur les données opérationnelles et interroger le graphe à l'aide de la nouvelle syntaxe SQL/PGQ ISO standard. Cela facilite et accélère la création d'applications qui analysent les connexions, les modèles et les relations entre les données, par exemple entre plusieurs transactions financières.
  • Bases de données pour développeurs gratuites : Always Free Autonomous Database fournit deux instances Autonomous Database sans serveur gratuites dans le cloud pour une durée illimitée, avec des outils pré-intégrés tels qu'Oracle APEX, Select AI, Database Tools, Machine Learning et Graph. L'image de conteneur Autonomous Database Free et Oracle Database Free prennent désormais en charge Oracle Database 23ai, ce qui permet aux développeurs de télécharger et d'essayer facilement les nouvelles fonctionnalités, notamment AI Vector Search, JSON Relational Duality et Operational Property Graph avec SQL.

Données stratégiques

  • Oracle Globally Distributed Database avec RAFT : Oracle Globally Distributed Database permet de stocker des données dans le cloud sur plusieurs bases de données physiques à plusieurs emplacements au lieu d'une seule base de données tout en exposant une seule image de base de données aux applications. Cette fonctionnalité est utilisée pour atteindre une très grande échelle et pour répondre aux exigences de résidence des données et de souveraineté des données. Désormais, la réplication RAFT entre les bases de données physiques permet un basculement automatique sans perte de données en quelques secondes. Cela est essentiel lors de la création de bases de données distribuées à l'échelle du cloud qui doivent atteindre une évolutivité et une disponibilité ultra-élevées. L'intégration de la réplication au sein de la base de données avec le protocole basé sur RAFT simplifie la création et l'administration de bases de données distribuées tolérant les pannes et réduit le besoin de processus manuels pour maintenir une disponibilité active-active.
  • Oracle True Cache : True Cache est un cache de niveau intermédiaire (middle tier) en mémoire, toujours constant, transparent pour l'application et à hautes performances. Oracle True Cache améliore le temps de réponse des applications tout en réduisant la charge sur les serveurs de base de données. Contrairement aux autres caches de niveau intermédiaire, les données True Cache sont automatiquement conservées de manière cohérente sur le plan transactionnel à chaque instant. True Cache n'a pas besoin que les développeurs écrivent du code pour alimenter et gérer les données dans le cache, ce qui facilite le déploiement entre les applications et la base de données. True Cache apporte les fonctionnalités enrichies d'Oracle Database aux caches de niveau intermédiaire. Toutes les fonctionnalités de requête Oracle SQL, JSON et Graph sont disponibles dans True Cache.
  • Pare-feu SQL dans la base de données : Oracle SQL Firewall permet de protéger les bases de données contre les instructions SQL non autorisées, notamment les attaques par injection SQL. Intégré à Oracle Database 23ai, Oracle SQL Firewall offre un moyen évolutif, performant et difficile à contourner pour faire face aux risques des hackers et des comptes internes compromis. En outre, les entreprises peuvent utiliser Oracle Data Safe pour gérer plusieurs pare-feu SQL afin de réduire considérablement le coût de déploiement.
Catégorie actualité: 
Image actualité AMP: 
  •  

Docker Desktop 4.29 améliore l'isolation des conteneurs

7 mai 2024 à 14:21

Le version 4.29 de Docker Desktop est une mouture qui introduit des améliorations pour sécuriser et rationaliser le processus de développement et pour améliorer la gestion des erreurs et l'efficacité du flux de travail, selon les termes des responsables du projet.

Autorisations de montage des sockets

L'amélioration la plus remarquable est une nouvelle fonctionnalité en disponibilité générale pour les abonnés Business : les autorisations de montage des sockets.

Le socket Docker Engine, composant crucial pour la gestion des conteneurs, a toujours été un vecteur de risques potentiels de sécurité. Un accès non autorisé pourrait permettre des activités malveillantes, telles que des attaques de la chaîne d'approvisionnement. 

C'est pourquoi le mode Enhanced Container Isolation (ECI) bloque le montage de liaison non approuvé du socket Docker Engine dans des conteneurs. Mais cela sans flexibilité. La nouvelle fonctionnalité apporte la flexibilié manquante grâce à un accès contrôlé via la configuration admin-settings.json.

Cela permet aux images spécifiées de monter en liaison le socket Docker, combinant sécurité et fonctionnalité. 

Les principales fonctionnalités incluent :

  • Autorisations sélectives : les administrateurs peuvent désormais spécifier quelles images de conteneurs peuvent accéder au socket Docker via une liste d'images organisée, garantissant ainsi que seuls les conteneurs de confiance disposent des autorisations nécessaires.
  • Restrictions de commandes : la fonctionnalité commandList renforce encore la sécurité en limitant les commandes Docker approuvées que les conteneurs peuvent exécuter, agissant ainsi comme une couche de défense secondaire.

Gestion avancée des erreurs dans Docker Desktop 

A remarquer encore dans Docker Desktop 4.29 la redéfinition de la gestion des erreurs pour améliorer l'expérience des développeurs. Cette mise à jour ne consiste pas seulement à corriger des bugs. Il s'agit d'une refonte complète visant à rendre le processus de développement plus efficace, fiable et convivial.

Ainsi, le nouveau système présente des informations exploitables sur les erreurs, garantissant que les développeurs peuvent rapidement progresser vers une résolution.

Les principales améliorations comprennent :

  • Une interface d'erreur améliorée : combinant des codes d'erreur avec un texte explicatif et des liens d'assistance, ce qui facilite le dépannage.
  • Téléchargements de diagnostics directs : permet aux utilisateurs de partager des diagnostics à partir de l'écran d'erreur, rationalisant ainsi la prise en charge. 
  • Options de réinitialisation et de sortie : offre des solutions rapides directement à partir de l'interface d'erreur.
  • Correction en libre-service : fournit des étapes claires et exploitables permettant aux utilisateurs de résoudre les problèmes de manière indépendante
Catégorie actualité: 
Image actualité AMP: 
  •  
❌
❌