↩ Accueil

Vue lecture

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.

Windows 11 24H2 activera le chiffrement BitLocker par défaut, mais on peut éviter ça

Microsoft a confirmé à Windows Central son intention d'activer le chiffrement BotLocker par défaut dans Windows 11 24H2, non seulement dans l'édition Pro, mais aussi dans l'édition Home, ce qui promet pas mal de déboires aux utilisateurs peu avertis.

En effet si utiliser BitLocker est un excellent moyen de protéger ses données, perdre la clé de déchiffrement BitLocker fournie au cours de l'activation revient à perdre irrémédiablement ses données….

Windows Central rappelle pour l'occasion la documentation de Microsoft : Vous devez sauvegarder votre clé BitLocker sur votre compte Microsoft ou l'enregistrer sur un disque USB externe. Sans cela, vous ne pouvez pas accéder à vos données.

Pour l'occasion Windows Central souligne et avertit : Windows peut demander la clé de récupération BitLocker lors de la réinitialisation ou de la réinstallation du système d'exploitation. Cependant, l'obtention de la clé de récupération peut s'avérer difficile si la fonctionnalité est activée sans l'approbation de l'utilisateur. Si vous perdez l'accès à votre compte Microsoft, vous perdrez également l'accès au PC.

On peut aussi mentionner, comme inconvénient à cette activation, des pertes de performances palpables sur certaines machines peu puissantes.

Cette activation par défaut ne sera effectivement réalisée que sur les nouvelles installations de Windows 11, et non sur les mises à jour. Par exemple, pour plus de clarté, une mise à niveau de Windows 10 ou Windows 11 23H2 vers la version Windows 11 24H2, n'activera pas le chiffrement BitLocker par défaut. 

A priori, il sera possible de désactiver ce chiffrement dans les paramètres de Windows 11, mais, et plus intéressant à savoir, il y a un moyen de s'opposer à cette activation lors de l'installation du système. Windows Central donne la recette qui consiste à créer et positionner une clé de registre à la volée :

Lors de l'installation, vous pouvez désactiver le chiffrement du périphérique à l'aide d'un hack de registre :

1. Appuyez sur Maj + F10 pour ouvrir la fenêtre d'invite de commande. Tapez regedit et appuyez sur Entrée pour lancer l'Éditeur du Registre.

2. Accédez à la sous-clé HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Control\BitLocker .

3. Cliquez avec le bouton droit sur le côté vide et sélectionnez l'option  New > Dword (32-bit) Value dans le menu contextuel.

4. Nommez la valeur « PreventDeviceEncryption ».

5. Réglez la date de valeur sur 1 et cliquez sur le bouton OK .

6. Fermez l'éditeur de registre.

 

Catégorie actualité: 
Image actualité AMP: 

La fondation NetBSD ne veut pas de code généré par l'intelligence artificielle

Le vendredi après-midi, il est permis de lancer un petit troll... Allons-y donc. Alors que l'intelligence est omniprésente au point de nous abrutir, et de nuire à l'environnement, alors que Sundar Pinchai dans sa keynote d'ouverture de Google I/O a mentionné l'intelligence artificielle 120 fois en vantant les mérites de Gemini, nous apprécions les nouvelles directives de validation de code de la fondation NetBSD.

La fondation NetBSD a publié de nouvelles directives vraiment pleines de bon sens. Ne publier dans un référentiel que du code connu, que du code testé, que du code qui ne vient pas d'arborescences étrangères…

Nous apprécions particulièrement la seconde directive du document :

Ne validez pas de code corrompu dans le référentiel.

Si vous validez du code qui n'a pas été écrit par vous-même, vérifiez que la licence de ce code autorise l'importation dans le référentiel source NetBSD et autorise la distribution gratuite. Vérifiez auprès du ou des auteurs du code, assurez-vous qu'ils étaient le seul auteur du code et vérifiez avec eux qu'ils n'ont copié aucun autre code.

Le code généré par un grand modèle de langage ou une technologie similaire, tel que Copilot de GitHub/Microsoft, ChatGPT d'OpenAI ou Code Llama de Facebook/Meta, est présumé être du code corrompu et ne doit pas être validé sans l'approbation écrite préalable de la fondation.

Un peu de finesse et d'intelligence humaine dans un monde de brutes et de folie collective :-)

NetBSD, utilisé par exemple dans des projet de la NASA, est un système de type UNIX réputé être extrêmement solide, fiable, stable et performant. On voit ici un peu plus pourquoi :-)

Catégorie actualité: 
Image actualité AMP: 

Google I/O 2024 : Project IDX est en beta publique

Project IDX veut révolutionner l'expérience de développement multi plates-formes grâce à une interface dans un navigateur, des émulateurs intégrés, (Android, iOS…) des modèles de projets pour des frameworks tels que React, Vue, Angular, Flutte¸ Nextjs, … le support de nombreux langages de programmation, et, passage désormais obligé, l'intelligence artificielle, Gemini en l'occurrence, pour assister l'écriture de code. Google a annoncén lors de sa grand-messe Google I/O 2024, la disponibilité de l'outil en version bêta publique. Il était auparavant réservé à des testeurs triés par Google.

Project IDX dispose des fonctionnalités d'achèvement de code désormais habituelles dans les IDE, mais, bien entendu, Google veut surtout le démarquer grâce à la présence de son intelligence artificielle Gemini.

Gemini est, selon Google, capable de comprendre votre code et de vous aider à le déboguer, et est aussi, purement et simplement, capable d'écrire le code à votre place à partir de demandes formulées en langage naturel. Lorsqu'il suggère un morceau de code Gemini en indique la provenance et la licence ce qui est indéniablement un bon point. Par contre d'après ceux qui l'ont déjà éssayé (Korben par exemple) Gemini est aussi capable de partir en vrille et de générer du code incomplet ou bancal.

Site : idx.google.com

Catégorie actualité: 
Image actualité AMP: 

Google I/O 2024 : Android 15 plus sûr et mieux protégé contre le vol

Au deuxièmre jour de sa grand'messe Google I/O 2024, Mountain View a officiellement présenté Android 15. Nous avons précédemment évoqué les nouvelles API lors de la phase bêta ici et ici. Ce que nous retiendrons de la présentation de Google pour Android 15 est une amélioration de la sécurité ainsi que l'amélioration de la protection contre le vol.

Meilleure sécurité

Avec Android 15 les codes de validation reçus par SMS ou par mail n’apparaîtront plus dans les notifications, pour éviter qu’une personne malveillante se cache derrière vous pour vous pirater.

Meilleure protection contre le vol

Celle-ci se décline en trois point. Tout d'abord la dissuasion, puis la protection automatique ne cas devol et enfin le verrouilage après vol;

1 Dissuasion

Google améliorer la la protection contre le vol avec de nouvelles fonctionnalités améliorées qui inciteront les voleurs à réfléchir à deux fois avant d'essayer, selon Mountain View. Ce sont :

La mise à niveau de réinitialisation d'usine empêche une réinitialisation par un voleur. Pour certains criminels, l’objectif est de réinitialiser rapidement votre appareil volé et de le revendre. Google rend cela plus difficile avec une mise à niveau de la protection contre la réinitialisation d'usine d'Android. Avec cette mise à niveau, si un voleur force une réinitialisation de l'appareil volé, il ne pourra pas le configurer à nouveau sans connaître les informations d'identification de votre appareil ou de votre compte Google. Cela rend un appareil volé invendable, réduisant ainsi les incitations au vol de téléphone.

L'espace privé cache vos applications sensibles. Certains voleurs veulent simplement l'appareil, mais beaucoup visent à extraire de votre téléphone des données précieuses et à transférer des fonds qui peuvent valoir bien plus que votre matériel. L'espace privé est une nouvelle fonctionnalité qui vous permet de créer une zone distincte sur votre téléphone que vous pouvez masquer et verrouiller avec un code PIN distinct, vous offrant ainsi une sécurité supplémentaire pour les applications susceptibles de contenir des données sensibles, telles que des informations de santé ou financières.

Plus d'étapes pour modifier les paramètres sensibles de l'appareil afin de protéger vos données. La désactivation de Localiser mon appareil ou la prolongation du délai d'expiration de l'écran nécessitent désormais votre code PIN, votre mot de passe ou votre authentification biométrique, ajoutant ainsi une couche de sécurité supplémentaire empêchant les criminels qui ont mis la main sur votre appareil de le garder déverrouillé ou impossible à suivre en ligne.

Authentification accrue pour vous protéger au cas où votre code PIN serait connu par un voleur. Lorsqu'elle est activée, notre nouvelle authentification améliorée nécessitera des données biométriques pour accéder et modifier les paramètres critiques du compte Google et de l'appareil, comme la modification de votre code PIN, la désactivation de la protection contre le vol ou l'accès aux clés d'accès, à partir d'un emplacement non fiable.

2 Protection automatique dès que votre téléphone est volé

Se faire voler un appareil est inattendu et stressant et il peut être difficile de réagir rapidement au moment où cela se produit, explique Google pour présenter de nouvelles fonctionnalités capables de reconnaître automatiquement les signaux suspects et de protéger de manière proactive vos données sur l'appareil.

Verrouillage automatique de l'écran alimenté par l'IA lorsque votre téléphone est arraché. Le verrouillage de détection de vol est une nouvelle fonctionnalité puissante qui utilise l'IA de Google pour détecter si quelqu'un vous arrache votre téléphone des mains et essaie de courir, de faire du vélo ou de partir en voiture. Si un mouvement courant associé à un vol est détecté, l'écran de votre téléphone se verrouille rapidement, ce qui empêche les voleurs d'accéder facilement à vos données.

Protection supplémentaire lorsqu'un voleur s'empare de votre appareil. Si un voleur tente de déconnecter votre téléphone pendant des périodes prolongées, le verrouillage de l'appareil hors ligne verrouille automatiquement votre écran pour protéger vos données même lorsque votre appareil est hors réseau. Android peut également reconnaître d'autres signes indiquant que votre appareil est peut-être entre de mauvaises mains. Par exemple, il verrouillera l'écran de votre appareil en cas d'échec excessif des tentatives d'authentification.

3 Action après le vol

La fonctionnalité 'Localiser mon appareil' vous permet déjà de verrouiller ou d'effacer à distance un téléphone perdu ou volé et vous pouvez désormais le marquer comme perdu pour un suivi plus facile. Mais, selon Google, de nombreux utilisateurs sont choqués et stressés après la disparition d'un téléphone et ne peuvent pas se souvenir du mot de passe de leur compte Google pour accéder à Find My Device.

La fonction de verrouillage à distance vous offre une bouée de sauvetage si votre téléphone est déjà parti. Vous pourrez verrouiller l'écran de votre téléphone avec uniquement votre numéro de téléphone et un défi de sécurité rapide en utilisant n'importe quel appareil. Cela vous fait gagner du temps pour récupérer les détails de votre compte et accéder à des options utiles supplémentaires dans Localiser mon appareil, notamment l'envoi d'une commande de réinitialisation complète des paramètres d'usine pour effacer complètement l'appareil.

Certaines de ces nouvelles fonctionnalités seront poussées sur les appareils Android 10+ via une mise à jour des services Google Play plus tard cette année.

Catégorie actualité: 
Image actualité AMP: 

Le Raspberry Pi M.2 HAT+ est en vente

Le Raspberry Pi 5 a été lancé en septembre 2023. Il apportait une fonctionnalité intéressante : un connecteur d'extension PCI Express 16 voies FFC (flexible flat cable) Au moment du lancement du Raspberry Pi 5, un prototype du Raspberry Pi M.2 HAT+ avait été présenté. Celui-ci est désormais un produit en vente, au prix de 12 dollars.

Le Raspberry Pi M.2 HAT+ vous permet de connecter des périphériques M.2 M-key, tels que des lecteurs NVMe et des accélérateurs AI, à votre Raspberry Pi 5. Il permet un transfert de données rapide (jusqu'à 500 Mo/s) vers et depuis ces périphériques.

Site : raspberrypi.com/products/m2-hat-plus

Catégorie actualité: 
Image actualité AMP: 

Red Hat et Run:ai optimisent les workloads d’IA pour le cloud hybride

Red Hat et Run:ai annoncent leur collaboration afin d’apporter les capacités d’allocation des ressources de Run:ai à Red Hat OpenShift AI. En rationalisant les opérations d’IA et en optimisant l’infrastructure sous-jacente, cette collaboration permet aux entreprises de tirer le meilleur parti des ressources d’IA en maximisant les workflows pilotés par des humains ou par du matériel sur une plateforme MLOps de confiance dédiée à la construction, au réglage, au déploiement et au monitoring à l’échelle d’applications et de modèles augmentés par l’IA, expliquyent les deux partenaires.

En tant que moteurs de calcul des workflows d’IA, les GPU favorisent l’apprentissage des modèles, l’inférence ou encore l’expérimentation. Cependant, ces processeurs spécialisés peuvent être coûteux, en particulier lorsqu’ils sont utilisés pour des tâches de formation et d’inférence distribuées. Red Hat et Run:ai s’efforcent de répondre à ce besoin critique d’optimisation des ressources GPU avec l’Openshift Operator certifié de Run:ai sur Red Hat OpenShift AI. Cet opérateur aide les utilisateurs à mettre à l’échelle et optimiser leurs workloads d’IA, quel que soit leur emplacement.

En outre, la plateforme d’orchestration de calcul cloud native de Run:ai sur Red Hat OpenShift AI aide les entreprises à :

  • Résoudre les problèmes de planification des GPU pour les workloads d’IA grâce à un planificateur de workloads dédié, afin de prioriser plus facilement les workloads critiques et de confirmer que des ressources suffisantes sont allouées pour les prendre en charge.
  • Utiliser des capacités de GPU et de monitoring fractionnées pour allouer les ressources de manière dynamique en fonction des priorités et des politiques prédéfinies et ainsi permettre à l’infrastructure de gagner en efficacité.
  • Bénéficier d’un meilleur contrôle et d’une visibilité accrue sur l’infrastructure GPU partagée afin de faciliter l’accès et l’allocation des ressources au sein des équipes IT, de data science et de développement d’applications.

L’Openshift Operator certifié de Run:ai est désormais disponible.

 

Catégorie actualité: 
Image actualité AMP: 

Les nouveautés WebKit dans Safari 17.5

Quoi de neuf dans Safari via le moteur WebKit ? Le projet a dévoilé une liste d'améliorations :

- quelques nouveautés CSS : tex-wrap:balance (pour mieux gérer les lignes de texte), une nouvelle fonction de couleur ou encore des nouveautés sur les requêtes.

text-wrap-style: auto; /* initial value */
text-wrap-style: balance;
text-wrap-style: stable;

- Support de AV1 ! Le décodage matériel du codec est enfin disponible
- WebGL : support de EXT_conservative_deph et NV_shader_noperspective_interpolation
- des bug fixs : divers et variés.

A noter que Safari Technology Preview 194 est disponible depuis le 9 mai. Cette version ajoute le support d'Unicode 15.1.0,
quelques nouveautés CSS et SVG et une longue liste de bug fix

Lien de la note de version :
https://webkit.org/blog/15383/webkit-features-in-safari-17-5/
Catégorie actualité: 
Image actualité AMP: 

Les développeurs passent 57% de leurs temps à résoudre des problèmes plutôt qu'à innover, selon une étude Cisco

Cisco présente les résultats d’une étude expliquant que les développeurs passent plus de la moitié de leur temps (57%) en cellule de crise à résoudre des problèmes de performance d’applications, plutôt que de se consacrer au développement de nouvelles applications et à la stratégie d’innovation de leur entreprise.

Les développeurs jouent un rôle essentiel dans la création, le déploiement et la maintenance des applications et des services numériques, indispensables aujourd’hui au fonctionnement des entreprises. Et la pression qui pèse sur eux n’a jamais été aussi forte. Au niveau mondial, 85% des développeurs interrogés déclarent voir augmenter la pression pour accélérer leur vitesse de production, tandis que 77% soulignent la pression croissante pour offrir des expériences numériques transparentes et sécurisées.

Mais, alors que l’on attend des développeurs qu’ils fournissent de nouveaux outils et de nouvelles fonctionnalités toujours plus rapidement, ils sont dans le même temps en charge de résoudre des demandes incessantes émanant des ingénieurs en fiabilité des sites (SRE: Site Reliability Engineers) et des équipes opérations (ITOps) pour gérer la disponibilité et la performance des applications. En conséquence, ils passent des heures en réunion de cellules de crise à résoudre les problèmes techniques de leurs applications, au lieu de coder et de construire de nouvelles applications.

Un manque d’informations essentielles sur la performance des applications

Pour les développeurs, ce problème est dû au fait que leurs entreprises ne disposent pas des bons outils pour leur donner la visibilité nécessaire afin de comprendre la cause des problèmes qui touchent aux applications. Selon eux, les services informatiques n’ont pas une visibilité complète et unifiée sur les applications et le stack applicatif. Ils sont donc très préoccupés par les conséquences potentielles de cette situation, les trois quarts (75%) d’entre eux craignant que le manque de visibilité et d’information sur les performances informatiques n’augmente les risques d’interruption de service et de perturbation des applications essentielles à l’activité de leur entreprise.

Cette situation affecte considérablement le moral des développeurs, 82% d'entre eux admettant qu'ils se sentent frustrés et démotivés, et 54 % étant de plus en plus enclins à quitter leur emploi actuel. Ces résultats devraient être un signal d’alerte pour les entreprises qui dépendent désormais des développeurs pour créer les expériences numériques fiables et intuitives que les utilisateurs attendent. Avec une demande très forte pour des compétences en développement sur un marché tendu et une réserve de talents limitée, les entreprises ne peuvent pas se permettre un exode des talents simplement parce que leurs équipes informatiques ne disposent pas des outils dont elles ont besoin pour faire leur travail.

« La plupart des services informatiques ont déployé une multitude d’outils de surveillance dans différents domaines, mais ils ne sont pas à la hauteur des environnements informatiques complexes et dynamiques d’aujourd’hui. Ce qui empêche les responsables IT de générer une vue complète et unifiée de leurs applications », a déclaré Shannon McFarland, vice-président de Cisco DevNet. « Lorsque les choses tournent mal, il est très difficile d’identifier la racine du problème, ce qui entraîne souvent des situations de crise et oblige les développeurs à passer des heures à essayer d’aider leurs collègues pour remédier à la situation. »

Le potentiel de l’observabilité full-stack

Il est encourageant de constater que les développeurs sont parfaitement conscients qu’il existe des solutions. 91% d’entre eux estiment qu’ils devraient jouer un rôle plus important dans l’élaboration et dans le choix des solutions nécessaires au sein de leur entreprise. Les développeurs considèrent que l’observabilité full-stack pourrait changer la donne, en offrant aux équipes SRE et ITOps, la visibilité unifiée sur les applications et l’infrastructure, à la fois dans les environnements cloud native et on-premises.

Bien que les développeurs ne soient pas les principaux utilisateurs des solutions d’observabilité full-stack – se concentrant plutôt sur leurs domaines d'expertise spécifiques – 78% pensent que la mise en œuvre de l’observabilité full-stack au sein de leur entreprise serait bénéfique. Ils reconnaissent les avantages d’une visibilité unifiée sur l’ensemble de l’environnement technologique et admettent que l’observabilité full-stack permettrait aux équipes IT d’identifier plus facilement et plus rapidement les problèmes, d’en comprendre les causes et de mettre en œuvre les mesures de remédiation nécessaires. Il en résulterait une diminution du nombre de responsables IT issus d’équipes de différents domaines qui devraient participer à des réunions en cellule de crise, libérant ainsi les talents, y compris les développeurs, pour qu’ils puissent se concentrer sur leur travail.

76% des développeurs sont allés jusqu’à déclarer qu’il leur était devenu impossible d'effectuer correctement leur travail parce que les équipes SRE et ITOps ne disposaient pas des informations dont ils avaient besoin pour gérer efficacement les performances informatiques. Ce qui explique pourquoi 94% des développeurs considèrent l’observabilité full-stack comme l’élément central qui les aiderait à se concentrer sur l’innovation.

Le rôle de l’intelligence artificielle (IA)

Au-delà de l’observabilité full-stack, de nombreux développeurs (39%) estiment également que leur entreprise (et eux-mêmes) bénéficieraient du déploiement de l’IA pour automatiser la détection et la résolution des problèmes applicatifs. Plutôt que de s’appuyer sur des processus manuels, l’IA permet aux équipes informatiques d’analyser des volumes considérables de données, d’identifier les problèmes et d’appliquer des correctifs en temps réel. En outre, les développeurs sont prêts à adopter de nouvelles méthodes de travail au sein du service informatique afin d’améliorer l’efficacité, la productivité et de rationaliser la gestion des performances des applications. La majorité d’entre eux (57%), pensent qu’il faut renforcer la collaboration entre les développeurs et les équipes informatiques. Cela se traduit déjà par la mise en œuvre de méthodes de tests amont œuvreet à l’adoption généralisée des méthodologies DevOps et DevSecOps, de sorte que les considérations relatives à la disponibilité, à la performance et à la sécurité des applications soient intégrées nativement dans le cycle de vie de développement de l’application.

« À une époque où les développeurs sont très demandés, les entreprises doivent faire tout ce qui est en leur pouvoir pour donner à leurs équipes les outils dont elles ont besoin pour réaliser leur plein potentiel et maximiser leur impact », a ajouté M. McFarland. « L’observabilité full-stack est devenue essentielle. Sans elle, les équipes informatiques ne peuvent tout simplement pas fournir les niveaux d’expériences numériques exigés par les consommateurs aujourd’hui. »

Cette étude a été menée étude auprès de 500 développeurs répartis entre les États-Unis (200), le Royaume-Uni (100), l'Australie (30) et le reste du monde (170 - dont l'Allemagne, la France, l'Italie, l'Espagne, la Scandinavie, le Japon, Singapour et l'Inde). L'étude a été menée par Insight Avenue en mars et avril 2024.

Catégorie actualité: 
Image actualité AMP: 

Google I/O 2024 : Google ouvre un concours de développeurs d'API Gemini, une DeLorean à gagner

Google dit souhaiter voir vos applications les plus créatives et les plus percutantes créées avec ses modèles d'intelligence artificielle, et pour cela ouvre un concours développeurs, présenté à l'occasion de Google I/O 2024. Les candidatures seront évaluées selon cinq critères clés : l'impact, la remarque, la créativité, l'utilité et l'exécution. Google est à la recherche d'applications qui utilisent l'API Gemini de manière innovante, mais qui résolvent des problèmes concrets, qui sont bien conçues et qui offrent une expérience utilisateur agréable.

Les prix s'étendent de 50 000 dollars pour la meilleure application de jeu à 300 000 dollars pour l'application la plus efficace. Mais le grand prix est, nom de Zeus, une DeLorean électrique.

Google : "Notre grand prix est l'une des seules voitures au monde à ne pas avoir besoin d'être présentée. Cette DeLorean apporte une touche unique à une pièce emblématique de l'histoire de l'automobile. Ce modèle de 1981 méticuleusement restauré a été remanié par DeLorean Midwest avec un groupe propulseur électrique de pointe, tout en préservant son design emblématique avec des portes battantes.

Quels sont les critères pour remporter la meilleure application globale ?

Les candidatures seront évaluées selon cinq critères clés: l'impact, la remarque, la créativité, l'utilité et l'exécution. Nous sommes à la recherche d'applications qui utilisent l'API Gemini de manière innovante, mais qui résolvent des problèmes concrets, qui sont bien conçues et qui offrent une expérience utilisateur agréable. L'application qui obtiendra le meilleur score dans ces cinq catégories remportera le DeLorean électrique personnalisé de 1981."

Les projets doivent être soumis avant le 12 août.

Site officiel

Catégorie actualité: 
Image actualité AMP: 

Google I/O 2024 : Google améliore Gemini Pro et présente Gemini 1.5 Flash

La grand'messe Google I/O 2024 a débuté hier 14 mai, et comme on pouvait s'y attendre, l'intelligence artificielle est le cheval de bataille de l'évémenent. Dans sa keynote d'ouverture Sundar Pinchai a prononcé IA 120 fois…

On retiendra surtout la présentation du modèle Gemini 1.5 Flash, plus petit que Gemini Pro plus petit et optimisé pour les tâches plus étroites ou à haute fréquence où la vitesse du temps de réponse du modèle compte le plus, ainsi que les améliorations apportées à Gemini Pro 1.5.

En ce qui concerne ce dernier, Google a apporté une série d'améliorations de la qualité dans des cas d'utilisation clés, tels que la traduction, le codage, le raisonnement et bien plus encore. Ces améliorations sont immédiatement disponible, et elles devraient, selon Google vous aider à accomplir des tâches encore plus vastes et plus complexes.

Sundai Pinchai a martelé que l'intelligence de Google va vous rendre la plus plus facile. La vie peut-être, la vie privée, c'est moins sûr. Par exemple, Google, à une époque, se défendait d'analyser les mails transitant par Gmail et avait expliqué avoir absolument cessé d'en analyser le contenu pour présenter des publicités pertinentes. Or voici comment Sundar Pinchai a présenté les fonctionalités de Gemimi Pro 1.5 dans Google Workspace et donc Gmail :

Jusqu’à présent, nous avons parlé de deux avancées techniques : la multimodalité et le contexte long. Chacun est puissant en soi. Mais ensemble, ils débloquent des capacités plus profondes et davantage d’intelligence.

Cela prend vie avec Google Workspace.

Les gens recherchent toujours leurs e-mails dans Gmail. Nous travaillons pour le rendre beaucoup plus puissant avec Gemini. Ainsi, par exemple, en tant que parent, vous souhaitez rester informé de tout ce qui se passe à l'école de votre enfant. Gemini peuvent vous aider à suivre le rythme.

Nous pouvons maintenant demander à Gemini de résumer tous les e-mails récents de l'école. En arrière-plan, il identifie les e-mails pertinents et analyse même les pièces jointes, comme les PDF. Vous obtenez un résumé des points clés et des actions à entreprendre. Peut-être que vous étiez en voyage cette semaine et que vous n'avez pas pu assister à la réunion du PTA. L'enregistrement de la réunion dure une heure. S'il s'agit de Google Meet, vous pouvez demander à Gemini de vous donner les points forts. Il y a un groupe de parents à la recherche de bénévoles, et vous êtes libre ce jour-là. Alors bien sûr, Gemini peut rédiger une réponse.

Il existe d’innombrables autres exemples montrant comment cela peut rendre la vie plus facile.

Nouvelles fonctionnalités pour les développeurs

Sur la base des commentaires des utilisateurs Google a introduit deux nouvelles fonctionnalités d'API : l'extraction d'images vidéo et l'appel de fonctions parallèles, qui vous permettent de renvoyer plusieurs appels de fonction à la fois. Et en juin, Google ajoutera la mise en cache contextuelle à Gemini 1.5 Pro, de sorte que vous n'aurez qu'à envoyer une seule fois des parties de votre invite, y compris des fichiers volumineux, au modèle. Cela devrait rendre le contexte long encore plus utile et plus abordable, assure Google.

Catégorie actualité: 
Image actualité AMP: 

Complexités de l’IA : Red Hat adopte une nouvelle approche « Policy-as-Code »

Red Hat annonce l’adoption d’une approche Policy-as-Code automatisée, une nouvelle fonctionnalité qui sera directement intégrée dans les futures versions de Red Hat Ansible Automation Platform. Cette approche permettra d’appliquer les politiques en vigueur et de favoriser le respect de la conformité dans les environnements de cloud hybride qui comprennent des applications d’IA toujours plus nombreuses et variées. Par ailleurs, pour aider l’automatisation à gagner en maturité, l’approche Policy-as-Code permettra de se conformer à l’évolution des exigences internes ou externes et de mieux se préparer à adopter une infrastructure tentaculaire qui prendra en charge les workloads d’IA évolutives.

L'aperçu technologique de l’approche Policy-as-Code pour Ansible Automation Platform sera disponible dans les mois à venir.

Catégorie actualité: 
Image actualité AMP: 

Google I/O : support officiel de Kotlin multiplatform dans Android

Depuis quelques heures, c'est l'annonce qui agite les communautés Flutter et Kotlin. Le blog développeur d'Android (Google) annonce le support de Kotlin Multiplatform sur Android. Mais ce n'est pas tout, ce support concerne Android, le Web, iOS et le desktop. Bref, les cibles de Flutter ! Les coupes dans les équipes DART et Flutter avaient déjà suscité des débats malgré le ton rassurant des responsables.

Pour autant, Flutter est-il sacrifié ? Non pas pour le moment cependant, comme le précise Romain Boiselle (un des experts francophones Kotlin), Google voit peut-être autrement le développement multiplateforme et JetBrains pousse fort sur Kotlin Multiplatform. Le support officiel de Kotlin Multiplatform est un donc une étape cruciale pour Jetbrains et son approche. Google annonce travailler avec l'éditeur pour intégrer les librairies Jetpack et mieux cibler iOS. 

Il faudra suivre de près Flutter dans les prochains mois et voir comment ce projet évoluera suite à cette annonce

Annonce : https://android-developers.googleblog.com/2024/05/android-support-for-kotlin-multiplatform-to-share-business-logic-across-mobile-web-server-desktop.html

Catégorie actualité: 
Image actualité AMP: 

Devcon #22 - Game Dev édition 2024

Programmez! organise l'édition 2024 de sa conférence développeurs consacrée à la création de jeux. Celle-ci se déroulera le 13 juin 2024.

Les SDK, les frameworks, les moteurs 3D, les métiers du jeu feront partie des thèmes abordés cette année

Un agenda provisoire a été publié sur la page de l'événement.

Les inscriptions sont ouvertes.

Catégorie actualité: 
Image actualité AMP: 

JobRunr supporte les threads virtuels de Java

JobRunr est un framework qui simplifie la programmation concurrente en Java. Avec JobRunr il est aisé de réaliser des tâches de type "fire-and-forget", retardées, planifiées et récurrentes dans des applications Java en utilisant uniquement les lambdas de Java 8.

Les tâches gourmandes en CPU et en E/S, de longue durée et de courte durée, sont prises en charge. Le stockage persistant s'effectue soit via un SGBDR (par exemple Postgres, MariaDB/MySQL, Oracle, SQL Server, DB2 et SQLite) ou NoSQL (ElasticSearch, MongoDB et Redis).

JobRunr fournit un modèle de programmation unifié pour gérer les tâches en arrière-plan et les exécute sur un hébergement partagé, un hébergement dédié ou dans le cloud (Kubernetes  par exemple) au sein d'une instance JVM. JobRunr vient de sortir en version 7.0.

L'apport majeur de cette version 7.0 est la prise en charge des threads virtuels, activés par défaut, pour les applications exécutant JDK 21. L'outil détecte si l'application s'exécute sur JDK 21 et passe automatiquement aux threads virtuels sans nécessiter de configuration manuelle de la part des développeurs.

Il est à noter que JobRunr 7.0 maintient également une compatibilité descendante avec Java 8. JobRunr 7.1, en préversion au moment où nous écrivons ces lignes, prend également en charge les threads virtuels en mode natif GraalVM.

JobRunr est un logiciel libre sous plusieurs licences, disponible sur GitHub.

Catégorie actualité: 
Image actualité AMP: 

OVHcloud lance de nouveaux serveurs Bare Metal High Grade équipés des processeurs Intel Xeon Gold

OVHcloud annonce de nouveaux serveurs dédiés Bare Metal dans la gamme High Grade avec les processeurs Intel Xeon Gold de cinquième génération. Ces nouveaux serveurs Bare Metal se destinent avant tout à des charges de travail intensives et critiques, comme le HPC, la virtualisation ou l’informatique confidentielle. Les nouvelles références High Grade Bare Metal d’OVHcloud profitent de la technologie Intel TDX, ainsi que des nouveaux accélérateurs intégrés pour des performances supérieures. Elle répond en ce sens aux nombreux challenges des infrastructures hyperconvergées et des infrastructures de stockage, selon OVH.

Au cœur des nouvelles gammes OVHcloud HCI, SDS et STOR se trouve la microarchitecture Intel Emerald Rapids. Celle-ci offre de plus grandes capacités de calcul, des vitesses de mémoire accrues ainsi qu’une sécurité renforcée. Les technologies comme Intel TDX offrent aux machines virtuelles une isolation renforcée, et donc une meilleure sécurité, une meilleure conformité et un plus grand niveau de contrôle pour les applications legacy, toujours selon OVH.

Les nouveaux serveurs HGR-HCI-i, HGR-SDS et HGR-STOR-1 bénéficient des avantages des serveurs dédiés en termes de flexibilité, de contrôle, de performance et de disponibilité ainsi que d'une bande passante publique garantie et non mesurée comprise entre 1 Gbps et 10 Gbps, et jusqu'à 25 Gbps de bande passante privée non mesurée.

Catégorie actualité: 
Image actualité AMP: 

Les nouveautés annoncées à MongoDB.local NYC 2024

MongoDB a dévoilé plusieurs nouvelles fonctionnalités ainsi que des partenariats, à l’occasion de sa conférence annuelle MongoDB.local NYC 2024 qui s’est déroulée le 2 mai dernier. Ces nouvelles annonces visent à réduire la complexité de la construction et du déploiement des applications axées sur les données et alimentées par l'IA, souligne MongoDB.  

MongoDB Atlas, de nouvelles fonctionnalités qui optimisent les charges de travail d'IA générative. 

Parmi les nouvelles fonctionnalités proposées par MongoDB Atlas, figurent la disponibilité générale de MongoDB Atlas Stream Processing. Une évolution qui permet aux développeurs d'utiliser, de façon transparente, les données en temps réel provenant d'une grande variété de sources, pour exécuter des applications hautement réactives. En outre, l'introduction de MongoDB Atlas Search Nodes sur Microsoft Azure et d'autres plateformes, permet aux organisations d'optimiser les charges de travail d'IA générative en bénéficiant de temps de requête jusqu'à 60 % plus rapides, pour des coûts considérablement réduits. 

MongoDB AI Applications Program, une alliance pour créer un guichet unique de mise en œuvre de solutions d'IA pour les entreprises. 

MongoDB a lancé le programme MongoDB AI Applications Program (MAAP), pour accélérer le développement et le déploiement d'applications modernes utilisant l'IA générative avancée à l'échelle de l'entreprise. En se focalisant sur un cadre stratégique, le service d'expertise professionnelle, ainsi qu’une pile technologique intégrée, le MAAP offre un portefeuille complet aux organisations qui cherchent à exploiter la puissance de l'IA générative à l'aide d’outils de leur choix. Avec MongoDB, des partenaires comme Anthropic, Anyscale, AWS, Google Cloud, Microsoft Azure et d'autres, aident les clients à identifier les tâches qui se prêtent à l'utilisation de solutions d'IA. Grâce à cette collaboration, les clients ont accès à des stratégies de bout en bout, à des solutions d'IA puissantes et à un support au démarrage avec des experts du secteur.  

Intégration de MongoDB Atlas Vector Search avec Amazon Bedrock, une accélération significative des processus critiques. 

La disponibilité générale de MongoDB Atlas Vector Search on Knowledge Bases pour Amazon Bedrock, permet aux organisations de développer plus facilement des fonctionnalités d'application d'IA générative en utilisant des modèles de fondation (FM) entièrement gérés. Grâce à la collaboration entre MongoDB et AWS, les clients communs peuvent déployer efficacement des applications d'IA générative sur AWS, tout en garantissant un accès sécurisé et conforme aux données propriétaires. Des clients bien connus du secteur de la santé en bénéficient. C’est le cas, par exemple, de la solution NovoScribe de Novo Nordisk qui crée des rapports d'études cliniques en quelques minutes.

MongoDB et Google Cloud optimisent Gemini Code Assist. 

MongoDB et Google Cloud permettent à Gemini Code Assist de fournir des suggestions améliorées pour le développement et la modernisation d'applications sur MongoDB. Elle facilité également l'intégration de ces dernières de manière transparente aux bibliothèques et aux meilleures pratiques des organisations afin de rationaliser davantage les processus de développement logiciels. Gemini Code Assist fournit des suggestions de codage intelligentes, répond aux questions relatives au code existant et peut mettre à jour efficacement des bases de code entières. Grâce à cette collaboration, Gemini Code Assist peut aider les développeurs à obtenir des réponses et des informations sur le code, la documentation et les meilleures pratiques de MongoDB. Ceux-ci sont ainsi en mesure de prototyper plus rapidement de nouvelles fonctionnalités et d'accélérer le développement d'applications.

Certified by MongoDB, nouveau programme de certification pour les partenaires Cloud offrant des services de base de données MongoDB. 

Certified by MongoDB Database-as-a-Service (DBaaS) est le nouveau programme de MongoDB qui permet aux partenaires d'infrastructures cloud d'offrir à leurs clients une solution DBaaS MongoDB de première classe et entièrement prise en charge. Aujourd’hui, de nombreux clients ont besoin d'une solution DBaaS certifiée par MongoDB pour leurs cas d'utilisation sur des clouds spécifiques sur lesquels MongoDB Atlas n'est pas disponible. Les partenaires cloud du programme pourront déployer la base de données et les services de données de pointe de MongoDB en tant que service géré par le biais de leurs propres plateformes cloud. Ils pourront ainsi offrir à leurs clients une plateforme hautement fiable et évolutive pour créer et déployer en toute sécurité des applications natives pour le cloud. Le programme fournit également aux partenaires cloud le support dédié nécessaire pour construire des intégrations technologiques profondes, tout en ouvrant des initiatives conjointes de go-to-market avec l'écosystème de partenaires MongoDB pour aider à accélérer le succès de leurs clients.

 

Catégorie actualité: 
Image actualité AMP: 

Raspberry Pi Connect : restez connecté avec vos Raspberry Pi

La fondation Raspberry Pi propose un nouvel outil : Raspberry Pi Connect. Il s'agit d'un outil qui vous permet d'accéder à vos Raspberry Pi à distance, depuis un navigateur Web. L'outil fonctionne avec les Raspberry Pi 4, 5 et 400 exécutant une distribution 64 bits de Raspberry Pi OS Bookworm qui utilise le serveur de fenêtre Wayland. L'outil ne fonctionne pas avec Raspberry Pi OS Lite ou les systèmes qui utilisent le serveur X Window.

Pour utiliser Connect, vous devez installer le logiciel sur votre Raspberry Pi. Visitez ensuite connect.raspberrypi.com pour accéder à votre Raspberry Pi via le partage d'écran dans une fenêtre de navigateur. Vous pouvez utiliser le bureau comme si vous aviez branché un moniteur sur votre Raspberry Pi.

Connect utilise une connexion sécurisée et cryptée. Par défaut, Connect communique directement entre votre Raspberry Pi et votre navigateur. Cependant, lorsque Connect ne parvient pas à établir une connexion directe entre votre Raspberry Pi et votre navigateur, un serveur relais situé  à Londres est utilisé. Dans de tels cas, la fondation Raspberry Pi souligne qu'elle ne conserve que les métadonnées nécessaires au fonctionnement de Connect.

Le mode d'installation et d'emploi complet de Raspberry Pi Connect est ici.

Catégorie actualité: 
Image actualité AMP: 

Le noyau Linux 6.9 supporte Rust sur les architectures AArch64 (ARM64)

Linus Torvalds a annoncé ce week-end la disponiblité du noyau Linux 6.9. Celui-ci se distingue principalement par la pris en charge de Rust sur les architectures AArch64 (ARM64).  On remarque encore, entre autres la prise en charge du mécanisme Intel FRED (Flexible Return and Event Delivery) pour une meilleure diffusion des événements de bas niveau, et la prise en charge des invités AMD SNP (Secure Nested Paging)

A remarquer encore, le noyau Linux 6.9 supporte la fonctionnalité Named Address Spaces du compilateur GCC. Cette fonctionnalité permet au compilateur de mieux optimiser l'accès aux données par le CPU.

Catégorie actualité: 
Image actualité AMP: 

Red Hat OpenShift AI étend la flexibilité de l’IA prédictive et générative sur l’ensemble du cloud hybride

Red Hat annonce des évolutions pour Red Hat OpenShift AI, sa plate-forme hybride dédiée à l’intelligence artificielle (IA) et à l’apprentissage automatique (ML) basée sur Red Hat OpenShift, qui permet aux entreprises de créer et de mettre à disposition des applications alimentées par l’IA à grande échelle sur l’ensemble des clouds hybrides. 

Red Hat OpenShift AI 2.9, la dernière version de la plateforme, propose notamment :

  • La mise à disposition de modèles en périphérie, qui permet d’étendre le déploiement des modèles d’IA aux emplacements distants à l’aide d’une configuration OpenShift à un seul nœud. Cela offre des capacités d’inférence au sein d’environnements limités en ressources dont l’accès au réseau demeure intermittent ou lacunaire. Cette fonctionnalité disponible en avant-première technologique donne aux entreprises la possibilité de profiter d’une expérience opérationnelle évolutive et cohérente depuis le cœur de réseau jusqu’en périphérie en passant par le cloud et s’accompagne de capacités d’observabilité immédiatement disponibles.
  • Une distribution des modèles améliorée grâce à l’exploitation de multiples serveurs de modèles afin de soutenir l’IA prédictive et générative, incluant un support pour KServe, une définition des ressources Kubernetes sur mesure qui orchestre la distribution de tous types de modèles, un distributeur d’inférence de vLLM et de génération de texte, des moteurs de distribution pour les LLM et les environnements d’exécution Caikit-nlp-tgis, qui gèrent les modèles et les tâches de traitement du langage naturel (NLP). Cette distribution de modèles améliorée permet aux utilisateurs d’exécuter l’IA prédictive et générative sur une plateforme unique pour de nombreux cas d’usage, ce qui aide à réduire les coûts et à simplifier les opérations. Cela permet une distribution de modèles originale pour les LLM et simplifie les workflows utilisateurs correspondants.
  • Des workloads distribués avec Ray, à l’aide de CodeFlare et KubeRay, permettant un traitement des données et un entraînement des modèles plus rapides et plus efficaces à l’aide de multiples nœuds de cluster. Ray offre un cadre pour l’accélération des workloads d’IA et KubeRay permet de gérer ces workloads sur Kubernetes. CodeFlare joue un rôle central dans les capacités de distribution des workloads de Red Hat OpenShift AI, en offrant un cadre facile d’utilisation qui permet de simplifier l’orchestration et le monitoring des tâches. La file d’attente centrale et les capacités de gestion offrent une exploitation optimale des nœuds et permettent d’allouer des ressources, comme le processeur graphique, aux workloads et aux utilisateurs les plus pertinents.
  • Un développement des modèles amélioré grâce aux espaces de travail pour les projets et aux images de référence supplémentaires qui offrent aux data scientists un degré de flexibilité suffisant pour leur permettre d’exploiter des IDE et des boîtes à outils, y compris VS Code et RStudio, actuellement disponibles en avant-première, ou encore la version améliorée de CUDA, pour un vaste panel de cas d’usage et de types de modèles.
  • Des visualisations pour le monitoring des modèles afin d’obtenir des indicateurs de performance et opérationnels, ce qui renforce l’observabilité des performances des modèles d’IA.
  • De nouveaux profils d’accélérateurs permettent aux administrateurs de configurer différents types d’accélérateurs matériels pour les workflows de développement et de distribution des modèles. Cela permet aux utilisateurs d’accéder facilement et directement au type d’accélérateur adapté à un workload spécifique.
Catégorie actualité: 
Image actualité AMP: 

Oracle annonce un assistant pour le code basé sur l'IA

Oracle annonce ses plans autour d’Oracle Code Assist, un assistant pour le code basé sur l’IA, afin d’aider les développeurs à gagner en rapidité et à améliorer la cohérence du code. Alimenté par de grands modèles de langage (LLM) exécutés sur Oracle Cloud Infrastructure (OCI) et optimisé pour le développement Java et SQL, mais aussi d'applications sur OCI, Oracle Code Assist est destiné à fournir aux développeurs des suggestions spécifiques contextualisées qui peuvent être adaptées aux bonnes pratiques et au codebase, l’ensemble du code source d'une organisation. Oracle Code Assist permettra également de mettre à jour, de mettre à niveau et de refactoriser le code écrit dans la plupart des langages de programmation modernes.

Déployé en tant que module d'extension d'environnement de développement pour JetBrains IntelliJ IDEA ou Microsoft Visual Studio Code, Oracle Code Assist est programmé pour être spécialement entraîné pour fournir des commentaires avisés afin d'aider les développeurs à créer, optimiser et mettre à niveau des applications, quel que soit l’emplacement où elles sont exécutées.

« Les développeurs pourront utiliser Oracle Code Assist pour mettre rapidement à niveau des applications Java entières vers des versions plus récentes. Cette capacité à mettre rapidement à niveau Java à l'aide d'un assistant de codage augmente considérablement la capacité des entreprises à améliorer la résilience et les performances des applications, à intégrer les dernières fonctionnalités du JDK et à renforcer leur posture de sécurité », déclare Arnal Dayaratna, Vice-Président de la recherche d'IDC. « Oracle Code Assist peut également accélérer les mises à niveau de la base de données en ce qui concerne le refactoring et le test de code PL/SQL complexe et souvent customisé, ce qui peut prendre beaucoup de temps et coûter très cher. Compte tenu de l'omniprésence de Java et des bases de données dans les entreprises, Oracle Code Assist est susceptible d'être largement adopté par les grandes entreprises du monde entier. »

Selon Oracle, les développeurs vont gagner en rapidité grâce aux fonctionnalités d'Oracle Code Assist suivantes :

  • Génération de code : fournit des suggestions de code basées sur le contexte et les modèles appris et génère des fichiers de classe, des méthodes ou des lignes de code entières. Les développeurs peuvent ensuite accepter, modifier ou rejeter le fragment de code, réduire le temps passé à écrire du code standard et créer des applications plus rapidement.
  • Annotation de code : génère une documentation ou des commentaires sur l'interface de programmation d'application (API) pour décrire la fonctionnalité de code. Cela aide les développeurs à assurer la maintenance de l'application tout au long de sa vie.
  • Explicabilité du code : fournit un récapitulatif en langage simple du code. Cela aide les développeurs ayant la charge de réviser ou de refactoriser le code existant et permet de gagner du temps en fournissant un contexte précis et facile à comprendre.
  • Révisions de code plus rapides : lance une demande d'extraction pour fusionner les modifications dans un référentiel après avoir écrit des révisions de code, et recommande des modifications de code en fonction des instructions de performance, de qualité, d'efficacité et de style. Cela aide les développeurs à fournir un code de meilleure qualité.
  • Génération de couverture de test : crée des tests unitaires et fonctionnels selon le contexte du code. Cela aide les développeurs à améliorer la qualité des tests avec une meilleure couverture des tests couvrant une plus grande variété d'entrées de test.

Là où Oracle Code Assist est également attendu, c’est dans l’aide aux développeurs pour améliorer la cohérence et l'optimisation du code grâce à :

  • Suggestions personnalisées : intègrent les structures de codage, les bibliothèques internes, les bonnes pratiques et les normes propres au secteur d'activité d'une entreprise pour générer du code qui lui est propre. Cela aide les développeurs à réviser, à mettre à jour et à intégrer le code dans les bases de code existantes.
  • Contexte de l'origine du code : filtre le code qu'il génère pour garantir qu'il ne provient pas de licences non autorisées. Cela aide les développeurs à gérer les risques de conformité.
  • Mises à niveau du langage automatisées : convertit et met à jour le code existant dans la version du langage en cours à l'aide de bibliothèques plus récentes. Les développeurs peuvent ainsi améliorer la performance et la qualité d'une application en tirant parti des nouvelles fonctionnalités du langage ou de la structure utilisés.
  • Analyse du code : identifie les bugs et les inefficacités, et produit du code basé sur les pratiques de développement logiciel d'une entreprise. Cela aide les développeurs à fournir un code plus rigoureux qui est cohérent avec leur code base propriétaire.
  • Suggestions d'optimisation OCI : intègre les suggestions des API de service OCI, des modèles de codage et des bonnes pratiques pour permettre aux applications de fonctionner au mieux sur OCI. Les développeurs peuvent ainsi optimiser l'utilité et augmenter l'efficacité des applications exécutées sur OCI et utilisant les services OCI.

 

Oracle souligne que les développeurs travaillant dans l'entreprise utilisent activement Oracle Code Assist pour créer de nouveaux produits et services Oracle. Il est prévu de le rendre disponible pour les clients Oracle prochainement. Oracle n'a pas précisé davanatge la date de disponibilité

Catégorie actualité: 
Image actualité AMP: 

Microsoft a donné un million de dollars à la fondation Rust

La fondation Rust a annoncé de Micrsoft lui a fait un don sans restriction d'un million de dollars en décembre dernier et vient de communiquer sur la façon dont cette somme sera utilisée.

Ce don d'un million de dollars de Microsoft, membre Platinum de la Rust Foundation, sera investi sur une période de deux ans et appliqué aux domaines de besoins hautement prioritaires suivants dans l'écosystème Rust :

  • Embauche d’un ingénieur d’infrastructure supplémentaire pour la Rust Foundation
  • Financer le programme « Fellowship » de la Fondation Rust
  • Développer de nouveaux systèmes et programmes pour soutenir le travail des responsables du projet Rust et réduire la charge de travail.
Catégorie actualité: 
Image actualité AMP: 
❌