↩ Accueil

Vue normale

Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hier1.1 🖥️ Technologie

« Hacker éthique », « cybercriminel repenti »… le procès de Florent Curtet s’ouvrira fin novembre

3 octobre 2024 à 17:31
Aucun lien fils unique
« Hacker éthique », « cybercriminel repenti »… le procès de Florent Curtet s’ouvrira fin novembre

Un temps célébré pour son projet Hackers sans Frontières, Florent Curtet est suspecté d’avoir joué un double jeu avec des cyberdélinquants.

Un cybercriminel recherché par la CIA devenu hacker éthique au service des entreprises et des administrations publiques ? L’histoire était belle. Mais les activités de Florent Curtet, par ailleurs auteur de l’ouvrage Hacke-Moi si tu peux (éditions du Cherche Midi, 2023), sont bien plus nébuleuses que ce qu’il veut laisser croire, révèle une enquête du Monde.

L’homme, qui se présente comme un intermédiaire entre les hackers malveillants et leurs victimes, est poursuivi dans le cadre du vol d’informations judiciaires relatives à la tuerie de Charlie Hebdo et à l’assassinat de l’enseignant Samuel Paty. Ces dernières avaient été subtilisées alors que le cabinet d’avocats Le Bonnois, spécialisé dans l’aide aux victimes, avait été visé par une cyberattaque, mi 2021.

Le procès de Florent Curtet s’ouvrira fin novembre.

Aucun lien avec la CIA

Le « hacker surdoué redouté par la CIA », comme le nommait Franceinfo dans un reportage, n’a en réalité pas de lien avec la Central Intelligence Agency, qui n’a de toute manière pas de compétence judiciaire. Si une agence états-unienne est au courant de l’existence de Florent Curtet, ce serait plutôt le United States Secret Service, service en charge de la lutte contre la fraude financière, explique Le Monde. 



En 2007, le hacker a en effet été poursuivi pour sa pratique du « carding » – tactique qui consiste à détourner des identifiants de carte bancaire pour voler des fonds. S’il admet auprès du quotidien national une « erreur », il mentionne lui-même la CIA dans diverses interviews. Et s’il se dépeint en « boss du réseau » poursuivi par les autorités américaines, sa condamnation en 2011, au tribunal pour enfants de Marseille, à huit mois de prison avec sursis et à 3 000 euros d’amende plaide plutôt pour un rôle mineur.

Comme son ouvrage (où sont évoqués la CIA et 24 mois de prison) et ses nombreuses prises de parole en attestent, Florent Curtet aime parler de son parcours. Mais en décortiquant son CV, Le Monde dévoile de nombreuses autres approximations : une mission de quinze jours à l’ONU devient un contrat d’un an et deux mois, un contrat d’un peu plus d’un an chez Onepoint est décrit comme « quatre ans de travail », etc.

Liens troubles de NeoCyber avec la cyberattaque d’un cabinet d’avocats

En 2020, Florent Curtet lance NeoCyber, une société qui propose de négocier les rançons exigées par certains cybercriminels. Derrière la façade rutilante, qui affiche l’ONU, le ministère des Armées ou encore BNP Paribas comme clients, NeoCyber n’est pourtant qu’une autoentreprise au chiffre d’affaires de quelques milliers d’euros.

C’est toutefois cette activité de négociateurs qui vaut à Florent Curtet le procès auquel il doit comparaître fin novembre. En mai 2021, un groupe de cyberdélinquants nommé Everest volait 820 gigaoctets de données à un cabinet d’avocats français. Quand la RTS le découvre, elle constate que la somme de données contient des dossiers relatifs à l’attentat contre Charlie Hebdo, proposés à la vente pour 50 000 dollars. D’autres documents, relatifs au meurtre de Samuel Paty, sont mentionnés, mais non monétisés.

Sur le site des délinquants, raconte Le Monde dans un autre article, l’Office anti-cybercriminalité constate que le groupe Everest renvoie ceux qui souhaiteraient les contacter vers Neocyber. Ce dernier affirme avoir joué un double jeu pour pouvoir informer, à titre gracieux, la DGSI.

Auprès de la justice, l’ANSSI, un temps incluse dans les échanges, déclare « complètement inexploitables » les renseignements obtenus. En réalité, Florent Curtet attire même le doute sur le but réel de ses opérations. Fin 2021, il sera mis en examen pour extorsion en bande organisée et association de malfaiteurs.

Depuis, outre la publication de son livre, Florent Curtet a tenté de polir son image en créant l’association Hackers sans Frontières. Si le projet est censé réunir les bonnes volontés pour aider les victimes d’attaque informatique, l’opacité du projet est rapidement critiquée dans un article de l’École de guerre économique. Absence d’organigramme, storytelling trouble alors que son fondateur promet : « Nous voulons être clairs comme de l’eau de roche et transparents »



Si l’association a permis à Florent Curtet d’asseoir sa crédibilité, Le Monde souligne que l’enthousiasme des débuts s’est essoufflé. Il n’est pas certain que le procès de novembre lui redonne de l’air.

  •  

Berners-Lee ferme la World Wide Web Foundation pour se concentrer sur les systèmes décentralisés

3 octobre 2024 à 14:37
15 ans de bons et loyaux services
Berners-Lee ferme la World Wide Web Foundation pour se concentrer sur les systèmes décentralisés

Dans une lettre ouverte, Tim Berners-Lee et Rosemary Leith ont annoncé la fermeture de la World Wide Web Foundation. L’inventeur du web va se concentrer sur ses projets de décentralisation, dont le protocole Solid.

Après 15 ans de travail pour rendre le web « sûr, de confiance et accessible à tous », la World Wide Web Foundation a fermé ses portes. Une décision prise par ses cofondateurs, Tim Berners-Lee, inventeur du web, et la femme d’affaires canadienne Rosemary Leith.

Dans une lettre (.pdf) partagée sur le site web de l’organisation, le couple souligne le changement « fondamental » de contexte, avec « l’augmentation spectaculaire de l’accès au web – près de 70 % de la population mondiale est aujourd’hui en ligne, contre un peu plus de 20 % en 2009 ».

Ils estiment que la mission fixée à la Fondation a été plutôt remplie, et soulignent que de nouveaux combats sont à mener – combats qui poussent notamment Tim Berners-Lee à se focaliser entièrement sur le protocole Solid et les systèmes décentralisés.

15 ans de mobilisation pour un internet accessible et sûr

Née 16 ans après l’entrée du web dans le domaine public, en 2009, la World Wide Web Foundation aura passé la quinzaine d’années suivante à œuvrer en faveur d’un accès aussi large et sécurisé que possible au web.

En pratique, ces actions se sont traduites par des projets comme le Web Index, destiné à évaluer les effets du web sur de nombreux pays du monde, ou le baromètre de l’Open Data ; des travaux de recherche sur l’accessibilité du web, la sécurité ou le respect des droits humains en ligne ; du lobbying en faveur de la sécurisation du web, ou encore le lancement d’autres collectifs, comme le réseau Women’s Rights Online.

Les cofondateurs remercient les multiples soutiens qui leur ont permis de « faire bouger l’aiguille de manière significative » au fil des ans, pour améliorer les problèmes d’accès au web.

En 2019, cela dit, pour les 30 ans de sa création, Tim Berners-Lee regrettait trois des plus grosses problématiques qui avaient émergé en ligne : opérations malveillantes (d’États comme de particuliers), création de systèmes au design trompeur (dark patterns) ; et conséquences négatives involontaires découlant, en partie, des deux premiers éléments (provoquant notamment la polarisation des discours).

Lutter contre la centralisation du web

En sous-texte, il exprimait son inquiétude devant la centralisation des expériences en ligne, opérées dès le niveau des navigateurs. Dans leur lettre de fermeture de la World Wide Web Foundation, Berners-Lee et Leith soulignent que les enjeux ont évolué, et même que « les menaces qui pèsent sur le web se sont accrues »

« Le business model principal des réseaux sociaux a entraîné la marchandisation des données des utilisateurs et une concentration de pouvoir (…) qui impacte tous les aspects de la société, de notre démocratie et de notre bien-être individuel. »

Engagé depuis plusieurs années dans des initiatives en faveur de la décentralisation et de la protection des données des internautes, Tim Berners-Lee indique qu’il concentrera désormais la majeure partie de son temps à ce type d’activités, en commençant par le protocole Solid.

Berners-Lee travaille sur ce projet depuis au moins 2015, date à laquelle il avait reçu un million de dollars de financement. Parfois appelé Web 3.0 (à ne pas confondre avec le Web3 du monde de la crypto), Solid se veut la pierre angulaire d’un web qui soit moins « dominé par les intérêts personnels de quelques entreprises », comme le suggérait l’informaticien dans une autre lettre ouverte publiée début 2024, pour les 35 ans du web.

« Avec Solid, les individus décident de la manière dont leurs données sont gérées, utilisées et partagées », écrivait-il alors. « Nous pouvons restituer la valeur perdue et rendre le contrôle sur les données personnelles. »

  •  

☕️ Plusieurs sociétés de la crypto auraient employé des informaticiens nord-coréens sans le savoir

3 octobre 2024 à 14:19
Plusieurs sociétés de la crypto auraient employé des informaticiens nord-coréens sans le savoir

Aux États-Unis, et dans plusieurs autres pays sur la planète, il est illégal d’employer des personnes venues de la République populaire démocratique de Corée du Nord.

Mais plusieurs entreprises du monde des crypto se sont faites piéger et ont embauché des informaticiens issus du pays, selon une enquête de Coindesk.


En utilisant de fausses cartes d’identité, se déclarant installés au Japon ou ailleurs, des dizaines de personnes auraient ainsi réussi à passer les étapes de recrutement pour rejoindre Injective, ZeroLend, Fantom, Yearn Finance ou Cosmos Hub.

Les subterfuges deviennent relativement fréquents dans l’industrie technologique : en 2022, le département états-unien du Trésor mettait déjà en garde contre les informaticiens nord-coréens réussissant à s’infiltrer à des postes qualifiés, y compris dans des entreprises de cybersécurité, à la fois pour générer des revenus illicites et pour participer aux activités d’espionnage du régime de Pyongyang.

  •  

☕️ La Commission européenne demande des informations à YouTube, TikTok et Snapchat

3 octobre 2024 à 10:40
La Commission européenne demande des informations à YouTube, TikTok et Snapchat

En vertu du Digital Services Act (DSA), la Commission européenne a officiellement demandé à YouTube, Snapchat et TikTok de lui fournir des informations sur leurs systèmes de recommandations respectifs le 2 octobre.

Le but : mieux comprendre leur rôle dans l’amplification de certains risques systémiques, « dont ceux liés au processus électoral et au discours public, au bien-être mental des utilisateurs (le comportement de dépendance, rabbit holes de contenu), et à la protection des mineurs ».

La Commission cherche aussi à en savoir plus sur les mesures liées à la potentielle recommandation de contenus illégaux (par exemple, des contenus relatifs à des drogues illégales ou des discours de haines).

Elle a demandé des informations supplémentaires à TikTok, en particulier les mesures adoptées par la plateforme pour éviter les manipulations de discours, notamment en contexte électoral.

Les trois plateformes ont jusqu’au 15 novembre pour fournir leurs réponses.

  •  

☕️ OpenAI conclut une levée de fonds de 6,6 milliards de dollars

3 octobre 2024 à 09:28
OpenAI conclut une levée de fonds de 6,6 milliards de dollars

Alors que son patron argumente en faveur de modèles toujours plus gros – logique contestée par plusieurs scientifiques – OpenAI a officialisé un nouveau tour de table de 6,6 milliards de dollars, qui porte sa valorisation à 157 milliards de dollars (142 milliards d’euros).

Le montant doit lui permettre de poursuivre ses investissements, alors que l’entreprise prévoit des pertes colossales (de 5 milliards de dollars) pour 2024.

La valorisation, elle, s’élève à 40 fois son chiffre d’affaires, que la société estime à 3,7 milliards de dollars pour 2024 – elle prévoit 11,6 milliards de dollars pour 2025.

Menée par Thrive Capital, l’opération se déroule au milieu de rumeurs de restructuration de la start-up, historiquement créée comme une entreprise à but non lucratif. 
D’après Axios, ce tour de financement implique même qu’OpenAI devienne une entreprise à but lucratif dans les deux ans, faute de quoi les investisseurs pourraient demander à récupérer leur mise.

La société a par ailleurs demandé à ses investisseurs de ne pas financer ses concurrents, comme Anthropic ou xAI, rapporte le Financial Times.

  •  

AI Act : les entreprises dans l’attente des standards

3 octobre 2024 à 09:01
Instructions manquantes
AI Act : les entreprises dans l’attente des standards

L’entrée en application de l’AI Act se fera par étapes pendant les deux prochaines années. En attendant des précisions techniques, plusieurs acteurs se préparent à l’aide de travaux antérieurs.

Entré en vigueur début août, le règlement européen sur l’intelligence artificielle entrera en application par étapes au fil des années 2025, 2026 et 2027. Next a détaillé le texte dans trois précédents articles, mais en pratique, comment les entreprises s’emparent-elles du texte ?

« Notre plus gros challenge, c’est de le rendre plus concret », nous explique David Jan Mercado, en charge de la sécurité et de la conformité chez Giskard. Pour la start-up française dédiée à valider la robustesse, l’efficacité et la sécurité des systèmes d’IA de ses clients, le texte européen représente un réel enjeu.

L’AI Act expliqué :
> Comment fonctionne l’AI Act ?
> Systèmes à haut risque, modèles à usage général : ce que dit l’AI Act en pratique
> Gouvernance, sanctions : les outils de mise en conformité et de contrôle de l’AI Act


Il reste 86% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

Jean-Gabriel Ganascia : avec l’IA, « l’espace public est en train de disparaître »

2 octobre 2024 à 16:16
Jean-Gabriel Ganascia : avec l’IA, « l’espace public est en train de disparaître »

Le 25 septembre, Next a lancé son premier podcast, Algorithmique, dédié aux enjeux de l’intelligence artificielle. Une semaine sur deux, entre chaque épisode, les abonnés pourront écouter en intégralité l’un des entretiens qui a servi à sa fabrication, ou lire sa retranscription. 



Professeur à la Faculté des sciences de Sorbonne Université et chercheur au Lip6, où il travaille sur l’intelligence artificielle depuis de nombreuses années, Jean-Gabriel Ganascia est aussi philosophe, et auteur de plusieurs ouvrages de vulgarisation, parmi lesquels Le mythe de la singularité : faut-il craindre l’intelligence artificielle ? (Seuil, 2017), Servitudes virtuelles (Seuil, 2022) et L’IA expliquée aux humains (Seuil, 2024).

Dans cet entretien, il détaille les notions d’intelligence, de conscience (artificielle ou non), de biais, évoque l’histoire de l’IA, la fabrication du règlement européen sur l’intelligence artificielle, et se penche sur les risques que pose le domaine de l’IA.


Il reste 99% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  

Gouvernance, sanctions : les outils de mise en conformité et de contrôle de l’AI Act

1 octobre 2024 à 09:00
Carotte, bâton
Gouvernance, sanctions : les outils de mise en conformité et de contrôle de l’AI Act

Entré en vigueur en août 2024, l’AI Act entrera en application à partir de février 2025. Dans ce troisième épisode d’une série dédiée à ce règlement européen, Next détaille ses mécanismes de mise en conformité, de contrôle, et le calendrier des prochaines étapes.

Que se passe-t-il si l‘AI Act, règlement sur l’intelligence artificielle (RIA) en français, n’est pas respecté ? Un citoyen peut-il demander des comptes à un fabricant de modèle d’IA à usage général (GPAI) ? Dans de précédents articles, nous détaillions les bases sur lesquelles est construit l’AI Act et les interdictions et obligations qu’il introduisait. Détaillons ici les instances en charge de faire appliquer le texte, tant au niveau des États membres que de l’Union.

L’AI Act expliqué :
Comment fonctionne l’AI Act ?
Systèmes à haut risque, modèles à usage général : ce que dit l’AI Act en pratique


Il reste 88% de l'article à découvrir.
Vous devez être abonné•e pour lire la suite de cet article.
Déjà abonné•e ? Générez une clé RSS dans votre profil.

  •  
❌
❌