Apple entraîne une IA à lire les ondes cérébrales avec les AirPods en ligne de mire
Apple réfléchit à des moyens d’utiliser le machine learning pour lire les signaux du cerveau. Un groupe de chercheurs de Cupertino a récemment publié un long papier présentant une méthode permettant à un modèle d'IA d'apprendre un aspect de la structure de l'activité électrique du cerveau sans aucune donnée annotée. Si tout est encore très théorique, tout cela pourrait bien finir par être intégré à de futurs appareils, comme une révision des AirPods.

Les travaux portent sur l’électroencéphalographie (EEG), ces signaux électriques captés par des électrodes posées sur le crâne. Ils sont précieux pour analyser le sommeil, détecter des crises d’épilepsie ou explorer l’état cognitif d’un patient, mais restent difficiles à exploiter à grande échelle : les enregistrements sont longs, massifs, et doivent être minutieusement annotés par des spécialistes.
Dans ce nouveau papier, les chercheurs introduisent une méthode baptisée PARS, pour « PAirwise Relative Shift ». L’idée est de remplacer les tâches classiques où un modèle reconstruit des morceaux masqués du signal. Ici, on prend deux fenêtres d’EEG et le réseau doit prédire de combien l’une est décalée dans le temps par rapport à l’autre. Le modèle est ainsi forcé de comprendre la structure globale du signal, les transitions d’un état cérébral à l’autre et les dépendances de long terme entre les activités neuronales.
En d'autres termes, les chercheurs ont constaté que les méthodes existantes entraînent principalement les modèles à combler de petites lacunes dans le signal. Ils ont donc cherché à savoir si une IA pouvait apprendre la structure plus large des signaux EEG directement à partir de données brutes non étiquetées.
Cela semble être le cas. À chaque fois, les modèles pré-entraînés avec PARS font mieux que les approches existantes, en particulier lorsque les annotations sont rares. Ce travail est présenté comme très efficace pour apprendre des représentations génériques du cerveau à partir de grandes masses de données brutes.
Tout cela peut sembler très académique, mais s’inscrit dans une trajectoire plus large chez Apple. L’expérience se basait sur des mesures de phases du sommeil récupérées via un appareil porté autour de l’oreille, un format ressemblant beaucoup à… des écouteurs. Comme le rapporte 9to5Mac, Apple a déposé une demande de brevet pour « un appareil électronique portable permettant de mesurer les signaux biologiques d'un utilisateur » en 2023. Il décrit des écouteurs truffés d’électrodes capables de mesurer différents biosignaux (y compris l’activité cérébrale). Rien de tout cela n’est mentionné aujourd’hui, mais il n’est pas difficile de faire le lien entre les deux.
On a déjà vu la firme explorer le contrôle cérébral de ses appareils avec les implants neuronaux de Synchron, qui permettent à des patients lourdement handicapés d’utiliser un iPad par la pensée grâce à des signaux captés au-dessus du cortex moteur. En août 2025, Synchron a publié la première démonstration publique d’un patient contrôlant un iPad par la pensée en s’appuyant sur le protocole BCI HID d’Apple. Reste à voir si ces travaux se concrétiseront un jour dans des produits grand public.







Comme l'impose la règle européenne, Apple a ce jeudi prévenu la Commission européenne que deux de ses services avaient dépassé le seuil de 45 millions d'utilisateurs actifs mensuels et 10 000 utilisateurs professionnels annuels pendant trois années consécutives, ce qui les rend...

Apple a reconduit sans changement l'opération menée l'année dernière pour promouvoir les achats via Apple Pay et lever des fonds pour l'association (RED), qui collecte de l'argent pour le Fonds mondial de lutte contre le SIDA, la tuberculose et le paludisme. Sur son site, Apple indique qu'elle...
