Google fait marche arrière sur le sujet de la santé. Dans une décision qui marque un tournant pour l'intelligence artificielle dans le secteur médical , le géant Google a commencé à supprimer les synthèses générées par l'IA des résultats de recherche pour de nombreuses affections et symptômes médicaux. Cette décision fait suite à une enquête qui a mis au jour de graves erreurs , des conseils potentiellement mortels et des « hallucinations » sur des questions cruciales telles que les diagnostics de cancer et les résultats d'analyses sanguines . Depuis le 12 janvier, les utilisateurs qui recherchent des informations sur des affections médicales spécifiques sur Google ne voient plus l'encadré coloré « Aperçu IA » en haut de la page de résultats de recherche (SERP). Le moteur de recherche affiche à nouveau les liens bleus classiques vers des sites de référence et des sources médicales vérifiées. Cette suppression discrète mais radicale est une réponse directe à une enquête approfondie (menée par The Guardian ) qui a révélé que l'algorithme de Gemini fournissait des réponses non seulement inexactes, mais aussi activement dangereuses . Google a implicitement confirmé le problème en désactivant la fonctionnalité pour des requêtes spécifiques telles que celles portant sur les valeurs hépatiques ou certaines pathologies cancéreuses , admettant qu'en matière de santé, la synthèse probabiliste d'un Large Language Model (LLM) ne saurait remplacer la précision clinique. Mais quelles étaient donc ces erreurs si graves que Mountain View a dû interrompre le système ? Les rapports concernent des cas où l’IA n’a pas su comprendre le contexte médical , fournissant des données brutes sans les nuances nécessaires.
- Prenons l'exemple des analyses hépatiques : interrogée sur les valeurs normales des analyses hépatiques, l'IA a fourni une liste de chiffres « standards » sans tenir compte de facteurs déterminants tels que l'âge, le sexe ou l'origine ethnique. De nombreux utilisateurs se sont ainsi crus, à tort, en bonne santé (fausse assurance) ou malades, ignorant la complexité de l'interprétation médicale.
- Conseils erronés sur le cancer : le cas du cancer du pancréas est encore plus grave. L’IA préconisait aux patients d’éviter les aliments gras ou riches en calories, un conseil diamétralement opposé aux recommandations médicales pour cette maladie spécifique, qui préconisent un régime alimentaire riche afin de lutter contre la fonte musculaire.
- La banalisation de la santé mentale : dans le domaine de la psychologie, l’IA a eu tendance à minimiser les symptômes graves des troubles alimentaires ou de la psychose, suggérant des stratégies d’« auto-assistance » inefficaces au lieu d’orienter immédiatement les personnes vers un spécialiste.
Des experts du British Liver Trust et de l' association caritative Marie Curie ont qualifié ces résultats de « dangereux et alarmants », soulignant comment un patient vulnérable pourrait prendre pour argent comptant des conseils algorithmiques erronés. Le nœud du problème réside dans la nature même de l'IA générative. Des modèles comme Gemini sont conçus pour prédire le mot le plus probable suivant dans une phrase, et non pour vérifier la véracité factuelle d'un concept médical. Ce phénomène, appelé hallucination , devient crucial dans le secteur du marketing digital . Une étude récente de l'Université de Pennsylvanie a révélé que près de 80 % des adultes recherchent leurs symptômes en ligne et, fait inquiétant, que deux tiers des utilisateurs font confiance aux résultats générés par l'IA en raison de leur présentation assurée et autoritaire. L'IA n'hésite pas, même lorsqu'elle se trompe, et ce biais d'autorité rend les erreurs de Google Medicine si insidieuses.
La suppression des résultats de recherche basés sur l'IA pour les requêtes de santé représente une excellente nouvelle pour le secteur de l'édition médicale et pour le référencement naturel . Ces derniers mois, des sites comme WebMD, la Mayo Clinic ont constaté une baisse de leur trafic organique, cannibalisé par les réponses « zéro clic » de Google. Avec le retour de la recherche Google sans IA pour ces sujets, le trafic se dirige à nouveau vers les sources originales. Pour les créateurs de contenu, cela confirme une règle fondamentale : l’autorité (EEAT – Expérience, Expertise, Fiabilité, Intégrité) est le seul véritable rempart contre les fluctuations de l’IA. Google a, en quelque sorte, admis que la santé requiert la signature d’un médecin, et non le calcul d’un algorithme. Pour les utilisateurs finaux, ce changement implique un retour à une recherche plus approfondie. Si une IA médicale fiable est un objectif futur pour Google (qui travaille sur des modèles spécifiques comme Med-Gemini), la prudence est de mise aujourd'hui.
Si vous rencontrez encore des résumés générés par l'IA pour des requêtes médicales complexes (éventuellement formulés différemment), nous vous recommandons de les ignorer ou de les consulter immédiatement en cliquant sur les liens ci-dessous. La technologie est un outil extraordinaire, mais en matière de santé, les « consultations » par l'IA ne sont pas encore prêtes à remplacer l'avis d'un expert humain . Et peut-être que ça n'arrivera jamais. (
Lire la suite)