Les avancées récentes en intelligence artificielle générative, notamment avec des modèles comme Gemini, ouvrent des perspectives prometteuses pour transformer les échanges autour de la santé. Une étude exploratoire se concentre sur le développement d’un agent conversationnel capable de jouer un rôle de guidage plutôt que de simple fournisseur d’informations médicales. Contrairement aux chatbots traditionnels, qui répondent souvent de manière directe ou normative, cet agent vise à accompagner les utilisateurs dans une réflexion personnelle, en les aidant à clarifier leurs questions, à identifier leurs priorités ou à formuler des demandes plus précises avant une consultation médicale.

L’approche repose sur une interaction centrée sur l’humain, où l’IA adopte une posture d’écoute active et de reformulation, inspirée des techniques de communication en santé publique. Par exemple, face à un utilisateur exprimant une inquiétude vague comme « J’ai mal à la tête souvent », l’agent pourrait l’inviter à décrire la fréquence, l’intensité ou les circonstances des symptômes, tout en évitant de poser un diagnostic. L’objectif est de réduire l’anxiété liée à l’autodiagnostic en ligne, tout en préparant le terrain pour un dialogue plus efficace avec un professionnel de santé. Les chercheurs soulignent l’importance d’équilibrer l’empathie perçue et la rigueur scientifique, pour éviter à la fois la froideur d’une réponse technique et les risques de désinformation.

Les défis techniques et éthiques sont majeurs. D’un point de vue algorithmique, il faut entraîner le modèle à reconnaître les nuances du langage émotionnel et à adapter son ton sans basculer dans une personnalisation intrusive. Les biais potentiels, comme la surreprésentation de certains profils démographiques dans les données d’entraînement, doivent aussi être atténués pour garantir une accessibilité équitable. Sur le plan éthique, la transparence est cruciale : l’utilisateur doit comprendre que l’agent n’est pas un médecin, mais un outil complémentaire conçu pour améliorer la qualité des échanges ultérieurs. Des garde-fous sont envisagés, comme des rappels systématiques pour consulter un professionnel ou des limites claires sur les sujets abordables (exclusion des urgences médicales).

Les premières expérimentations, menées avec des groupes diversifiés (patients, soignants, étudiants en médecine), révèlent un accueil globalement positif, notamment pour les publics peu à l’aise avec le jargon médical ou réticents à aborder certains sujets par peur d’être jugés. Les retours mettent en lumière le besoin d’une IA capable de s’adapter aux contextes culturels et aux niveaux de littératie en santé. À plus long terme, ce type d’outil pourrait intégrer des systèmes de santé publics, en tant que pont entre les patients et les services médicaux, tout en soulignant la nécessité d’une régulation stricte pour encadrer son usage. L’enjeu dépasse la technologie : il s’agit de repenser la relation entre individus et informations de santé à l’ère du numérique.