OpenAI met en avant une famille utilisant ChatGPT pour les décisions de traitement du cancer, mais des études récentes montrent que les outils de santé IA présentent des problèmes importants de précision et de sécurité. (ReadOpenAI met en avant une famille utilisant ChatGPT pour les décisions de traitement du cancer, mais des études récentes montrent que les outils de santé IA présentent des problèmes importants de précision et de sécurité. (Read

OpenAI Promeut ChatGPT pour les Décisions de Santé Malgré les Préoccupations sur la Précision

2026/03/05 09:21
Temps de lecture : 4 min
Pour tout commentaire ou toute question concernant ce contenu, veuillez nous contacter à l'adresse suivante : [email protected]

OpenAI promeut ChatGPT pour les décisions de santé malgré des préoccupations concernant la précision

Terrill Dicki 5 mars 2026 01h21

OpenAI met en avant une famille utilisant ChatGPT pour les décisions de traitement du cancer, mais des études récentes montrent que les outils de santé pilotés par l'IA présentent des problèmes importants de précision et de sécurité.

OpenAI promeut ChatGPT pour les décisions de santé malgré des préoccupations concernant la précision

OpenAI a publié cette semaine une étude de cas présentant une famille qui a utilisé ChatGPT pour se préparer aux décisions de traitement du cancer de leur fils, positionnant le chatbot piloté par l'IA comme un complément aux conseils des médecins. Le timing soulève des questions compte tenu des preuves croissantes que les outils de santé pilotés par l'IA présentent des problèmes de fiabilité importants.

Le document promotionnel, publié le 4 mars, décrit comment les parents ont utilisé ChatGPT aux côtés de l'équipe d'oncologie de leur enfant. OpenAI présente cela comme une utilisation responsable de l'IA—complétant plutôt que remplaçant l'expertise médicale.

Mais ce récit optimiste entre en collision avec des résultats de recherche inconfortables. Une étude publiée dans Nature Medicine examinant le propre produit « ChatGPT Health » d'OpenAI a révélé des problèmes substantiels de précision, de protocoles de sécurité et de biais racial dans les recommandations médicales. Ce n'est pas une mise en garde mineure pour un outil que les gens pourraient utiliser lors de décisions de vie ou de mort concernant le traitement du cancer.

Le problème de précision

La recherche indépendante dresse au mieux un tableau mitigé. Une étude de Mass General Brigham a révélé que ChatGPT atteignait environ 72 % de précision dans les spécialités médicales, montant à 77 % pour les diagnostics finaux. Cela semble correct jusqu'à ce que vous considériez ce qui est en jeu—monteriez-vous dans un avion avec 23 % de chances que le pilote commette une erreur critique ?

La société d'IA de santé Atropos a fourni des chiffres encore plus sombres : les grands modèles de langage à usage général fournissent des informations cliniquement pertinentes seulement 2 % à 10 % du temps pour les médecins. L'écart entre « parfois utile » et « suffisamment fiable pour les décisions concernant le cancer » reste vaste.

L'American Medical Association n'a pas mâché ses mots. L'organisation recommande aux médecins de ne pas utiliser d'outils basés sur les LLM pour l'assistance à la décision clinique, citant des préoccupations de précision et l'absence de directives standardisées. Lorsque l'AMA dit aux médecins de s'en tenir à l'écart, les patients devraient probablement en prendre note.

Ce que ChatGPT ne peut pas faire

Les chatbots pilotés par l'IA ne peuvent pas effectuer d'examens physiques. Ils ne peuvent pas lire le langage corporel d'un patient ou poser les questions de suivi intuitives que les oncologues expérimentés développent au fil des décennies. Ils peuvent halluciner—générant des informations qui semblent confiantes mais qui sont complètement fabriquées.

Les préoccupations concernant la vie privée ajoutent une autre couche. Chaque symptôme, chaque peur, chaque détail sur le cancer d'un enfant tapé dans ChatGPT devient une donnée sur laquelle les utilisateurs ont un contrôle limité.

L'étude de cas d'OpenAI souligne que la famille a travaillé « aux côtés des conseils d'experts des médecins ». Cette qualification compte. Le danger n'est pas que des patients informés posent de meilleures questions—c'est que des personnes vulnérables en crise comptent potentiellement trop sur un outil qui se trompe plus souvent que le marketing ne le suggère.

Pour les investisseurs en cryptomonnaie qui observent les ambitions d'entreprise d'OpenAI, la poussée dans le secteur de la santé signale une expansion aggressive dans des secteurs à enjeux élevés. La question de savoir si les régulateurs toléreront que les sociétés d'IA promeuvent des outils d'aide à la décision médicale avec des problèmes de précision documentés reste ouverte à l'approche de 2026.

Source de l'image : Shutterstock
  • openai
  • chatgpt
  • ai healthcare
  • medical ai
  • health tech
Clause de non-responsabilité : les articles republiés sur ce site proviennent de plateformes publiques et sont fournis à titre informatif uniquement. Ils ne reflètent pas nécessairement les opinions de MEXC. Tous les droits restent la propriété des auteurs d'origine. Si vous estimez qu'un contenu porte atteinte aux droits d'un tiers, veuillez contacter [email protected] pour demander sa suppression. MEXC ne garantit ni l'exactitude, ni l'exhaustivité, ni l'actualité des contenus, et décline toute responsabilité quant aux actions entreprises sur la base des informations fournies. Ces contenus ne constituent pas des conseils financiers, juridiques ou professionnels, et ne doivent pas être interprétés comme une recommandation ou une approbation de la part de MEXC.