Posos’ Post

Posos reposted this

View profile for Emmanuel Bilbault, graphic

CEO at POSOS | Intelligent Prescribing Made Easy | Committed to AI Innovation in Healthcare | TED-X Speaker

4 réponses sur 10 générées par des IA conversationnelles médicales sont en contradiction avec le consensus scientifique. C’est la conclusion d’un article de recherche du British Medical Journal paru en octobre. Et c’est vrai : les IA conversationnelles basées sur un #LLM (Large Language Model) donnent des informations insuffisantes ou imprécises dans tous les domaines spécialisés. 🔹 La recherche scientifique. 🔹 L’interprétation de cas juridiques complexes ou sans précédent. 🔹 La compréhension et la génération de langues rares et de dialectes. 🔹 L’ingénierie aérospatiale. 🔹 La finance quantitative. 🔹 Ou encore, évidemment, la prescription médicamenteuse. Les causes ? Dans la santé, l’apprentissage des LLM se fait sur un mélange de données et de cas d’usage trop différents. 📚 Les sources médicales ne sont pas de la même fiabilité. 📑 Certains documents sont récents et d’autres très anciens. 🌀 La majorité des études et recommandations se concentrent sur un profil patient type, bien loin des patients polypathologiques polymédiqués du quotidien. Résultat : des informations “moyennisées”, des hallucinations et des oublis. Alors on s’arrête là ? On signe l’échec de l’IA médicale ? Pas si l’on repart du raisonnement médical : prendre une décision éclairée en croisant les recommandations de la littérature la plus récente avec la situation clinique précise de son patient. Il est désormais possible d’appliquer le raisonnement humain sur la totalité des données patient et la totalité des recommandations médicales fiables pour obtenir en temps réel des prises en charge personnalisées. C’est ce que permet Posos dans les logiciels médicaux : utiliser l’IA pour structurer toute la connaissance sur les médicaments et la faire parler avec les données contenues dans le dossier patient. Le raisonnement médical s'applique naturellement à grande échelle grâce à des algorithmes transparents, compréhensibles par tous. Nos soignants n’ont pas besoin d’une intelligence artificielle qui impose une prise en charge obscure. Ils ont besoin de comprendre le raisonnement de la machine ainsi que ses limites pour lui faire confiance. Loin d’être une utopie, c’est ce que nos équipes, et tant d’autres équipes dans tous les secteurs cités plus haut, construisent. L’IA explicable, au service du soignant. Pas une boîte noire où le soignant ne comprend plus la machine. Le lien de l'article du British Medical Journal en commentaire 👇

Emmanuel Bilbault

CEO at POSOS | Intelligent Prescribing Made Easy | Committed to AI Innovation in Healthcare | TED-X Speaker

3mo
Maxime Jouan

Consultant Senior Data & Analytics chez MELTONE ADVISORY

3mo

« informations insuffisantes ou imprécises dans tous les domaines spécialisés » Aussi valables pour beaucoup d’humains. - les patients de psychiatrie mal diagnostiqués - les dossiers juridiques bâclés par des avocats débordés ou tout simplement non consciencieux. Ces jours-ci, je regarde la mini-série ARTE sur Kasparov contre Deep Blue. Kasparov fait mieux que Deep Blue : Deep Blue n’est donc pas infaillible. Mais il fait mieux que 90% / 95% / 99% des humains.

Lydie Catalano

AI Artist & GenAI Expert | Crafting Bespoke AI+Human Marketing Solutions | Co-founder: #Alix for Caregivers & #Cathy Anti-Bullying AI

3mo

L'étude est intéressante dans ce quelle reflète de la connaissance des testeurs sur les chatbots. L'étude n'a testé qu'un seul chatbot (Bing Copilot), ce qui ne permet pas de généraliser les conclusions à tous les "AI-powered chatbots" comme le fait pourtant la conclusion La version de Bing Copilot utilisée n'est pas précisée, ce qui pose un problème de reproductibilité de l'étude, sachant que ces outils sont régulièrement mis à jour. Le choix de Bing Copilot n'est pas justifié : dire que c'est le seul à être utilisable montre une mauvaise connaissance. GPT répond fréquemment à des questions d'ordre médical. On pourrait ajouter : Sélection biaisée des données : Seules les réponses "inexactes" ont été soumises aux professionnels de santé, créant un biais de confirmation Le nombre restreint de 20 réponses analysées par les experts n'est pas représentatif des 500 réponses générées Manque de contextualisation : Absence de comparaison avec d'autres sources d'information (notices, conseils de pharmaciens...) Pas d'évaluation du comportement réel des patients face aux réponses du chatbot

D'où l'importance de la prédictibilité des résultats à iso paramètres d'entrée, ce que l'apprentissage profond (deep learning) ne pourra jamais proposé, vu sa construction. Je crois que pour faire croître la confiance que les Hommes placent en l'IA, il faudra miser davantage sur des modèles construit sur de l'apprentissage pilotê ou supervisé.

Afef Chaabani

Sous chef service chez pharmacie polyclinique cnss Bizerte

2mo

Gpt émet aussi des fausses réponses et lorsque tu demandes la question d'une autre manière la réponse pouvait être +- juste.... Chaque fois que tu pose d'une manière différente la réponse est différente malgré que la réponse doit logiquement être la même....

Like
Reply
Mikael Grynszpan

Director of sales France at Corti AI

3mo

une IA explicable qui n'est pas une boîte noire, j'aime beaucoup :) merci pour ce post et pour le lien Emmanuel Bilbault

Samantha Pasdeloup

Development and partnership Director - oncology & RWD/EDS @ELSAN, Vice-President dev @Healthcare Data Institute, Board member @UNHPC

3mo
Like
Reply
Yaniv Mimoun

Product Manager Healthtech 🤖 | Pharmacist 💊#eSante | Co-Host @Beyond Healthtech 🎙️

3mo

Intéressant !

See more comments

To view or add a comment, sign in

Explore topics