Written by Santé Views: 0

OpenAI et le diagnostic qui a sauvé la vie d’un enfant

Bien que diverses technologies développées avec OpenAi En concurrence avec Google, de nouveaux langages gagnent peu à peu du terrain dans divers domaines professionnels, traditionnellement réservés.aux êtres humains».

Un cas emblématique est celui de ChatGPTprotagoniste d’une histoire entre un garçon de quatre ans et une fille diagnostic omis par 17 médecins. La mère de Alex, Courtney, a partagé son expérience avec le magazine TODAY et a raconté comment, pendant le confinement dû au COVID-19, c’est ChatGPT qui a fourni la solution et a poussé toute la famille à pousser un soupir de soulagement.

La femme a créé un compte et a partagé tout ce qu’elle savait avec la plateforme d’Intelligence Artificielle : des symptômes aux dossiers et rapports médicaux consultations avec 17 médecins experts. Grâce à l’intelligence artificielle et un réseau de parents rencontrés sur Facebook, Courtney a pu trouver la solution à l’énigme : le diagnostic était spina bifida occulte, Aussi connu comme syndrome du cordon attaché, c’est-à-dire un trouble neurologique qui limite le mouvement de la moelle épinière.

Le diagnostic développé par ChatGPT Cela a été confirmé par un neurochirurgien spécialisé dans la maladie qui a immédiatement emmené le petit Alex en traitement. Il s’agit peut-être de l’un des cas les plus significatifs de l’évolution de la manière de faire de la médecine avec l’introduction croissante de systèmes basés sur l’intelligence artificielle.

Quel est l’avis des médecins et de la médecine « traditionnelle » ?

La situation reste cependant très délicate et nécessite, comme souvent, des recherches plus approfondies et des études approfondies. La recherche publiée dans la revue Annales de médecine d’urgence a démontré à quel point les diagnostics fournis par ChatGPT étaient conformes à ceux des spécialistes.

Article connexe :  Comment savoir s'il s'agit de graisse abdominale ou de ballonnements

ChatGPT a bien fonctionné en générant une liste de diagnostics probables et en suggérant le plus probable” a déclaré Cachette dix Berg, du service des urgences de l’hôpital Jeroen Bosch. “Nous avons également constaté de nombreux chevauchements entre les diagnostics de ChatGPT et ceux de nos médecins. En termes simples, cela indique que ChatGPT était parfaitement capable de remplacer un médecin humain.». Concernant les données statistiques faisant référence à cette même étude, ChatGPT a enregistré un diagnostic correct dans 87% des cas, un chiffre qui s’élève à 97% pour la version 4.0 de l’application.

Il est clair que les réglementations sont encore très complexes à identifier, et on peut dire qu’il s’agit d’un terrain nouveau et en développement. Roberto Perla, Professeur à la Stanford School of Medicine, il estime que tous les médecins devraient commencer à utiliser ChatGPT. Selon Pearl, en effet, «À l’avenir, aucun expert médical ne pratiquera sans accès à ChatGPT ou à d’autres formes d’intelligence artificielle générative.

Enquête Microsoft Réalisation de plusieurs expériences avec le logiciel OpenAI, en utilisant les tests universitaires de médecine comme exigence minimale pour juger les recommandations ChatGPT comme appropriées au sein de l’écosystème de la santé. Dans ce cas précis, Microsoft a introduit bioGPT, un modèle de langage qui a obtenu des résultats élevés dans une série de tâches médicales. Dans le même temps, le Hôpital général du Massachusetts ont conclu leurs recherches en notant que ChatGPT peut dépasser la barre des 60 % lors de la réalisation de tests médicaux programmés. Médical américain.

Article connexe :  Côte fêlée : un problème douloureux

Cependant, selon les chercheurs de Google, qui ont obtenu une précision de 67% dans le même test, les résultats ne seraient pas assez convaincants et de toute façon “inférieur à ceux des médecins humains».

L’étude la plus récente « L’autorité morale de ChatGPT » De plus, cela a également mis en lumière certaines différences éthiques dans lesquelles ChatGPT aurait été le protagoniste. En administrant des « tests éthiques », l’IA aurait donné des réponses sous-optimales et moralement discutables, ce qui aurait pu influencer (pour le pire) les décisions prises par les humains.

De manière générale, il semble que, à de rares exceptions comme Courtney et le petit Alex, l’utilisation de ChatGPT devrait se limiter à un rôle de conseil et se concentrer sur la collecte de données ou le traitement d’analyses en laboratoire.

(Visited 1 times, 1 visits today)
Close