Points Clés
- OpenAI lance une nouvelle fonctionnalité pour son chatbot IA appelée ChatGPT Health.
- Cette fonctionnalité permet aux utilisateurs de connecter des dossiers médicaux et des applications bien-être pour obtenir des réponses personnalisées.
- L'entreprise a indiqué qu'elle n'utiliserait pas les conversations tenues dans Health pour l'entraînement des modèles de base.
- ChatGPT Health est actuellement en phase de test avec des restrictions régionales sur les connexions d'applications.
- L'annonce reconnaît que l'outil n'est « pas destiné au diagnostic ou au traitement ».
Résumé Rapide
OpenAI lance une nouvelle fonctionnalité pour son chatbot IA appelée ChatGPT Health. Cette nouvelle fonctionnalité permettra aux utilisateurs de connecter des dossiers médicaux et des applications bien-être à ChatGPT afin d'obtenir des réponses plus personnalisées à leurs questions de santé.
L'entreprise a noté qu'il y aurait des mesures de confidentialité supplémentaires pour cet espace distinct au sein de ChatGPT, et a déclaré qu'elle n'utiliserait pas les conversations tenues dans Health pour l'entraînement des modèles de base. ChatGPT Health est actuellement en phase de test, et il existe certaines restrictions régionales sur les applications de santé qui peuvent être connectées à la plateforme de l'entreprise d'IA.
L'annonce d'OpenAI reconnaît que ce nouveau développement « n'est pas destiné au diagnostic ou au traitement ». Cependant, les experts avertissent que l'alimentation d'informations personnelles et privées dans un chatbot n'est généralement pas une pratique recommandée.
Fonctionnalités et Fonctionnement
Le nouveau portail ChatGPT Health représente une expansion significative des capacités du chatbot, ciblant spécifiquement le secteur de la santé. Selon l'annonce, la fonction principale de cette nouvelle fonctionnalité est d'agréger les données des utilisateurs provenant de diverses sources pour améliorer la pertinence des réponses de l'IA.
Les utilisateurs pourront lier des sources de données externes à la plateforme. Les capacités spécifiques incluent :
- Connexion de dossiers médicaux personnels au chatbot.
- Intégration de données provenant de diverses applications bien-être.
- Réception de réponses adaptées à l'historique de santé et aux données spécifiques de l'utilisateur.
Cette intégration vise à faire évoluer le chatbot au-delà des requêtes de connaissances générales vers un rôle d'assistant plus personnalisé. En accédant à des indicateurs de santé et des dossiers spécifiques, l'IA affirme pouvoir offrir des informations plus précises pertinentes pour la situation unique de l'utilisateur.
Mesures de Confidentialité et de Sécurité
La gestion d'informations de santé sensibles exige des protocoles de sécurité stricts. OpenAI a abordé ce point en créant un espace séparé au sein du chatbot spécifiquement pour ces interactions. L'entreprise a déclaré que cet environnement Health comporterait des mesures de confidentialité supplémentaires par rapport à l'interface standard du chatbot.
Un composant essentiel de leur promesse de confidentialité concerne l'utilisation des données. L'entreprise a explicitement déclaré qu'elle « n'utiliserait pas les conversations tenues dans Health pour l'entraînement des modèles de base ». Cette distinction vise à rassurer les utilisateurs que leurs discussions médicales privées ne seront pas utilisées pour améliorer les capacités générales de l'IA.
Malgré ces mesures, le matériel source souligne des préoccupations importantes concernant la pratique du partage d'informations privées avec des plateformes d'IA. Il note que l'alimentation de « telles informations personnelles et privées dans un chatbot n'est généralement pas une pratique recommandée ».
Statut Actuel et Limitations
ChatGPT Health n'est pas encore disponible pour le grand public. Le projet est actuellement décrit comme étant en « phase de test ». Cela implique que l'accès est probablement limité à un groupe sélectionné d'utilisateurs ou à des régions spécifiques pendant que l'entreprise évalue les performances et la sécurité.
Il existe également des limitations techniques concernant les intégrations tierces. La source indique qu'« il y a certaines restrictions régionales sur les applications de santé qui peuvent être connectées à la plateforme de l'entreprise d'IA ». Cela suggère que toutes les applications bien-être ou les systèmes de dossiers médicaux ne seront pas immédiatement compatibles avec le nouveau portail, en fonction de la localisation de l'utilisateur.
Ces restrictions sont courantes lors du déploiement de nouvelles fonctionnalités complexes, en particulier celles impliquant des industries réglementées comme la santé. La phase de test permet à l'entreprise d'affiner ces connexions et d'assurer la stabilité avant une diffusion plus large.
Avertissements des Experts et Dénégations
L'annonce s'accompagne d'une forte dénégation. OpenAI reconnaît que le nouveau développement « n'est pas destiné au diagnostic ou au traitement ». Cependant, le matériel source souligne que cette dénégation « vaut la peine d'être répétée ». Les experts soutiennent qu'aucune partie de ChatGPT, ou de tout autre chatbot d'intelligence artificielle, n'est qualifiée pour fournir une quelconque advice médical.
Les risques associés à l'utilisation de l'IA pour les interrogations de santé sont doubles. Premièrement, ces plateformes sont capables de faire des « déclarations dangereusement incorrectes ». Deuxièmement, les implications en matière de confidentialité sont graves. La source souligne qu'il semble « particulièrement imprudent » de partager ces données avec l'entreprise, citant des controverses passées.
La source fait référence à une préoccupation spécifique concernant l'approche de l'entreprise en matière de sécurité : « il semble particulièrement imprudent de partager avec une entreprise qui n'a daigné rendre qu'un hommage de pure forme aux impacts psychologiques de son produit qu'après qu'au moins un adolescent a utilisé le chatbot pour planifier un suicide ». Ce contexte suggère que, malgré les mesures de confidentialité promises pour le portail Health, la confiance dans la gestion des données sensibles des utilisateurs par l'entreprise reste un sujet de discorde.
« n'est pas destiné au diagnostic ou au traitement »
— OpenAI
Key Facts: 1. OpenAI lance une nouvelle fonctionnalité pour son chatbot IA appelée ChatGPT Health. 2. Cette fonctionnalité permet aux utilisateurs de connecter des dossiers médicaux et des applications bien-être pour obtenir des réponses personnalisées. 3. L'entreprise a indiqué qu'elle n'utiliserait pas les conversations tenues dans Health pour l'entraînement des modèles de base. 4. ChatGPT Health est actuellement en phase de test avec des restrictions régionales sur les connexions d'applications. 5. L'annonce reconnaît que l'outil n'est « pas destiné au diagnostic ou au traitement ». FAQ: Q1: Qu'est-ce que ChatGPT Health ? A1: ChatGPT Health est une nouvelle fonctionnalité d'OpenAI qui permet aux utilisateurs de connecter des dossiers médicaux et des applications bien-être au chatbot pour recevoir des réponses de santé personnalisées. Q2: ChatGPT Health est-il sûr à utiliser ? A2: Bien qu'OpenAI ait mis en place des mesures de confidentialité supplémentaires et déclaré qu'elle n'utiliserait pas les conversations de Health pour l'entraînement, les experts avertissent qu'aucun chatbot IA n'est qualifié pour fournir des conseils médicaux et que le partage de données de santé privées avec des plateformes d'IA comporte des risques importants. Q3: ChatGPT Health peut-il diagnostiquer des conditions médicales ? A3: Non. OpenAI affirme explicitement que ChatGPT Health n'est pas destiné au diagnostic ou au traitement.« n'utiliserait pas les conversations tenues dans Health pour l'entraînement des modèles de base »
— OpenAI




