حقائق رئيسية
- تطلق OpenAI واجهة جديدة لروبوت المحادثة الخاص بها تسمى ChatGPT Health.
- تتيح الميزة للمستخدمين ربط السجلات الطبية وتطبيقات اللياقة البدنية للحصول على استجابات مخصصة.
- صرحت الشركة أنها لن تستخدم المحادثات التي تتم في Health لتدريب النماذج الأساسية.
- يوجد ChatGPT Health حالياً في مرحلة الاختبار مع قيود جغرافية على ربط التطبيقات.
- تقر الإعلان بأن الأداة "ليست مخصصة للتشخيص أو العلاج".
ملخص سريع
تطلق OpenAI واجهة جديدة لروبوت المحادثة الخاص بها تسمى ChatGPT Health. ستتيح هذه الميزة الجديدة للمستخدمين ربط السجلات الطبية وتطبيقات اللياقة البدنية بـ ChatGPT للحصول على استجابات أكثر تخصيصاً لاستفساراتهم حول صحتهم.
لاحظت الشركة أن هناك حماية خصوصية إضافية لهذا الفضاء المنفصل داخل ChatGPT، وقالت أنها لن تستخدم المحادثات التي تتم في Health لتدريب النماذج الأساسية. يوجد ChatGPT Health حالياً في مرحلة الاختبار، وهناك بعض القيود الجغرافية على التطبيقات التي يمكن ربطها بمنصة شركة الذكاء الاصطناعي.
يقر إعلان OpenAI بأن هذا التطور الجديد "ليست مخصصة للتشخيص أو العلاج". ومع ذلك، يحذر الخبراء من أن إدخال المعلومات الشخصية والخاصة في ربوت المحادثة هو ممارسة غير موصى بها عموماً.
الميزات والوظائف
تمثل بوابة ChatGPT Health الجديدة توسعًا كبيرًا في قدرات ربوت المحادثة، تستهدف بشكل خاص قطاع الرعاية الصحية. وفقاً للإعلان، الوظيفة الأساسية لهذه الواجهة الجديدة هي تجميع بيانات المستخدم من مصادر مختلفة لتحسين صلة استجابات الذكاء الاصطناعي.
سيتمكن المستخدمون من ربط مصادر البيانات الخارجية بالمنصة. تشمل القدرات المحددة:
- ربط السجلات الطبية الشخصية بروبوت المحادثة.
- دمج البيانات من تطبيقات اللياقة البدنية المختلفة.
- تلقى استجابات مخصصة لتاريخ وبيانات المستخدم الصحية المحددة.
تهدف هذه التكاملة إلى نقل ربوت المحادثة من الاستفسارات العامة المعرفية إلى دور مساعد أكثر تخصيصاً. من خلال الوصول إلى المقاييس والسجلات الصحية المحددة، يدعي الذكاء الاصطناعي أنه يمكنه تقديم معلومات أكثر دقة ذات صلة بوضع المستخدم الفريد.
إجراءات الخصوصية والسلامة
يتطلب التعامل مع المعلومات الصحية الحساسة بروتوكولات أمنية صارمة. تناولت OpenAI هذا الأمر عن طريق إنشاء فضاء منفصل داخل ربوت المحادثة خصيصاً لهذه التفاعلات. صرحت الشركة أن بيئة Health هذه ستتميز بإجراءات حماية خصوصية إضافية مقارنة بواجهة ربوت المحادثة القياسية.
المكون الحاسم في وعد الخصوصية هو استخدام البيانات. صرحت الشركة صراحة أنها "لن تستخدم المحادثات التي تتم في Health لتدريب النماذج الأساسية". يهدف هذا التمييز إلى طمأنة المستخدمين بأن مناقشاتهم الطبية الخاصة لن يتم استخدامها لتحسين قدرات الذكاء الاصطناعي العامة.
على الرغم من هذه الإجراءات، يسلط مصدر المعلومات الضوء على مخاوف كبيرة بخصوص ممارسة مشاركة المعلومات الخاصة مع منصات الذكاء الاصطناعي. ويشير إلى أن إدخال "هذه المعلومات الشخصية والخاصة في ربوت المحادثة هو ممارسة غير موصى بها عموماً".
الحالة الحالية والقيود
لا يزال ChatGPT Health غير متاح للجمهور العام. يوصف المشروع حالياً بأنه في "مرحلة الاختبار". هذا يعني أن الوصول محدود على الأرجح لمجموعة محددة من المستخدمين أو مناطق محددة بينما تقيم الشركة الأداء والسلامة.
هناك أيضاً قيود تقنية بخصوص التكاملات الخارجية. يشير المصدر إلى أن "هناك بعض القيود الجغرافية على التطبيقات الصحية التي يمكن ربطها بمنصة شركة الذكاء الاصطناعي". هذا يشير إلى أن ليس كل تطبيقات اللياقة البدنية أو أنظمة السجلات الطبية ستكون متوافقة مع البوابة الجديدة فوراً، اعتماداً على موقع المستخدم.
هذه القيود شائعة أثناء إ rollout الميزات الجديدة المعقدة، خاصة تلك التي ت涉及 الصناعات المنظمة مثل الرعاية الصحية. تسمح مرحلة الاختبار للشركة بتحسين هذه الاتصالات وضمان الاستقرار قبل الإصدار الأوسع.
تحذيرات الخبراء والتنصلات
يأتي الإعلان مع تنصل قوي. تعترف OpenAI بأن التطور الجديد "ليست مخصصة للتشخيص أو العلاج". ومع ذلك، يؤكد مصدر المعلومات أن هذا التنصل "يستحق التكرار". يؤكد الخبراء أن أي جزء من ChatGPT، أو أي ربوت محادثة ذكاء اصطناعي آخر، غير مؤهل لتق أي نوع من النصائح الطبية.
المخاطر المرتبطة باستخدام الذكاء الاصطناعي للاستفسارات الصحية ذات شقين. أولاً، هذه المنصات قادرة على تقديم "تصريحات خطيرة غير صحيحة". ثانياً، تداعيات الخصوصية خطيرة. يشير المصدر إلى أنه يبدو "غير حكيم على الإطلاق" مشاركة هذه البيانات مع الشركة، مستشهداً ب controversies سابقة.
يشير المصدر إلى قلق محدد بخصوص نهج الشركة للسلامة: "يبدو أنه غير حكيم على الإطلاق مشاركة مع شركة لم ت bothered حتى بتقديم خدمة شفهية موجزة للتأثيرات النفسية لمنتجها إلا بعد أن استخدم مراهق على الأقل ربوت المحادثة للتخطيط للانتحار". هذا السياق يشير إلى أنه على الرغم من إجراءات الخصوصية الموعودة للبوابة الصحية، لا يزال الثقة في تعامل الشركة مع بيانات المستخدم الحساسة قضية مثيرة للجدل.
"ليست مخصصة للتشخيص أو العلاج"
— OpenAI
"لن تستخدم المحادثات التي تتم في Health لتدريب النماذج الأساسية"
— OpenAI




