حقائق رئيسية
- اكتشف باحثون في Radware ثغرة أمنية في ChatGPT تسمى ZombieAgent.
- يسمح الهجوم بالتصسرار وسرقة معلومات المستخدم الخاصة.
- يتم إرسال البيانات مباشرة من خوادم ChatGPT، مما يوفر التخفي لعدم وجود أي علامات اختراق على أجهزة المستخدمين.
- زرع الاستغلال مدخلات في الذاكرة طويلة المدى للذكاء الاصطناعي، مما منحه استمرارية.
ملخص سريع
يتميز المشهد الأمني لروبوتات المحادثة الذكية بدورة مستمرة من اكتشاف الثغرات الأمنية وترميمها. تم التعرف على ثغرة جديدة، أُطلِق عليها اسم ZombieAgent، في ChatGPT، مما يسلط الضوء على التحديات المستمرة في تأمين هذه المنصات.
اكتشفها باحثون في Radware، ويسمح هذا الاستغلال بالتصسرار وسرقة بيانات المستخدم. وعلى عكس الهجمات السابقة، تعمل ZombieAgent بدرجة عالية من التخفي عن طريق إرسال البيانات مباشرة من خوادم الذكاء الاصطناعي، متجاوزًا كشف الجانب الخاص بالمستخدم. علاوة على ذلك، يحقق الهجوم الاستمرارية عن طريق زراعة مدخلات في الذاكرة طويلة المدى للذكاء الاصطناعي، مما يجعل إزالته صعبًا. يؤكد هذا التطور الصعوبة الجوهرية في تأمين أنظمة الذكاء الاصطناعي التي هي في جوهرها مصممة لتكون متوافقة مع طلبات المستخدم.
الدورة الشريرة لأمن الذكاء الاصطناعي
يتبع تطوير روبوتات المحادثة الذكية نمطًا متوقعًا ومثيرًا للقلق. تتضمن هذه الدورة ثلاث مراحل مميزة تتكرر مع كل اكتشاف جديد للثغرة الأمنية.
أولاً، يحدد الباحثون ثغرة أمنية ويوضحون إمكانية ضررها. ثانيًا، يستجيب منصة الذكاء الاصطناعي عن طريق إدخال حوازِم محددة مصممة لمنع ناقل الهجوم المحدد ذلك. ثالثًا، يبتكر الباحثون حتمًا تعديلًا جديدًا وبسيطًا يتجاوز الدفاع الذي تم تنفيذه مؤخرًا. هذا النهج التفاعلي للأمن هو جوهر المشكلة. غالبًا ما يتم بناء الحوازِم لإغلاق تقنية هجوم محددة بدلاً من معالجة الفئة الأوسع من الثغرات الأمنية التي تجعل مثل هذه الهجمات ممكنة. هذه استراتيجية تعطي الأولوية للإصلاحات الفورية بدلاً من الحلول الجذرية، مما يترك الباب مفتوحًا لاستغلالات مستقبلية.
داخل هجوم ZombieAgent
تمثل الثغرة الأمنية ZombieAgent التي تم اكتشافها حديثًا تطورًا كبيرًا في منهجيات الهجوم. وهي تُوصف بأنها "ابن ShadowLeak"، مما يشير إلى سلالة من تقنيات سرقة البيانات التي تستهدف أنظمة الذكاء الاصطناعي.
يسمح الاستغلال للمهاجمين باستخراج المعلومات الخاصة للمستخدم دون أي علامات مرئية للاختراق على جهاز المستخدم نفسه. وهذا أمر خطير بشكل خاص للأفراد والمنظمات التي تعتمد على أمن نقاط النهاية للكشف عن الاختراقات. تتضمن الخصائص الأساسية للهجوم:
- سرقة البيانات مباشرة من خوادم ChatGPT
- تخفي عالي بدون مؤشرات اختراق على أجهزة المستخدمين
- استمرارية من خلال مدخلات في الذاكرة طويلة المدى للذكاء الاصطناعي
من خلال استغلال البنية التحتية الخاصة بالذكاء الاصطناعي لسرقة البيانات، يتجاوز الهجوم المراقبة الأمنية التقليدية التي تبحث عن أنشطة غير معتادة على جهاز المستخدم أو شبكته. وهذا يجعل الكشف استثنائي الصعوبة لأدوات أمن المؤسسات القياسية.
التخفي والاستمرارية
ما يجعل ZombieAgent قويًا بشكل خاص هو قدرته المزدوجة على التخفي والاستمرارية. تم تصميم ناقل الهجوم ليظل غير مكتشف مع الحفاظ على موطئ قدم داخل سجل تفاعل المستخدم مع الذكاء الاصطناعي.
القدرة على إرسال البيانات مباشرة من خوادم ChatGPT هي مكون حاسم لتخفيه. في اختراق بيانات نموذجي، قد تشير أنظمة الأمن إلى عمليات نقل بيانات كبيرة أو غير معتادة من جهاز المستخدم. مع ZombieAgent، تنشأ البيانات من خادم موثوق به، مما يجعل حركة البيانات تبدو مشروعة. هذا فشل أمني تفاعلي، حيث أن النظام ليس مصممًا لاستجواب تدفقات البيانات الصادرة الخاصة به. المكون الثاني، الاستمرارية، يتم تحقيقه عن طريق تعديل الذاكرة طويلة المدى للذكاء الاصطناعي. هذا يعني أن الهجوم يمكن أن يعيد تنشيطه أو يستمر في سرقة البيانات حتى بعد أن يعتقد المستخدم أنه قد مسح جلسته أو بدأ محادثة جديدة.
مستقبل أمن الذكاء الاصطناعي
raises raised question: هل سيكون بإمكان نماذج اللغة الكبيرة (LLMs) يومًا ما القضاء على سبب هذه الهجمات الجذري؟ تشير الأدلة الحالية إلى أن هذا قد لا يكون ممكنًا. تكمن المشكلة الأساسية في التصميم الجوهري للذكاء الاصطناعي ليكون مفيدًا ومتوافقًا مع طلبات المستخدم. يجعل هذا المنهج التصميمي من الصعب تنفيذ تدابير أمنية وقائية واستباقية دون المساومة على فائدة الذكاء الاصطناعي. بدلاً من ذلك، يظل الأمن في الغالب تفاعليًا، وهي لعبة من لعبة القط والفأر حيث يجب على المدافعين ترمين الثغرات التي يكتشفها المهاجمون باستمرار. حتى يحدث تغيير جذري في كيفية هيكلة نماذج الذكاء الاصطناعي بشكل أساسي - الموازنة بين الامتثال والأمن المتأصل - من المرجح أن تستمر دورة الهجوم والترميم.




