كشفت فرق بحثية في مختبر الذكاء الاصطناعي التابع لشركة جوجل، ديب مايند، عن طريقة لكسر عملية "المحاذاة لروبوت الدردشة ChatGPT"، والتي تهدف إلى حماية روبوت الدردشة بالذكاء الاصطناعي. وتمكن الباحثون من إجبار الروبوت على نشر مقاطع من الأدبيات التي تحتوي على بيانات التدريب، مما يشكل تحديًا للحماية الأمانية المفروضة عليه.
الظاهرة التي واجهها الباحثون تسمى "الحفظ المستخرج"، وهي تقنية تتيح للمهاجم فرض استخدام روبوت الدردشة للكشف عن المعلومات المحفوظة في ذاكرته، مما يشكل تهديدًا للخصوصية.
وأظهرت التجارب التي أجراها الباحثون أنه بكتابة أوامر تفاعلية مثل "قصيدة"، يمكن إجبار الروبوت على تكرار النص بشكل لا نهائي، مما يتسبب في تسريب بيانات التدريب. وتسمى هذه الطريقة "هجوم التباعد"، والذي يتلاعب بروبوت الدردشة لتجنب الالتزام بعملية المحاذاة.
الباحثون أشاروا إلى أن هذا الهجوم يجعل ChatGPT يتجاوز أسلوب النموذج المتقدم المبرمج له، ويعود إلى تشغيل أسلوب أبسط. وركزوا على استخدام استراتيجية تكرار الكلمات لإجبار الروبوت على الكشف عن البيانات.
من بين الانتهاكات الأمانية الخطيرة التي يمكن تحقيقها باستخدام هذا الهجوم، يمكن التلاعب بروبوت الدردشة لإعادة إنتاج أسماء الأفراد وأرقام هواتفهم وعناوينهم، ما يعرض خصوصيتهم لمخاطر كبيرة.
وأشار الباحثون إلى أنهم استخرجوا أكثر من 10000 نموذج فريد خلال التجربة بتكلفة محدودة، وركزوا على تحديد حجم البيانات التدريبية المحتملة للتسريب. كما أشاروا إلى أن هذا النوع من الهجمات يتطلب تكلفة مالية مناسبة لتوسيع نطاقه.
وفقًا لورقة البحث، كتب ميلاد نصر وفريقه أنهم طوروا هجومًا جديدًا يؤدي إلى انحراف نموذج ChatGPT عن أسلوب روبوت الدردشة المبرمج، مما يتسبب في إصدار بيانات التدريب بمعدل عالٍ جدًا مقارنة بالسلوك الطبيعي.
الباحثون استنتجوا أن جوهر الهجوم على الذكاء الاصطناعي التوليدي يكمن في جعل ChatGPT يتجاوز عملية المحاذاة المبرمجة ويعود إلى تشغيل أسلوب أقل تعقيدًا. وقد ركزوا على تفعيل الروبوت ليتجاوز الطبقة الإضافية المضافة خلال عملية المحاذاة، التي تمنعه من إعادة النص المجرد وتشجعه على تقديم إجابات مفيدة.
ردًا على هذه الاكتشافات، يتوقع أن تقوم شركة OpenAI باتخاذ تدابير لمواجهة هذا النوع من الهجمات وتعزيز أمان نموذجها. يعكس هذا التطور التحديات المستمرة التي تواجهها تقنيات الذكاء الاصطناعي في مجالات الأمان وحماية الخصوصية.
بهذا السياق، تبرز أهمية البحث المستمر وتحسين تقنيات الحماية لضمان استخدام تكنولوجيا الذكاء الاصطناعي بشكل آمن ومسؤول، خاصة في ظل استمرار تطور هذا المجال واستخدامه في مختلف المجالات.
تابع موقعنا tech1new.com انضم إلى صفحتنا على فيسبوك و متابعتنا على Twitter ، أو أضف tech1new.com إلى موجز أخبار Google الخاص بك للحصول على تحديثات إخبارية فورية ومراجعات وشروحات تقنية
ليست هناك تعليقات:
إرسال تعليق