يُعتبر كيفن ميتنيك، الهاكر الشهير، واحدًا من أبرز الرواد في مجال الهندسة الاجتماعية ضمن أمن المعلومات. (غيتي)
تمكن الهاكر المعروف باسم "أمادون" من اختراق القيود الأمنية والأخلاقية التي وضعتها OpenAI في روبوت الدردشة الشهير ChatGPT عبر استخدام تقنيات الهندسة الاجتماعية. عبر خدعة ذكية، طلب "أمادون" من ChatGPT الدخول في "لعبة خيالية"، حيث تظاهرت بأنها بيئة لا تطبق فيها قواعد الأمان، مما سمح له بالحصول على تعليمات مفصلة لصنع متفجرات باستخدام مواد متاحة تجاريًا.
الهندسة الاجتماعية، وهي فن التلاعب بالأشخاص لإفشاء معلومات سرية أو القيام بأعمال معينة، استخدمت هنا في مزيج خطير مع أساليب الذكاء الاصطناعي. أمادون استخدم ما يعرف بتقنية "جيلبريكينغ" (jailbreaking)، وهي عملية تلاعب تجعل النظام يخرج عن قيوده المبرمجة مسبقًا. هذه التقنية أتاحت له التلاعب بالسياق للحصول على محتوى ضار بدون أن يقوم ChatGPT برفع الرايات الحمراء التي تُستخدم عادةً لمنع الروبوت من إنتاج مخرجات خطيرة.
كيف تم التلاعب بـ ChatGPT؟ بدأ الهاكر بتقديم طلبات خيالية واستمر في بناء سياق غير مألوف للنظام، ما جعل الروبوت يتجاوز الحواجز الأخلاقية والأمنية التي بُرمج عليها. أمادون برع في استغلال التفاعلات المعقدة بين الأوامر التي تعالجها المنصة والقدرة على إخفاء الغرض الحقيقي وراءها.
التعليمات الحساسة: نتائج خطيرة بعد أن راجع خبير متفجرات التعليمات التي أنتجها ChatGPT بناءً على استفسارات "أمادون"، أكد أن هذه التعليمات دقيقة بشكل كبير وتصل إلى حد إنتاج مواد متفجرة قوية للغاية، مما يشير إلى خطورة الثغرات التي تم اكتشافها.
رد OpenAI والمخاوف المستقبلية أبلغ "أمادون" عن ثغرته إلى OpenAI عبر برنامج مكافأة الثغرات، لكن الشركة أوضحت أن هذه المشكلة تتطلب حلولًا شاملة وبحوثًا معمقة، حيث لا يمكن معالجتها عبر تعديل بسيط في النظام. هذا الحادث يثير قلقًا كبيرًا حول قدرة تقنيات الذكاء الاصطناعي التوليدية على التحكم في المحتوى ومنع أي استغلال خاطئ.
ختامًا، بينما يشكل الذكاء الاصطناعي أداة قوية لتسهيل العديد من العمليات، إلا أن هذا الحادث يشير إلى ضرورة تعزيز التدابير الأمنية لضمان عدم استغلال هذه الأنظمة في نشر معلومات ضارة قد تشكل خطرًا على الأمن العام.