يمكن للذكاء الاصطناعي إنشاء 10,000 نوع مختلف من البرامج الضارة والتهرب من اكتشافها في 88% من الحالات
اكتشف باحثو الأمن السيبراني أنه من الممكن استخدام نماذج اللغة الكبيرة (LLMs) لإنشاء أشكال جديدة من تعليمات JavaScript البرمجية الضارة على نطاق واسع بطريقة يمكن أن تتجنب الاكتشاف بشكل أفضل.
“على الرغم من أن طلاب ماجستير إدارة الأعمال يكافحون من أجل إنشاء برامج ضارة من الصفر، إلا أنه يمكن للمجرمين استخدامها بسهولة لإعادة كتابة البرامج الضارة الموجودة أو التعتيم عليها، مما يزيد من صعوبة اكتشافها،” باحثون في وحدة Palo Alto Networks 42 قال في تحليل جديد. “يمكن للمجرمين مطالبة LLMs بإجراء تحويلات تبدو أكثر طبيعية، مما يجعل اكتشاف هذه البرامج الضارة أكثر صعوبة.”
ومن خلال التحولات الكافية مع مرور الوقت، يمكن أن يتمتع هذا النهج بميزة إضعاف أداء أنظمة تصنيف البرامج الضارة، وخداعها للاعتقاد بأن جزءًا من التعليمات البرمجية الشائنة هو في الواقع حميد.
في حين أن مقدمي خدمات LLM قاموا بشكل متزايد بفرض حواجز أمنية لمنعهم من الخروج عن القضبان وإنتاج نتائج غير مقصودة، فقد أعلنت الجهات الفاعلة السيئة عن أدوات مثل WormGPT كوسيلة لأتمتة عملية صياغة رسائل البريد الإلكتروني التصيدية المقنعة التي يتم توجيهها إلى أهداف محتملة وحتى إنشاء رسائل جديدة البرمجيات الخبيثة.
مرة أخرى في أكتوبر 2024، كشفت OpenAI أنها حظرت أكثر من 20 عملية وشبكة خادعة تحاول استخدام نظامها الأساسي للاستطلاع وأبحاث الثغرات الأمنية ودعم البرمجة النصية وتصحيح الأخطاء.
قالت الوحدة 42 إنها سخرت قوة LLMs لإعادة كتابة عينات البرامج الضارة الموجودة بشكل متكرر بهدف تجنب الكشف عن طريق نماذج التعلم الآلي (ML) مثل Innocent until Proven Guilty (IUPG) أو PhishingJS، مما يمهد الطريق بشكل فعال لإنشاء 10000 متغير جديد لجافا سكريبت دون تغيير الوظيفة.
تم تصميم تقنية التعلم الآلي العدائية لتحويل البرامج الضارة باستخدام طرق مختلفة – وهي إعادة تسمية المتغيرات، وتقسيم السلسلة، وإدراج التعليمات البرمجية غير المرغوب فيها، وإزالة المسافات البيضاء غير الضرورية، وإعادة التنفيذ الكامل للتعليمات البرمجية – في كل مرة يتم إدخالها في النظام مدخل.
وقالت الشركة: “النتيجة النهائية هي نسخة جديدة من جافا سكريبت الخبيثة التي تحافظ على نفس سلوك البرنامج النصي الأصلي، في حين أن درجة البرمجيات الخبيثة أقل بكثير دائمًا تقريبًا”، مضيفة أن الخوارزمية الجشعة قلبت حكم نموذج تصنيف البرامج الضارة الخاص بها من البرمجيات الخبيثة. حميدة بنسبة 88٪ من الوقت.
ومما زاد الطين بلة، أن عناصر JavaScript المعاد كتابتها تتجنب أيضًا اكتشافها بواسطة محللي البرامج الضارة الآخرين عند تحميلها على منصة VirusTotal.
ميزة حاسمة أخرى توفرها تقنية التشويش المستندة إلى LLM هي أن الكثير من عمليات إعادة الكتابة تبدو طبيعية أكثر بكثير من تلك التي حققتها مكتبات مثل obfuscator.io، والتي يسهل اكتشافها وبصماتها بشكل موثوق نظرًا للطريقة التي تُدخل بها تغييرات على كود المصدر.
وقالت الوحدة 42: “يمكن أن يزيد حجم متغيرات التعليمات البرمجية الضارة الجديدة بمساعدة الذكاء الاصطناعي التوليدي”. “ومع ذلك، يمكننا استخدام نفس التكتيكات لإعادة كتابة التعليمات البرمجية الضارة للمساعدة في إنشاء بيانات التدريب التي يمكنها تحسين قوة نماذج تعلم الآلة.”
ويأتي هذا الكشف في الوقت الذي ابتكرت فيه مجموعة من الأكاديميين من جامعة ولاية كارولينا الشمالية هجومًا جانبيًا مدبلجًا TPUXtract لتنفيذ هجمات سرقة النماذج على وحدات معالجة Google Edge Tensor (TPU) بدقة 99.91%. ويمكن بعد ذلك استغلال ذلك لتسهيل سرقة الملكية الفكرية أو الهجمات السيبرانية اللاحقة.
“على وجه التحديد، نعرض أ المعلمة الفائقة قال الباحثون: “هجوم السرقة يمكنه استخراج جميع تكوينات الطبقة بما في ذلك نوع الطبقة وعدد العقد وأحجام النواة/المرشح وعدد المرشحات والخطوات والحشو ووظيفة التنشيط”. “والجدير بالذكر أن هجومنا هو أول هجوم شامل يمكنها استخراج نماذج غير مرئية سابقًا.”
يلتقط هجوم الصندوق الأسود، في جوهره، الإشارات الكهرومغناطيسية المنبعثة من مادة TPU عندما تكون استنتاجات الشبكة العصبية جارية – نتيجة للكثافة الحسابية المرتبطة بتشغيل نماذج تعلم الآلة غير المتصلة بالإنترنت – ويستغلها لاستنتاج المعلمات الفائقة للنموذج. ومع ذلك، فإن الأمر يتوقف على أن يتمتع الخصم بإمكانية الوصول الفعلي إلى الجهاز المستهدف، ناهيك عن امتلاك معدات باهظة الثمن للتحقيق في الآثار والحصول عليها.
“لأننا سرقنا البنية وتفاصيل الطبقة، تمكنا من إعادة إنشاء الميزات عالية المستوى للذكاء الاصطناعي”، يقول أيدين أيسو، أحد مؤلفي الدراسة، قال. “ثم استخدمنا هذه المعلومات لإعادة إنشاء نموذج الذكاء الاصطناعي الوظيفي، أو بديل قريب جدًا من هذا النموذج.”
إرسال التعليق