فهم الذكاء الاصطناعي ودوره في الأمن السيبراني

فهم الذكاء الاصطناعي ودوره في الأمن السيبراني


الأمن الرقمي

يكشف تقرير تقني جديد من ESET عن مخاطر وفرص الذكاء الاصطناعي للمدافعين السيبرانيين

الذكاء الاصطناعي (AI) هو موضوع الساعة، حيث تجذب أحدث وأكبر تكنولوجيا الذكاء الاصطناعي تغطية إخبارية لاهثة. وربما تكون صناعات قليلة هي التي من المتوقع أن تحقق مكاسب مثل الأمن السيبراني، أو ربما ستتضرر بشدة. وخلافًا للاعتقاد السائد، فإن البعض في هذا المجال يستخدمون هذه التكنولوجيا بشكل ما منذ أكثر من عقدين من الزمن. لكن قوة الحوسبة السحابية والخوارزميات المتقدمة تتحد لتعزيز الدفاعات الرقمية بشكل أكبر أو المساعدة في إنشاء جيل جديد من التطبيقات القائمة على الذكاء الاصطناعي، والتي يمكن أن تغير كيفية حماية المؤسسات للهجمات واكتشافها والرد عليها.

من ناحية أخرى، نظرًا لأن هذه القدرات أصبحت أرخص وأكثر سهولة في الوصول إليها، فإن الجهات الفاعلة في مجال التهديد ستستخدم أيضًا التكنولوجيا في الهندسة الاجتماعية والتضليل والاحتيال وغير ذلك الكثير. جديد ورقة بيضاء من ESET يهدف إلى الكشف عن المخاطر والفرص المتاحة للمدافعين السيبرانيين.

eset-ai-native-prevention

تاريخ موجز للذكاء الاصطناعي في الأمن السيبراني

قد تكون النماذج اللغوية الكبيرة (LLMs) هي السبب وراء ضجيج مجالس الإدارة في جميع أنحاء العالم بالحديث عن الذكاء الاصطناعي، ولكن تم استخدام التكنولوجيا بشكل جيد بطرق أخرى لسنوات. على سبيل المثال، قامت شركة ESET بنشر الذكاء الاصطناعي لأول مرة منذ أكثر من ربع قرن عبر الشبكات العصبية في محاولة لتحسين اكتشاف فيروسات الماكرو. ومنذ ذلك الحين، استخدمت الذكاء الاصطناعي بأشكال مختلفة لتقديم ما يلي:

  • التمييز بين عينات التعليمات البرمجية الضارة والنظيفة
  • الفرز السريع لعينات البرامج الضارة وفرزها ووضع العلامات عليها بشكل جماعي
  • نظام سمعة سحابي، يستفيد من نموذج التعلم المستمر عبر بيانات التدريب
  • حماية نقطة النهاية مع اكتشاف عالي ومعدلات إيجابية كاذبة منخفضة، وذلك بفضل مجموعة من الشبكات العصبية وأشجار القرار والخوارزميات الأخرى
  • أداة قوية لوضع الحماية السحابية مدعومة باكتشاف التعلم الآلي متعدد الطبقات والتفريغ والمسح الضوئي والكشف التجريبي والتحليل العميق للسلوك
  • حماية جديدة للسحابة ونقطة النهاية مدعومة بنماذج الذكاء الاصطناعي للمحولات
  • يساعد XDR في تحديد أولويات التهديدات من خلال ربط كميات كبيرة من الأحداث وفرزها وتجميعها

لماذا يتم استخدام الذكاء الاصطناعي من قبل فرق الأمن؟

اليوم، تحتاج فرق الأمن إلى أدوات فعالة تعتمد على الذكاء الاصطناعي أكثر من أي وقت مضى، وذلك بفضل ثلاثة محركات رئيسية:

1. لا يزال نقص المهارات يضرب بشدة

في العد الأخير، كان هناك عجز بنحو أربعة ملايين متخصص في مجال الأمن السيبراني على مستوى العالم، بما في ذلك 348000 في أوروبا و522000 في أمريكا الشمالية. تحتاج المنظمات إلى أدوات لتعزيز إنتاجية الموظفين لديها، وتقديم التوجيه بشأن تحليل التهديدات ومعالجتها في حالة غياب كبار الزملاء. على عكس الفرق البشرية، يمكن للذكاء الاصطناعي العمل على مدار 24 ساعة طوال أيام الأسبوع و365 دقيقة وتحديد الأنماط التي قد يفوتها متخصصو الأمن.

2. تتميز الجهات التهديدية بالمرونة والتصميم والتوفر على الموارد الجيدة

وبينما تكافح فرق الأمن السيبراني للتجنيد، فإن خصومهم يتزايدون قوةً. حسب أحد التقديرات، اقتصاد الجرائم الإلكترونية يمكن أن تكلف العالم ما يصل إلى 10.5 تريليون دولار سنويًا بحلول عام 2025. ويمكن للجهات الفاعلة الناشئة في مجال التهديد العثور على كل ما تحتاجه لشن الهجمات، مجمعة في عروض وأدوات “كخدمة” جاهزة. يوفر وسطاء الطرف الثالث إمكانية الوصول إلى المنظمات التي تم اختراقها مسبقًا. وحتى الجهات الفاعلة في الدولة القومية تتورط في هجمات ذات دوافع مالية – وأبرزها كوريا الشمالية، ولكن أيضًا الصين وغيرها من الأمم. وفي دول مثل روسيا، تكون الحكومة كذلك يشتبه في رعاية بنشاط القرصنة المناهضة للغرب.

3. لم تكن المخاطر أعلى من أي وقت مضى

مع نمو الاستثمار الرقمي على مر السنين، زاد أيضًا الاعتماد على أنظمة تكنولوجيا المعلومات لتعزيز النمو المستدام والميزة التنافسية. يعلم المدافعون عن الشبكات أنهم إذا فشلوا في منع التهديدات السيبرانية أو اكتشافها واحتوائها بسرعة، فقد تتعرض مؤسستهم لأضرار مالية كبيرة وأضرار تتعلق بالسمعة. خرق للبيانات التكاليف في المتوسط 4.45 مليون دولار اليوم. لكن أي اختراق خطير لبرامج الفدية يتضمن تعطيل الخدمة وسرقة البيانات يمكن أن يصل إلى أضعاف ذلك المبلغ. يدعي أحد التقديرات وخسرت المؤسسات المالية وحدها 32 مليار دولار في فترات التوقف عن العمل بسبب انقطاع الخدمة منذ عام 2018.

كيف يتم استخدام الذكاء الاصطناعي من قبل فرق الأمن؟

لذلك ليس من المستغرب أن تتطلع المؤسسات إلى تسخير قوة الذكاء الاصطناعي لمساعدتها على منع التهديدات السيبرانية واكتشافها والاستجابة لها بشكل أكثر فعالية. لكن كيف يفعلون ذلك بالضبط؟ من خلال ربط المؤشرات بكميات كبيرة من البيانات لتحديد الهجمات. من خلال تحديد التعليمات البرمجية الضارة من خلال النشاط المشبوه الذي يبرز عن القاعدة. ومن خلال مساعدة محللي التهديدات من خلال تفسير المعلومات المعقدة وتحديد أولويات التنبيهات.

فيما يلي بعض الأمثلة على الاستخدامات الحالية والمستقبلية للذكاء الاصطناعي من أجل الخير:

  • استخبارات التهديد: يمكن لمساعدي GenAI المدعومين من LLM أن يجعلوا الأمور المعقدة بسيطة، من خلال تحليل التقارير الفنية الكثيفة لتلخيص النقاط الرئيسية والوجبات السريعة القابلة للتنفيذ باللغة الإنجليزية البسيطة للمحللين.
  • مساعدو الذكاء الاصطناعي: قد يساعد تضمين “مساعدي” الذكاء الاصطناعي في أنظمة تكنولوجيا المعلومات في القضاء على التكوينات الخاطئة الخطيرة التي قد تعرض المؤسسات للهجوم. يمكن أن يعمل هذا أيضًا مع أنظمة تكنولوجيا المعلومات العامة مثل الأنظمة الأساسية السحابية وأدوات الأمان مثل جدران الحماية، والتي قد تتطلب تحديث إعدادات معقدة.
  • زيادة إنتاجية SOC: يتعرض محللو مركز العمليات الأمنية (SOC) اليوم لضغوط هائلة لاكتشاف التهديدات الواردة والاستجابة لها واحتوائها بسرعة. لكن الحجم الكبير لسطح الهجوم وعدد الأدوات التي تولد التنبيهات قد يكون في كثير من الأحيان أمرًا هائلاً. وهذا يعني أن التهديدات المشروعة تمر تحت الرادار بينما يضيع المحللون وقتهم في نتائج إيجابية كاذبة. ويمكن للذكاء الاصطناعي أن يخفف العبء من خلال وضع مثل هذه التنبيهات في سياقها وترتيب أولوياتها ــ بل وربما حتى حل التنبيهات البسيطة.
  • اكتشافات جديدة: تعمل الجهات الفاعلة في مجال التهديد على تطوير تقنياتها وإجراءاتها التكتيكية (TTPs) باستمرار. ولكن من خلال الجمع بين مؤشرات الاختراق (IoCs) والمعلومات المتاحة للجمهور وموجزات التهديدات، يمكن لأدوات الذكاء الاصطناعي البحث عن أحدث التهديدات.

كيف يتم استخدام الذكاء الاصطناعي في الهجمات السيبرانية؟

ولسوء الحظ، فقد وضع الأشرار أنظارهم أيضًا على الذكاء الاصطناعي. وفقا للمملكة المتحدة المركز الوطني للأمن السيبراني (NCSC)، ستعمل هذه التكنولوجيا على “زيادة تهديد برامج الفدية العالمية” و”من المؤكد تقريبًا أن تزيد من حجم وتأثير الهجمات السيبرانية في العامين المقبلين”. كيف تستخدم جهات التهديد الذكاء الاصطناعي حاليًا؟ خذ بعين الاعتبار ما يلي:

  • هندسة اجتماعية: أحد الاستخدامات الأكثر وضوحًا لـ GenAI هو مساعدة الجهات الفاعلة في مجال التهديد على صياغة حملات تصيد مقنعة للغاية وشبه مثالية نحويًا على نطاق واسع.
  • BEC وعمليات الاحتيال الأخرى: مرة أخرى، يمكن نشر تقنية GenAI لتقليد أسلوب الكتابة لشخصية معينة أو شركة معينة، لخداع الضحية لتحويل الأموال أو تسليم بيانات حساسة/تسجيلات دخول. يمكن أيضًا نشر الصوت والفيديو Deepfake لنفس الغرض. أصدر مكتب التحقيقات الفيدرالي (FBI) تحذيرات متعددة عن هذا في الماضي.
  • التضليل: يمكن لـ GenAI أيضًا تحمل العبء الثقيل من إنشاء المحتوى لعمليات التأثير. أ تقرير حديث وحذرت من أن روسيا تستخدم بالفعل مثل هذه التكتيكات ــ والتي يمكن تكرارها على نطاق واسع إذا ثبت نجاحها.

حدود الذكاء الاصطناعي

للخير أو للشر، الذكاء الاصطناعي له حدوده في الوقت الحاضر. وقد يُرجع معدلات إيجابية كاذبة عالية، وبدون مجموعات تدريب عالية الجودة، سيكون تأثيره محدودًا. غالبًا ما يكون الإشراف البشري مطلوبًا أيضًا للتحقق من صحة المخرجات، ولتدريب النماذج نفسها. يشير كل ذلك إلى حقيقة أن الذكاء الاصطناعي ليس حلاً سحريًا للمهاجمين ولا للمدافعين.

وبمرور الوقت، يمكن أن تتعارض أدواتهما مع بعضها البعض – حيث يسعى أحدهما إلى اكتشاف ثغرات في الدفاعات وخداع الموظفين، بينما يبحث الآخر عن علامات نشاط الذكاء الاصطناعي الضار. مرحبًا بكم في بداية سباق تسلح جديد في مجال الأمن السيبراني.

لمعرفة المزيد حول استخدام الذكاء الاصطناعي في الأمن السيبراني، راجع ذلك تقرير إسيت الجديد



Source link

إرسال التعليق

تفقد ما فاتك