الثغرات الأمنية الأساسية في SAP AI تعرض بيانات العملاء للهجمات السيبرانية

الثغرات الأمنية الأساسية في SAP AI تعرض بيانات العملاء للهجمات السيبرانية


18 يوليو 2024غرفة الأخبارالأمن السحابي / أمن المؤسسات

الثغرات الأمنية الأساسية في SAP AI تعرض بيانات العملاء للهجمات السيبرانية

كشف باحثون في مجال الأمن السيبراني عن عيوب أمنية في ساب منظمة العفو الدولية الأساسية منصة قائمة على السحابة لإنشاء ونشر سير عمل الذكاء الاصطناعي التنبؤي (AI) الذي يمكن استغلاله للحصول على رموز الوصول وبيانات العملاء.

وقد تم دبلجة نقاط الضعف الخمس بشكل جماعي SAPwned بواسطة شركة الأمن السحابي Wiz.

“من الممكن أن تكون الثغرات الأمنية التي وجدناها قد سمحت للمهاجمين بالوصول إلى بيانات العملاء وتلويث العناصر الداخلية – والانتشار إلى الخدمات ذات الصلة وبيئات العملاء الأخرى،” الباحث الأمني ​​هيلاي بن ساسون قال في تقرير تمت مشاركته مع The Hacker News.

وبعد الإفصاح المسؤول في 25 يناير 2024، تمت معالجة نقاط الضعف بواسطة SAP اعتبارًا من 15 مايو 2024.

باختصار، تتيح العيوب إمكانية الوصول غير المصرح به إلى بيانات العملاء الخاصة وبيانات الاعتماد الخاصة بالبيئات السحابية مثل Amazon Web Services (AWS) وMicrosoft Azure وSAP HANA Cloud.

الأمن الإلكتروني

ويمكن استخدامها أيضًا لتعديل صور Docker في سجل الحاويات الداخلي لـ SAP، وصور SAP’s Docker في Google Container Registry، والعناصر المستضافة على خادم Artifactory الداخلي لـ SAP، مما يؤدي إلى هجوم سلسلة التوريد على خدمات SAP AI Core.

علاوة على ذلك، يمكن استخدام الوصول كسلاح للحصول على امتيازات مسؤول المجموعة على مجموعة Kubernetes الخاصة بـ SAP AI Core من خلال الاستفادة من حقيقة تعرض خادم مدير الحزم Helm لكل من عمليات القراءة والكتابة.

وأوضح بن ساسون: “باستخدام مستوى الوصول هذا، يمكن للمهاجم الوصول مباشرة إلى كبسولات العملاء الآخرين وسرقة البيانات الحساسة، مثل النماذج ومجموعات البيانات والتعليمات البرمجية”. “يسمح هذا الوصول أيضًا للمهاجمين بالتدخل في البودات الخاصة بالعميل، وتلويث بيانات الذكاء الاصطناعي والتلاعب باستدلال النماذج.”

قال Wiz إن المشكلات تنشأ بسبب أن النظام الأساسي يجعل من الممكن تشغيل نماذج الذكاء الاصطناعي الضارة وإجراءات التدريب دون عزل مناسب وآليات وضع الحماية.

وقال بن ساسون لصحيفة The Hacker News: “إن العيوب الأمنية الأخيرة في مقدمي خدمات الذكاء الاصطناعي مثل Hugging Face وReplicate وSAP AI Core تسلط الضوء على نقاط ضعف كبيرة في تطبيقات عزل المستأجرين وتجزئةهم”. “تسمح هذه المنصات للمستخدمين بتشغيل نماذج ذكاء اصطناعي وإجراءات تدريب غير موثوقة في بيئات مشتركة، مما يزيد من خطر قدرة المستخدمين الضارين على الوصول إلى بيانات المستخدمين الآخرين.”

“على عكس مقدمي الخدمات السحابية المخضرمين الذين لديهم خبرة واسعة في ممارسات عزل المستأجرين ويستخدمون تقنيات عزل قوية مثل الأجهزة الافتراضية، غالبًا ما تفتقر هذه الخدمات الأحدث إلى هذه المعرفة وتعتمد على النقل بالحاويات، مما يوفر أمانًا أضعف. وهذا يؤكد الحاجة إلى زيادة الوعي بأهمية لعزل المستأجرين ودفع صناعة خدمات الذكاء الاصطناعي إلى تقوية بيئاتها.”

ونتيجة لذلك، يمكن لممثل التهديد إنشاء تطبيق ذكاء اصطناعي عادي على SAP AI Core، وتجاوز قيود الشبكة، والتحقيق في شبكة Kubernetes Pod الداخلية للحصول على رموز AWS المميزة والوصول إلى تعليمات برمجية العميل ومجموعات بيانات التدريب من خلال استغلال التكوينات الخاطئة في نظام ملفات AWS المرنة (EFS). ) تشارك.

وقال بن ساسون: “يجب أن يدرك الناس أن نماذج الذكاء الاصطناعي هي في الأساس رموز. عند تشغيل نماذج الذكاء الاصطناعي على البنية التحتية الخاصة بك، قد تتعرض لهجمات محتملة على سلسلة التوريد”.

“قم بتشغيل النماذج الموثوقة فقط من مصادر موثوقة، والفصل بشكل صحيح بين النماذج الخارجية والبنية التحتية الحساسة. عند استخدام موفري خدمات الذكاء الاصطناعي، من المهم التحقق من بنية عزل المستأجر الخاصة بهم والتأكد من تطبيقهم لأفضل الممارسات.”

وتأتي هذه النتائج في الوقت الذي كشفت فيه Netskope أن الاستخدام المتزايد للمؤسسات للذكاء الاصطناعي التوليدي قد دفع المؤسسات إلى استخدام ضوابط الحظر، وأدوات منع فقدان البيانات (DLP)، والتدريب في الوقت الفعلي، وآليات أخرى للتخفيف من المخاطر.

“تشكل البيانات المنظمة (البيانات التي يقع على عاتق المؤسسات واجب قانوني لحمايتها) أكثر من ثلث البيانات الحساسة التي تتم مشاركتها مع تطبيقات الذكاء الاصطناعي التوليدية (genAI) – مما يمثل خطرًا محتملاً على الشركات نتيجة لانتهاكات البيانات المكلفة،” الشركة قال.

كما أنها تتبع ظهور مجموعة تهديد جديدة لمجرمي الإنترنت تسمى NullBulge والتي ركزت أنظارها على الكيانات التي تركز على الذكاء الاصطناعي والألعاب منذ أبريل 2024 بهدف سرقة البيانات الحساسة وبيع مفاتيح OpenAI API المخترقة في المنتديات السرية بينما تدعي أنها طاقم hacktivist “يحمي الفنانين حول العالم” ضد الذكاء الاصطناعي.

“يستهدف NullBulge سلسلة توريد البرامج عن طريق تسليح التعليمات البرمجية في المستودعات المتاحة للجمهور على GitHub وHugging Face، مما يؤدي بالضحايا إلى استيراد مكتبات ضارة، أو من خلال حزم التعديل التي تستخدمها برامج الألعاب والنمذجة،” الباحث الأمني ​​في SentinelOne، جيم والتر. قال.

“تستخدم المجموعة أدوات مثل AsyncRAT وXWorm قبل تسليم حمولات LockBit التي تم إنشاؤها باستخدام أداة LockBit Black builder المسربة. وتمثل مجموعات مثل NullBulge التهديد المستمر لبرامج الفدية ذات حاجز الدخول المنخفض، بالإضافة إلى التأثير الدائم لعدوى سرقة المعلومات.”

وجدت هذه المادة مثيرة للاهتمام؟ اتبعنا تويتر و ينكدين لقراءة المزيد من المحتوى الحصري الذي ننشره.





Source link

إرسال التعليق

تفقد ما فاتك