كبيرة في مجال الوقاية، وأكبر في مجال الذكاء الاصطناعي
اجتمع المئات من المتخصصين والمحللين وصناع القرار في مجال الأمن السيبراني في وقت سابق من هذا الشهر عالم إسيت 2024، وهو مؤتمر عرض رؤية الشركة والتقدم التكنولوجي وتضمن عددًا من المحادثات الثاقبة حول أحدث الاتجاهات في مجال الأمن السيبراني وما بعده.
شملت المواضيع نطاقًا واسعًا، ولكن من الآمن أن نقول إن الموضوعات التي كان لها صدى أكبر شملت أبحاث التهديدات المتطورة التي أجرتها ESET ووجهات نظر حول الذكاء الاصطناعي (AI). دعونا الآن نلقي نظرة سريعة على بعض الجلسات التي غطت الموضوع الذي يدور على شفاه الجميع هذه الأيام – الذكاء الاصطناعي.
الرجوع إلى الأساسيات
أولاً، قدم جوراج مالشو، الرئيس التنفيذي للتكنولوجيا في ESET، عرضًا توضيحيًا حول التحديات والفرص الرئيسية التي يوفرها الذكاء الاصطناعي. ومع ذلك، لم يتوقف عند هذا الحد، واستمر في البحث عن إجابات لبعض الأسئلة الأساسية المحيطة بالذكاء الاصطناعي، بما في ذلك “هل هو ثوري كما يُزعم؟”.
التكرارات الحالية لتكنولوجيا الذكاء الاصطناعي هي في الغالب في شكل نماذج لغوية كبيرة (LLMs) ومساعدين رقميين مختلفين تجعل التكنولوجيا تبدو حقيقية للغاية. ومع ذلك، فهي لا تزال محدودة إلى حد ما، ويجب علينا أن نحدد بدقة كيف نريد استخدام التكنولوجيا من أجل تمكين عملياتنا الخاصة، بما في ذلك استخداماتها في الأمن السيبراني.
على سبيل المثال، يمكن للذكاء الاصطناعي تبسيط الدفاع السيبراني من خلال تفكيك الهجمات المعقدة وتقليل الطلب على الموارد. وبهذه الطريقة، فإنه يعزز القدرات الأمنية لعمليات تكنولوجيا المعلومات التجارية ذات العدد القصير من الموظفين.
إزالة الغموض عن الذكاء الاصطناعي
جوراج جألاحسناك، مدير الذكاء الاصطناعي في شركة ESET، وفيليب مازأn، مدير أول الكشف عن التهديدات المتقدمة والذكاء الاصطناعي في شركة ESET، لتقديم نظرة شاملة لعالم الذكاء الاصطناعي والتعلم الآلي، واستكشاف جذورهما وميزاتهما المميزة.
السيد ماzáأظهر كيف أنها تعتمد بشكل أساسي على البيولوجيا البشرية، حيث تحاكي شبكات الذكاء الاصطناعي بعض جوانب كيفية عمل الخلايا العصبية البيولوجية لإنشاء شبكات عصبية اصطناعية بمعلمات مختلفة. كلما كانت الشبكة أكثر تعقيدًا، زادت قدرتها التنبؤية، مما أدى إلى تطورات ملحوظة في المساعدين الرقميين مثل Alexa وLLMs مثل ChatGPT أو Claude.
وفي وقت لاحق، السيد مازأسلط الضوء على أنه عندما تصبح نماذج الذكاء الاصطناعي أكثر تعقيدًا، فإن فائدتها يمكن أن تتضاءل. ومع اقترابنا من إعادة تكوين الدماغ البشري، فإن العدد المتزايد من المعلمات يتطلب تحسينًا شاملاً. تتطلب هذه العملية إشرافًا بشريًا لمراقبة عمليات النموذج وضبطها باستمرار.
في الواقع، النماذج الأصغر حجما تكون أفضل في بعض الأحيان. السيد مازأوصف كيف أن استخدام ESET الصارم لقدرات الذكاء الاصطناعي الداخلية يؤدي إلى اكتشاف التهديدات بشكل أسرع وأكثر دقة، مما يلبي الحاجة إلى استجابات سريعة ودقيقة لجميع أنواع التهديدات.
كما ردد كلام السيد مالشو وسلط الضوء على بعض القيود التي تعاني منها النماذج اللغوية الكبيرة (LLMs). تعمل هذه النماذج على أساس التنبؤ وتتضمن ربط المعاني، والتي يمكن أن تتشوش بسهولة وتؤدي إلى الهلوسة. وبعبارة أخرى، فإن فائدة هذه النماذج لا تصل إلى أبعد من ذلك.
القيود الأخرى لتقنية الذكاء الاصطناعي الحالية
بالإضافة إلى ذلك، واصل السيد جانوسيك معالجة القيود الأخرى للذكاء الاصطناعي المعاصر:
- قابلية الشرح: تتكون النماذج الحالية من معلمات معقدة، مما يجعل من الصعب فهم عمليات صنع القرار الخاصة بها. وعلى النقيض من الدماغ البشري، الذي يعمل على تفسيرات سببية، تعمل هذه النماذج من خلال الارتباطات الإحصائية، التي ليست بديهية بالنسبة للبشر.
- الشفافية: النماذج العليا هي ملكية خاصة (حدائق مسورة)، مع عدم وجود رؤية لأعمالها الداخلية. ويعني هذا النقص في الشفافية عدم وجود مساءلة عن كيفية تكوين هذه النماذج أو عن النتائج التي تنتجها.
- الهلوسة: غالبًا ما تولد روبوتات الدردشة المولدة بالذكاء الاصطناعي معلومات معقولة ولكنها غير صحيحة. يمكن لهذه النماذج أن تضفي ثقة عالية أثناء تقديم معلومات كاذبة، مما يؤدي إلى حوادث مؤسفة وحتى مشاكل قانونية، مثل ما بعد ذلك قدم برنامج الدردشة الآلي التابع لشركة طيران كندا معلومات كاذبة حول خصم للراكب.
ولحسن الحظ، تنطبق الحدود أيضًا على إساءة استخدام تقنية الذكاء الاصطناعي في الأنشطة الضارة. في حين أن روبوتات الدردشة يمكنها بسهولة صياغة رسائل تبدو معقولة للمساعدة في هجمات التصيد الاحتيالي أو اختراق البريد الإلكتروني التجاري، إلا أنها ليست كذلك مجهزة تجهيزا جيدا لإنشاء برامج ضارة خطيرة. يرجع هذا القيد إلى ميلهم إلى “الهلوسة” – إنتاج مخرجات معقولة ولكنها غير صحيحة أو غير منطقية – ونقاط ضعفهم الأساسية في توليد كود وظيفي ومتصل منطقيًا. ونتيجة لذلك، فإن إنشاء برامج ضارة جديدة وفعالة يتطلب عادةً تدخل خبير فعلي لتصحيح التعليمات البرمجية وتحسينها، مما يجعل العملية أكثر صعوبة مما قد يفترضه البعض.
وأخيرًا، كما أشار السيد يانوشيك، فإن الذكاء الاصطناعي هو مجرد أداة أخرى نحتاج إلى فهمها واستخدامها بمسؤولية.
صعود الحيوانات المستنسخة
في الجلسة التالية، قدم جيك مور، مستشار الأمن السيبراني العالمي في شركة ESET، لمحة عما هو ممكن حاليًا باستخدام الأدوات المناسبة، بدءًا من استنساخ بطاقات RFID واختراق كاميرات المراقبة إلى إنشاء صور مزيفة مقنعة – وكيف يمكن وضع بيانات الشركة وأموالها في خطر.
من بين أمور أخرى، أظهر مدى سهولة اختراق مقر الشركة باستخدام أداة قرصنة معروفة لنسخ بطاقات دخول الموظفين أو اختراق (بإذن!) حساب على وسائل التواصل الاجتماعي يخص الرئيس التنفيذي للشركة. واستمر في استخدام أداة لاستنساخ صورته، سواء الوجه أو الصوت، لإنشاء مقطع فيديو مقنع ومزيف بعمق، ثم نشره بعد ذلك على أحد حسابات وسائل التواصل الاجتماعي الخاصة بالرئيس التنفيذي.
الفيديو- الذي لو أعلن الرئيس التنفيذي المحتمل عن “تحدي” ركوب الدراجة من المملكة المتحدة إلى أستراليا وحصد أكثر من 5000 مشاهدة – كان الأمر مقنعًا للغاية لدرجة أن الناس بدأوا في اقتراح الرعاية. وفي الواقع، حتى المدير المالي للشركة انخدع أيضًا بالفيديو، حيث سأل الرئيس التنفيذي عن مكان وجوده المستقبلي. لم ينخدع سوى شخص واحد، وهي ابنة الرئيس التنفيذي البالغة من العمر 14 عاماً.
في خطوات قليلة، أظهر السيد مور الخطر الذي يكمن في الانتشار السريع للتزييف العميق. في الواقع، لم تعد الرؤية أمرًا مصدقًا – تحتاج الشركات والأشخاص أنفسهم إلى التدقيق في كل ما يصادفونه عبر الإنترنت. ومع وصول أدوات الذكاء الاصطناعي مثل Sora التي يمكنها إنشاء مقاطع فيديو بناءً على بضعة أسطر من الإدخال، قد تكون الأوقات الخطرة قريبة.
اللمسات الأخيرة
كانت الجلسة الأخيرة المخصصة لطبيعة الذكاء الاصطناعي عبارة عن لجنة ضمت السيد جانوسيك والسيد مازأن، والسيد مور، وأدارته السيدة بافلوفا. بدأ الأمر بسؤال حول الوضع الحالي للذكاء الاصطناعي، حيث اتفق المشاركون على أن أحدث النماذج مليئة بالعديد من المعلمات وتحتاج إلى مزيد من التحسين.
ثم تحولت المناقشة إلى المخاطر والمخاوف المباشرة للشركات. وشدد السيد مور على أن عددًا كبيرًا من الناس لا يدركون قدرات الذكاء الاصطناعي، والتي يمكن للجهات الفاعلة السيئة استغلالها. على الرغم من أن أعضاء اللجنة اتفقوا على أن البرامج الضارة المتطورة التي تم إنشاؤها بواسطة الذكاء الاصطناعي لا تشكل حاليًا تهديدًا وشيكًا، إلا أن المخاطر الأخرى، مثل تحسين إنشاء رسائل البريد الإلكتروني التصيدية والتزييف العميق التي تم إنشاؤها باستخدام النماذج العامة، حقيقية جدًا.
بالإضافة إلى ذلك، وكما أبرز السيد. يانوشيكفإن الخطر الأكبر يكمن في جانب خصوصية البيانات في الذكاء الاصطناعي، نظرًا لكمية البيانات التي تتلقاها هذه النماذج من المستخدمين. في الاتحاد الأوروبي، على سبيل المثال، اللائحة العامة لحماية البيانات و قانون الذكاء الاصطناعي لقد وضعنا بعض الأطر لحماية البيانات، لكن هذا ليس كافيًا نظرًا لأن هذه ليست أفعالًا عالمية.
وأضاف السيد مور أنه يجب على الشركات التأكد من بقاء بياناتها داخل الشركة. يمكن أن تناسب إصدارات المؤسسات من النماذج التوليدية الفاتورة، مما يتجنب “الحاجة” إلى الاعتماد على الإصدارات (المجانية) التي تخزن البيانات على خوادم خارجية، مما قد يعرض بيانات الشركة الحساسة للخطر.
لمعالجة المخاوف المتعلقة بخصوصية البيانات، السيد مازأينبغي للشركات المقترحة أن تبدأ من الأسفل إلى الأعلى، بالاستفادة من النماذج مفتوحة المصدر التي يمكن أن تعمل في حالات استخدام أبسط، مثل إنشاء الملخصات. فقط إذا تبين أن هذه غير كافية، يجب على الشركات أن تنتقل إلى الحلول السحابية من الأطراف الأخرى.
السيد. يانوشيك واختتم بالقول إن الشركات غالبًا ما تتجاهل عيوب استخدام الذكاء الاصطناعي – هناك حاجة بالفعل إلى إرشادات للاستخدام الآمن للذكاء الاصطناعي، ولكن حتى المنطق السليم يقطع شوطًا طويلًا نحو الحفاظ على أمان بياناتهم. كما لخص السيد مور في إجابة تتعلق بكيفية تنظيم الذكاء الاصطناعي، هناك حاجة ملحة لرفع مستوى الوعي حول إمكانات الذكاء الاصطناعي، بما في ذلك احتمال الضرر. يعد تشجيع التفكير النقدي أمرًا بالغ الأهمية لضمان السلامة في عالمنا الذي يعتمد بشكل متزايد على الذكاء الاصطناعي.
إرسال التعليق