ماذا يحدث عندما يصبح الذكاء الاصطناعي مارقًا (وكيفية إيقافه)
الأمن الرقمي
مع اقتراب الذكاء الاصطناعي من القدرة على التسبب في الأذى الجسدي والتأثير على العالم الحقيقي، لم تعد عبارة “الأمر معقد” استجابة مرضية
22 مايو 2024
•
,
3 دقيقة. يقرأ
لقد رأينا الذكاء الاصطناعي يتحول من الإجابة على أسئلة الدردشة البسيطة المتعلقة بالواجبات المدرسية إلى محاولة القيام بذلك الكشف عن الأسلحة في مترو أنفاق نيويورك، ويتم العثور عليه الآن شريك في إدانة مجرم من استخدامه لإنشاء مواد الاعتداء الجنسي على الأطفال المزيفة بعمق (CSAM) من الصور ومقاطع الفيديو الحقيقية، مما صدم أولئك الموجودين في النسخ الأصلية (بكامل ملابسهم).
بينما يستمر الذكاء الاصطناعي في المضي قدمًا، يسعى البعض إلى توفير المزيد من الحواجز الوقائية ذات المغزى لمنعه من الوقوع في الخطأ.
لقد كنا نستخدم الذكاء الاصطناعي في سياق أمني لسنوات حتى الآن، لكننا حذرنا من أنه لم يكن حلاً سحريًا، ويرجع ذلك جزئيًا إلى أنه يخطئ في أشياء مهمة. ومع ذلك، فإن برامج الأمان التي تخطئ في بعض الأمور الحاسمة “في بعض الأحيان فقط” ستظل لها تأثير سلبي تمامًا، إما عن طريق إصدار نتائج إيجابية كاذبة هائلة مما يدفع فرق الأمان إلى التدافع دون داع، أو تفويت هجوم ضار يبدو “مختلفًا بدرجة كافية” عن البرامج الضارة التي يهاجمها الذكاء الاصطناعي. يعرف بالفعل عن.
ولهذا السبب قمنا بتجميعها مع مجموعة من التقنيات الأخرى لتوفير الضوابط والتوازنات. وبهذه الطريقة، إذا كانت إجابة الذكاء الاصطناعي أقرب إلى الهلوسة الرقمية، فيمكننا إعادتها مرة أخرى مع بقية مجموعة التقنيات.
على الرغم من أن الخصوم لم يشنوا العديد من هجمات الذكاء الاصطناعي الخالصة، فمن الأصح التفكير في الروابط الآلية للذكاء الاصطناعي الخصم في سلسلة الهجوم لتكون أكثر فعالية، خاصة في التصيد الاحتيالي والآن استنساخ الصوت والصورة من التصيد الاحتيالي لتضخيم جهود الهندسة الاجتماعية. إذا تمكنت الجهات الفاعلة السيئة من اكتساب الثقة رقميًا وخداع الأنظمة للمصادقة باستخدام البيانات التي تم إنشاؤها بواسطة الذكاء الاصطناعي، فهذا يكفي لدخول مؤسستك والبدء في إطلاق أدوات استغلال مخصصة يدويًا.
لإيقاف ذلك، يمكن للبائعين وضع مصادقة متعددة العوامل، لذلك يحتاج المهاجمون إلى طرق مصادقة متعددة (نأمل أن تكون حساسة للوقت)، بدلاً من مجرد صوت أو كلمة المرور. ورغم أن هذه التكنولوجيا منتشرة الآن على نطاق واسع، إلا أنها غير مستغلة على نطاق واسع من قبل المستخدمين. هذه طريقة بسيطة يمكن للمستخدمين من خلالها حماية أنفسهم دون الحاجة إلى حمل ثقيل أو ميزانية كبيرة.
هل الذكاء الاصطناعي على خطأ؟ عندما سئل الناس عن تبرير عندما يخطئ الذكاء الاصطناعي، أجاب الناس ببساطة: “الأمر معقد”. ولكن مع اقتراب الذكاء الاصطناعي من القدرة على التسبب في الأذى الجسدي والتأثير على العالم الحقيقي، فإنه لم يعد استجابة مرضية وكافية. على سبيل المثال، إذا تعرضت سيارة ذاتية القيادة تعمل بالذكاء الاصطناعي لحادث، فهل يحصل “السائق” على تذكرة أم الشركة المصنعة؟ إنه ليس تفسيرًا من المحتمل أن يرضي المحكمة لسماع مدى تعقيده وغموضه.
ماذا عن الخصوصية؟ لقد رأينا قواعد اللائحة العامة لحماية البيانات تضييق الخناق على التكنولوجيا التي أصبحت جامحة كما يُنظر إليها من خلال عدسة الخصوصية. من المؤكد أن الأعمال الأصلية المشتقة من الذكاء الاصطناعي والمقطعة إلى مكعبات والتي تنتج مشتقات لتحقيق مكاسب تتعارض مع روح الخصوصية – وبالتالي ستؤدي إلى تفعيل قوانين وقائية – ولكن بالضبط كم ثمن فهل يتعين على الذكاء الاصطناعي أن ينسخ حتى يعتبر مشتقا، وماذا لو كان ينسخ بما يكفي للالتفاف على التشريعات؟
وأيضاً، كيف يمكن لأي شخص أن يثبت ذلك في المحكمة، في ظل السوابق القضائية الضئيلة التي قد تستغرق سنوات حتى يتم اختبارها بشكل أفضل من الناحية القانونية؟ نرى ناشري الصحف مقاضاة Microsoft وOpenAI حول ما يعتقدون أنه تكرار عالي التقنية للمقالات دون الاعتماد الواجب؛ سيكون من المثير للاهتمام رؤية نتيجة الدعوى القضائية، وربما نذيرًا بالإجراءات القانونية المستقبلية.
وفي الوقت نفسه، يعد الذكاء الاصطناعي أداة – وغالباً ما يكون أداة جيدة – ولكن مع القوة العظيمة تأتي مسؤولية كبيرة. إن مسؤولية مزودي الذكاء الاصطناعي في الوقت الحالي تتخلف بشكل مؤسف عما هو ممكن إذا أصبحت قوتنا المكتشفة حديثًا مارقة.
لماذا لا تقرأ أيضا هذه الورقة البيضاء الجديدة من ESET الذي يستعرض مخاطر وفرص الذكاء الاصطناعي بالنسبة للمدافعين السيبرانيين؟
إرسال التعليق