الجيد والسيئ والخوارزمي

الجيد والسيئ والخوارزمي


يعد الذكاء الاصطناعي (AI) موضوعًا ساخنًا في الوقت الحالي. انها في كل مكان. ربما تستخدمه بالفعل كل يوم. برنامج الدردشة الآلي الذي تتحدث معه عن طردك المفقود؟ مدعوم من الذكاء الاصطناعي للمحادثة. ما هي العناصر “الموصى بها” المدرجة ضمن مشترياتك الأكثر شيوعًا من أمازون؟ مدفوعة بخوارزميات AI/ML (التعلم الآلي). يمكنك أيضًا استخدام الذكاء الاصطناعي التوليدي للمساعدة في كتابة منشوراتك أو رسائل البريد الإلكتروني الخاصة بك على LinkedIn.

ولكن أين يتوقف الخط؟ عندما يتعامل الذكاء الاصطناعي مع المهام الرتيبة والمتكررة، بالإضافة إلى البحث وإنشاء المحتوى بوتيرة أسرع بكثير من أي إنسان، فلماذا نحتاج إلى البشر على الإطلاق؟ هل “العنصر البشري” مطلوب بالفعل لكي تعمل الشركة؟ دعونا نتعمق أكثر في الفوائد والتحديات والمخاطر المتعلقة بأفضل شخص (أو كيان؟) للوظيفة: روبوت أم إنسان؟

لماذا يعمل الذكاء الاصطناعي

يتمتع الذكاء الاصطناعي بالقدرة على تحسين العمليات التجارية وتقليل الوقت الذي يقضيه في المهام التي تؤثر على الإنتاجية العامة للموظفين ومخرجات الأعمال خلال يوم عملهم. وبالفعل، تتبنى الشركات الذكاء الاصطناعي لوظائف متعددة، سواء كان ذلك مراجعة السير الذاتية لطلبات التوظيف، أو تحديد الحالات الشاذة في مجموعات بيانات العملاء، أو كتابة محتوى لوسائل التواصل الاجتماعي.

ويمكنهم القيام بكل هذا في جزء صغير من الوقت الذي يستغرقه البشر. في الظروف التي يكون فيها التشخيص المبكر والتدخل هو كل شيء، يمكن أن يكون لنشر الذكاء الاصطناعي تأثير إيجابي كبير في جميع المجالات. على سبيل المثال، يمكن لاختبار الدم المعزز بالذكاء الاصطناعي أن يساعد التنبؤ بمرض باركنسون ما يصل إلى سبع سنوات قبل ظهور الأعراض – وهذا مجرد غيض من فيض.

وبفضل قدرتها على الكشف عن الأنماط في كميات هائلة من البيانات، يمكن لتقنيات الذكاء الاصطناعي أيضًا أن تدعم عمل وكالات إنفاذ القانون، بما في ذلك من خلال مساعدتها على تحديد مسرح الجريمة واتجاهاتها المحتملة والتنبؤ بها. الأدوات التي تعتمد على الذكاء الاصطناعي لها دور تلعبه أيضًا في مكافحة الجريمة والتهديدات الأخرى في عالم الإنترنت وفي مساعدة المتخصصين في مجال الأمن السيبراني على أداء وظائفهم بشكل أكثر فعالية.

إن قدرة الذكاء الاصطناعي على توفير المال والوقت للشركات ليست بالأمر الجديد. فكر في الأمر: كلما قل الوقت الذي يقضيه الموظفون في المهام الشاقة مثل مسح المستندات ضوئيًا وتحميل البيانات، زاد الوقت الذي يمكنهم قضاؤه في استراتيجية الأعمال والنمو. في بعض الحالات، قد لا تكون هناك حاجة إلى عقود بدوام كامل، وبالتالي فإن الشركة ستنفق أموالاً أقل على النفقات العامة (ومن المفهوم أن هذا ليس جيدًا بالنسبة لمعدلات التوظيف).

قد تساعد الأنظمة القائمة على الذكاء الاصطناعي أيضًا في القضاء على مخاطر الخطأ البشري. هناك مقولة “نحن بشر فقط” لسبب ما. من الممكن أن نرتكب جميعًا الأخطاء، خاصة بعد تناول خمس أكواب من القهوة، وبعد ثلاث ساعات فقط من النوم، والموعد النهائي الذي يلوح في الأفق. يمكن للأنظمة المعتمدة على الذكاء الاصطناعي أن تعمل على مدار الساعة دون أن تتعب. بطريقة ما، يتمتعون بمستوى من الموثوقية لن تحصل عليه حتى مع أكثر البشر المنهجية والدقيقة في التفاصيل.

قيود الذكاء الاصطناعي

ومع ذلك، لا تخطئ: فعند الفحص الدقيق، تصبح الأمور أكثر تعقيدًا بعض الشيء. في حين أن أنظمة الذكاء الاصطناعي يمكنها تقليل الأخطاء المرتبطة بالتعب والتشتت، إلا أنها ليست معصومة من الخطأ. الذكاء الاصطناعي أيضًا يمكن أن يرتكب الأخطاء و”الهلوسة”. على سبيل المثال، نشر الأكاذيب أثناء تقديمها كما لو كانت صحيحة، خاصة إذا كانت هناك مشكلات في البيانات التي تم تدريبها عليها أو في الخوارزمية نفسها. بمعنى آخر، تكون جودة أنظمة الذكاء الاصطناعي جيدة بقدر جودة البيانات التي يتم تدريبها عليها (وهو ما يتطلب خبرة وإشرافًا بشريًا).

وبالاستمرار في هذا الموضوع، فبينما يمكن للبشر أن يزعموا أنهم موضوعيون، فإننا جميعًا عرضة للتحيز اللاواعي بناءً على تجاربنا الحياتية، ومن الصعب، بل من المستحيل، إيقاف ذلك. الذكاء الاصطناعي لا يخلق تحيزًا بطبيعته؛ بل يمكنها بدلاً من ذلك تضخيم التحيزات الموجودة في البيانات التي يتم تدريبها عليها. وبعبارة أخرى، يمكن لأداة الذكاء الاصطناعي المدربة باستخدام بيانات نظيفة وغير متحيزة أن تنتج بالفعل نتائج تعتمد على البيانات بشكل بحت ومعالجة عملية صنع القرار البشرية المتحيزة. وبقول ذلك، فإن هذا ليس بالأمر السهل، كما أن ضمان العدالة والموضوعية في أنظمة الذكاء الاصطناعي يتطلب جهدًا متواصلًا في تنظيم البيانات وتصميم الخوارزميات والمراقبة المستمرة.

الجيد والسيئ والخوارزمي

أ الدراسة في 2022 أظهر أن 54% من قادة التكنولوجيا أعربوا عن قلقهم الشديد أو الشديد بشأن تحيز الذكاء الاصطناعي. لقد رأينا بالفعل العواقب الكارثية التي قد يخلفها استخدام البيانات المتحيزة على الشركات. على سبيل المثال، من استخدام مجموعات البيانات المتحيزة من شركة التأمين على السيارات في ولاية أوريغون، يتم فرض رسوم إضافية على النساء بنسبة 11.4٪ تقريبًا لتأمين سياراتهم أكثر من الرجال – حتى لو كان كل شيء آخر هو نفسه تمامًا! يمكن أن يؤدي هذا بسهولة إلى الإضرار بالسمعة وفقدان العملاء.

ومع تغذية الذكاء الاصطناعي بمجموعات بيانات موسعة، فإن هذا يثير مسألة الخصوصية. عندما يتعلق الأمر بالبيانات الشخصية، قد تتمكن الجهات الفاعلة ذات النوايا الخبيثة من إيجاد طرق لتجاوز بروتوكولات الخصوصية والوصول إلى هذه البيانات. على الرغم من وجود طرق لإنشاء بيئة بيانات أكثر أمانًا عبر هذه الأدوات والأنظمة، لا تزال المؤسسات بحاجة إلى توخي الحذر بشأن أي ثغرات في أمنها السيبراني مع مساحة سطح البيانات الإضافية التي يستلزمها الذكاء الاصطناعي.

بالإضافة إلى ذلك، لا يستطيع الذكاء الاصطناعي فهم العواطف بالطريقة التي يفعلها (معظم) البشر. قد يشعر البشر على الجانب الآخر من التفاعل مع الذكاء الاصطناعي بنقص في التعاطف والفهم الذي قد يحصلون عليه من تفاعل “إنساني” حقيقي. يمكن أن يؤثر ذلك على تجربة العميل/المستخدم كما هو موضح في لعبة World of Warcraft خسر ملايين اللاعبين من خلال استبدال فريق خدمة العملاء الخاص بهم – الذين اعتادوا أن يكونوا أشخاصًا حقيقيين يدخلون اللعبة بأنفسهم ليُظهروا للاعبين كيفية تنفيذ الإجراءات – بروبوتات الذكاء الاصطناعي التي تفتقر إلى الفكاهة والتعاطف.

مع مجموعة البيانات المحدودة، يمكن أن يؤدي افتقار الذكاء الاصطناعي إلى السياق إلى حدوث مشكلات حول تفسير البيانات. على سبيل المثال، قد يكون لدى خبراء الأمن السيبراني فهم أساسي لممثل تهديد محدد، مما يمكنهم من تحديد العلامات التحذيرية والإبلاغ عنها والتي قد لا تتوافق مع الجهاز إذا لم تتوافق تمامًا مع الخوارزمية المبرمجة الخاصة به. هذه الفروق الدقيقة المعقدة هي التي تنطوي على احتمال حدوث عواقب وخيمة في المستقبل، لكل من الشركة وعملائها.

لذلك، في حين أن الذكاء الاصطناعي قد يفتقر إلى السياق وفهم بيانات المدخلات، فإن البشر يفتقرون إلى فهم كيفية عمل أنظمة الذكاء الاصطناعي الخاصة بهم. عندما يعمل الذكاء الاصطناعي في “الصناديق السوداء”، لا توجد شفافية حول كيفية أو سبب قيام الأداة بالنتائج أو القرارات التي قدمتها. إن عدم القدرة على تحديد “الخطوات التي تتم” خلف الكواليس يمكن أن يدفع الناس إلى التشكيك في صحتها. بالإضافة إلى ذلك، إذا حدث خطأ ما أو تسممت بيانات الإدخال، فإن سيناريو “الصندوق الأسود” هذا يجعل من الصعب تحديد المشكلة وإدارتها وحلها.

لماذا نحتاج للناس

البشر ليسوا مثاليين. ولكن عندما يتعلق الأمر بالتحدث والتواصل مع الناس واتخاذ قرارات استراتيجية مهمة، فمن المؤكد أن البشر هم أفضل المرشحين لهذا المنصب؟

على عكس الذكاء الاصطناعي، يمكن للناس التكيف مع المواقف المتطورة والتفكير بشكل إبداعي. وبدون القواعد المحددة مسبقًا، ومجموعات البيانات المحدودة، واستخدامات الذكاء الاصطناعي، يمكن للبشر استخدام مبادرتهم ومعرفتهم وخبراتهم السابقة لمواجهة التحديات وحل المشكلات في الوقت الفعلي.

وهذا مهم بشكل خاص عند اتخاذ القرارات الأخلاقية، وتحقيق التوازن بين الأهداف التجارية (أو الشخصية) والتأثير المجتمعي. على سبيل المثال، قد لا تأخذ أدوات الذكاء الاصطناعي المستخدمة في عمليات التوظيف في الاعتبار الآثار الأوسع نطاقًا لرفض المرشحين بناءً على التحيزات الخوارزمية، والعواقب الإضافية التي قد تترتب على ذلك على التنوع والشمول في مكان العمل.

نظرًا لأن مخرجات الذكاء الاصطناعي يتم إنشاؤها من الخوارزميات، فإنها أيضًا تتعرض لخطر كونها ذات صيغة محددة. خذ بعين الاعتبار الذكاء الاصطناعي التوليدي المستخدم لكتابة المدونات ورسائل البريد الإلكتروني والتعليقات التوضيحية على وسائل التواصل الاجتماعي: يمكن أن تجعل تراكيب الجمل المتكررة النسخة قديمة وغير جذابة للقراءة. من المرجح أن يحتوي المحتوى الذي يكتبه البشر على المزيد من الفروق الدقيقة والمنظور والشخصية، ودعنا نواجه الأمر. خاصة بالنسبة لرسائل العلامة التجارية ونبرة الصوت، قد يكون من الصعب محاكاة أسلوب الاتصال الخاص بالشركة باستخدام الخوارزميات الصارمة التي يتبعها الذكاء الاصطناعي.

مع أخذ ذلك في الاعتبار، في حين أن الذكاء الاصطناعي قد يكون قادرًا على تقديم قائمة بأسماء العلامات التجارية المحتملة على سبيل المثال، فإن الأشخاص الذين يقفون وراء العلامة التجارية هم الذين يفهمون جمهورهم حقًا وسيعرفون ما سيكون له صدى أفضل. ومع التعاطف الإنساني والقدرة على “قراءة الغرفة”، يستطيع البشر التواصل بشكل أفضل مع الآخرين، وتعزيز علاقات أقوى مع العملاء والشركاء وأصحاب المصلحة. وهذا مفيد بشكل خاص في خدمة العملاء. كما ذكرنا لاحقًا، يمكن أن يؤدي سوء خدمة العملاء إلى فقدان الولاء والثقة للعلامة التجارية.

وأخيرًا وليس آخرًا، يستطيع البشر التكيف بسرعة مع الظروف المتطورة. إذا كنت بحاجة إلى بيان عاجل للشركة حول حدث حديث أو كنت بحاجة إلى الابتعاد عن الرسالة المستهدفة الخاصة بحملة ما، فأنت بحاجة إلى إنسان. تستغرق إعادة برمجة أدوات الذكاء الاصطناعي وتحديثها وقتًا، وهو ما قد لا يكون مناسبًا في مواقف معينة.

ماهي الاجابة؟

إن النهج الأكثر فعالية للأمن السيبراني لا يتمثل في الاعتماد فقط على الذكاء الاصطناعي أو البشر، بل على استخدام نقاط القوة في كليهما. وقد يعني هذا استخدام الذكاء الاصطناعي للتعامل مع تحليل البيانات ومعالجتها على نطاق واسع مع الاعتماد على الخبرة البشرية في اتخاذ القرار والتخطيط الاستراتيجي والاتصالات. ينبغي استخدام الذكاء الاصطناعي كأداة لمساعدة القوى العاملة لديك وتعزيزها، وليس كبديل لها.

يقع الذكاء الاصطناعي في قلب منتجات ESET، مما يمكّن خبراء الأمن السيبراني لدينا من التركيز على إنشاء أفضل الحلول لعملاء ESET. تعرف على كيفية استفادة ESET من الذكاء الاصطناعي والتعلم الآلي لتعزيز اكتشاف التهديدات والتحقيق فيها والاستجابة لها.



Source link

إرسال التعليق

تفقد ما فاتك