اعتذارات ميتا بعد أن قال برنامج الدردشة الآلي الخاص به والذي يعمل بالذكاء الاصطناعي إن إطلاق النار على ترامب لم يحدث
قال مساعد الذكاء الاصطناعي لشركة Meta بشكل غير صحيح أن محاولة اغتيال الرئيس السابق دونالد ترامب الأخيرة لم تحدث، وهو خطأ يعزوه الآن أحد المسؤولين التنفيذيين في الشركة إلى التكنولوجيا التي تعمل على تشغيل برنامج الدردشة الآلي الخاص بها وغيره.
وفي منشور على مدونة الشركة نُشر يوم الثلاثاء، وصف جويل كابلان، رئيس السياسة العالمية لشركة Meta، ردود الذكاء الاصطناعي على الأسئلة المتعلقة بإطلاق النار بأنها “مؤسفة”. ويقول إن Meta AI تمت برمجته في البداية لعدم الرد على الأسئلة المتعلقة بمحاولة الاغتيال، لكن الشركة أزالت هذا القيد بعد أن بدأ الناس يلاحظون ذلك. ويقر أيضًا بأنه “في عدد صغير من الحالات، واصلت Meta AI تقديم إجابات غير صحيحة، بما في ذلك التأكيد في بعض الأحيان على أن الحدث لم يحدث – وهو ما نعمل على معالجته بسرعة”.
“يشار إلى هذه الأنواع من الاستجابات باسم الهلوسة، وهي مشكلة على مستوى الصناعة نراها عبر جميع أنظمة الذكاء الاصطناعي التوليدية، وهي تمثل تحديًا مستمرًا لكيفية تعامل الذكاء الاصطناعي مع الأحداث في الوقت الفعلي من الآن فصاعدا،” يتابع كابلان، الذي يدير مجموعة الضغط في Meta. جهود. “مثل جميع أنظمة الذكاء الاصطناعي التوليدية، يمكن للنماذج أن تقدم مخرجات غير دقيقة أو غير مناسبة، وسنستمر في معالجة هذه المشكلات وتحسين هذه الميزات مع تطورها ومشاركة المزيد من الأشخاص لتعليقاتهم.”
لا يقتصر الأمر على Meta فقط، بل كان على Google يوم الثلاثاء أيضًا دحض الادعاءات القائلة بأن ميزة الإكمال التلقائي للبحث كانت تقوم بمراقبة النتائج المتعلقة بمحاولة الاغتيال. “ها نحن نعود مرة أخرى، محاولة أخرى لتزوير الانتخابات !!!” وقال ترامب في منشور على موقع Truth Social. “اتبع ميتا وجوجل.”
منذ ظهور ChatGPT على الساحة، كانت صناعة التكنولوجيا تتصارع مع كيفية الحد من ميل الذكاء الاصطناعي التوليدي إلى الأكاذيب. حاول بعض اللاعبين، مثل ميتا، ربط روبوتات الدردشة الخاصة بهم ببيانات عالية الجودة ونتائج بحث في الوقت الفعلي كوسيلة للتعويض عن الهلوسة. ولكن كما يوضح هذا المثال تحديدًا، لا يزال من الصعب التغلب على ما صممت نماذج اللغة الكبيرة للقيام به بطبيعتها: اختلاق الأشياء.
إرسال التعليق