تقنية

يلوم Xai هوس Grok مع الإبادة الجماعية البيضاء على “تعديل غير مصرح به”


ألقى XAI باللوم على “تعديل غير مصرح به” لخطأ في chatbot Grok المدعوم من الذكاء الاصطناعى والذي تسبب في الرجوع مرارًا وتكرارًا إلى “الإبادة الجماعية البيضاء في جنوب إفريقيا” عندما يتم الاحتجاج بها في سياقات معينة على X.

يوم الأربعاء ، بدأ Grok في الرد على عشرات المنشورات على X مع معلومات حول الإبادة الجماعية البيضاء في جنوب إفريقيا ، حتى استجابة للمواضيع غير ذات الصلة. تنبع الردود الغريبة من حساب X لـ Grok ، والذي يستجيب للأشخاص الذين لديهم منشورات تم إنشاؤها من الذكاء الاصطناعى كلما علامات المستخدم “@grok”.

وفقًا لمشاركة يوم الخميس من حساب X الرسمي لـ XAI ، تم إجراء تغيير صباح الأربعاء إلى موجه نظام Grok Bot-التعليمات عالية المستوى التي توجه سلوك الروبوت-التي وجهت Grok لتوفير “استجابة محددة” حول “موضوع سياسي”. يقول Xai أن القرص “انتهك [its] السياسات الداخلية والقيم الأساسية “، وأن الشركة” أجرت تحقيقًا شاملاً “.

هذه هي المرة الثانية التي يعترف فيها Xai علنًا بأن تغييرًا غير مصرح به في رمز Grok يتسبب في استجابة الذكاء الاصطناعى بطرق مثيرة للجدل.

في فبراير / شباط ، قام جروك باختصار باختصار يذكر دونالد ترامب وإيلون موسك ، مؤسس الملياردير لمؤسسة Xai ومالك X. Igor Babuschkin ، وهو تقدم هندسة Xai ، إن Grok قد حصل على تعليمات من قبل الموظف الممتد في تجاهل المصادر التي ذكرت Musk أو ترامب انتشار الشكل الخاطئ ، والتحديد Xai في وقت قريب.

قال Xai يوم الخميس إنه سيجري عدة تغييرات لمنع حدوث حوادث مماثلة في المستقبل.

ابتداءً من اليوم ، ستنشر XAI نظام Grok على GitHub بالإضافة إلى Changelog. تقول الشركة إنها “ستقوم أيضًا بوضع فحوصات ومقاييس إضافية” لضمان عدم تمكن موظفي XAI من تعديل موجه النظام دون مراجعة وإنشاء “فريق مراقبة على مدار الساعة طوال أيام الأسبوع للرد على الحوادث مع إجابات Grok التي لا يتم اكتشافها بواسطة أنظمة آلية”.

على الرغم من تحذيرات Musk المتكررة من مخاطر الذكاء الاصطناعى لم يتم التحقق منها ، فإن Xai لديها سجل سيء في أمان الذكاء الاصطناعي. وجد تقرير حديث أن جروك سيخلط صور النساء عند سؤاله. يمكن أن يكون chatbot أيضًا أكثر كئيبًا من الذكاء الاصطناعى مثل Gemini و ChatGpt من Google ، مما يملأ دون ضبط كبير للحديث عنه.

وجدت دراسة أجرتها Saferai ، وهي مؤسسة غير ربحية تهدف إلى تحسين مساءلة مختبرات الذكاء الاصطناعي ، تحتل المرتبة السيئة في السلامة بين أقرانها ، بسبب ممارساتها “ضعيفة للغاية” لإدارة المخاطر. في وقت سابق من هذا الشهر ، غاب XAI عن الموعد النهائي الذي فرضته ذاتيًا لنشر إطار سلامة الذكاء الاصطناعي.





المصدر


اكتشاف المزيد من اشراق اون لاين

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

اكتشاف المزيد من اشراق اون لاين

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading