تقنية

X المستخدمون الذين يتعاملون مع Grok مثل مخاوف تفوق الحقائق بشأن المعلومات الخاطئة


يلجأ بعض المستخدمين في إيلون موسك X إلى Musk من AI Bot Grok لتحقيق الحقائق ، مما يثير مخاوف بين محددات الحقائق البشرية من أن هذا قد يعوق المعلومات الخاطئة.

في وقت سابق من هذا الشهر ، مكّن X المستخدمين من استدعاء Xai’s Grok وطرح أسئلة حول أشياء مختلفة. كانت هذه الخطوة مشابهة للحير ، الذي كان يدير حسابًا آليًا على X لتقديم تجربة مماثلة.

بعد فترة وجيزة من إنشاء XAI على حساب Grok الآلي على X ، بدأ المستخدمون في تجربة طرح الأسئلة عليها. بدأ بعض الأشخاص في الأسواق بما في ذلك الهند في مطالبة Grok بالتحقق من التعليقات والأسئلة التي تستهدف معتقدات سياسية محددة.

يشعر مراقبو الحقائق بالقلق إزاء استخدام Grok-أو أي مساعد آخر من الذكاء الاصطناعي من هذا النوع-وبهذه الطريقة لأن الروبوتات يمكنها تأطير إجاباتهم على الصوت المقنع ، حتى لو لم تكن صحيحة في الواقع. شوهدت حالات نشر الأخبار المزيفة والمعلومات الخاطئة مع Grok في الماضي.

في أغسطس من العام الماضي ، حث خمسة من أمناء الدولة Musk على تنفيذ تغييرات حرجة على Grok بعد المعلومات المضللة التي أنشأها المساعد على الشبكات الاجتماعية قبل الانتخابات الأمريكية.

كما شوهدت chatbots الأخرى ، بما في ذلك chatgpt من Openai و Google’s Gemini ، أنها تولد معلومات غير دقيقة عن الانتخابات العام الماضي. بشكل منفصل ، وجد باحثو المعلومات المضللة في عام 2023 أنه يمكن بسهولة استخدام chatbots من الذكاء الاصطناعي بما في ذلك chatgpt لإنتاج نص مقنع مع روايات مضللة.

وقال أنجي هولان ، مدير شبكة توحيد الحقائق (IFCN) في Poynter ، “إن مساعدي الذكاء الاصطناعى ، مثل Grok ، هم جيدون حقًا في استخدام اللغة الطبيعية وإعطاء إجابة تبدو وكأنها إنسان.

تم طلب Grok من قبل مستخدم على X لفحص الحقائق على المطالبات المقدمة من مستخدم آخر

على عكس مساعدي الذكاء الاصطناعى ، يستخدم محلمو الحقائق البشرية مصادر متعددة وذات مصداقية للتحقق من المعلومات. كما أنهم يتحملون المساءلة الكاملة عن النتائج التي توصلوا إليها ، مع إرفاق أسمائهم ومؤسساتهم لضمان المصداقية.

قال براتيك سينها ، المؤسس المشارك لموقع ALT News الذي يربح الحقائق في الهند ، إنه على الرغم من أن Grok يبدو أنه يتمتع بإجابات مقنعة ، إلا أنها جيدة مثل البيانات التي يتم توفيرها لها.

“من الذي سيقرر البيانات التي يتم توفيرها ، وهذا هو المكان الذي سيأتي فيه تدخل الحكومة ، وما إلى ذلك ، إلى الصورة”.

“لا توجد شفافية. أي شيء يفتقر إلى الشفافية سوف يسبب ضررًا لأن أي شيء يفتقر إلى الشفافية يمكن تشكيله بأي طريقة.”

“يمكن إساءة استخدامها – لنشر المعلومات الخاطئة”

في أحد الردود المنشورة في وقت سابق من هذا الأسبوع ، اعترف حساب Grok على X بأنه “يمكن إساءة استخدامه – لنشر المعلومات الخاطئة وانتهاك الخصوصية”.

ومع ذلك ، فإن الحساب الآلي لا يعرض أي إخلاء المسئولية للمستخدمين عندما يحصلون على إجاباته ، مما يؤدي إلى أن يتم تضليلهم إذا كان ، على سبيل المثال ، هلوس الإجابة ، وهو العيب المحتمل لمنظمة العفو الدولية.

استجابة Grok حول ما إذا كان يمكن أن تنشر معلومات مضللة (ترجمت من Hinglish)

وقال أنوشكا جاين ، باحث شريك في مختبر “أبحاث العواصف الرقمية” الرقمية في غوا: “قد يعوض عن معلومات لتوفير استجابة”.

هناك أيضًا بعض الأسئلة حول مقدار ما يستخدمه Grok المنشورات على X كبيانات تدريب ، وما هي مقاييس مراقبة الجودة التي تستخدمها للتحقق من هذه المنشورات. في الصيف الماضي ، دفعت تغييرًا يبدو للسماح لـ Grok باستهلاك بيانات المستخدم X بشكل افتراضي.

والآخر فيما يتعلق بمساعدي الذكاء الاصطناعى مثل Grok يمكن الوصول إليه من خلال منصات التواصل الاجتماعي هو تقديم المعلومات في الأماكن العامة – على عكس chatgpt أو غيرها من الدردشة التي يتم استخدامها على انفراد.

حتى إذا كان المستخدم يدرك جيدًا أن المعلومات التي يحصل عليها من المساعد قد تكون مضللة أو غير صحيحة تمامًا ، فإن الآخرين على النظام الأساسي قد لا يزالون يصدقونها.

هذا يمكن أن يسبب أضرار اجتماعية خطيرة. شوهدت حالات ذلك في وقت سابق في الهند عندما أدت المعلومات الخاطئة على WhatsApp إلى انهيار الغوغاء. ومع ذلك ، حدثت تلك الحوادث الشديدة قبل وصول Genai ، مما جعل توليد المحتوى الاصطناعي أسهل ويبدو أكثر واقعية.

“إذا رأيت الكثير من هذه الإجابات Grok ، فستقول ، مهلا ، حسنًا ، معظمها على حق ، وقد يكون ذلك كذلك ، ولكن سيكون هناك بعض الخاطئ. وكم عددهم ليس كسرًا صغيرًا. وقد أظهرت بعض الدراسات البحثية أن نماذج AI تخضع لمعدلات خطأ بنسبة 20 ٪ … وعندما يحدث خطأ ، يمكن أن تخطئ حقًا في العالم الحقيقي.”

منظمة العفو الدولية مقابل مدققات الحقائق الحقيقية

على الرغم من أن شركات الذكاء الاصطناعى بما في ذلك XAI تقوم بتحسين نماذج الذكاء الاصطناعى لجعلها تتواصل أكثر مثل البشر ، إلا أنها لا تزال – ولا يمكنها – استبدال البشر.

على مدار الأشهر القليلة الماضية ، تستكشف شركات التكنولوجيا طرقًا لتقليل الاعتماد على محققات الحقائق البشرية. بدأت المنصات بما في ذلك X و Meta في احتضان المفهوم الجديد لتكسير الحقائق الجماعية من خلال ما يسمى ملاحظات المجتمع.

وبطبيعة الحال ، فإن هذه التغييرات تسبب أيضًا القلق من المدققين في الحقيقة.

يعتقد Sinha of Alt News بشكل متفائل أن الناس سيتعلمون التمييز بين الآلات ومدحار الحقائق البشرية وسيقدرون دقة البشر أكثر.

وقال هولان من IFCN: “سنرى البندول يتأرجح في النهاية نحو المزيد من الحقائق”.

ومع ذلك ، لاحظت أنه في غضون ذلك ، من المحتمل أن يكون لدى مراقبي الحقائق المزيد من العمل فيما يتعلق بالمعلومات التي تم إنشاؤها بواسطة الذكاء الاصطناعى والتي تنتشر بسرعة.

وقالت: “يعتمد الكثير من هذه المشكلة ، هل تهتم حقًا بما هو صحيح بالفعل أم لا؟ هل تبحث فقط عن قشرة شيء يبدو ويبدو أنه حقيقي دون أن تكون حقيقيًا؟ لأن هذا ما ستحصل عليه مساعدة منظمة العفو الدولية”.

لم يرد X و Xai على طلبنا للتعليق.



المصدر


اكتشاف المزيد من اشراق اون لاين

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

اكتشاف المزيد من اشراق اون لاين

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading