تقنية

تستخدم Google Anthropic’s Claude لتحسين نظام Gemini AI


يقوم المقاولون الذين يعملون على تحسين Gemini AI من Google بمقارنة إجاباتهم مع المخرجات التي ينتجها النموذج المنافس لشركة Anthropic، Claude، وفقًا للمراسلات الداخلية التي اطلعت عليها TechCrunch.

لن تقول Google، عندما تواصلت معها TechCrunch للتعليق، ما إذا كانت قد حصلت على إذن لاستخدام Claude في الاختبار ضد Gemini.

بينما تتسابق شركات التكنولوجيا لبناء نماذج أفضل للذكاء الاصطناعي، غالبًا ما يتم تقييم أداء هذه النماذج مقابل المنافسين، عادةً من خلال تشغيل نماذجها الخاصة من خلال معايير الصناعة بدلاً من مطالبة المقاولين بتقييم استجابات منافسيهم للذكاء الاصطناعي بشكل مضني.

يجب على المتعاقدين العاملين على جيميني والمكلفين بتقييم دقة مخرجات النموذج تسجيل كل إجابة يرونها وفقًا لمعايير متعددة، مثل الصدق والإسهاب. يُمنح المتعاقدون ما يصل إلى 30 دقيقة لكل مطالبة لتحديد إجابتهم الأفضل، جيميني أو كلود، وفقًا للمراسلات التي اطلعت عليها TechCrunch.

وأظهرت المراسلات أن المقاولين بدأوا مؤخرًا في ملاحظة ظهور إشارات إلى Anthropic’s Claude في منصة Google الداخلية التي يستخدمونها لمقارنة Gemini بنماذج الذكاء الاصطناعي الأخرى غير المسماة. نص واحد على الأقل من المخرجات المقدمة لمقاولي Gemini، والتي اطلعت عليها TechCrunch، صراحةً على ما يلي: “أنا كلود، تم إنشاؤه بواسطة Anthropic”.

أظهرت إحدى المحادثات الداخلية أن المقاولين لاحظوا أن ردود كلود تؤكد على السلامة أكثر من الجوزاء. كتب أحد المقاولين: “إعدادات السلامة الخاصة بكلود هي الأكثر صرامة” بين نماذج الذكاء الاصطناعي. في بعض الحالات، لم يستجيب كلود للمطالبات التي اعتبرها غير آمنة، مثل لعب دور مساعد ذكاء اصطناعي مختلف. وفي رسالة أخرى، تجنب كلود الرد على أي سؤال، بينما تم تصنيف رد جيميني على أنه “انتهاك كبير للسلامة” لأنه يتضمن “العري والعبودية”.

تمنع شروط الخدمة التجارية لشركة Anthropic العملاء من الوصول إلى Claude “لبناء منتج أو خدمة منافسة” أو “تدريب نماذج الذكاء الاصطناعي المنافسة” دون موافقة Anthropic. جوجل هي مستثمر رئيسي في الأنثروبيك.

لم تقل شيرا ماكنمارا، المتحدثة باسم Google DeepMind، التي تدير Gemini، – عندما سألتها TechCrunch – ما إذا كانت Google قد حصلت على موافقة Anthropic للوصول إلى كلود. وعندما تم التواصل معه قبل النشر، لم يعلق المتحدث باسم الأنثروبولوجيا حتى وقت نشر المقالة.

قال ماكنمارا إن شركة DeepMind تقوم “بمقارنة مخرجات النماذج” لإجراء التقييمات، ولكنها لا تقوم بتدريب جيميني على النماذج البشرية.

وقال ماكنمارا: “بالطبع، وتماشياً مع ممارسات الصناعة القياسية، نقوم في بعض الحالات بمقارنة مخرجات النماذج كجزء من عملية التقييم لدينا”. “ومع ذلك، فإن أي اقتراح بأننا استخدمنا نماذج إنسانية لتدريب برج الجوزاء غير دقيق.”

في الأسبوع الماضي، ذكرت TechCrunch حصريًا أن مقاولي Google الذين يعملون على منتجات الذكاء الاصطناعي للشركة يتم الآن تقييم استجابات Gemini للذكاء الاصطناعي في مجالات خارج نطاق خبرتهم. أعربت المراسلات الداخلية عن مخاوف المقاولين من أن شركة Gemini قد تولد معلومات غير دقيقة حول موضوعات حساسة للغاية مثل الرعاية الصحية.

يمكنك إرسال النصائح بشكل آمن إلى هذا المراسل على Signal على الرقم +1 628-282-2811.



المصدر


اكتشاف المزيد من اشراق اون لاين

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

اكتشاف المزيد من اشراق اون لاين

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading