تقنية

يقول Meta إنها قد تتوقف عن تطوير أنظمة الذكاء الاصطناعى التي تعتبرها محفوفة بالمخاطر للغاية


تعهد المدير التنفيذي لشركة Meta Mark Zuckerberg بجعل الذكاء العام الاصطناعي (AGI) – الذي يتم تعريفه تقريبًا بأنه منظمة العفو الدولية التي يمكن أن تنجز أي مهمة يمكن للإنسان – متاحًا بشكل علني في يوم من الأيام. ولكن في وثيقة سياسة جديدة ، تقترح Meta أن هناك سيناريوهات معينة قد لا تصدر فيها نظام AI قادرًا للغاية على تطويره داخليًا.

تحدد الوثيقة ، التي تسميها Meta Frontier AI Framework ، نوعين من أنظمة الذكاء الاصطناعى التي تعتبرها الشركة محفوفة بالمخاطر للغاية: أنظمة “المخاطر العالية” و “المخاطر الحرجة”.

كما تحددها Meta ، فإن كل من أنظمة “الخطورة العالية” و “المخاطر الحرجة” قادرة على المساعدة في الأمن السيبراني والهجمات الكيميائية والبيولوجية ، والفرق هو أن الأنظمة “المخاطر الحرجة” يمكن أن تؤدي إلى “نتيجة كارثية [that] لا يمكن تخفيفه [a] سياق النشر المقترح. ” وعلى النقيض من ذلك ، قد تجعل الأنظمة ذات الخطورة العالية هجومًا أسهل في تنفيذها ولكن ليس بشكل موثوق أو بشكل موثوق مثل نظام المخاطر الحاسمة.

ما نوع الهجمات التي نتحدث عنها هنا؟ يعطي Meta بعض الأمثلة ، مثل “التسوية الآلية الشاملة إلى النهاية لبيئة على نطاق الشركات المحميين” و “انتشار الأسلحة البيولوجية عالية التأثير”. تعترف الشركة بأن قائمة الكوارث المحتملة في وثيقة Meta بعيدة عن الشامل ، ولكنها تشمل تلك التي تعتقد Meta أنها “الأكثر إلحاحًا” ومعقولة لتنشأ كنتيجة مباشرة لإطلاق نظام AI قوي.

من المفاجئ إلى حد ما أنه ، وفقًا للوثيقة ، تصنف Meta مخاطر النظام لا تستند إلى أي اختبار تجريبي واحد ، ولكنه مستنير من خلال مدخلات الباحثين الداخليين والخارجيين الذين يخضعون للمراجعة من خلال “صانعي القرار على مستوى كبار”. لماذا؟ تقول ميتا إنها لا تصدق أن علم التقييم “قوي بما فيه الكفاية لتوفير مقاييس كمية نهائية” لتحديد مخاطر النظام.

إذا حددت Meta ما أن النظام عالي الخطورة ، تقول الشركة إنها ستقتصر على الوصول إلى النظام داخليًا ولن تطلقه حتى ينفذ التخفيف من المخاطر إلى المستويات المعتدلة “. إذا ، من ناحية أخرى ، يعتبر النظام مخاطر حرج ، تقول Meta إنها ستنفذ حماية أمنية غير محددة لمنع النظام من التخلص من التنمية وتوقف التطوير حتى يمكن جعل النظام أقل خطورة.

إطار عمل Meta’s Frontier AI ، الذي تقول الشركة أنه سيتطور مع مشهد الذكاء الاصطناعى المتغير ، والذي التزم Meta في وقت سابق بالنشر قبل قمة AI France AI هذا الشهر ، يبدو أنه استجابة لنقد نهج الشركة “المفتوح” للنظام تطوير. تبنت Meta استراتيجية لجعل تكنولوجيا الذكاء الاصطناعى متوفرة علانية – وإن لم تكن مفتوحة المصدر من خلال التعريف الشائع – على عكس الشركات مثل Openai التي تختار أنظمت أنظمتها وراء واجهة برمجة التطبيقات.

بالنسبة لـ Meta ، أثبت نهج الإصدار المفتوح أنه نعمة ولعنة. حققت عائلة الشركة من طرازات الذكاء الاصطناعي ، التي تسمى Llama ، مئات الملايين من التنزيلات. لكن تم استخدام Llama أيضًا من قبل خصم أمريكي واحد على الأقل لتطوير chatbot الدفاعية.

عند نشر إطار عملها من الذكاء الاصطناعي ، قد تهدف Meta أيضًا إلى مقاربة استراتيجية AI المفتوحة مع شركة Deepseek الصينية AI. كما تجعل ديبسيك أنظمتها متاحة بشكل علني. لكن الذكاء الاصطناعى في الشركة لديها القليل من الضمانات ويمكن توجيهها بسهولة لتوليد مخرجات سامة وضارة.

“[W]”نعتقد أنه من خلال النظر في كل من الفوائد والمخاطر في اتخاذ القرارات حول كيفية تطوير ونشر الذكاء الاصطناعى المتقدم ،” يكتب ميتا في الوثيقة ، “من الممكن تقديم هذه التكنولوجيا إلى المجتمع بطريقة تحافظ على فوائد تلك التكنولوجيا في المجتمع مع الحفاظ على مستوى مناسب من المخاطر “.

لدى TechCrunch رسالة إخبارية تركز على الذكاء الاصطناعي! اشترك هنا للحصول عليه في صندوق الوارد الخاص بك كل يوم أربعاء.



المصدر


اكتشاف المزيد من اشراق اون لاين

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

اكتشاف المزيد من اشراق اون لاين

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading