تقنية

تشير المجموعة التي تقودها المجموعة من قبل Fei-Fei Li إلى أن قوانين سلامة الذكاء الاصطناعى يجب أن تتوقع المخاطر المستقبلية


في تقرير جديد ، تشير مجموعة السياسات التي تتخذ من كاليفورنيا مقراً لها إلى Fei-Fei Li ، وهي رائدة في منظمة العفو الدولية ، إلى أنه ينبغي على المشرعين النظر في مخاطر الذكاء الاصطناعي التي “لم يتم ملاحظتها بعد في العالم” عند صياغة السياسات التنظيمية لمنظمة العفو الدولية.

يأتي التقرير المؤقت المكون من 41 صفحة يوم الثلاثاء من مجموعة عمل السياسة المشتركة في كاليفورنيا حول نماذج Frontier AI ، وهو جهد نظمه الحاكم غافن Newsom بعد حق النقض في مشروع قانون السلامة المثير للجدل في كاليفورنيا ، SB 1047. بينما وجد Newsom أن SB 1047 ضاعت العلامة ، فقد اعترف في العام الماضي بالحاجة إلى إجراء تقييم أكثر شمولاً لمخاطر AI.

في التقرير ، يجادل LI ، إلى جانب المؤلفين المشاركين في كلية الحوسبة ، عميد الحوسبة جنيفر تشايس ، وكارنيجي ، رئيس السلام الدولي ، ماريانو-فلورنتينو كويلار ، لصالح القوانين التي ستزيد من الشفافية إلى ما تبنيه حدود AI Labs مثل Openai. استعرض أصحاب المصلحة في الصناعة من جميع أنحاء الطيف الأيديولوجي التقرير قبل نشره ، بما في ذلك دعاة سلامة الذكاء الاصطناعى القوي مثل تورينج جائزة يوشوا بنيو وكذلك أولئك الذين جادلوا ضد SB 1047 ، مثل المؤسس المشارك لـ Databricks Ion Stoica.

وفقًا للتقرير ، قد تتطلب المخاطر الجديدة التي تطرحها أنظمة الذكاء الاصطناعي قوانين من شأنها أن تجبر مطوري النماذج من الذكاء الاصطناعى على الإبلاغ عن اختبارات السلامة الخاصة بهم وممارسات الحصول على البيانات والتدابير الأمنية علنًا. يدعو التقرير أيضًا إلى زيادة المعايير حول تقييمات الطرف الثالث لهذه المقاييس وسياسات الشركات ، بالإضافة إلى حماية المبلغين عن المخالفات الموسعة لموظفي شركة AI والمقاولين.

لي وآخرون. اكتب ، هناك “مستوى غير حاسم من الأدلة” لإمكانية منظمة العفو الدولية للمساعدة في تنفيذ الهجمات الإلكترونية ، أو إنشاء أسلحة بيولوجية ، أو إحداث تهديدات “متطرفة” أخرى. ومع ذلك ، يجادلون أيضًا بأن سياسة الذكاء الاصطناعى يجب ألا تعالج المخاطر الحالية فحسب ، بل تتوقع العواقب المستقبلية التي قد تحدث دون ضمانات كافية.

“على سبيل المثال ، لا نحتاج إلى مراقبة سلاح نووي [exploding] يقول التقرير: “للتنبؤ بشكل موثوق بأنه يمكن أن يسبب ضررًا واسعًا ،” إذا كان أولئك الذين يتكهنون بالمخاطر الأكثر تطرفًا على صواب – ونحن غير متأكدين مما إذا كانوا – في ذلك الحصون وتكاليف التقاعس عن العمل على الحدود في هذه اللحظة الحالية للغاية. “

يوصي التقرير باستراتيجية ذات شقين لتعزيز شفافية تطوير نموذج الذكاء الاصطناعي: الثقة ولكن التحقق. يقول التقرير إن مطوري النماذج من الذكاء الاصطناعى وموظفيهم يجب أن يتم تقديم طرق للإبلاغ عن مجالات الاهتمام العام ، مثل اختبار السلامة الداخلية ، بينما يُطلب منهم أيضًا تقديم مطالبات الاختبار للتحقق من الطرف الثالث.

على الرغم من أن التقرير ، الذي سيصدر النسخة النهائية منه في يونيو 2025 ، لا يؤيد تشريعًا محددًا ، فقد استقبله خبراء على جانبي مناقشة صنع السياسة.

قال دين بول ، وهو زميل أبحاث يركز على الذكاء الاصطناعى في جامعة جورج ماسون والذي كان ينتقد SB 1047 ، في منشور عن X أن التقرير كان خطوة واعدة لتنظيم سلامة الذكاء الاصطناعي في كاليفورنيا. إنه أيضًا فوز لمدافع السلامة من الذكاء الاصطناعى ، وفقًا لما ذكره السناتور في ولاية كاليفورنيا سكوت وينر ، الذي قدم SB 1047 العام الماضي. وقال وينر في بيان صحفي إن التقرير يعتمد على “محادثات عاجلة حول حوكمة الذكاء الاصطناعي بدأنا في الهيئة التشريعية [in 2024]”

يبدو أن التقرير يتوافق مع عدة مكونات من SB 1047 و Wiener’s Follow Bill ، SB 53 ، مثل مطالبة مطوري نماذج الذكاء الاصطناعى بالإبلاغ عن نتائج اختبارات السلامة. مع مراعاة رؤية أوسع ، يبدو أنه فوز تمس الحاجة إليه لأفراد سلامة الذكاء الاصطناعي ، الذين فقدت أجندتهم الأرضية في العام الماضي.



المصدر


اكتشاف المزيد من اشراق اون لاين

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

اكتشاف المزيد من اشراق اون لاين

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading