تقنية

يقول الرائد في منظمة العفو الدولية Fei-Fei Li إن سياسة الذكاء الاصطناعي يجب أن تستند إلى “العلم وليس الخيال العلمي”


حددت Fei-Fei Li ، عالم الكمبيوتر في ستانفورد ومؤسس بدء التشغيل المعروف أحيانًا باسم “عرابة الذكاء الاصطناعي” ، “ثلاثة مبادئ أساسية لمستقبل صنع سياسات الذكاء الاصطناعى” قبل قمة AI Action الأسبوع المقبل في باريس.

أولاً ، قال لي إن السياسة يجب أن تستند إلى “العلم ، وليس الخيال العلمي”. وبعبارة أخرى ، يجب أن يركز صناع السياسة على الواقع الحالي لمنظمة العفو الدولية ، وليس على السيناريوهات المستقبلية العظيمة ، “سواء كان يوتوبيا أو نهاية العالم”.

على وجه الخصوص ، قال لي إنه من الأهمية بمكان أن يفهم صناع السياسة أن برامج الدردشة وبرامج الطيار المشترك “ليست أشكالًا من الذكاء مع النوايا ، الإرادة الحرة أو الوعي” ، حتى يتمكنوا من تجنب “إلهاء السيناريوهات بعيدة المنال” والتركيز بدلاً من على “التحديات الحيوية”.

ثانياً ، قالت إن السياسة “يجب أن تكون براغماتية ، وليس أيديولوجية” ، والتي تعني من خلالها كتابة “إلى الحد الأدنى من العواقب غير المقصودة مع تحفيز الابتكار”.

أخيرًا ، قال لي إن هذه السياسة يجب أن تمكن “النظام البيئي بأكمله من الذكاء الاصطناعي-بما في ذلك المجتمعات المفتوحة والمصادر الأوساط الأكاديمية”.

وقالت: “الوصول المفتوح إلى نماذج الذكاء الاصطناعى والأدوات الحسابية أمر بالغ الأهمية للتقدم”. “إن الحد من ذلك سيخلق حواجز وابتكار بطيء ، خاصة بالنسبة للمؤسسات الأكاديمية والباحثين الذين لديهم موارد أقل من نظرائهم في القطاع الخاص.”



المصدر


اكتشاف المزيد من اشراق اون لاين

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

اكتشاف المزيد من اشراق اون لاين

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading