يقول الرائد في منظمة العفو الدولية Fei-Fei Li إن سياسة الذكاء الاصطناعي يجب أن تستند إلى “العلم وليس الخيال العلمي”
![يقول الرائد في منظمة العفو الدولية Fei-Fei Li إن سياسة الذكاء الاصطناعي يجب أن تستند إلى “العلم وليس الخيال العلمي” يقول الرائد في منظمة العفو الدولية Fei-Fei Li إن سياسة الذكاء الاصطناعي يجب أن تستند إلى “العلم وليس الخيال العلمي”](https://i0.wp.com/techcrunch.com/wp-content/uploads/2024/10/GettyImages-1833911955.jpg?resize=780%2C470&ssl=1)
حددت Fei-Fei Li ، عالم الكمبيوتر في ستانفورد ومؤسس بدء التشغيل المعروف أحيانًا باسم “عرابة الذكاء الاصطناعي” ، “ثلاثة مبادئ أساسية لمستقبل صنع سياسات الذكاء الاصطناعى” قبل قمة AI Action الأسبوع المقبل في باريس.
أولاً ، قال لي إن السياسة يجب أن تستند إلى “العلم ، وليس الخيال العلمي”. وبعبارة أخرى ، يجب أن يركز صناع السياسة على الواقع الحالي لمنظمة العفو الدولية ، وليس على السيناريوهات المستقبلية العظيمة ، “سواء كان يوتوبيا أو نهاية العالم”.
على وجه الخصوص ، قال لي إنه من الأهمية بمكان أن يفهم صناع السياسة أن برامج الدردشة وبرامج الطيار المشترك “ليست أشكالًا من الذكاء مع النوايا ، الإرادة الحرة أو الوعي” ، حتى يتمكنوا من تجنب “إلهاء السيناريوهات بعيدة المنال” والتركيز بدلاً من على “التحديات الحيوية”.
ثانياً ، قالت إن السياسة “يجب أن تكون براغماتية ، وليس أيديولوجية” ، والتي تعني من خلالها كتابة “إلى الحد الأدنى من العواقب غير المقصودة مع تحفيز الابتكار”.
أخيرًا ، قال لي إن هذه السياسة يجب أن تمكن “النظام البيئي بأكمله من الذكاء الاصطناعي-بما في ذلك المجتمعات المفتوحة والمصادر الأوساط الأكاديمية”.
وقالت: “الوصول المفتوح إلى نماذج الذكاء الاصطناعى والأدوات الحسابية أمر بالغ الأهمية للتقدم”. “إن الحد من ذلك سيخلق حواجز وابتكار بطيء ، خاصة بالنسبة للمؤسسات الأكاديمية والباحثين الذين لديهم موارد أقل من نظرائهم في القطاع الخاص.”
اكتشاف المزيد من اشراق اون لاين
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.