تطلق الأنثروبريز برنامجًا جديدًا لدراسة الذكاء الاصطناعي

هل يمكن أن تكون AIS في المستقبل “واعية” ، وتجربة العالم بشكل مشابه للطريقة التي يفعلها البشر؟ لا يوجد دليل قوي على أنهم سيفعلون ، لكن الأنثروبور لا يستبعد هذا الاحتمال.
في يوم الخميس ، أعلن مختبر الذكاء الاصطناعي أنه بدأ برنامجًا بحثًا للتحقيق – والاستعداد للتنقل – ما يطلق عليه “الرفاهية النموذجية”. كجزء من هذا الجهد ، تقول الأنثروبور إنها ستستكشف أشياء مثل كيفية تحديد ما إذا كانت “رفاهية” نموذج الذكاء الاصطناعي تستحق النظر الأخلاقي ، والأهمية المحتملة لـ “علامات الضيق” ، والتدخلات “المنخفضة التكلفة” المحتملة.
هناك خلاف كبير داخل مجتمع الذكاء الاصطناعى حول ما “معرض” الخصائص البشرية ، إن وجد ، وكيف ينبغي لنا “معاملتها”.
يعتقد العديد من الأكاديميين أن الذكاء الاصطناعى اليوم لا يمكن أن يتقارب الوعي أو التجربة الإنسانية ، ولن يكونوا بالضرورة قادرين على ذلك في المستقبل. الذكاء الاصطناعى كما نعلم أنه محرك تنبؤ إحصائي. لا “التفكير” أو “الشعور” حقًا حيث تم فهم تلك المفاهيم تقليديًا. تدرب على أمثلة لا حصر لها من النصوص والصور وما إلى ذلك ، يتعلم الذكاء الاصطناعي الأنماط وطرق مفيدة في وقت ما لاستقراء المهام.
كما أخبر مايك كوك ، زميل أبحاث في King’s College London متخصصًا في الذكاء الاصطناعى ، أخبر TechCrunch مؤخرًا في مقابلة ، لا يمكن أن “يعارض” التغيير في “قيمها” لأن النماذج لا تفعل ذلك يملك قيم. أن اقترح خلاف ذلك هو إسقاطنا على النظام.
وقال كوك: “أي شخص تجسيد أنظمة الذكاء الاصطناعى إلى هذه الدرجة هو إما أن يلعب من أجل الاهتمام أو سوء فهم علاقتهما مع الذكاء الاصطناعى”. “هل نظام الذكاء الاصطناعى يتحسن لأهدافه ، أم أنه” يكتسب قيمه الخاصة “؟ إنها مسألة كيف تصفها ، وكيف أن اللغة التي تريد استخدامها فيما يتعلق بها.”
وقال باحث آخر ، وهو ستيفن كاسبر ، طالب الدكتوراه في معهد ماساتشوستس للتكنولوجيا ، لـ TechCrunch إنه يعتقد أن الذكاء الاصطناعي ترقى إلى “مقلد” ذلك “ذلك”[does] كل أنواع الخلل[s]”ويقول” كل أنواع الأشياء التافهة “.
ومع ذلك يصر العلماء الآخرون على أن الذكاء الاصطناعي يفعل لها قيم ومكونات أخرى تشبه الإنسان لاتخاذ القرارات الأخلاقية. تشير دراسة خارج مركز سلامة الذكاء الاصطناعي ، وهي منظمة أبحاث منظمة العفو الدولية ، إلى أن الذكاء الاصطناعى لديه أنظمة قيمة تقودها إلى إعطاء الأولوية لرفاهيتها على البشر في سيناريوهات معينة.
لقد وضعت الأنثروبور الأساس لمبادرة رفاهية النموذج لبعض الوقت. في العام الماضي ، استأجرت الشركة أول باحث مخصص “AI Welfare” ، Kyle Fish ، لتطوير إرشادات لكيفية تعامل الشركات الإنسانية والشركات الأخرى. (قال فيش ، الذي يقود برنامج أبحاث الرفاهية النموذجي الجديد ، لصحيفة نيويورك تايمز إنه يعتقد أن هناك فرصة بنسبة 15 ٪ كلود أو منظمة العفو الدولية الأخرى واعية اليوم).
في منشور مدونة يوم الخميس ، أقرت الأنثروبور أنه لا يوجد إجماع علمي حول ما إذا كانت أنظمة الذكاء الاصطناعى الحالية أو المستقبلية يمكن أن تكون واعية أو لديها تجارب تضمن الاعتبار الأخلاقي.
وقالت الشركة: “في ضوء ذلك ، نقترب من الموضوع بتواضع ومع عدد قليل من الافتراضات قدر الإمكان”. “نحن ندرك أننا سنحتاج إلى مراجعة أفكارنا بانتظام مع تطور المجال.
اكتشاف المزيد من اشراق اون لاين
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.