تقنية

وتقول جوجل إن العملاء يمكنهم استخدام الذكاء الاصطناعي الخاص بها في المجالات “عالية الخطورة”، طالما كان هناك إشراف بشري


لقد غيرت جوجل شروطها لتوضيح أنه يمكن للعملاء نشر أدوات الذكاء الاصطناعي التوليدية الخاصة بها لاتخاذ “قرارات تلقائية” في المجالات “عالية المخاطر”، مثل الرعاية الصحية، طالما كان هناك إنسان في الحلقة.

وفقًا لسياسة الاستخدام المحظور للذكاء الاصطناعي المحدثة للشركة، والتي نُشرت يوم الثلاثاء، يجوز للعملاء استخدام الذكاء الاصطناعي التوليدي من Google لاتخاذ “قرارات تلقائية” يمكن أن يكون لها “تأثير ضار مادي على الحقوق الفردية”. شريطة أن يشرف الإنسان في بعض القدرات، يمكن للعملاء استخدام الذكاء الاصطناعي التوليدي من جوجل لاتخاذ قرارات بشأن التوظيف، والإسكان، والتأمين، والرعاية الاجتماعية، وغيرها من المجالات “عالية المخاطر”.

في سياق الذكاء الاصطناعي، تشير القرارات الآلية إلى القرارات التي يتخذها نظام الذكاء الاصطناعي بناءً على البيانات الواقعية والمستنتجة. قد يتخذ النظام قرارًا تلقائيًا بمنح قرض، على سبيل المثال، أو فحص مرشح للوظيفة.

تتضمن المسودة السابقة لشروط Google فرض حظر شامل على اتخاذ القرارات الآلية عالية المخاطر عندما يتعلق الأمر بالذكاء الاصطناعي التوليدي للشركة. لكن جوجل تخبر عملاء TechCrunch أنه يمكنهم دائمًا استخدام الذكاء الاصطناعي التوليدي الخاص بها لاتخاذ القرارات الآلية، حتى بالنسبة للتطبيقات عالية المخاطر، طالما كان الإنسان يشرف عليها.

وقال متحدث باسم جوجل عندما تم الاتصال به للتعليق عبر البريد الإلكتروني: “كان شرط الإشراف البشري دائمًا في سياستنا، بالنسبة لجميع النطاقات عالية المخاطر”. “[W]نحن نعيد تصنيف بعض العناصر [in our terms] وطرح بعض الأمثلة بشكل أكثر وضوحًا لتكون أكثر وضوحًا للمستخدمين.

لدى أكبر منافسي جوجل في مجال الذكاء الاصطناعي، OpenAI وAnthropic، قواعد أكثر صرامة تحكم استخدام الذكاء الاصطناعي الخاص بهم في اتخاذ القرارات الآلية عالية المخاطر. على سبيل المثال، تحظر شركة OpenAI استخدام خدماتها في اتخاذ القرارات الآلية المتعلقة بالائتمان والتوظيف والإسكان والتعليم والتقييم الاجتماعي والتأمين. تسمح Anthropic باستخدام الذكاء الاصطناعي الخاص بها في القانون، والتأمين، والرعاية الصحية، وغيرها من المجالات عالية المخاطر لاتخاذ القرارات الآلية، ولكن فقط تحت إشراف “محترف مؤهل” – ويتطلب من العملاء الكشف عن أنهم يستخدمون الذكاء الاصطناعي لهذا الغرض. غاية.

لقد اجتذب الذكاء الاصطناعي الذي يتخذ قرارات آلية تؤثر على الأفراد تدقيقًا من جانب الهيئات التنظيمية، الذين أعربوا عن مخاوفهم بشأن إمكانية تحيز التكنولوجيا للنتائج. تظهر الدراسات، على سبيل المثال، أن الذكاء الاصطناعي المستخدم لاتخاذ قرارات مثل الموافقة على طلبات الائتمان والرهن العقاري يمكن أن يؤدي إلى إدامة التمييز التاريخي.

وقد دعت منظمة هيومن رايتس ووتش غير الربحية إلى حظر أنظمة “التسجيل الاجتماعي” على وجه الخصوص، والتي تقول المنظمة إنها تهدد بتعطيل وصول الأشخاص إلى دعم الضمان الاجتماعي، وتعريض خصوصيتهم للخطر، وتصويرهم بطرق ضارة.

وبموجب قانون الذكاء الاصطناعي في الاتحاد الأوروبي، فإن أنظمة الذكاء الاصطناعي عالية المخاطر، بما في ذلك تلك التي تتخذ قرارات الائتمان الفردي والتوظيف، تواجه أكبر قدر من الرقابة. ويجب على مقدمي هذه الأنظمة التسجيل في قاعدة بيانات، وتنفيذ إدارة الجودة والمخاطر، وتوظيف مشرفين بشريين، والإبلاغ عن الحوادث إلى السلطات المختصة، من بين متطلبات أخرى.

وفي الولايات المتحدة، أقرت ولاية كولورادو مؤخرا قانونا يلزم مطوري الذكاء الاصطناعي بالكشف عن معلومات حول أنظمة الذكاء الاصطناعي “عالية المخاطر”، ونشر بيانات تلخص قدرات الأنظمة وقيودها. وفي الوقت نفسه، تحظر مدينة نيويورك على أصحاب العمل استخدام الأدوات الآلية لفحص المرشحين لاتخاذ قرارات التوظيف ما لم تكن الأداة خاضعة لتدقيق متحيز خلال العام السابق.



المصدر


اكتشاف المزيد من اشراق اون لاين

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

اكتشاف المزيد من اشراق اون لاين

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading