تقنية

تقول شركة جوجل إن نماذجها الجديدة للذكاء الاصطناعي يمكنها التعرف على المشاعر، وهو ما يثير قلق الخبراء


تقول شركة جوجل إن عائلة نماذج الذكاء الاصطناعي الجديدة لديها ميزة غريبة: القدرة على “التعرف” على المشاعر.

تم الإعلان عن مجموعة عارضات PaliGemma 2، التي تم الإعلان عنها يوم الخميس، والتي يمكنها تحليل الصور، مما يمكّن الذكاء الاصطناعي من إنشاء تعليقات توضيحية والإجابة على أسئلة حول الأشخاص الذين “يراهم” في الصور.

وكتبت Google في منشور مدونة تمت مشاركته مع TechCrunch: “يولد PaliGemma 2 تسميات توضيحية مفصلة وذات صلة بالسياق للصور، ويتجاوز التعرف البسيط على الكائنات لوصف الإجراءات والعواطف والسرد العام للمشهد”.

تقول Google أن PaliGemma 2 يعتمد على مجموعة نماذج Gemma المفتوحة، وتحديدًا سلسلة Gemma 2.اعتمادات الصورة:جوجل

لا يتم التعرف على المشاعر بشكل خارج عن المألوف، ويجب تحسين PaliGemma 2 لهذا الغرض. ومع ذلك، أعرب الخبراء الذين تحدثت معهم TechCrunch عن انزعاجهم من احتمال وجود كاشف للعواطف متاح بشكل عام.

وقالت ساندرا واتشر، أستاذة أخلاقيات البيانات والذكاء الاصطناعي في معهد أكسفورد للإنترنت، لموقع TechCrunch: “هذا أمر مقلق للغاية بالنسبة لي”. “أجد أنه من الصعب افتراض أننا نستطيع “قراءة” مشاعر الناس. إنه مثل طلب النصيحة من Magic 8 Ball.”

لسنوات، حاولت الشركات الناشئة وعمالقة التكنولوجيا على حد سواء بناء ذكاء اصطناعي يمكنه اكتشاف العواطف في كل شيء بدءًا من التدريب على المبيعات وحتى منع الحوادث. ويدعي البعض أنهم قد حققوها، لكن العلم يقف على أرضية تجريبية هشة.

تستمد غالبية أجهزة الكشف عن المشاعر إشاراتها من العمل المبكر لبول إيكمان، عالم النفس الذي افترض أن البشر يشتركون في ستة مشاعر أساسية مشتركة: الغضب، والمفاجأة، والاشمئزاز، والاستمتاع، والخوف، والحزن. ألقت الدراسات اللاحقة ظلالاً من الشك على فرضية إيكمان، وأظهرت وجود اختلافات كبيرة في الطريقة التي يعبر بها الأشخاص من خلفيات مختلفة عما يشعرون به.

وقال مايك كوك، زميل باحث في جامعة كوين ماري متخصص في الذكاء الاصطناعي، لـ TechCrunch: “إن اكتشاف المشاعر غير ممكن في الحالة العامة، لأن الناس يختبرون المشاعر بطرق معقدة”. “بالطبع، نعتقد أننا نستطيع معرفة ما يشعر به الآخرون من خلال النظر إليهم، وقد حاول الكثير من الأشخاص على مر السنين أيضًا، مثل وكالات التجسس أو شركات التسويق. أنا متأكد من أنه من الممكن تمامًا اكتشاف بعض الدلالات العامة في بعض الحالات، لكنه ليس شيئًا يمكننا “حله” بشكل كامل على الإطلاق.

والنتيجة غير المفاجئة هي أن أنظمة الكشف عن المشاعر تميل إلى أن تكون غير موثوقة، ومنحازة لافتراضات مصمميها. في دراسة أجراها معهد ماساتشوستس للتكنولوجيا عام 2020، أظهر الباحثون أن نماذج تحليل الوجه يمكن أن تطور تفضيلات غير مقصودة لتعابير معينة، مثل الابتسامة. يشير العمل الأحدث إلى أن نماذج التحليل العاطفي تنسب مشاعر سلبية إلى وجوه السود أكثر من وجوه الأشخاص البيض.

تقول Google إنها أجرت “اختبارات واسعة النطاق” لتقييم التحيزات الديموغرافية في PaliGemma 2، ووجدت “مستويات منخفضة من السمية والألفاظ النابية” مقارنة بمعايير الصناعة. لكن الشركة لم تقدم القائمة الكاملة للمعايير التي استخدمتها، ولم تشر إلى أنواع الاختبارات التي تم إجراؤها.

المعيار الوحيد الذي كشفت عنه جوجل هو FairFace، وهو عبارة عن مجموعة من عشرات الآلاف من صور الأشخاص. تدعي الشركة أن PaliGemma 2 سجلت نتائج جيدة على FairFace. لكن بعض الباحثين انتقدوا المعيار باعتباره مقياسًا متحيزًا، مشيرين إلى أن FairFace لا يمثل سوى عدد قليل من المجموعات العرقية.

قالت هايدي خلاف، كبيرة علماء الذكاء الاصطناعي في معهد AI Now، وهي منظمة غير ربحية تدرس الآثار المجتمعية للتقنيات الاصطناعية: “إن تفسير العواطف هو أمر شخصي تمامًا يمتد إلى ما هو أبعد من استخدام المساعدات البصرية، وهو جزء لا يتجزأ من السياق الشخصي والثقافي”. ذكاء. “بغض النظر عن الذكاء الاصطناعي، أظهرت الأبحاث أننا لا نستطيع استنتاج العواطف من ملامح الوجه وحدها.”

أثارت أنظمة الكشف عن المشاعر حفيظة الجهات التنظيمية في الخارج، التي سعت إلى الحد من استخدام التكنولوجيا في السياقات عالية المخاطر. يحظر قانون الذكاء الاصطناعي، وهو الجزء الرئيسي من تشريعات الذكاء الاصطناعي في الاتحاد الأوروبي، على المدارس وأصحاب العمل نشر أجهزة كشف المشاعر (ولكن ليس وكالات إنفاذ القانون).

أكبر مخاوف بشأن النماذج المفتوحة مثل PaliGemma 2، المتوفرة من عدد من المضيفين بما في ذلك منصة تطوير الذكاء الاصطناعي Hugging Face، هو أنه سيتم إساءة استخدامها أو إساءة استخدامها، مما قد يؤدي إلى ضرر في العالم الحقيقي.

“إذا كان هذا “الهوية العاطفية” المزعومة مبنيًا على افتراضات علمية زائفة، فهناك آثار كبيرة في كيفية استخدام هذه القدرة لمزيد من التمييز – والزائف – ضد المجموعات المهمشة كما هو الحال في إنفاذ القانون، والموارد البشرية، وإدارة الحدود، قال خلاف.

عند سؤاله عن مخاطر إطلاق PaliGemma 2 علنًا، قال متحدث باسم Google إن الشركة تقف وراء اختباراتها الخاصة بـ “الأضرار التمثيلية” من حيث صلتها بالإجابة على الأسئلة المرئية والتسميات التوضيحية. وأضافوا: “لقد أجرينا تقييمات قوية لنماذج PaliGemma 2 فيما يتعلق بالأخلاق والسلامة، بما في ذلك سلامة الأطفال وسلامة المحتوى”.

المراقب غير مقتنع بأن هذا يكفي.

وقالت: “الابتكار المسؤول يعني أنك تفكر في العواقب منذ اليوم الأول الذي تدخل فيه إلى مختبرك وتستمر في القيام بذلك طوال دورة حياة المنتج”. “أستطيع أن أفكر في عدد لا يحصى من القضايا المحتملة [with models like this] يمكن أن يؤدي ذلك إلى مستقبل بائس، حيث تحدد عواطفك ما إذا كنت ستحصل على الوظيفة، أو القرض، أو ما إذا تم قبولك في الجامعة.



المصدر


اكتشاف المزيد من اشراق اون لاين

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى

اكتشاف المزيد من اشراق اون لاين

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading