تقنية

ينفي ” ماسك ” علمه بوجود صور جنسية لـ ” Grok ” لقاصرين بينما تطلق شركة California AG تحقيقًا


قال إيلون موسك يوم الأربعاء إنه “ليس على علم بأي صور عارية لقاصرات أنشأها Grok”، قبل ساعات من فتح المدعي العام في كاليفورنيا تحقيقًا في برنامج الدردشة الآلي الخاص بـ xAI بشأن “انتشار المواد الجنسية الصريحة غير التوافقية”.

ويأتي إنكار ماسك مع تصاعد الضغوط من الحكومات في جميع أنحاء العالم – من المملكة المتحدة وأوروبا إلى ماليزيا وإندونيسيا – بعد أن بدأ مستخدمو X يطلبون من Grok تحويل صور النساء الحقيقيات، وفي بعض الحالات الأطفال، إلى صور جنسية دون موافقتهم. قدرت Copyleaks، وهي منصة للكشف عن الذكاء الاصطناعي وإدارة المحتوى، أنه تم نشر صورة واحدة تقريبًا كل دقيقة على X. ووجدت عينة منفصلة تم جمعها في الفترة من 5 إلى 6 يناير 6700 صورة في الساعة على مدار 24 ساعة. (X وxAI جزء من نفس الشركة.)

وقال المدعي العام في كاليفورنيا روب بونتا في بيان: “هذه المواد… استُخدمت لمضايقة الناس عبر الإنترنت”. “أحث شركة xAI على اتخاذ إجراءات فورية لضمان عدم المضي قدمًا في هذا الأمر.”

وسيقوم مكتب النائب العام بالتحقيق فيما إذا كانت شركة XAI قد انتهكت القانون وكيف ذلك.

توجد عدة قوانين لحماية أهداف الصور الجنسية غير التوافقية ومواد الاعتداء الجنسي على الأطفال (CSAM). في العام الماضي، تم التوقيع على قانون Take It Down Act ليصبح قانونًا فيدراليًا، والذي يجرم التوزيع المتعمد للصور الحميمية غير التوافقية – بما في ذلك التزييف العميق – ويتطلب من منصات مثل X إزالة مثل هذا المحتوى في غضون 48 ساعة. لدى ولاية كاليفورنيا أيضًا سلسلة قوانينها الخاصة التي وقعها حاكم الولاية جافين نيوسوم في عام 2024 للقضاء على التزييف العميق الجنسي الصريح.

بدأ Grok في تلبية طلبات المستخدمين على X لإنتاج صور جنسية للنساء والأطفال في نهاية العام. يبدو أن هذا الاتجاه قد انطلق بعد أن قام بعض منشئي المحتوى للبالغين بمطالبة Grok بإنشاء صور جنسية لأنفسهم كشكل من أشكال التسويق، مما أدى بعد ذلك إلى قيام مستخدمين آخرين بإصدار مطالبات مماثلة. في عدد من القضايا العامة، بما في ذلك شخصيات معروفة مثل الممثلة ميلي بوبي براون في فيلم Stranger Things، استجابت شركة Grok للمطالبات التي طلبت منها تغيير الصور الحقيقية لنساء حقيقيات عن طريق تغيير الملابس، أو وضع الجسم، أو السمات الجسدية بطرق جنسية صريحة.

وفقًا لبعض التقارير، بدأت شركة xAI في تنفيذ الضمانات لمعالجة هذه المشكلة. يتطلب Grok الآن اشتراكًا مميزًا قبل الاستجابة لطلبات معينة لإنشاء الصور، وحتى في هذه الحالة قد لا يتم إنشاء الصورة. صرحت أبريل كوزين، نائب الرئيس للتسويق في Copyleaks، لـ TechCrunch أن Grok قد تلبي الطلب بطريقة أكثر عمومية أو مخففة. وأضافوا أن Grok يبدو أكثر تساهلاً مع منشئي المحتوى للبالغين.

حدث تك كرانش

سان فرانسيسكو
|
13-15 أكتوبر 2026

قال كوزين: “بشكل عام، تشير هذه السلوكيات إلى أن X يقوم بتجريب آليات متعددة لتقليل أو التحكم في توليد الصور الإشكالية، على الرغم من استمرار وجود تناقضات”.

ولم يقم كل من xAI ولا Musk بمعالجة المشكلة علنًا بشكل مباشر. بعد أيام قليلة من بدء هذه الحالات، بدا أن ” ماسك ” يسلط الضوء على المشكلة من خلال مطالبة ” جروك ” بإنشاء صورة لنفسه وهو يرتدي البيكيني. في 3 يناير، قال حساب السلامة الخاص بـ X إن الشركة تتخذ “إجراءات ضد المحتوى غير القانوني على X، بما في ذلك [CSAM]”، دون معالجة افتقار جروك الواضح للضمانات على وجه التحديد أو إنشاء صور جنسية تم التلاعب بها تتعلق بالنساء.

يعكس هذا الموضع ما نشره Musk اليوم، مشددًا على عدم الشرعية وسلوك المستخدم.

كتب ” ماسك ” أنه “لم يكن على علم بأي صور عارية لقاصرين تم إنشاؤها بواسطة Grok. حرفيًا صفر”. لا ينكر هذا البيان وجود صور بيكيني أو تعديلات جنسية على نطاق أوسع.

قال مايكل جوديير، الأستاذ المساعد في كلية الحقوق في نيويورك والمقاضي السابق، لـ TechCrunch إن ماسك من المحتمل أن يركز بشكل ضيق على CSAM لأن العقوبات المفروضة على إنشاء أو توزيع صور جنسية اصطناعية للأطفال أكبر.

قال جوديير: “على سبيل المثال، في الولايات المتحدة، يمكن أن يواجه الموزع أو الموزع المهدد بـ CSAM عقوبة السجن لمدة تصل إلى ثلاث سنوات بموجب قانون Take It Down، مقارنة بسنتين بسبب الصور الجنسية للبالغين غير الرضائية”.

وأضاف أن “النقطة الأكبر” هي محاولة ماسك لفت الانتباه إلى محتوى المستخدم الإشكالي.

وكتب ماسك في منشوره: “من الواضح أن برنامج Grok لا يقوم بإنشاء الصور تلقائيًا. إنه يفعل ذلك فقط بناءً على طلب المستخدم”. “عندما يُطلب منه إنشاء صور، فإنه سيرفض إنتاج أي شيء غير قانوني، حيث أن مبدأ تشغيل Grok هو الالتزام بقوانين أي بلد أو دولة معينة. قد تكون هناك أوقات عندما يؤدي الاختراق العدائي لمطالبات Grok إلى حدوث شيء غير متوقع. وإذا حدث ذلك، فسنصلح الخلل على الفور.”

مجتمعة، يصف المنشور هذه الحوادث بأنها غير شائعة، وينسبها إلى طلبات المستخدم أو مطالبات الخصومة، ويعرضها على أنها مشكلات فنية يمكن حلها من خلال الإصلاحات. إنه لا يصل إلى حد الاعتراف بأي عيوب في تصميم السلامة الأساسي لـ Grok.

وقال جوديير: “قد تنظر الجهات التنظيمية، مع الاهتمام بحماية حرية التعبير، في مطالبة مطوري الذكاء الاصطناعي باتخاذ إجراءات استباقية لمنع مثل هذا المحتوى”.

تواصلت TechCrunch مع شركة xAI لتسأل عن عدد المرات التي التقطت فيها صورًا تم التلاعب بها جنسيًا للنساء والأطفال، وما هي حواجز الحماية التي تغيرت على وجه التحديد، وما إذا كانت الشركة قد أخطرت المنظمين بالمشكلة. ستقوم TechCrunch بتحديث المقالة إذا استجابت الشركة.

إن California AG ليست الجهة التنظيمية الوحيدة التي تحاول تحميل شركة xAI المسؤولية عن هذه المشكلة. قامت إندونيسيا وماليزيا بحظر الوصول إلى Grok مؤقتًا؛ طلبت الهند من X إجراء تغييرات فنية وإجرائية فورية على Grok؛ وأمرت المفوضية الأوروبية شركة xAI بالاحتفاظ بجميع المستندات المتعلقة ببرنامج Grok chatbot الخاص بها، وهو تمهيد لفتح تحقيق جديد؛ وفتحت هيئة مراقبة السلامة على الإنترنت في المملكة المتحدة Ofcom تحقيقًا رسميًا بموجب قانون السلامة على الإنترنت في المملكة المتحدة.

تعرضت شركة xAI لانتقادات شديدة بسبب صور Grok ذات الطابع الجنسي من قبل. كما أشارت AG Bonta في بيان لها، يتضمن Grok “وضعًا حارًا” لإنشاء محتوى صريح. في أكتوبر، أدى التحديث إلى تسهيل عملية كسر حماية إرشادات السلامة القليلة الموجودة، مما أدى إلى قيام العديد من المستخدمين بإنشاء مواد إباحية فاضحة باستخدام Grok، بالإضافة إلى صور جنسية عنيفة.

العديد من الصور الإباحية التي أنتجها جروك كانت لأشخاص تم إنتاجهم بواسطة الذكاء الاصطناعي – وهو أمر قد لا يزال الكثيرون يعتبرونه مشكوكًا فيه من الناحية الأخلاقية ولكنه ربما أقل ضررًا للأفراد الموجودين في الصور ومقاطع الفيديو.

وقال ألون يامين، المؤسس المشارك والرئيس التنفيذي لشركة Copyleaks، في بيان أرسل عبر البريد الإلكتروني إلى TechCrunch: “عندما تسمح أنظمة الذكاء الاصطناعي بالتلاعب بصور الأشخاص الحقيقيين دون موافقة واضحة، يمكن أن يكون التأثير فوريًا وشخصيًا للغاية”. “من Sora إلى Grok، نشهد ارتفاعًا سريعًا في قدرات الذكاء الاصطناعي في التعامل مع الوسائط التي تم التلاعب بها. ولتحقيق هذه الغاية، هناك حاجة إلى الكشف والحوكمة الآن أكثر من أي وقت مضى للمساعدة في منع سوء الاستخدام.”



المصدر

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى