تقنية

يحث العاملون في مجال التكنولوجيا وزارة الدفاع والكونغرس على سحب العلامة الإنسانية باعتبارها مخاطرة في سلسلة التوريد


وقع المئات من العاملين في مجال التكنولوجيا على رسالة مفتوحة يحثون فيها وزارة الدفاع على سحب تصنيفها للأنثروبولوجيا على أنها “خطر سلسلة التوريد”. وتدعو الرسالة أيضًا الكونجرس إلى التدخل و”دراسة ما إذا كان استخدام هذه السلطات الاستثنائية ضد شركة تكنولوجيا أمريكية مناسبًا”.

تتضمن الرسالة الموقعين من كبرى شركات التكنولوجيا ورأس المال الاستثماري بما في ذلك OpenAI وSlack وIBM وCursor وSalesforce Ventures والمزيد. ويأتي ذلك في أعقاب نزاع بين وزارة الدفاع وشركة أنثروبيك بعد أن رفض مختبر الذكاء الاصطناعي الأسبوع الماضي منح الجيش وصولاً غير مقيد إلى أنظمة الذكاء الاصطناعي الخاصة به.

كان الخطان الأحمران اللذان وضعتهما شركة Anthropic في مفاوضاتها مع البنتاغون هما أنها لا تريد استخدام تقنيتها في المراقبة الجماعية للأمريكيين أو لتشغيل الأسلحة المستقلة التي تتخذ قرارات الاستهداف وإطلاق النار دون وجود إنسان في الحلقة. وقالت وزارة الدفاع إنها ليست لديها خطط للقيام بأي من هذين الأمرين، لكنها لا تعتقد أنه يجب أن يكون مقيدًا بقواعد البائع.

ردًا على رفض الرئيس التنفيذي لشركة Anthropic، داريو أمودي، الرضوخ لتهديدات Hegseth، وجه الرئيس دونالد ترامب يوم الجمعة الوكالات الفيدرالية بالتوقف عن استخدام تقنية Anthropic بعد فترة انتقالية مدتها ستة أشهر. وقال هيجسيث إنه سينفذ تهديداته ويصنف شركة Anthropic كمخاطر لسلسلة التوريد – وهي تسمية مخصصة عادة للخصوم الأجانب الذين من شأنه أن يضع شركة الذكاء الاصطناعي في القائمة السوداء لمنعها من العمل مع أي وكالة أو شركة تتعامل مع البنتاغون.

وفي منشور يوم الجمعة، كتب هيجسيث: “اعتبارًا من الآن، لا يجوز لأي مقاول أو مورد أو شريك يتعامل مع الجيش الأمريكي إجراء أي نشاط تجاري مع أنثروبك”.

لكن المنشور على X لا يجعل Anthropic تلقائيًا خطرًا على سلسلة التوريد. تحتاج الحكومة إلى إكمال تقييم المخاطر وإخطار الكونجرس قبل أن يضطر الشركاء العسكريون إلى قطع العلاقات مع شركة Anthropic أو منتجاتها. وقالت أنثروبيك في منشور على مدونة إن الوجهة “غير سليمة من الناحية القانونية” وأنها “ستتحدى أي تصنيف لمخاطر سلسلة التوريد في المحكمة”.

يرى الكثيرون في الصناعة أن معاملة الإدارة الأمريكية للأنثروبيين هي انتقام قاسٍ وواضح.

حدث تك كرانش

سان فرانسيسكو، كاليفورنيا
|
13-15 أكتوبر 2026

وجاء في الرسالة المفتوحة: “عندما لا يتمكن الطرفان من الاتفاق على الشروط، فإن المسار الطبيعي هو الانفصال والعمل مع منافس”. “يشكل هذا الوضع سابقة خطيرة. فمعاقبة شركة أمريكية لرفضها قبول التغييرات في العقد يبعث برسالة واضحة إلى كل شركة تكنولوجيا في أمريكا: اقبل أي شروط تطلبها الحكومة، أو واجه الانتقام”.

وبعيدًا عن القلق بشأن معاملة الحكومة القاسية للبشر، لا يزال الكثيرون في الصناعة يشعرون بالقلق بشأن التجاوزات الحكومية المحتملة واستخدام الذكاء الاصطناعي لأغراض شائنة.

كتب بوعز باراك، الباحث في OpenAI، في منشور على وسائل التواصل الاجتماعي يوم الاثنين أن منع الحكومات من استخدام الذكاء الاصطناعي للقيام بالمراقبة الجماعية هو أيضًا “خط أحمر شخصي” و”يجب أن يكون خطنا جميعًا”.

بعد لحظات من مهاجمة ترامب علنًا لشركة Anthropic، أعلنت شركة OpenAI أنها توصلت إلى اتفاق خاص بها لنشر نماذجها في البيئات السرية لوزارة الدفاع. قال سام ألتمان، الرئيس التنفيذي لشركة OpenAI، الأسبوع الماضي، إن الشركة لديها نفس الخطوط الحمراء مثل Anthropic.

وكتب باراك: “إذا كان من الممكن أن يخرج أي شيء جيد من أحداث الأسبوع الماضي، فسيكون ذلك إذا بدأنا في صناعة الذكاء الاصطناعي في التعامل مع مسألة استخدام الذكاء الاصطناعي لإساءة استخدام الحكومة ومراقبة شعبها باعتباره خطرًا كارثيًا في حد ذاته”. “لقد قمنا بعمل جيد في التقييمات والتخفيف والعمليات لمخاطر مثل الأسلحة البيولوجية والأمن السيبراني. دعونا نستخدم عمليات مماثلة هنا.”



المصدر

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى