يقول البنتاغون إن الذكاء الاصطناعي يعمل على تسريع “سلسلة القتل” الخاصة به
يقوم كبار مطوري الذكاء الاصطناعي، مثل OpenAI وAnthropic، بخياطة إبرة دقيقة لبيع البرمجيات إلى الجيش الأمريكي: جعل البنتاغون أكثر كفاءة، دون السماح لذكاءهم الاصطناعي بقتل الناس.
واليوم، لا تُستخدم أدواتهم كأسلحة، لكن الذكاء الاصطناعي يمنح وزارة الدفاع “ميزة كبيرة” في تحديد التهديدات وتتبعها وتقييمها، حسبما صرحت الدكتورة رادها بلامب، كبيرة المسؤولين الرقميين والذكاء الاصطناعي في البنتاغون، لموقع TechCrunch. مقابلة هاتفية.
وقال بلامب: “من الواضح أننا نعمل على زيادة الطرق التي يمكننا من خلالها تسريع تنفيذ سلسلة القتل حتى يتمكن قادتنا من الرد في الوقت المناسب لحماية قواتنا”.
تشير “سلسلة القتل” إلى العملية العسكرية التي تقوم بها لتحديد التهديدات وتتبعها والقضاء عليها، والتي تنطوي على نظام معقد من أجهزة الاستشعار والمنصات والأسلحة. أثبت الذكاء الاصطناعي التوليدي فائدته أثناء مراحل التخطيط ووضع الاستراتيجيات لسلسلة القتل، وفقًا لبلمب.
العلاقة بين البنتاغون ومطوري الذكاء الاصطناعي هي علاقة جديدة نسبيًا. تراجعت شركات OpenAI وAnthropic وMeta عن سياسات الاستخدام الخاصة بها في عام 2024 للسماح لوكالات الاستخبارات والدفاع الأمريكية باستخدام أنظمة الذكاء الاصطناعي الخاصة بها. ومع ذلك، ما زالوا لا يسمحون للذكاء الاصطناعي الخاص بهم بإيذاء البشر.
وقال بلامب، عندما سُئل عن كيفية عمل البنتاغون مع موفري نماذج الذكاء الاصطناعي: “لقد كنا واضحين حقًا بشأن ما سنستخدمه وما لن نستخدم تقنياتهم من أجله”.
ومع ذلك، فقد أطلق هذا جولة مواعدة سريعة لشركات الذكاء الاصطناعي ومقاولي الدفاع.
دخلت Meta في شراكة مع Lockheed Martin وBooz Allen، من بين آخرين، لتقديم نماذج Llama AI إلى وكالات الدفاع في نوفمبر. في نفس الشهر، تعاونت أنثروبيك مع بالانتير. وفي ديسمبر/كانون الأول، أبرمت شركة OpenAI صفقة مماثلة مع شركة Anduril. وبشكل أكثر هدوءًا، قامت شركة Cohere أيضًا بنشر نماذجها مع شركة Palantir.
ومع إثبات الذكاء الاصطناعي التوليدي فائدته في البنتاغون، فقد يدفع وادي السيليكون إلى تخفيف سياسات استخدام الذكاء الاصطناعي والسماح بمزيد من التطبيقات العسكرية.
قال بلامب: “إن اللعب من خلال سيناريوهات مختلفة هو أمر يمكن أن يكون الذكاء الاصطناعي التوليدي مفيدًا فيه”. “إنه يسمح لك بالاستفادة من مجموعة كاملة من الأدوات المتاحة لقادتنا، ولكن أيضًا التفكير بشكل إبداعي في خيارات الاستجابة المختلفة والمقايضات المحتملة في بيئة يوجد فيها تهديد محتمل، أو سلسلة من التهديدات، التي تحتاج إلى ملاحقة قضائية. “
ليس من الواضح ما هي التكنولوجيا التي يستخدمها البنتاغون في هذا العمل؛ يبدو أن استخدام الذكاء الاصطناعي التوليدي في سلسلة القتل (حتى في مرحلة التخطيط المبكر) ينتهك سياسات الاستخدام للعديد من مطوري النماذج الرائدين. على سبيل المثال، تحظر سياسة شركة أنثروبيك استخدام نماذجها لإنتاج أو تعديل “أنظمة مصممة لإحداث ضرر أو خسارة في الأرواح البشرية”.
ردًا على أسئلتنا، أشارت Anthropic إلى مقابلة TechCrunch مع رئيسها التنفيذي داريو أمودي مؤخرًا مع صحيفة Financial Times، حيث دافع عن عمله العسكري:
إن الموقف القائل بأنه لا ينبغي لنا مطلقًا استخدام الذكاء الاصطناعي في إعدادات الدفاع والاستخبارات ليس منطقيًا بالنسبة لي. من الواضح أن الموقف القائل بأننا يجب أن نحقق نجاحات كبيرة ونستخدمه لصنع أي شيء نريده – بما في ذلك أسلحة يوم القيامة – هو موقف مجنون تمامًا. نحن نحاول البحث عن حل وسط، للقيام بالأشياء بمسؤولية.
لم يستجب OpenAI وMeta وCohere لطلب TechCrunch للتعليق.
الحياة والموت، وأسلحة الذكاء الاصطناعي
في الأشهر الأخيرة، اندلع نقاش حول تكنولوجيا الدفاع حول ما إذا كان ينبغي حقًا السماح لأسلحة الذكاء الاصطناعي باتخاذ قرارات الحياة أو الموت. ويرى البعض أن الجيش الأمريكي يمتلك بالفعل أسلحة قادرة على القيام بذلك.
أشار الرئيس التنفيذي لشركة Anduril Palmer Luckey مؤخرًا على X إلى أن الجيش الأمريكي لديه تاريخ طويل في شراء واستخدام أنظمة الأسلحة المستقلة مثل برج CIWS.
“لقد قامت وزارة الدفاع بشراء واستخدام أنظمة الأسلحة المستقلة منذ عقود. وقال لوكي: “إن استخدامها (وتصديرها!) مفهوم جيدًا، ومحدد بدقة، وينظم بشكل صريح من خلال قواعد ليست طوعية على الإطلاق”.
ولكن عندما سأل موقع TechCrunch ما إذا كان البنتاغون يشتري ويشغل أسلحة ذاتية التحكم بالكامل – أسلحة لا يوجد بها بشر – رفض بلامب الفكرة من حيث المبدأ.
قال بلامب: «لا، هذه هي الإجابة المختصرة». “من حيث الموثوقية والأخلاق، سيكون لدينا دائمًا بشر يشاركون في قرار استخدام القوة، وهذا يشمل أنظمة الأسلحة لدينا.”
إن كلمة “الحكم الذاتي” غامضة إلى حد ما وقد أثارت مناقشات في جميع أنحاء صناعة التكنولوجيا حول متى تصبح الأنظمة الآلية ــ مثل وكلاء تشفير الذكاء الاصطناعي، أو السيارات ذاتية القيادة، أو الأسلحة ذاتية الإطلاق ــ مستقلة حقا.
وقال بلامب إن فكرة أن الأنظمة الآلية تتخذ قرارات الحياة والموت بشكل مستقل هي فكرة “ثنائية للغاية”، والواقع أقرب إلى الخيال العلمي. وبدلاً من ذلك، أشارت إلى أن استخدام البنتاغون لأنظمة الذكاء الاصطناعي هو في الواقع تعاون بين البشر والآلات، حيث يتخذ كبار القادة قرارات نشطة طوال العملية برمتها.
“يميل الناس إلى التفكير في هذا الأمر كما لو أن هناك روبوتات في مكان ما، ثم الروبوت [a fictional autonomous machine] قال بلامب: “يقوم البشر بإخراج قطعة من الورق، ويقوم البشر فقط بتحديد المربع”. “هذه ليست الطريقة التي يعمل بها الفريق بين الإنسان والآلة، وهذه ليست طريقة فعالة لاستخدام هذه الأنواع من أنظمة الذكاء الاصطناعي.”
سلامة الذكاء الاصطناعي في البنتاغون
لم تكن الشراكات العسكرية تسير على ما يرام دائمًا مع موظفي وادي السيليكون. في العام الماضي، تم فصل العشرات من موظفي أمازون وجوجل واعتقالهم بعد احتجاجهم على العقود العسكرية لشركاتهم مع إسرائيل، وهي صفقات سحابية تندرج تحت الاسم الرمزي “مشروع نيمبوس”.
نسبيًا، كانت هناك استجابة صامتة إلى حد ما من مجتمع الذكاء الاصطناعي. يقول بعض الباحثين في مجال الذكاء الاصطناعي، مثل إيفان هوبنجر من Anthropic، إن استخدام الذكاء الاصطناعي في الجيوش أمر لا مفر منه، ومن الضروري العمل مباشرة مع الجيش لضمان تنفيذه بشكل صحيح.
وقال هوبنجر في منشور نشره في نوفمبر/تشرين الثاني على الإنترنت: “إذا أخذت المخاطر الكارثية الناجمة عن الذكاء الاصطناعي على محمل الجد، فإن حكومة الولايات المتحدة تعد جهة فاعلة مهمة للغاية للتعامل معها، ومحاولة منع حكومة الولايات المتحدة من استخدام الذكاء الاصطناعي ليست استراتيجية قابلة للتطبيق”. منتدى أقل خطأ. “لا يكفي التركيز فقط على المخاطر الكارثية، بل عليك أيضًا منع أي طريقة يمكن للحكومة من خلالها إساءة استخدام نماذجك.”
اكتشاف المزيد من اشراق اون لاين
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.