Claude في الدفاع: جدل حول حدود استخدام AI

Okhtobot
2 Min Read

Claude في الدفاع: جدل حول حدود استخدام AI

أبرز تقارير حديثة، من بينها مقال في مجلة Wired، أن نموذج Claude من Anthropic أُدرج في أدوات عسكرية تشغلها Palantir لصالح وزارة الدفاع الأمريكية. ولم يظهر Claude كنظام مستقل داخل البنتاغون، بل كان جزءاً من منصات Palantir التي تتيح للمستخدمين اختيار نماذج مختلفة للمساعدة في التحليل واتخاذ القرار ضمن بيئات عالية الحساسية. ويرتبط الدمج بمنصة AIP التابعة لبالانتير، وهي منصة تستخدم في أنظمت Foundry وGotham، وتُعد جزءاً من مشاريع دفاعية مثل Maven. وفي نوفمبر 2024 أعلنت Palantir شراكة مع Anthropic لإتاحة نماذج Claude عبر خدمات AWS للاستخدامات الحكومية الأمريكية، بما فيها الاستخبارات والدفاع.

تداعيات ومسارات الأسئلة المفتوحة

تثير هذه التطورات أسئلة حول الحدود الفعلية لاستخدام الذكاء الاصطناعي في التخطيط العسكري. وفق تقارير رويترز ومجلة Wired، تقول Anthropic إنها رفضت إزالة قيود أمان تمنع استخدام Claude في الأسلحة ذاتية التشغيل والمراقبة الجماعية، وهو ما أدى إلى اشتباك مباشر مع وزارة الدفاع الأمريكية. وتشير التقارير إلى أن البنتاغون اعتبر الشركة لاحقاً "مخاطرة في سلسلة التوريد"، بينما تؤكد Anthropic أنها لا تعارض دعم مهام الأمن القومي بشكل عام لكنها تمضي في تمسكها بقيودها. حتى الآن لا يوجد دليل علني، وفق Wired، على أن Anthropic منحت موافقة صريحة على كل الاستخدامات القتالية التي كشفت عنها التسريبات.

خلفيات التبعات والقرارات

وتعيد التسريبات تأكيداً على أن Claude كان مدمجاً في برمجيات عسكرية تديرها Palantir، وأن إزالة النموذج من بعض أنظمة وزارة الدفاع أصبحت مسألة تقنية وسياسية بعد فرض الحظر الأميركي. تقول Anthropic بحسب ملفات الدعوى وتقارير رويترز: "رفضت إزالة قيود أمان تمنع استخدام Claude في الأسلحة الذاتية التشغيل والمراقبة الجماعية" و "لا ترفض دعم مهام الأمن القومي بشكل عام". وتضيف المصادر أن Wired ترى المسألة كنزاع أخلاقي وقانوني بلا حكم نهائي حتى الآن، فيما يبقى السؤال الأساسي: من كان يملك القرار الفعلي بشأن حدود هذا الاستخدام بعد دمجه في بنية دفاعية أوسع؟

Share This Article
لا توجد تعليقات

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *