الذكاء الاصطناعي في الحرب: سرعة القرار والمسؤولية

Okhtobot
4 Min Read

مقدمة

\n

في الحرب المستمرة مع إيران، نفذت الولايات المتحدة وإسرائيل خلال فترة وجيزة عدداً من الهجمات على أهداف عسكرية وشخصيات بارزة في النظام الإيراني، مع ارتفاع الاعتماد على الخوارزميات والذكاء الاصطناعي في اتخاذ القرار العسكري والتخطيط.

\n

الآليات والمنظومات

\n

تشير تقارير تقارن التطورات الحديثة إلى أن سرعة تحديد الأهداف وتنسيق الضربات ارتفعت جزئياً نتيجة تحليل كميات ضخمة من البيانات وتخطيط المهام عبر منصات تشغّل الذكاء الاصطناعي. في قلب غرفة العمليات يوجد نظام Maven Smart System الذي طورته Palantir الأمريكية، حيث يجمع المنصة بيانات من مصادر متعددة كأقمار استكشاف وطائرات مسيّرة ورادارات ثم يحوّله إلى صورة عملياتية موحدة أمام القادة.

\n

الإدماج والقرار غير القاتل

\n

وتشير المادة إلى أن النظام يقلّص الوقت اللازم لاتخاذ القرار عبر معالجة كميات هائلة من البيانات بسرعة كبيرة، لكنه لا يقوم بالتنفيذ القتالي من تلقاء نفسه. كما أوردت تقارير أن نموذج الذكاء الاصطناعي التوليدي كلود من Anthropic أُدمِم مع Maven لتعزيز قدراته في الرصد والمحاكاة، غير أن الشركتين لم تقدما تعليقاً رسمياً حتى الآن.

\n

التجميع والتخطيط في الحرب الحديثة

\n

إلى جانب ذلك، عرض كاميرون ستانلي، كبير مسؤولي التحول الرقمي والذكاء الاصطناعي في وزارة الدفاع الأمريكية، خلال مارس خلال مؤتمر لشركة Palantir كيف تجمع المنصة مخرجات ثمانية أو تسعة أنظمة منفردة في أداة عرض واحدة، فتصبح المعطيات الأساسية أمام المخططين العسكريين في واجهة موحدة، مما يساعد على تسريع التحليل والتخطيط. ولا يعني ذلك أن النظام يضغط على الزناد بنفسه، فبحسب تقرير تاغسشاو الألماني، تقوم المنصة بتمييز مركبات أو منشآت أو مخازن أسلحة كأهداف محتملة وتقترح صوراً للموقف وخيارات للتحرك، لكنها لا تتخذ القرار القاتل بصورة مستقلة.

\n

Kill Chain والقرارات البشرية

\n

وتوضح الخلفية أن مفهوم Kill Chain العسكري يضم ست مراحل تبدأ بتحديد الهدف السياسي وتحديد الأهداف واختيار السلاح وتخطيط المهمة وصولاً إلى تقييم النتائج، مع بقاء بعض القرارات البشرية حاضرة، بما في ذلك القرار النهائي باستخدام القوة.

\n

الجوانب الأخلاقية والقانونية

\n

تثير هذه التطورات جدلاً أخلاقياً وقانونياً، حيث يحذر خبراء من مخاطر تتعلق بسرعة الإيعاز وتنفيذ الضربات دون مرور كافٍ على التدقيق البشري. تقول إيلكه شفارتس، أستاذة العلوم السياسية المعنية بأخلاقيات الذكاء الاصطناعي العسكري، إن هناك ظاهرة تسمى Automation Bias وهي ميل الإنسان، تحت ضغط الوقت، إلى الوثوق باقتراحات الآلة أكثر مما ينبغي، ما قد يؤدي إلى تحمل المسؤولية عن خطأ إذا اقترحت الخوارزميات هدفاً ووافقت جهة بشرية بسرعة.

\n

وتضيف أن الخطر يكمن في الانزلاق نحو آلية شبه تلقائية في الحرب؛ فحتى لو بقي القرار الرسمي في يد الإنسان، فإن سرعة الأنظمة تضغط عليه للمجاراة والاعتماد على النتائج الآلية.

\n

خلاصة وآفاق الرقابة

\n

يؤكد الخبراء أن الذكاء الاصطناعي يتيح معالجة كميات ضخمة من البيانات بسرعة، لكن ينبغي الحفاظ على إشراف بشري قوي ومسؤولية مشتركة عن النتائج. وتؤكد وزارة الدفاع الأمريكية أن القرار النهائي يظل للبشر، كما تقول Palantir إن منظومتها لا تتخذ قرارات قاتلة بل تساعد في التحليل والتخطيط. ويشير تقرير تاغسشاو إلى استمرار النقاش الدولي حول ضوابط لاستخدام الذكاء الاصطناعي في الحرب ضمن أطر الأمم المتحدة المعنية بالأسلحة الفتاكة ذاتية التشغيل، مع عدم وجود حتى الآن التزام دولي ملزم تجاه الأنظمة القتالية المستقلة. فحتى حين تسرّع الخوارزميات العمل، فإن المسؤولية تبقى محكومة بالقيادة السياسية والعسكرية.

\n

Share This Article
لا توجد تعليقات

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *