OpenAI وAnthropic: سباق الذكاء الاصطناعي للأمن السيبراني
\n
دخلت كبرى شركات الذكاء الاصطناعي مرحلة جديدة من التنافس في الأمن السيبراني، مع كشف كل من OpenAI وAnthropic عن نماذج متقدمة موجهة للاستخدام الدفاعي. أعلنت Anthropic في 7 أبريل عن Claude Mythos كجزء من مشروع Glass Wing، وهو برنامج يخضع لرقابة صارمة ويتيح استخدام النموذج بشكل محدود لأغراض الدفاع السيبراني فقط. وبعد أيام، أطلقت OpenAI نموذج GPT-5.4-Cyber في إطار وتيرة ابتكار متسارعة داخل هذا المجال الحساس، ما يثير أسئلة حول طبيعة هذه الأدوات وحدود استخدامها. هذا التحول يعكس تموضع الذكاء الاصطناعي كعنصر مركزي في معادلة الدفاع والهجوم الرقمي، مع ازدياد الاعتماد على قدرته على اكتشاف الثغرات وتحليل التهديدات بسرعة.
\n
من حيث الإطار التنظيمي: يعتمد GPT-5.4-Cyber على نسخة معدلة من GPT-5.4 مع تخفيض محدود للقيود التقليدية بهدف تمكين المختصين من تحليل التهديدات بصورة أعمق. أبرز قدراته تشمل دعم الهندسة العكسية للبرمجيات وتخفيف قيود الرفض لإتاحة تحليل أدق، إضافة إلى اعتماد مستويات تحقق متعددة. ورغم وجود «انفتاح محسوب»، يبقى الوصول مقيداً ضمن إطار برنامج Trusted Access for Cybersecurity، وتخطط OpenAI لتوسيعه ليشمل خبراء حماية البنية التحتية. على النقيض، اتبعت Anthropic مساراً أكثر تحفظاً مع Claude Mythos، إذ أظهر خلال الاختبارات قدرات على اكتشاف ثغرات غير معروفة وربطها بسلاسل استغلال قد تؤدي إلى السيطرة على الأنظمة. وهذه القدرات دفعت Anthropic إلى تقييد الاستخدام بشكل صارم، مع حصر الوصول لعدد محدود من الشركاء الكبار، بينهم شركات تكنولوجيا عالمية ومؤسسات مسؤولة عن البنية التحتية الرقمية.
\n
هذا التباين في المقاربات يعكس جدلاً مستمراً في الصناعة: تقول OpenAI إنها تسعى إلى توسيع الوصول التدريجي لتعزيز الدفاع السيبراني، وهو نهج يُوصف بأنه انفتاح محسوب يوازن بين التطوير والضمانات. بينما ترى Anthropic المخاطر في الاستخدام المزدوج لهذه الأدوات، معتبرة أن التطوير يجب أن يكون مقيداً ليحفظ الاستخدام الدفاعي فقط. وفقاً للمصادر، يرسخ هذا المشهد دور الذكاء الاصطناعي كلاعب رئيسي في الأمن السيبراني، مع إمكانية أن يفتح أبواب مرحلة جديدة تجمع بين حماية الأنظمة وتحديات المخاطر الرقمية المتصاعدة.


