لطالما ارتبطت الحروب بتطور التكنولوجيا فكل صراع كبير يدفع عجلة الابتكار العسكري إلى الأمام. واليوم نقف على أعتاب مرحلة جديدة وأكثر خطورة وهي مرحلة حروب الجيل السادس حيث لم تعد ساحة المعركة مقتصرة على الجنود والدبابات والطائرات المأهولة بل امتدت إلى فضاء إلكتروني لا حدود له وتسيطر عليها أنظمة ذكاء اصطناعي فائقة السرعة.
بدأت ملامح هذا الجيل بالظهور مع التطور الهائل في تكنولوجيا الطائرات المسيرة أو الدرونز التي تحولت من أدوات مراقبة بسيطة إلى منصات قتال ذاتية التحكم قادرة على تنفيذ ضربات جراحية دقيقة. لكن الخطوة الأكثر إثارة للجدل هي الانتقال من مجرد طائرة مسيرة يتم التحكم بها عن بُعد إلى الذكاء الاصطناعي القاتل أي أنظمة أسلحة مستقلة بالكامل تتخذ قرار القتل بنفسها دون تدخل بشري مباشر.
وهذا الانتقال ليس مجرد تطوير تدريجي بل هو قفزة نوعية تخلق معضلات أخلاقية وقانونية غير مسبوقة. في حروب الجيل السادس ستعتمد المعارك على سرعة الحوسبة والبيانات الضخمة حيث تندمج الطائرات المسيرة مع شبكات استشعار أرضية وبحرية وفضائية لخلق بيئة قتالية شاملة يطلق عليها اسم (قتال النطاق متعدد المجالات) .
وفي قلب هذه البيئة يعمل الذكاء الاصطناعي كقائد وحدة ميدانية ومحلل استخبارات وجندي في نفس الوقت. الخطر الحقيقي لا يكمن في قدرتها على تحديد الأهداف بدقة بل في احتمالية تعطلها أو اختراقها أو انحرافها عن برمجتها الأساسية أو حتى تحولها إلى سلاح رعب يفتقر إلى أي رحمة أو قدرة على التمييز الأخلاقي بين المقاتل والمدني.
كما أن سرعة اتخاذ القرار قد تتجاوز قدرة البشر على التتبع أو السيطرة مما قد يجر العالم إلى صراعات خاطفة لا يمكن إيقافها بمجرد انطلاقها.
وبينما تسعى قوى كبرى مثل الولايات المتحدة والصين وروسيا لتطوير هذه التقنيات خوفًا من أن تتخلف عن الركب تتصاعد دعوات الأمم المتحدة والمنظمات الحقوقية لوضع أطر قانونية ملزمة لحظر تطوير الأسلحة الفتاكة المستقلة .
تعتمد أنظمة الذكاء الاصطناعي القاتلة في حروب الجيل السادس على خوارزميات التعلم العميق المعزز التي تُدرّب على ملايين السيناريوهات القتالية المحاكاة. زمن اتخاذ القرار فيها يبلغ 0.5 ميلي ثانية فقط، أي أسرع بمئة مرة من زمن رد الفعل البشري. لكن المشكلة الأساسية لا تكمن في السرعة، بل في “الصندوق الأسود” لهذه الخوارزميات، حيث لا يستطيع مهندسوها تفسير سبب قتل هدف معين بدلاً من آخر. وهذا يخلق فجوة خطيرة بين القدرة التشغيلية والمساءلة القانونية.
لكن السؤال المطروح هل سيستطيع المجتمع الدولي الاتفاق على كوابح أخلاقية قبل أن تتحول حروب المستقبل إلى كوابيس ذكية لا تحكمها روح ولا ضمير؟ الجواب الأكثر ترجيحًا هو أن الذكاء الاصطناعي القاتل قادم لا محالة والسؤال الباقي هو هل سنتمكن من ترويضه قبل أن يفلت زمامه ويقرر بنفسه من هو العدو؟


