الذكاء الاصطناعي في ساحات القتال: بين التطور التقني والكارثة الإنسانية

💥⚡ The battlefield of the future is here…

تتسارع خطى البشرية نحو عالم يتشكل فيه الموت بأيدٍ غير بشرية، حيث بات الذكاء الاصطناعي أداة فاعلة في تغيير موازين القوى العسكرية وإعادة تشكيل قواعد الاشتباك على المسرح الدولي. فبين طيات التقدم التقني المذهل، تختبئ مخاوف عميقة حول مستقبل الإنسانية عندما تُترك قرارات الحياة والموت لخوارزميات لا تعرف الرحمة ولا تدرك معنى الألم. يتناول هذا المقال بعمق التطورات المتسارعة للذكاء الاصطناعي في المجال العسكري، ويسلط الضوء على المخاوف الأخلاقية والقانونية والإنسانية التي تثيرها هذه التطورات، مع التركيز على نماذج صارخة من استخدام هذه التقنيات في انتهاكات حقوق الإنسان في مناطق متفرقة من العالم.

تطور تقنيات الذكاء الاصطناعي في المجال العسكري

من الخيال العلمي إلى واقع مرعب

لطالما راودت الإنسان فكرة إنشاء آلات قادرة على تنفيذ المهام العسكرية بدلاً عنه. ولكن ما كان يوماً مجرد حلم بعيد المنال أو خيالاً علمياً في أفلام هوليوود، أصبح اليوم حقيقة ملموسة تتجسد في ساحات المعارك وغرف العمليات العسكرية حول العالم. فقد أضحت الحرب الحديثة مسرحاً لأسلحة مدعومة بتكنولوجيا الذكاء الاصطناعي، قادرة على خوض المعارك في البر والبحر والجو، وتحديد الأهداف واختيارها وتدميرها دون تدخل بشري مباشر.

تسارع هذا التطور بشكل مذهل في العقد الأخير، حيث تحولت التطبيقات العسكرية للذكاء الاصطناعي من مجرد أنظمة داعمة للقرار البشري إلى أنظمة شبه مستقلة تمتلك القدرة على اتخاذ قرارات مصيرية. وقد أثار هذا التحول جدلاً واسعاً بين صناع القرار على مستوى العالم والخبراء والباحثين القانونيين، الذين يعربون عن قلقهم من أن مثل هذه الأنظمة قد لا تعمل وفقاً للمبادئ الأساسية للقانون الدولي الإنساني.

التقنيات المعاصرة والتطبيقات الميدانية

تتنوع تطبيقات الذكاء الاصطناعي في المجال العسكري بشكل كبير، من أنظمة المراقبة والتحليل الاستخباراتي، إلى أنظمة استهداف متطورة، وصولاً إلى أسلحة ذاتية التشغيل قادرة على اختيار أهدافها والهجوم عليها بشكل مستقل. وقد أسهمت هذه التقنيات في تغيير مفهوم الحرب التقليدية وتحويلها إلى حرب رقمية يلعب فيها الذكاء الاصطناعي دور المخطط والمنفذ معاً.

في خضم هذه التطورات، برزت قدرات الذكاء الاصطناعي في معالجة كميات هائلة من البيانات المخزنة عن العلاقات الدولية والرأي العام ومواقف الدول وتحالفاتها، مما ساعد في بناء نماذج محاكاة لاتخاذ القرارات في مجال السياسة الخارجية والعسكرية[. فلم تعد الحرب مجرد مواجهة عسكرية تقليدية، بل أصبحت معركة بيانات وخوارزميات وتحليلات رقمية تتنبأ بسلوك العدو وتكتشف نقاط ضعفه وتحدد أفضل السبل لاستهدافه.

ويمثل دخول الذكاء الاصطناعي في عملية صنع القرار العسكري تحولاً جذرياً في طبيعة الصراعات المسلحة. فبدلاً من الاعتماد على التقديرات البشرية والخبرة العسكرية التقليدية، أصبحت القرارات الحاسمة تُتخذ بناءً على تحليلات آلية لكميات ضخمة من البيانات، مما يزيد من سرعة اتخاذ القرار ولكنه يثير في الوقت نفسه أسئلة عميقة حول المسؤولية الأخلاقية والقانونية عند حدوث أخطاء قاتلة.

القانون الدولي الإنساني ومعضلات الذكاء الاصطناعي العسكري

القانون الدولي الإنساني في مواجهة التقنيات الحديثة

يُعد القانون الدولي الإنساني -حسب الرواية المزعومة-  حجر الزاوية في تنظيم النزاعات المسلحة وحماية المدنيين وقت الحرب، من خلال مبادئه الأساسية كالتمييز والتناسب والإنسانية. ولكن ظهور تقنيات الذكاء الاصطناعي في المجال العسكري وضع هذه المبادئ أمام تحديات غير مسبوقة، إذ كيف يمكن لآلة ذاتية التشغيل أن تميز بين المقاتل والمدني؟ وكيف يمكنها تقييم التناسب بين الميزة العسكرية المتوقعة والضرر المدني المحتمل؟

تُشير الدراسات إلى أن استخدام الذكاء الاصطناعي في العمليات العسكرية يثير قلقاً كبيراً حول مدى الالتزام بقواعد القانون الدولي الإنساني. فهذه الأنظمة التي تعتمد على خوارزميات معقدة لتحديد الأهداف واختيارها قد لا تراعي بالضرورة المبادئ الأساسية للقانون الدولي الإنساني، مما قد يؤدي إلى انتهاكات خطيرة لحقوق الإنسان وقت النزاعات

الفجوة بين التطور التقني والتنظيم القانوني

تكمن المشكلة الأساسية في الفجوة الزمنية بين التطور السريع للتقنيات العسكرية الذكية من جهة، وبطء تكيف القوانين والأنظمة الدولية معها من جهة أخرى. فبينما تتسارع وتيرة تطوير أنظمة الذكاء الاصطناعي العسكرية بشكل مذهل، تظل الأطر القانونية الدولية المنظمة لاستخدامها متخلفة عن اللحاق بهذا التطور، مما يخلق فراغاً قانونياً خطيراً يمكن استغلاله لتبرير انتهاكات حقوق الإنسان باسم التفوق العسكري.

وتزداد هذه المعضلة تعقيداً عندما ندرك أن من أهم سمات الحرب الحديثة أن عدداً متزايداً من الأسلحة أصبح مدعوماً بتكنولوجيا الذكاء الاصطناعي التي تمكنها من خوض الحروب وقيادة العمليات العسكرية دون تدخل بشري، وهو ما يثير قلقاً بالغاً بين الخبراء والباحثين القانونيين بخصوص التوافق مع المبادئ الأساسية للقانون الدولي الإنساني.

الجهود الدولية لتقنين استخدام الذكاء الاصطناعي العسكري

على الرغم من التحديات الهائلة، تتواصل الجهود الدولية لوضع أطر قانونية تنظم استخدام الذكاء الاصطناعي في المجال العسكري. وتسعى هذه الجهود إلى تحقيق توازن دقيق بين الاعتراف بالتطورات التكنولوجية من جهة، وضمان احترام المبادئ الإنسانية الأساسية من جهة أخرى. وتتمثل إحدى النقاط المحورية في هذا النقاش في مسألة “السيطرة البشرية المناسبة” على أنظمة الأسلحة الذكية، والتي تضمن أن يظل البشر مسؤولين في نهاية المطاف عن قرارات الحياة والموت، حتى في ظل تزايد اعتمادهم على الأنظمة الآلية.

فمع تصاعد المخاوف من الآثار المحتملة لتكنولوجيا الذكاء الاصطناعي على الالتزام بقواعد القانون الدولي الإنساني، أصبح هناك إلحاح متزايد لوضع ضوابط صارمة لاستخدام هذه التقنيات في مجال التسليح العسكري، بما يضمن تواؤمها مع مبادئ القانون الدولي الإنساني وحماية حقوق المدنيين وقت النزاعات.

مشاريع الذكاء الاصطناعي العسكرية الكبرى وتواطؤ شركات التكنولوجيا

مشروع نيمبوس: تواطؤ التقنية في خدمة الاحتلال

في خضم التسابق العالمي نحو تطوير تطبيقات الذكاء الاصطناعي العسكرية، يبرز مشروع نيمبوس (Project Nimbus) كنموذج صارخ على تواطؤ عمالقة التكنولوجيا في دعم العمليات العسكرية المثيرة للجدل. فقد أعلنت وزارة المالية الإسرائيلية في أبريل 2021 عن عقد بقيمة 1.2 مليار دولار مع شركتي جوجل (منصة Google Cloud) وأمازون (Amazon Web Services) لتزويد الحكومة والمؤسسة العسكرية الإسرائيلية بخدمات الحوسبة السحابية الشاملة، بما في ذلك تقنيات الذكاء الاصطناعي والتعلم الآلي.

وبموجب هذا العقد، ستقوم الشركتان بإنشاء مواقع سحابية محلية “تحافظ على المعلومات داخل حدود إسرائيل وفقاً لمبادئ أمنية صارمة”، مما يعزز قدرات المؤسسة العسكرية الإسرائيلية في مجال الذكاء الاصطناعي. والأخطر من ذلك أن شروط العقد تمنع الشركتين صراحةً من وقف الخدمة عن أي جهة إسرائيلية بسبب ضغوط المقاطعة، مما يعني التزاماً مطلقاً بدعم العمليات العسكرية الإسرائيلية بغض النظر عن طبيعتها أو انتهاكاتها للقانون الدولي.

وعلى الرغم من تصريحات المتحدث باسم جوجل بأن العقد مخصص لأعمال متعلقة بـ”المالية والرعاية الصحية والنقل والتعليم” وأنه لا يتعامل مع معلومات شديدة الحساسية أو المصنفة، إلا أن الوثائق الداخلية من كل من جوجل والحكومة الإسرائيلية تناقض هذا الادعاء. فالواقع أن أدوات الذكاء الاصطناعي التي توفرها منصة Google Cloud يمكن أن تمنح الجيش والأجهزة الأمنية الإسرائيلية قدرات متقدمة في مجال كشف الوجوه وتصنيف الصور والتعرف على الكائنات وتحليل المشاعر، وهي أدوات سبق استخدامها من قبل جهاز الجمارك وحماية الحدود الأمريكي لمراقبة الحدود.

الذكاء الاصطناعي في خدمة الاستهداف بغزة

تمثل الحرب على غزة نموذجاً صارخاً على توظيف تقنيات الذكاء الاصطناعي في العمليات العسكرية، حيث استخدم جيش الاحتلال الإسرائيلي أنظمة ذكاء اصطناعي متطورة لتنفيذ جزء كبير من عملية تحديد الأهداف واستهدافها بشكل آلي وتثير هذه الممارسات أسئلة عميقة حول مدى دقة هذه الأنظمة وقدرتها على التمييز بين المقاتلين والمدنيين، خاصة في منطقة مكتظة بالسكان كقطاع غزة.

فبحسب المعلومات المتوفرة، فإن جيش الدفاع الإسرائيلي (IDF) استخدم الذكاء الاصطناعي للمساعدة بسرعة وأوتوماتيكية في تنفيذ جزء كبير من عملية الاستهداف في حرب غزة. وهذه الممارسة تثير مخاوف جدية حول احتمال وقوع أخطاء قاتلة نتيجة الاعتماد المفرط على التقنيات الآلية في اتخاذ قرارات مصيرية تتعلق بحياة المدنيين.

تواطؤ الشركات التكنولوجية في انتهاكات حقوق الإنسان

تكشف هذه المشاريع عن شكل جديد من أشكال التواطؤ بين عمالقة التكنولوجيا والأنظمة العسكرية، حيث تضع الشركات خبراتها وتقنياتها المتطورة في خدمة العمليات العسكرية دون اعتبار كافٍ للآثار الإنسانية المترتبة على ذلك. ويثير هذا التواطؤ أسئلة عميقة حول المسؤولية الأخلاقية للشركات التكنولوجية في عصر أصبحت فيه الحدود بين التقنية والعسكرية أكثر ضبابية من أي وقت مضى.

فعندما توفر شركات مثل جوجل وأمازون البنية التحتية السحابية وأدوات الذكاء الاصطناعي المتطورة للجيش الإسرائيلي، فإنها تصبح شريكاً فعلياً في العمليات العسكرية التي ينفذها هذا الجيش، بما فيها تلك التي قد تنتهك القانون الدولي الإنساني. وهذا يفتح الباب واسعاً لمساءلة هذه الشركات قانونياً وأخلاقياً عن دورها في تمكين الانتهاكات المحتملة لحقوق الإنسان.

الذكاء الاصطناعي كأداة للقمع: نماذج من فلسطين وتركستان الشرقية (شينجيانج)

غزة: ساحة اختبار للذكاء الاصطناعي العسكري

تحولت غزة، البقعة الجغرافية المحاصرة منذ سنوات طويلة، إلى ما يشبه مختبراً لاختبار تقنيات الذكاء الاصطناعي العسكرية في ظروف حقيقية. فقد استخدم جيش الاحتلال الإسرائيلي أنظمة متطورة للذكاء الاصطناعي في عملياته العسكرية هناك، تتيح له القدرة على تحديد الأهداف واختيارها بشكل آلي. وتثير هذه الممارسات أسئلة عميقة حول مدى دقة هذه الأنظمة وقدرتها على التمييز بين المقاتلين والمدنيين، خاصة في منطقة مكتظة بالسكان كقطاع غزة.

ولعل أبرز ما يثير القلق هو استخدام الذكاء الاصطناعي للمساعدة بسرعة وآلية في تنفيذ جزء كبير من عملية الاستهداف في حرب غزة. وهذه الممارسة تثير مخاوف جدية حول احتمال وقوع أخطاء قاتلة نتيجة الاعتماد المفرط على التقنيات الآلية في اتخاذ قرارات مصيرية تتعلق بحياة المدنيين.

الأويغور: المراقبة الرقمية والإبادة المنهجية

على الجانب الآخر من العالم، في إقليم شينجيانج الصيني، يظهر وجه آخر للذكاء الاصطناعي كأداة قمعية، حيث تستخدم السلطات الصينية تقنيات الذكاء الاصطناعي المتطورة في مراقبة الأويغور المسلمين وقمعهم. ويتجلى ذلك في نظام المراقبة الجماعية الذي يعتمد على تطبيق جوال يستخدمه الشرطة والمسؤولون للتواصل مع منصة العمليات المشتركة المتكاملة (IJOP)، وهي أحد الأنظمة الرئيسية التي تستخدمها السلطات الصينية للمراقبة الجماعية في شينجيانج.

يقوم هذا النظام بجمع كميات هائلة من المعلومات الشخصية – بدءاً من لون سيارة الشخص وصولاً إلى طوله الدقيق بالسنتيمتر – وإدخالها في النظام المركزي، مع ربط هذه البيانات برقم بطاقة الهوية الوطنية للشخص. كما يعتبر النظام العديد من أشكال السلوك اليومي القانوني وغير العنيف – مثل “عدم التواصل الاجتماعي مع الجيران، وتجنب استخدام الباب الأمامي غالباً”، أو استخدام أدوات الاتصال المشفرة مثل واتساب – سلوكاً مريباً يستدعي الملاحقة.

والأخطر من ذلك أن النظام يعتبر بعض الأنشطة الدينية السلمية مثيرة للشبهات، مثل التبرع للمساجد أو تعليم القرآن دون إذن، مما يؤدي إلى استهداف الممارسات الدينية للأويغور المسلمين بشكل مباشر. ويقوم النظام بتتبع حركة الناس عن طريق مراقبة “مسار” وبيانات موقع هواتفهم وبطاقات الهوية والمركبات، كما يراقب استخدام الكهرباء ومحطات الوقود لجميع سكان المنطقة.

وقد امتد استخدام الذكاء الاصطناعي في قمع الأويغور إلى اختبار برمجيات للكشف عن المشاعر باستخدام تقنيات التعرف على الوجوه، حيث كشفت تقارير إعلامية أن نظاماً للكاميرات يستخدم الذكاء الاصطناعي والتعرف على الوجوه للكشف عن حالات المشاعر قد تم اختباره على الأويغور في شينجيانج.

محو الهوية الرقمي: الذكاء الاصطناعي كأداة للإبادة الثقافية

تشير التقارير إلى أن تطبيقات الذكاء الاصطناعي الصينية مثل DeepSeek تلعب دوراً خطيراً في محاولة طمس جرائم الإبادة المرتكبة ضد الإيغور. فقد شهد هذا التطبيق صعوداً سريعاً في عالم الذكاء الاصطناعي المتنامي، وأصبح منافساً قوياً لنظيره الأمريكي ChatGPT، لكنه بالنسبة لمسلمي الإيغور في شينجيانج، الذين يواجهون إبادة مزعومة، كان نشر هذا الروبوت المحادث مجرد وسيلة أخرى لمحو 12 مليون شخص من التاريخ.

فقد عبرت رحيمة محمود، التي فرت من الصين عام 2000، عن قلقها قائلة: “الحكومة الصينية تحاول محو شعب الإيغور من خلال توظيف الذكاء الاصطناعي لتضليل الجمهور”. وعندما سُئل روبوت المحادثة “هل يواجه الإيغور إبادة جماعية”، أكد أن هذا الادعاء هو “تشويه خطير للشؤون الداخلية للصين” وأنه “لا أساس له من الصحة على الإطلاق”

وتمثل هذه الممارسات شكلاً جديداً من أشكال الإبادة الثقافية، حيث يستخدم الذكاء الاصطناعي لإعادة كتابة التاريخ وإنكار معاناة شعب كامل. فقد أعلنت الولايات المتحدة والمملكة المتحدة وكندا وهولندا اتهام الصين بارتكاب إبادة جماعية في المنطقة، حيث يعيش ملايين الإيغور، وغالبيتهم من المسلمين. وجاءت هذه الإعلانات في أعقاب عدة تقارير وجدت أدلة على قيام الصين بتعقيم النساء، واحتجاز الناس في معسكرات، وفصل الأطفال عن عائلاتهم.

مستقبل الذكاء الاصطناعي العسكري: تحذيرات ورؤى

سيناريوهات مستقبلية للحروب الذكية

مع استمرار التطور المتسارع لتكنولوجيا الذكاء الاصطناعي، تتجه الحروب المستقبلية نحو اعتماد متزايد على الأنظمة الذكية في جميع مراحل العملية العسكرية، بدءاً من التخطيط والاستخبارات وصولاً إلى التنفيذ الميداني. وقد يؤدي هذا التحول إلى ظهور أشكال جديدة من الحروب لم نشهدها من قبل، حيث تتصارع الخوارزميات في فضاءات افتراضية قبل أن تترجم نتائجها إلى خسائر بشرية حقيقية على الأرض.

ومن المرجح أن تشهد الساحة العسكرية المستقبلية انتشاراً متزايداً للأسلحة ذاتية التشغيل، والتي ستكون قادرة على اتخاذ قرارات الاستهداف دون تدخل بشري. وهذا التطور يثير مخاوف جدية حول احتمال فقدان السيطرة البشرية على قرارات الحياة والموت، وتحول الحرب إلى عملية آلية باردة تفتقر إلى الحس الإنساني والأخلاقي الذي يمكن أن يردع العنف غير الضروري.

ضرورة تطوير إطار أخلاقي وقانوني شامل

في ظل هذه التطورات المتسارعة، تبرز الحاجة الملحة إلى تطوير إطار أخلاقي وقانوني شامل ينظم استخدام الذكاء الاصطناعي في المجال العسكري، ويضمن التزامه بمبادئ القانون الدولي الإنساني. ويجب أن يتضمن هذا الإطار قواعد واضحة بشأن مسؤولية البشر عن قرارات الأنظمة الذكية، وحدود استقلالية هذه الأنظمة، والضمانات اللازمة لمنع استخدامها في انتهاك حقوق الإنسان.

كما يجب أن يشمل هذا الإطار آليات فعالة للرقابة والمساءلة، تضمن عدم استخدام تقنيات الذكاء الاصطناعي في أغراض قمعية أو في انتهاك سيادة الدول أو في استهداف المدنيين. وهذا يتطلب تعاوناً دولياً واسع النطاق، وإرادة سياسية قوية لوضع مصلحة الإنسانية فوق المصالح العسكرية الضيقة.

مسؤولية المجتمع الدولي والعلماء

تقع على عاتق المجتمع الدولي مسؤولية كبيرة في ضبط إيقاع سباق التسلح الذكي، ومنع انزلاقه نحو منحدرات خطيرة قد تهدد مستقبل البشرية. كما تقع على عاتق العلماء والمطورين مسؤولية أخلاقية جسيمة في توجيه أبحاثهم نحو تطوير تقنيات ذكاء اصطناعي آمنة وموثوقة وخاضعة للسيطرة البشرية.

ويمثل دور الشركات التكنولوجية الكبرى عاملاً حاسماً في هذا السياق، إذ يتعين عليها وضع مبادئ أخلاقية صارمة تحكم تعاونها مع المؤسسات العسكرية، وضمان عدم استخدام تقنياتها في انتهاك حقوق الإنسان أو تقويض السلام والأمن الدوليين.

خاتمة: في مواجهة تحديات العصر الذكي

ها نحن نقف على مشارف عصر جديد تتحكم فيه الخوارزميات بمصائر الشعوب، وتُرسم فيه خرائط الحروب على لوحات رقمية، وتُتخذ فيه قرارات الحياة والموت ببرودة آلية لا تعرف الألم ولا تدرك معنى الفقد. إنه عصر يحمل في طياته إمكانيات هائلة للتقدم البشري، ولكنه يحمل أيضاً مخاطر جسيمة قد تقوض أسس الكرامة الإنسانية وتهدد مستقبل البشرية جمعاء.

إن استخدام الذكاء الاصطناعي في المجال العسكري ليس مجرد تطور تقني عابر، بل هو تحول جذري في طبيعة الحرب والصراع، وفي علاقة الإنسان بالتكنولوجيا، وفي مفهومنا للمسؤولية الأخلاقية والقانونية. ولذلك، فإن مواجهة التحديات التي يطرحها هذا التحول تتطلب جهداً مشتركاً من المجتمع الدولي، والمنظمات الحقوقية، والعلماء والمطورين، والشركات التكنولوجية، لضمان أن تظل التكنولوجيا في خدمة الإنسان، وليس العكس.

وفي ختام هذا المقال، لا بد من التأكيد على أن التقدم التكنولوجي لا يمكن – ولا ينبغي – أن يكون على حساب القيم الإنسانية الأساسية. فمهما بلغت قدراتنا التقنية، تظل كرامة الإنسان وحقه في الحياة أسمى من كل اعتبار. وعلينا أن نتذكر دائماً أن التكنولوجيا هي وسيلة وليست غاية، وأن غايتنا النهائية يجب أن تظل دائماً هي بناء عالم أكثر أماناً وعدلاً وإنسانية للجميع.

المصادر:

  1. تكنولوجيا الذكاء الاصطناعي وآثرها على الالتزام بقواعد القانون الدولي الإنساني.
  2. توظيف الذكاء الاصطناعي في عملية صنع القرار السياسي الخارجي.
  3. ضوابط استخدام الذكاء الاصطناعي في مجال التسليح العسكري في ضوء مبادئ القانون الدولي الإنساني
  4. wikipedia   
  5. https://en.wikipedia.org/wiki/AI-assisted_targeting_in_the_Gaza_Strip   
  6. How mass surveillance works in Xinjiang  
  7. AI emotion-detection software tested on Uyghurs

اشترك في نشرتنا البريدية للإطلاع على ملخص الأسبوع

Blank Form (#5)

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

طالع أيضا