ملخص

تتناول هذه الدراسة استخدام أنظمة الذكاء الاصطناعي في العمليات العسكرية، مع التركيز على ما يُعرف بـ”الخوارزميات القاتلة” ودورها في إعادة تشكيل طبيعة الحروب المعاصرة. وتنطلق الدراسة من تحليل تجربة الحرب على غزة بوصفها حالة تطبيقية بارزة لاستخدام الأنظمة الخوارزمية في تحديد الأهداف وإدارة عمليات الاستهداف والمراقبة. وتسعى الدراسة إلى الإجابة عن سؤال رئيس يتمثل في: كيف غيَّر استخدام الخوارزميات القاتلة طبيعة الحرب في غزة؟ وما التداعيات القانونية والأخلاقية المترتبة على ذلك؟ وتعتمد الدراسة على المنهج التحليلي ومنهج دراسة الحالة، من خلال تحليل أنظمة الذكاء الاصطناعي المستخدمة في العمليات العسكرية الإسرائيلية، ومناقشة انعكاساتها في ضوء مبادئ القانون الدولي الإنساني، ولاسيما مبادئ التمييز والتناسب والحيطة. وتخلص الدراسة إلى أن إدماج الذكاء الاصطناعي في العمليات العسكرية لا يؤدي فقط إلى تسريع عملية الاستهداف بل يثير أيضًا إشكالات قانونية وأخلاقية تتعلق بتراجع الدور البشري في اتخاذ القرارات القتالية وظهور ما يُعرف بـ”فجوة المسؤولية”. كما تشير النتائج إلى أن تجربة غزة قد تمثل مؤشرًا مبكرًا على تحولات أوسع في طبيعة النزاعات المسلحة في عصر الذكاء الاصطناعي؛ الأمر الذي يستدعي تطوير أطر قانونية دولية أكثر وضوحًا لتنظيم استخدام هذه التقنيات وضمان حماية المدنيين في النزاعات المسلحة.

الكلمات المفتاحية: الذكاء الاصطناعي العسكري، الخوارزميات القاتلة، حرب غزة، القانون الدولي الإنساني، الأسلحة ذاتية التشغيل.

Abstract

This study examines the growing role of artificial intelligence in military operations, focusing on what are commonly referred to as “lethal algorithms” and their role in the transformation of contemporary warfare. The research analyses the war in Gaza as a prominent case study of the use of algorithmic systems in target identification and strike and surveillance management. The study addresses a central question: how have lethal algorithms altered the nature of warfare in Gaza, and what legal and ethical implications arise from their use? The research employs an analytical approach combined with a case study methodology to examine the artificial intelligence systems reportedly used in Israeli military operations and assess their implications in light of the core principles of international humanitarian law, particularly distinction, proportionality and precaution. The findings suggest that the integration of artificial intelligence into military decision-making processes not only accelerates targeting operations but also raises significant legal and ethical concerns, including the decline of the human role in combat decision-making the emergence of what is known as a “responsibility gap”. The study also finds that the Gaza case may represent an early indicator of broader transformations in the nature of armed conflicts in the age of artificial intelligence, highlighting the urgent need for clearer international legal frameworks to regulate the military use of such

technologies and ensure the protection of civilians in armed conflicts.

Keywords: military artificial intelligence, lethal algorithms, Gaza war, international humanitarian law, autonomous weapons.

 

 

مقدمة

شهدت طبيعة النزاعات المسلحة خلال العقدين الأخيرين تحولًا ملحوظًا نتيجة التطور المتسارع في تقنيات الذكاء الاصطناعي. ولم يعد استخدام هذه التقنيات مقتصرًا على المجالات المدنية، مثل التجارة الرقمية أو الرعاية الصحية أو المساعدات الافتراضية، بل امتد بصورة متزايدة إلى المجال العسكري، بما أسهم في إعادة تشكيل أنماط الحروب المعاصرة وطرح تساؤلات قانونية وأخلاقية غير مسبوقة. ومن أبرز تجليات هذا التحول ما يُعرف بـ”الخوارزميات القاتلة”، وهي أنظمة مدعومة بالذكاء الاصطناعي تُستخدم في عمليات الاستهداف والقتل، وتتخذ قرارات قد تفضي إلى إنهاء حياة إنسان خلال ثوانٍ معدودة، مع حدٍّ أدنى من التدخل البشري.

ويُعد الصراع الأخير في غزة مثالًا ميدانيًّا بارزًا على تطبيقات الذكاء الاصطناعي في المجال العسكري؛ حيث استخدمت إسرائيل عددًا من الأنظمة الذكية، مثل: “لافندر”، و”الإنجيل”، و”مصنع النار”، و”أين أبي”، لتحديد الأهداف البشرية والبنى التحتية، وتنظيم عمليات القصف، وإدارة أنظمة المراقبة الجماعية للسكان. ولا تقتصر وظيفة هذه الأنظمة على توفير البيانات الاستخباراتية أو دعم عمليات التحليل العسكري بل تتجاوز ذلك إلى المساهمة المباشرة في تحديد من يُصنَّف “هدفًا مشروعًا”؛ الأمر الذي يجعلها عنصرًا مركزيًّا في منظومة الاستهداف والقتل.

ويتميَّز هذا التحول عن المراحل السابقة في تطور الحروب الحديثة بالانتقال من دور الذكاء الاصطناعي بوصفه أداة مساعدة للقادة والمحللين العسكريين، إلى دور أكثر استقلالية في عملية اتخاذ القرار، بحيث قد يقتصر دور الإنسان على المصادقة الشكلية على ما تقترحه الخوارزميات. وبهذا المعنى، تبرز ظاهرة جديدة تتمثل في تدخل الأنظمة التقنية في تقرير مصير البشر بصورة مباشرة، وبسرعة وكثافة تفوق قدرة الإنسان على التدقيق أو الاعتراض.

وتتضاعف أهمية دراسة هذه الظاهرة في السياق الفلسطيني لاعتبارين رئيسيين: أولهما أن قطاع غزة أصبح ساحة عملية لاختبار هذه الأنظمة الجديدة وقياس فاعليتها القتالية، وثانيهما أن نتائج استخدامها تنعكس مباشرة على حياة المدنيين؛ الأمر الذي يجعلها قضية ذات أبعاد أخلاقية وقانونية وإنسانية ملحَّة.

إشكالية البحث

تنطلق هذه الدراسة من سؤال رئيس يتمثل في: كيف غيَّرت الخوارزميات القاتلة طبيعة الحرب في غزة؟ وما التداعيات الأخلاقية والقانونية لهذا التحول؟

ويتفرع عن هذا السؤال الرئيس عدد من التساؤلات الفرعية، من أبرزها:

  • ما طبيعة أنظمة الذكاء الاصطناعي التي استُخدمت في العمليات العسكرية الإسرائيلية في غزة؟
  • كيف أسهمت هذه الأنظمة في إعادة تشكيل إستراتيجيات الاستهداف والمراقبة؟
  • ما مدى توافق أو تعارض ممارسات الاستهداف القائمة على الخوارزميات مع مبادئ القانون الدولي الإنساني، ولاسيما مبدأ التمييز والتناسب والحيطة؟
  • كيف تُطرح مسألة المسؤولية القانونية في حال ارتكبت هذه الأنظمة أخطاء قاتلة أدَّت إلى سقوط ضحايا مدنيين؟
  • ما الأبعاد الأخلاقية المترتبة على منح الخوارزميات سلطة اتخاذ قرارات تتعلق بالحياة والموت؟
  • إلى أي مدى يمكن اعتبار تجربة غزة نموذجًا أوليًّا لما قد يشهده العالم مستقبلًا من “حروب خوارزمية”؟

وتكشف هذه الإشكالية عن تقاطع معقَّد بين التكنولوجيا والقانون والأخلاق والسياسة؛ إذ لا يتعلق الأمر بمجرد تطور تقني في أدوات الحرب بل بقضية تمس جوهر حماية الإنسان والمدنيين في النزاعات المسلحة، كما تثير تساؤلات عميقة بشأن مستقبل الحروب في عصر الذكاء الاصطناعي.

أهداف البحث

يسعى هذا البحث إلى تحقيق مجموعة من الأهداف الرئيسة، من أبرزها:

التوصيف والتحليل: تقديم صورة تحليلية شاملة لطبيعة أنظمة الذكاء الاصطناعي العسكري المستخدمة في حرب غزة، وبيان خصائصها وآليات عملها، وكيفية إسهامها في تحديد الأهداف وتنفيذ الضربات العسكرية.

التأطير المفاهيمي: وضع الظاهرة ضمن إطارها النظري من خلال توضيح مفهوم الخوارزميات القاتلة والذكاء الاصطناعي العسكري، وبيان الفروق بين أنظمة الدعم التحليلي وأنظمة اتخاذ القرار شبه المستقلة.

التحليل القانوني: مناقشة مدى توافق هذه الممارسات مع مبادئ القانون الدولي الإنساني، ولاسيما ما يتعلق بالتمييز بين المقاتلين والمدنيين، والتناسب في استخدام القوة، والالتزام باتخاذ الاحتياطات اللازمة للحدِّ من الخسائر البشرية.

التحليل الأخلاقي: بحث الإشكالات الأخلاقية المرتبطة بتراجع الدور البشري في اتخاذ القرارات المصيرية، ومخاطر التحيز في البيانات، والنتائج المترتبة على انتقال الحرب نحو مستويات متقدمة من الأتمتة.

الكشف عن فجوة المسؤولية: إبراز التحدي المتعلق بتحديد المسؤولية القانونية والجنائية عند وقوع أخطاء ناجمة عن قرارات اتخذتها خوارزميات، وما إذا كان ذلك يخلق فراغًا قانونيًّا قد يسمح بالإفلات من المحاسبة.

إبراز البعد السياسي والإنساني: توضيح كيفية استخدام تقنيات الذكاء الاصطناعي في تعزيز أنماط السيطرة والمراقبة في السياق الفلسطيني، من خلال توظيف المراقبة الرقمية وتحويل المدن إلى فضاءات مراقبة مستمرة، وما يترتب على ذلك من آثار على حياة المدنيين وحقوقهم الأساسية.

استشراف النتائج المستقبلية: محاولة استشراف الدلالات التي تحملها تجربة غزة بالنسبة لمستقبل النزاعات المسلحة، وما إذا كان العالم يتجه نحو مرحلة جديدة من الحروب التي تؤدي فيها الخوارزميات دورًا متزايدًا في إدارة العمليات القتالية.

أولًا: الإطار المفاهيمي والنظري

  1. الخوارزميات: من الرياضيات إلى ساحات القتال

في الرياضيات وعلوم الحاسوب، تُعرَّف الخوارزمية بأنها سلسلة محدودة من التعليمات الرياضية الدقيقة تُستخدم لحل مجموعة من المسائل المحددة أو لتنفيذ عملية حسابية معينة، كما تُعد أداة أساسية لمعالجة البيانات وإجراء العمليات الحسابية داخل الأنظمة الحاسوبية(1).

أما الخوارزميات الأكثر تقدمًا، فتعمل على تحويل مسار تنفيذ الشفرة البرمجية عبر مسارات متعددة وفق شروط محددة، فيما يُعرف بعملية اتخاذ القرار الآلي (Automated Decision-Making)، كما قد تقود إلى استنتاجات منطقية اعتمادًا على ما يُعرف بـالاستدلال الآلي (Automated Reasoning)(2).

وفي المقابل، تُعرَّف الخوارزمية الاستدلالية (Heuristic) بأنها منهج لحل المسائل لا يهدف بالضرورة إلى الوصول إلى نتيجة صحيحة أو مثالية بشكل قطعي بل إلى تقديم حلول عملية وسريعة. فعلى سبيل المثال، يُشار غالبًا إلى أنظمة التوصية في منصات التواصل الاجتماعي بوصفها “خوارزميات”، غير أنها تعتمد في الواقع على استدلالات إرشادية، نظرًا لعدم وجود توصية “صحيحة” بصورة مطلقة(3).

ومن الناحية التقنية، يمكن التعبير عن الخوارزمية بوصفها عملية حسابية تُنفَّذ ضمن حدود زمنية ومكانية محددة، وبلغة برمجية واضحة، لحساب دالَّة معينة انطلاقًا من حالة ابتدائية ومدخلات محددة قد تكون أحيانًا فارغة(4). وعند تنفيذ هذه العملية تمر الخوارزمية عبر سلسلة من الحالات المتتابعة المحددة بدقة، لتنتهي بإنتاج مخرجات (Output) تصل إلى حالة نهائية(5).

ومع ذلك، لا يكون الانتقال بين هذه الحالات حتميًّا في جميع الحالات؛ إذ توجد خوارزميات تُعرف بـالخوارزميات العشوائية (Randomized Algorithms) تعتمد على مدخلات عشوائية ضمن عملية المعالجة(6). وبناءً على ذلك يمكن تعريف الخوارزمية بصورة عامة بأنها “مجموعة من القواعد التي تحدد بدقة سلسلة من العمليات”، وهي القواعد التي تقوم عليها جميع برامج الحاسوب، سواء تعلَّق الأمر بالحسابات الرقمية أو بعمليات معالجة المعلومات الأخرى(7).

وعلى الرغم من أن الخوارزمية نشأت أساسًا مفهومًا رياضيًّا تجريديًّا فإنها أصبحت اليوم إحدى الركائز الأساسية للعصر الرقمي؛ حيث تُستخدم في محركات البحث، وأنظمة التوصية، وشبكات التواصل الاجتماعي، والتجارة الإلكترونية، بل وحتى في إدارة حركة المرور في المدن الحديثة(8).

غير أن انتقال الخوارزميات من السياقات المدنية إلى المجال العسكري أضفى عليها بُعدًا جديدًا؛ إذ لم تعد مجرد أدوات لمعالجة المعلومات بل تحولت إلى أنظمة قادرة على تحديد الأهداف البشرية، واقتراح خطط القصف، وتقدير الخسائر المحتملة، بل وحتى التنبؤ بسلوك الخصوم. وبهذا المعنى لم تعد الخوارزمية مجرد أداة رياضية، بل أصبحت فاعلًا شبه مستقل يشارك في عملية صنع القرار العسكري(9).

وفي هذا السياق، يمكن التمييز بين نوعين رئيسين من الخوارزميات:

أ- الخوارزميات الحتمية: وهي التي تنتج نتائج ثابتة بناءً على مدخلات محددة مسبقًا.

ب- الخوارزميات العشوائية أو التعلمية: وهي التي تعتمد على تقنيات التعلم الآلي لاستخلاص الأنماط والتنبؤات من البيانات؛ ما يجعل نتائجها أكثر مرونة لكنها أقل يقينًا(10).

ويطرح هذا الطابع الاحتمالي للتعلم الآلي إشكالية أساسية، تتمثل في مدى إمكانية الاعتماد على خوارزميات لا تضمن دقة مطلقة عندما تكون حياة البشر على المحك.

  1. الذكاء الاصطناعي: التعريف والخصائص

يُعرَّف الذكاء الاصطناعي بأنه قدرة الأنظمة الحاسوبية على أداء مهام تتطلب عادةً قدرًا من الذكاء البشري، مثل التعلم، وحل المشكلات، والتخطيط، واتخاذ القرارات. وقد تأسس هذا الحقل الأكاديمي منذ خمسينات القرن العشرين، غير أنه شهد تطورًا متسارعًا خلال العقد الأخير بفضل التقدم الكبير في تقنيات الشبكات العصبية والتعلم العميق، إلى جانب الزيادة الكبيرة في القدرات الحاسوبية المتقدمة(11).

وفي السياق العسكري، يكتسب الذكاء الاصطناعي أهمية متزايدة نتيجة عدد من الخصائص التقنية التي تمنحه قدرة عالية على دعم العمليات العسكرية. ومن أبرز هذه الخصائص القدرة على تحليل كميات ضخمة من البيانات في فترات زمنية قصيرة، بما يتيح للقادة العسكريين الوصول إلى معلومات وتحليلات سريعة في بيئات قتالية معقدة. كما يتمتع بقدرات تنبؤية تساعد على تقدير سلوك الخصم أو توقع التغيرات المحتملة في ساحة المعركة، فضلًا عن إسهامه في أتمتة العديد من العمليات التحليلية والعملياتية؛ الأمر الذي يقلِّص الحاجة إلى التدخل البشري المباشر. ويضاف إلى ذلك قدرته على التكيف المستمر من خلال تحديث القرارات استنادًا إلى البيانات الجديدة والخبرات المتراكمة في أثناء العمليات(12).

ومع ذلك، فإن هذه الخصائص، على الرغم من أهميتها العملياتية، قد تنطوي على مخاطر كبيرة عند استخدامها في السياق العسكري. فالسرعة العالية في معالجة البيانات قد تؤدي أحيانًا إلى اتخاذ قرارات متسرعة إذا لم تقترن برقابة بشرية كافية، كما أن القدرة التنبؤية قد تعتمد على بيانات غير مكتملة أو متحيزة، وهو ما قد يؤدي إلى نتائج خاطئة. كذلك فإن الأتمتة المتزايدة قد تسهم في تقليص الدور البشري في عملية اتخاذ القرار؛ الأمر الذي يثير إشكالات أخلاقية وقانونية متزايدة في الحروب المعاصرة(13).

  1. الذكاء الاصطناعي العسكري بين الدعم والأتمتة القاتلة

تتعدد تطبيقات الذكاء الاصطناعي في المجال العسكري؛ إذ أصبح يُستخدم في عدد متزايد من الأنشطة العملياتية والاستخباراتية. ففي مجال الاستخبارات وجمع المعلومات، تتيح تقنيات الذكاء الاصطناعي تحليل صور الأقمار الصناعية والبيانات الرقمية الضخمة، بما في ذلك بيانات الاتصالات وشبكات التواصل الاجتماعي. كما يُستخدم في مهام الاستطلاع والمراقبة عبر الطائرات المسيَّرة وأنظمة التعرف على الوجه؛ الأمر الذي يعزز قدرة الجيوش على تتبع التحركات الميدانية بدقة أكبر. ويمتد استخدامه أيضًا إلى إدارة العمليات العسكرية، من خلال دعم عمليات تنسيق القوات وتحديد الأهداف وتقدير استخدام الذخائر. وإلى جانب ذلك، شهدت السنوات الأخيرة تطورًا ملحوظًا في مجال الأسلحة ذاتية التشغيل، مثل الطائرات المسيَّرة الانتحارية والأنظمة القتالية المستقلة(14).

ويمكن فهم تطور استخدام الذكاء الاصطناعي في المجال العسكري بوصفه مسارًا تدريجيًّا انتقل من مرحلة الدعم التحليلي إلى مستويات متقدمة من الأتمتة. ففي المرحلة الأولى اقتصر دور الذكاء الاصطناعي على تقديم أدوات تحليلية تساعد القادة العسكريين في معالجة المعلومات واتخاذ القرارات(15). أما في المرحلة الثانية، فقد أصبح يسهم بصورة أكبر في اقتراح الأهداف والخطط العملياتية اعتمادًا على تحليل البيانات والأنماط السلوكية(16). وفي المرحلة الثالثة، التي لا تزال في طور التبلور، يُتوقع أن تتمكن الأنظمة الذكية من اتخاذ قرارات قتالية مصيرية بدرجة عالية من الاستقلالية، مع تدخل بشري محدود أو شبه معدوم(17).

وفي الوقت الراهن، يبدو أن العالم يقف عند المرحلة الثانية من هذا التطور، غير أن المؤشرات التقنية والعسكرية تشير إلى تسارع الانتقال نحو المرحلة الثالثة، وهو ما ينذر بظهور جيل جديد من الأسلحة ذاتية التشغيل، أو ما بات يُعرف بـالخوارزميات القاتلة.

  1. خصوصية “الخوارزميات القاتلة”

لا يُقصد بمصطلح الخوارزميات القاتلة الروبوتات المسلحة بحدِّ ذاتها بل الأنظمة البرمجية المعتمدة على الذكاء الاصطناعي التي تُستخدم في تحديد الأهداف البشرية والعسكرية، ومن ثم الإسهام في اتخاذ قرارات الاستهداف والقتل. وتكمن خطورة هذه الأنظمة في عدد من الخصائص التي تجعلها مختلفة عن أدوات الحرب التقليدية.

أولى هذه الخصائص هي اللامرئية؛ إذ تعمل هذه الخوارزميات في خلفية الأنظمة العسكرية الرقمية، بعيدًا عن أعين الرأي العام؛ الأمر الذي يجعل عمليات الاستهداف التي تنتج عنها أقل شفافية وأكثر صعوبة في التتبع والمساءلة. أما الخاصية الثانية فتتمثل في الطابع الاحتمالي لهذه الأنظمة؛ إذ تعتمد خوارزميات التعلم الآلي على تحليل البيانات واستخلاص الأنماط منها؛ ما يعني أن قراراتها لا تكون يقينية بصورة مطلقة. وحتى في حال بلوغ نسبة دقة مرتفعة، فإن نسبة خطأ محدودة قد تُترجم عمليًّا إلى سقوط أعداد كبيرة من الضحايا في النزاعات واسعة النطاق.

وتتصل بذلك مشكلة ثالثة تتعلق بـالتحيزات المدمجة في البيانات التي تُغذِّي هذه الأنظمة؛ إذ قد تعكس البيانات المستخدمة في تدريب الخوارزميات تحيزات سياسية أو عرقية أو سياقية، وهو ما قد يؤدي إلى تصنيف أفراد أو جماعات معينة على نحو خاطئ ضمن قوائم الأهداف. كما أن الاعتماد المتزايد على هذه الأنظمة قد يؤدي إلى إضعاف الرقابة البشرية؛ حيث يميل القادة والمشغِّلون العسكريون إلى إبداء قدر كبير من الثقة في مخرجات الخوارزميات؛ الأمر الذي قد يقلِّل من مستوى التدقيق النقدي في القرارات التي تنتج عنها.

وفي السنوات الأخيرة ظهرت مؤشرات متزايدة على تسارع إدماج الذكاء الاصطناعي في المجال العسكري على المستوى العالمي. ففي عام 2024، أعلن مختبر صيني في كلية العمليات المشتركة بجامعة الدفاع الوطني في شيجياتشوانغ تطوير نموذج لقائد عسكري يعمل بالذكاء الاصطناعي لاستخدامه في عمليات محاكاة الحروب واسعة النطاق(18). وفي العام نفسه، طوَّر الجيش الأوكراني طائرات مسيَّرة انتحارية ذاتية التشغيل بهدف تقليل فاعلية التدخلات الروسية أثناء الطيران(19).

كما شهدت بعض النزاعات المعاصرة استخدامًا فعليًّا للذكاء الاصطناعي في عمليات الاستهداف. ففي حرب غزة استخدمت إسرائيل أنظمة ذكاء اصطناعي لتوليد قوائم الأهداف العسكرية، بينما درَّب الجيش الأميركي، في عام 2024، أنظمة ذكاء اصطناعي على تحديد أهداف الغارات الجوية خلال عملياته في العراق وسوريا(20).

وفي ضوء هذه التطورات، تتجه دول عديدة إلى تطوير ونشر تطبيقات عسكرية للذكاء الاصطناعي ضمن ما بات يُعرف بـسباق تسلح الذكاء الاصطناعي (Artificial Intelligence Arms Race). ويعكس هذا الاتجاه الارتفاع المتزايد في الإنفاق العسكري على الأنظمة الروبوتية والتقنيات الذكية؛ إذ ارتفع الإنفاق العسكري العالمي السنوي على الروبوتات من نحو 5.1 مليارات دولار أميركي، عام 2010، إلى ما يقارب 7.5 مليارات دولار، عام 2015(21).

وفي محاولة لتنظيم هذا المجال المتسارع، أعلنت الولايات المتحدة الأميركية عن مبادرة وقَّعت عليها 31 دولة تهدف إلى وضع ضوابط لاستخدام الذكاء الاصطناعي في المجال العسكري، وتشمل هذه الضوابط إجراء مراجعات قانونية للتأكد من امتثال الأنظمة الذكية للقانون الدولي، إضافة إلى تعزيز مبادئ الحذر والشفافية في تطوير هذه التقنيات واستخدامها(22).

  1. القانون الدولي الإنساني والتحدي الجديد

يقوم القانون الدولي الإنساني على مجموعة من المبادئ الأساسية التي تنظّم سلوك الأطراف المتحاربة أثناء النزاعات المسلحة، وفي مقدمتها مبدأ التمييز بين المدنيين والمقاتلين، ومبدأ التناسب في استخدام القوة، إضافة إلى مبدأ الاحتياط الذي يهدف إلى تقليل الخسائر في صفوف المدنيين إلى الحد الأدنى الممكن. وقد صيغت هذه المبادئ في سياق تاريخي كانت فيه قرارات الحرب تُتخذ أساسًا من قبل البشر، سواء على مستوى القيادة العسكرية أو في أثناء تنفيذ العمليات القتالية.

غير أن إدماج الخوارزميات والأنظمة المعتمدة على الذكاء الاصطناعي في العمليات العسكرية يطرح تحديات قانونية جديدة أمام هذه المنظومة؛ إذ يثير استخدام الأنظمة الآلية في تحديد الأهداف وتنفيذ الضربات تساؤلات معقدة تتعلق بطبيعة المسؤولية القانونية عن القرارات التي تصدر عنها. فحين يصدر قرار الاستهداف عن نظام خوارزمي لا يمتلك وعيًا أو نيَّة يصبح من الصعب تحديد الجهة التي ينبغي تحميلها المسؤولية في حال وقوع أخطاء تؤدي إلى سقوط ضحايا مدنيين. ويطرح ذلك إشكالية جوهرية تتعلق بما إذا كانت المسؤولية تقع على عاتق المبرمج الذي صمَّم النظام، أو القائد العسكري الذي اعتمد عليه في اتخاذ القرار، أو الدولة التي نشرت هذه التكنولوجيا في ساحة القتال.

كما يثير هذا الواقع سؤالًا أعمق يتعلق بمدى إمكانية اعتبار القرارات الآلية المتعلقة بالاستهداف امتثالًا لقواعد القانون الدولي الإنساني أو انتهاكًا لها، خصوصًا في الحالات التي تعتمد فيها هذه القرارات على تحليل احتمالي للبيانات. ولم تعد هذه الإشكالات مجرد نقاشات نظرية في الأدبيات القانونية، بل أصبحت واقعًا عمليًّا مع تزايد استخدام الأنظمة الذكية في النزاعات المسلحة المعاصرة، كما يظهر في حالة الحرب على غزة.

6 . من الردع التقليدي إلى الردع الخوارزمي

ارتبط مفهوم الردع العسكري تقليديًّا بالقدرة على تهديد الخصم باستخدام القوة العسكرية التقليدية لمنعه من الإقدام على عمل عدائي. غير أن التطور السريع في تقنيات الذكاء الاصطناعي والتحليل التنبؤي أدى إلى ظهور نمط جديد يمكن وصفه بـ”الردع الخوارزمي”، وهو نمط يعتمد على تحليل البيانات الضخمة والتنبؤ بالتهديدات المحتملة قبل وقوعها، بما يسمح باستباقها عبر إجراءات وقائية أو ضربات استباقية.

ويؤدي هذا التحول إلى تغيير ملحوظ في طبيعة الردع العسكري، إذ لم يعد الردع قائمًا فقط على التهديد بالرد بعد وقوع الهجوم، بل أصبح يعتمد بدرجة متزايدة على منع التهديدات المحتملة قبل أن تتحول إلى أفعال. وفي هذا السياق قد يؤدي الاعتماد المتزايد على التحليل الخوارزمي إلى إضفاء شرعية متزايدة على عمليات الاغتيال أو الضربات الوقائية التي تُنفذ قبل ظهور تهديد مباشر، كما قد يسهم في تحويل الحرب من حدث استثنائي محدود الزمن إلى عملية مستمرة شبه مؤتمتة.

ويرتبط هذا التحول بطبيعة التكنولوجيا الرقمية ذاتها، التي تختلف عن أنظمة الأسلحة التقليدية مثل الطائرات المقاتلة أو الدبابات أو المتفجرات. فالتكنولوجيا الرقمية تُعد من التقنيات التمكينية التي يمكن استخدامها في مجالات متعددة، وهو ما يجعلها أقرب في طبيعتها إلى البنية التحتية الأساسية، مثل الكهرباء أو الوقود، أكثر من كونها نظامًا منفردًا من أنظمة التسليح. وقد أشار عدد من الباحثين، من بينهم مايكل هورويتز، إلى أن هذا الطابع التمكيني للتكنولوجيا الرقمية يجعل تأثيرها في المجال العسكري أوسع نطاقًا وأكثر تعقيدًا من تأثير الأسلحة التقليدية.

كما أن جزءًا كبيرًا من هذه التقنيات يُطوَّر في الأصل داخل القطاع الخاص لأغراض تجارية قبل أن يُعاد توظيفه في السياقات العسكرية، وهو ما يجعلها متاحة على نطاق واسع نسبيًّا ويؤدي إلى ما يُعرف بظاهرة الابتكار المفتوح في المجال العسكري. ونتيجة لذلك، تشهد النزاعات المسلحة المعاصرة دورات سريعة من الابتكار والتكيف وإعادة التكيف، حيث يسعى كل طرف إلى تطوير وسائل جديدة للاستفادة من التقنيات الرقمية أو لتحييد المزايا التي يحققها خصمه باستخدامها.

وقد ظهرت هذه الأنماط بوضوح في عدد من النزاعات المعاصرة. ففي الحرب الروسية-الأوكرانية، على سبيل المثال، شنَّت روسيا في بداية الغزو الشامل، عام 2022، هجومًا إلكترونيًّا واسع النطاق استهدف شركة الأقمار الصناعية الأميركية “فياسات” (Viasat)، التي كانت تُستخدم في دعم الاتصالات العسكرية الأوكرانية. وأدَّى هذا الهجوم إلى تعطيل جزء كبير من قدرات الاتصال لدى القوات الأوكرانية في بداية الحرب. غير أن أوكرانيا تمكَّنت خلال فترة قصيرة من إيجاد بدائل تقنية، من بينها استخدام شبكة الأقمار الصناعية “ستارلينك” (Starlink)، التي بدأ نشرها في الأراضي الأوكرانية بعد وقت قصير من الهجوم.

وقد أسهم استخدام هذه التقنيات، إلى جانب منصات برمجية طوَّرتها أوكرانيا، مثل “دييا” و”دلتا”، في تعزيز قدرات القيادة والسيطرة والتنسيق بين الوحدات العسكرية، وهو ما مكَّن القوات الأوكرانية من الحفاظ على مستوى عالٍ من التكامل العملياتي. ومع ذلك، لم يؤدِّ هذا التفوق النسبي في استخدام التقنيات الرقمية إلى تحقيق نصر حاسم؛ إذ تمكنت روسيا بدورها من الاستفادة من انتشار هذه التقنيات لتطوير قدراتها في مجالات الاتصالات والحرب الإلكترونية.

فعلى الرغم من المخاطر الأمنية المرتبطة باستخدام التطبيقات التجارية، تشير تقارير إلى انتشار استخدام الهواتف المحمولة بين بعض الوحدات العسكرية الروسية، إضافة إلى استخدام تطبيقات جاهزة، مثل AlpineQuest GPS، للحصول على معلومات تكتيكية حول مواقع القوات والمعدات الأوكرانية. كما استُخدمت منصات التواصل الاجتماعي، مثل Telegram، لأغراض الدعاية والتنسيق اللوجستي، بينما استُخدم تطبيق Discord في بث مقاطع فيديو مباشرة من الطائرات المسيَّرة إلى مراكز القيادة.

وتُظهر هذه التطورات أن الانتشار الواسع للتكنولوجيا الرقمية وانخفاض تكاليفها سهَّل على أطراف النزاع المختلفة الوصول إلى أدوات تقنية متقدمة؛ ما أدى إلى تسريع وتيرة الابتكار العسكري لدى الجانبين. غير أن هذه البيئة التقنية المتغيرة بسرعة تجعل من الصعب الحفاظ على تفوق تقني مستدام؛ إذ إن كل ميزة تقنية سرعان ما تواجه استجابة مضادة أو تكيفًا من الطرف الآخر، وهو ما يؤدي في كثير من الحالات إلى حالة من الجمود الإستراتيجي على الرغم من الاستخدام المتزايد للتكنولوجيا الرقمية في ساحة المعركة.

  1. البعد الإنساني

بعيدًا عن التحليلات التقنية والقانونية، يظل البعد الإنساني عنصرًا جوهريًّا في النقاش حول استخدام الخوارزميات في الحروب. فالخوارزميات القاتلة لا تتعامل مع البشر بوصفهم أفرادًا يمتلكون حياة وكرامة وحقوقًا بل بوصفهم بيانات أو “أهدافًا” ضمن منظومات تحليل رقمية. وتؤدي هذه المقاربة الرقمية إلى تجريد الإنسان من صفته الإنسانية، وتحويله إلى ملف معلوماتي داخل قاعدة بيانات يمكن حذفه أو استهدافه بقرار آلي. وبهذا المعنى، لا يقتصر تأثير هذه التقنيات على تغيير طبيعة العمليات العسكرية، بل يمتد ليطرح تساؤلات عميقة حول قيمة الحياة البشرية في عصر الحروب المؤتمتة.

ثانيًا: غزة والخوارزميات القاتلة

  1. غزة مختبرًا للتكنولوجيا العسكرية

شهدت السنوات الأخيرة تصاعدًا ملحوظًا في استخدام تقنيات الذكاء الاصطناعي في العمليات العسكرية الإسرائيلية في قطاع غزة، في سياق تعاون وثيق مع شركات تكنولوجيا إسرائيلية وأميركية. غير أن هذا التطور لم يظهر فجأة، بل جاء نتيجة مسار طويل من أنظمة المراقبة والتحكم التي طُبقت على الفلسطينيين في الأراضي المحتلة.

وقد استحوذت التقارير الصحفية والتحقيقات البحثية المتعلقة بأنظمة معالجة البيانات المدعومة بالذكاء الاصطناعي، مثل “لافندر” و”غوسبل” و”أين أبي”، على اهتمام واسع في السنوات الأخيرة، خصوصًا بعد استخدامها في العمليات العسكرية في غزة. وقد دفع ذلك بعض الصحفيين والباحثين إلى وصف القطاع بأنه ساحة أول حرب أو إبادة جماعية مدعومة بالذكاء الاصطناعي.

وتشير التقارير إلى أن استخدام الذكاء الاصطناعي في العمليات العسكرية الإسرائيلية في غزة بدأ بصورة ملحوظة خلال العدوان الذي استمر أحد عشر يومًا، عام 2021. إلا أن الحرب التي اندلعت في أكتوبر/تشرين الأول 2023 مثَّلت مرحلة جديدة من هذا الاستخدام؛ إذ استُخدمت هذه التقنيات على نطاق أوسع وفي عمليات استهداف أكثر كثافة وسرعة.

وتعتمد أنظمة مثل “لافندر” و”غوسبل” و”أين أبي” على تحليل كميات ضخمة من بيانات المراقبة التي جمعتها أجهزة الاستخبارات الإسرائيلية على مدى سنوات حول السكان الفلسطينيين في غزة. فبينما يُستخدم نظام “الإنجيل” (Gospel) لتحديد المباني والمنشآت التي يُعتقد أنها مرتبطة بالأنشطة العسكرية يُستخدم نظام “لافندر” لتحديد الأفراد الذين يُشتبه في ارتباطهم بفصائل المقاومة، في حين يتولى نظام “أين أبي” تتبع تحركات هؤلاء الأفراد وتحديد اللحظة المناسبة لاستهدافهم.

وفي هذا السياق، فإن هذه الأنظمة تعمل ضمن بنية مراقبة رقمية واسعة تستند إلى جمع وتحليل بيانات السكان بصورة مستمرة. كما أن هذه التقنيات تُستخدم في إطار منظومة أوسع من السيطرة الرقمية على الاتصالات والبنية التحتية التكنولوجية في الأراضي الفلسطينية، وهو ما يدفع بعض الباحثين إلى وصف هذا الواقع بمفهوم “الاحتلال الرقمي”، نظرًا لسيطرة إسرائيل على شبكات الاتصالات وخطوط الهاتف والإنترنت في غزة ومراقبتها.

وعلى مدى عقود، استخدمت إسرائيل قطاع غزة بوصفه ساحة لاختبار عدد من أنظمتها العسكرية والتكنولوجية. غير أن الحرب التي بدأت في أكتوبر/تشرين الأول 2023 مثّّلت تحولًا نوعيًّا؛ إذ أصبح الذكاء الاصطناعي عنصرًا مركزيًّا في عمليات تحديد الأهداف وتخطيط الضربات الجوية وإدارة عمليات القصف. ولهذا السبب أطلق بعض الباحثين على هذه الحرب تسميات مثل “الحرب الخوارزمية” أو “الحرب الثانية للذكاء الاصطناعي”، في إشارة إلى الاعتماد المكثف على الأنظمة الذكية في إدارة العمليات العسكرية.

  1. الأنظمة المستخدمة في حرب غزة

من بين الأنظمة التي استُخدمت في العمليات العسكرية في غزة يبرز نظام “لافندر” (Lavender) بوصفه أحد أهم أدوات الاستهداف البشري المعتمدة على الذكاء الاصطناعي. يعتمد هذا النظام على تحليل كميات ضخمة من البيانات، تشمل سجلات الهواتف والأنماط السلوكية والتحركات اليومية، بهدف تصنيف الأفراد ضمن قوائم الأهداف المحتملة. وتتمثل وظيفته الأساسية في تحديد الأشخاص الذين يُعتقد أنهم مرتبطون بحركة حماس أو بفصائل مسلحة أخرى. وتمتاز هذه المنظومة بقدرتها على إنشاء ملفات استهداف بسرعة كبيرة والتعامل مع عشرات الآلاف من البيانات خلال فترة زمنية قصيرة. غير أن المشكلة الأساسية تكمن في أن دقتها ليست مطلقة؛ إذ تشير بعض التقديرات إلى أن نسبة الخطأ قد تبلغ نحو عشرة في المئة، وهي نسبة قد تبدو محدودة من الناحية التقنية، لكنها قد تعني عمليًّا إدراج آلاف المدنيين ضمن قوائم الاستهداف.

إلى جانب ذلك، يُستخدم نظام “الإنجيل” (The Gospel) في تحديد الأهداف غير البشرية، مثل المباني والمنشآت. ويعتمد هذا النظام على تحليل صور الأقمار الصناعية والبيانات الاستخباراتية المختلفة لتحديد مواقع يُعتقد أنها مرتبطة بأنشطة الفصائل المسلحة. وقد أدى استخدام هذا النظام إلى توسيع نطاق استهداف البنية التحتية المدنية تحت مبرر ارتباطها المحتمل بالأنشطة العسكرية.

كما طُوِّر نظام آخر يُعرف باسم “مصنع النار” (Fire Factory)، وهو نظام يُستخدم في التخطيط العملياتي الآلي للضربات الجوية. ويقوم هذا النظام باقتراح نوع الذخيرة المناسبة لكل هدف، وتحديد الكميات المطلوبة، وتنظيم جدول الضربات الجوية. وقد أسهم هذا النظام في تسريع وتيرة العمليات العسكرية وتقليل الاعتماد على الخبرة البشرية في التخطيط العملياتي، لكنه في الوقت نفسه حوَّل عملية اتخاذ القرار إلى سلسلة شبه مؤتمتة؛ ما جعل الرقابة البشرية في بعض الحالات أقرب إلى المصادقة الشكلية.

أما نظام “أين أبي؟” (Where’s Daddy?) فيُستخدم لتعقب الأفراد المستهدفين. ويعمل هذا النظام على إرسال إشعار عندما يدخل الشخص المستهدف منزله أو موقعًا محددًا؛ الأمر الذي يسمح بتنفيذ الضربة في تلك اللحظة. غير أن هذه الآلية كثيرًا ما تؤدي إلى استهداف المنازل المكتظة بالعائلات، وهو ما يحول الحياة اليومية للسكان إلى ما يشبه الفخ القاتل.

  1. نتائج استخدام هذه الأنظمة

تشير تقارير وتحليلات متعددة إلى أن استخدام أنظمة الذكاء الاصطناعي في عمليات الاستهداف خلال الحرب على غزة ارتبط بارتفاع كبير في أعداد الضحايا والخسائر المادية. وقد أدَّت كثافة الضربات الجوية المعتمدة على تحليل البيانات والخوارزميات إلى سقوط أعداد كبيرة من القتلى والجرحى في صفوف السكان المدنيين، إضافة إلى تدمير واسع للبنية التحتية والمباني السكنية في القطاع.

ولا تعكس هذه النتائج بالضرورة مستوى الدقة التقنية لهذه الأنظمة بقدر ما تبرز المخاطر المرتبطة بالاعتماد المتزايد على الخوارزميات في تحديد الأهداف العسكرية، خصوصًا في البيئات القتالية المكتظة بالسكان. وفي مثل هذه السياقات قد يؤدي توظيف الأنظمة المؤتمتة في عمليات الاستهداف إلى رفع احتمالات وقوع خسائر مدنية واسعة، وهو ما يثير تساؤلات متزايدة حول الأبعاد القانونية والأخلاقية لاستخدام هذه التقنيات في النزاعات المسلحة.

وفي سياق متصل، كشفت تقارير حديثة عن تطوير الجيش الإسرائيلي نموذجًا تقنيًّا يشبه أنظمة ChatGPT لمراقبة الفلسطينيين في قطاع غزة. ويُعتقد أن هذا النموذج اللغوي الكبير طُوِّر داخل الوحدة الاستخباراتية الإسرائيلية السرية 8200، وقد جرى تدريبه على تحليل المحادثات العربية للفلسطينيين التي جُمعت عبر أنظمة المراقبة المختلفة. ويتيح هذا النظام للمحللين العسكريين طرح أسئلة حول أفراد أو مجموعات معينة واستخلاص معلومات من قواعد البيانات الضخمة بصورة أسرع وأكثر كفاءة.

  1. التحول في قواعد الاشتباك

قبل إدماج أنظمة الذكاء الاصطناعي في عمليات الاستهداف، كانت القرارات العسكرية المتعلقة بتحديد الأهداف تمر عادة عبر مراحل متعددة من المراجعة البشرية، تشمل تحليل المعلومات الاستخباراتية والتدقيق في مدى توافق الضربة مع قواعد الاشتباك والقانون الدولي الإنساني. غير أن استخدام الأنظمة الخوارزمية في الحرب الأخيرة أدى، وفق ما تشير إليه بعض التقارير، إلى تسريع هذه العملية بدرجة كبيرة، بحيث تقلّصت مدة المراجعة في بعض الحالات إلى وقت قصير للغاية قبل تنفيذ الضربة.

كما تشير بعض التقارير إلى أن الاعتماد المتزايد على قوائم الأهداف التي تولِّدها أنظمة الذكاء الاصطناعي قد يؤدي أحيانًا إلى تنفيذ ضربات اعتمادًا على مخرجات هذه الأنظمة دون تدقيق مستقل كافٍ. ويثير ذلك نقاشًا واسعًا حول تأثير الأتمتة المتزايدة في عملية اتخاذ القرار العسكري، ولاسيما فيما يتعلق بتقدير الخسائر المدنية المحتملة وما يُعرف بمفهوم “الضرر الجانبي المقبول”.

ويُظهر هذا التحول أن إدماج الخوارزميات في عمليات الاستهداف قد يؤدي إلى تسريع وتيرة العمليات العسكرية، وهو ما يطرح تساؤلات قانونية وأخلاقية متزايدة حول مدى قدرة هذه الأنظمة على مراعاة مبادئ التمييز والتناسب المنصوص عليها في القانون الدولي الإنساني، خاصة في البيئات القتالية المكتظة بالسكان.

  1. المراقبة الرقمية: من الاحتلال العسكري إلى السيطرة الرقمية

ارتبطت أنماط المراقبة في الأراضي الفلسطينية تاريخيًّا بسياق السيطرة الاستعمارية والإدارية. فمنذ فترة الانتداب البريطاني قبل عام 1948 اعتمدت السلطات الحاكمة على مجموعة من أدوات الضبط والمراقبة، مثل سجلات السكان، وبطاقات الهوية الإلزامية، ونقاط التفتيش، وإجراءات حظر التجول. وقد استمر استخدام هذه الأدوات وتوسع بعد قيام إسرائيل؛ حيث أصبحت جزءًا من منظومة أوسع للتحكم في حركة السكان وإدارة المجال الجغرافي الفلسطيني(23).

وتشير الأدبيات التي تناولت علاقة المراقبة بالسلطة الاستعمارية إلى أن أنظمة المراقبة لم تكن مجرد وسائل أمنية محايدة، بل شكَّلت في كثير من الحالات أدوات لإدارة السكان وإعادة تنظيم المجال الاجتماعي والسياسي. ففي العديد من السياقات الاستعمارية ارتبطت تقنيات المراقبة بهدف إحكام السيطرة على السكان المحليين، سواء من خلال تسجيلهم وتصنيفهم أو من خلال ضبط حركتهم وإعادة تنظيم المجال الذي يعيشون فيه(24).

وفي الحالة الفلسطينية، طُوِّرت هذه الأنماط من المراقبة تدريجيًّا لتشمل منظومات أكثر تعقيدًا تعتمد على التقنيات الرقمية والبيانات الضخمة. وقد أشار عدد من الباحثين إلى أن هذه التقنيات تُستخدم في إطار بنية أوسع من إدارة السكان؛ حيث تسمح أدوات المراقبة الرقمية بتوسيع نطاق جمع البيانات حول الأفراد وتحليل أنماط تحركاتهم وسلوكهم الاجتماعي(25).

ومع التطور السريع في تقنيات الذكاء الاصطناعي وتحليل البيانات الضخمة أصبحت أنظمة المراقبة قادرة على معالجة كميات هائلة من المعلومات في فترات زمنية قصيرة؛ الأمر الذي يعزز قدرة المؤسسات الأمنية على تتبع الأفراد وتصنيفهم ضمن قواعد بيانات واسعة. وفي هذا السياق، تُعد أنظمة تحليل البيانات المدعومة بالذكاء الاصطناعي، مثل الأنظمة المستخدمة في تحديد الأهداف أو تتبع الأفراد، امتدادًا لمنطق أوسع يقوم على دمج تقنيات البيانات الضخمة في إدارة المجال السكاني(26).

وتشير بعض الدراسات إلى أن هذا التحول يعكس انتقال المراقبة من أنماطها التقليدية المرتبطة بالمراقبة الفيزيائية المباشرة إلى أنماط رقمية تعتمد على تحليل البيانات والخوارزميات. فبدلًا من الاعتماد على نقاط التفتيش أو أدوات المراقبة المادية فقط، أصبح من الممكن تتبع الأفراد وتصنيفهم اعتمادًا على البيانات الرقمية التي تُجمع عبر أنظمة الاتصالات والإنترنت والبنية التحتية التكنولوجية المختلفة(27).

وفي السنوات الأخيرة توسع استخدام تقنيات التعرف على الوجه وأنظمة تحليل البيانات البيومترية في بعض مناطق الأراضي الفلسطينية؛ حيث تُستخدم هذه التقنيات في نقاط التفتيش أو في الأماكن العامة لتحديد هوية الأفراد ومقارنتها بقواعد بيانات أمنية. وتشير بعض الدراسات إلى أن هذه الأنظمة تعتمد على بنية تقنية معقدة تشمل شركات تكنولوجيا خاصة ومنصات تحليل بيانات متقدمة(28).

كما ظهرت أنظمة رقمية متخصصة لجمع البيانات البيومترية وربطها بقواعد بيانات مركزية، مثل الأنظمة المعروفة باسم Blue Wolf وRed Wolf وWolf Pack، التي تعتمد على تقنيات التعرف على الوجه والبيانات البيومترية لتحديد هوية الأفراد وربطها بملفات معلوماتية واسعة. وتسمح هذه الأنظمة بتصنيف الأفراد وفق مستويات مختلفة من التقييم الأمني، وهو ما يؤثر في إمكانية تنقلهم عبر نقاط التفتيش أو دخولهم إلى مناطق معينة(29).

وقد أدَّى الانتشار الواسع لهذه التقنيات إلى ظهور ما يصفه بعض الباحثين ببيئة مراقبة رقمية مكثفة؛ حيث تُجمَع البيانات المتعلقة بحركة الأفراد واتصالاتهم وأنشطتهم اليومية ضمن منظومات تحليلية واسعة. وفي مثل هذه البيئات يمكن أن تتحول المدن أو المناطق الخاضعة للمراقبة إلى فضاءات تُدار عبر شبكات من الكاميرات وأجهزة الاستشعار وقواعد البيانات، بحيث تصبح الحياة اليومية للسكان مرتبطة بشكل متزايد بأنظمة المراقبة الرقمية(30).

وفي هذا السياق، يُستخدم أحيانًا مفهوم “الحصار الرقمي” لوصف الوضع الذي يعيش فيه السكان تحت أنظمة مراقبة مستمرة تعتمد على تحليل البيانات والخوارزميات؛ حيث تُدمج المعلومات المتعلقة بالتحركات والعلاقات الاجتماعية والأنشطة اليومية ضمن قواعد بيانات يمكن استخدامها لأغراض أمنية أو عسكرية(31).

  1. الأبعاد الأخلاقية والقانونية للتجربة الغزِّية

تكشف تجربة استخدام الخوارزميات في العمليات العسكرية في غزة جملة من الإشكالات الأخلاقية والقانونية التي تتجاوز الجانب التقني لهذه الأنظمة. ومن أبرز هذه الإشكالات ما يرتبط بتجريد الإنسان من إنسانيته داخل منظومات الاستهداف الخوارزمية؛ إذ لا تتعامل هذه الأنظمة مع الأفراد بوصفهم أشخاصًا يمتلكون حياة وحقوقًا وكرامة بل بوصفهم بيانات أو إحداثيات داخل قواعد معلومات(32). ويؤدي هذا التحول إلى تقليص البعد الإنساني في عملية اتخاذ القرار العسكري؛ حيث تُتخذ القرارات على أساس تحليل البيانات والأنماط الرقمية، دون أن ترافقها بالضرورة عملية تقييم أخلاقي مماثلة لتلك التي يقوم بها البشر.

كما أن السرعة العالية التي تعمل بها هذه الأنظمة تقلِّص المجال الزمني المتاح للتفكير الأخلاقي أو القانوني في نتائج الضربات العسكرية. فالخوارزمية مصممة لتنفيذ التعليمات وتحليل البيانات بسرعة كبيرة، وهو ما قد يؤدي إلى تنفيذ عمليات الاستهداف في إطار زمني ضيق لا يسمح بقدر كافٍ من التدقيق البشري في العواقب الإنسانية المحتملة(33).

وترتبط بذلك إشكالية أخرى تُعرف في الأدبيات القانونية بـ”فجوة المسؤولية”، وهي الحالة التي يصبح فيها من الصعب تحديد الجهة المسؤولة عن القرارات التي تتخذها الأنظمة الخوارزمية. فعندما تُنفَّذ ضربة عسكرية استنادًا إلى توصية نظام ذكاء اصطناعي، يثور التساؤل حول الجهة التي ينبغي تحميلها المسؤولية القانونية في حال وقوع أخطاء تؤدي إلى سقوط ضحايا مدنيين: هل تقع المسؤولية على عاتق المبرمج الذي صمَّم النظام، أم الضابط الذي نفَّذ القرار، أم القيادة العسكرية التي اعتمدت استخدام هذه التقنية؟(34). ويؤدي هذا الغموض في تحديد المسؤولية إلى تعقيد آليات المساءلة القانونية، وقد يفتح المجال أمام الإفلات من المحاسبة.

ومن ناحية أخرى، تشير بعض التحليلات إلى أن الاستخدام الواسع للخوارزميات في عمليات الاستهداف قد يعكس تحولًا أوسع في طبيعة الردع العسكري. فبدلًا من الاعتماد على الردع التقليدي القائم على التهديد بالقوة أو الرد على الهجمات، قد تتيح أنظمة التحليل الخوارزمي إمكانات أكبر للعمليات الاستباقية التي تستند إلى التنبؤ بالتهديدات المحتملة. وفي مثل هذه الحالات قد يصبح الاستهداف قائمًا على تقديرات احتمالية أو ارتباطات غير مباشرة، وهو ما قد يوسِّع نطاق الأهداف المحتملة ويزيد مخاطر وقوع خسائر مدنية(35).

ولا تقتصر دلالات هذه التطورات على الحالة الغزِّية وحدها بل تمتد إلى النقاش الأوسع حول مستقبل الحروب في عصر الذكاء الاصطناعي. إذ تشير هذه التجربة إلى احتمال انتقال بعض النزاعات المعاصرة نحو أنماط من الحروب تعتمد بدرجة متزايدة على الخوارزميات وتحليل البيانات في إدارة العمليات العسكرية. كما تثير تساؤلات متزايدة حول مدى قدرة الأطر القانونية الحالية على التعامل مع التحديات التي تطرحها الأنظمة المؤتمتة، خاصة فيما يتعلق بتحديد المسؤولية الجنائية وحماية المدنيين في النزاعات المسلحة(36).

وفي ضوء ذلك، يمكن النظر إلى الحالة الغزِّية بوصفها مثالًا مبكرًا على التحولات التي قد يشهدها مجال الحرب مع اتساع استخدام تقنيات الذكاء الاصطناعي. فهي تبرز بوضوح أن إدماج الخوارزميات في العمليات العسكرية لا يؤدي بالضرورة إلى تقليل العنف، بل قد يسهم في تسريع وتيرة العمليات القتالية إذا لم ترافقه ضوابط قانونية وأخلاقية صارمة تنظم استخدام هذه التقنيات وتحافظ على المبادئ الأساسية للقانون الدولي الإنساني(37).

 

ثالثًا: الأبعاد القانونية والأخلاقية

  1. القانون الدولي الإنساني في مواجهة الذكاء الاصطناعي

يقوم القانون الدولي الإنساني على مجموعة من المبادئ الأساسية التي تنظِّم سلوك أطراف النزاع أثناء العمليات العسكرية، وفي مقدمتها مبدأ التمييز بين المقاتلين والمدنيين، ومبدأ التناسب في استخدام القوة، إضافة إلى مبدأ الحيطة الذي يفرض اتخاذ جميع التدابير الممكنة لتقليل الخسائر بين المدنيين والأعيان المدنية(38). ويقضي مبدأ التمييز بضرورة التفريق بين الأهداف العسكرية المشروعة والأهداف المدنية، في حين يفرض مبدأ التناسب الامتناع عن تنفيذ هجمات يُتوقع أن تُلحق أضرارًا مفرطة بالمدنيين مقارنة بالميزة العسكرية المتوقعة من الهجوم(39).

أما مبدأ الحيطة فيتطلب من أطراف النزاع اتخاذ جميع الاحتياطات الممكنة لتقليل الخسائر في صفوف المدنيين، بما في ذلك التحقق من طبيعة الهدف قبل تنفيذ الهجوم، واختيار الوسائل والأساليب القتالية التي تقلِّل الأضرار المحتملة، وإعطاء تحذير مسبق فعَّال للمدنيين عندما تسمح الظروف بذلك(40). ويعكس هذا المبدأ التزامًا مستمرًّا بما يُعرف في الأدبيات القانونية بواجب العناية المستمرة (constant care)، الذي يفرض على الأطراف المتحاربة مراعاة حماية المدنيين والأعيان المدنية طوال سير الأعمال العدائية، واتخاذ التدابير اللازمة لتجنب الضرر أو تقليله إلى الحد الأدنى الممكن(41).

ومع إدماج أنظمة الذكاء الاصطناعي في عمليات الاستهداف العسكري، تبرز تساؤلات قانونية متزايدة حول مدى قدرة هذه الأنظمة على الامتثال الفعلي لهذه المبادئ. فعملية اتخاذ القرار السريعة التي تميز الأنظمة الخوارزمية قد تحدُّ من الوقت المتاح للتحقق من طبيعة الأهداف وتقدير الأضرار المحتملة، وهو ما يثير مخاوف بشأن مدى الالتزام بمبدأ التمييز بين المدنيين والمقاتلين(42).

ويحظر البروتوكول الإضافي الأول لاتفاقيات جنيف لعام 1977 استخدام وسائل أو أساليب قتال تجعل من الصعب التمييز بين المدنيين والمقاتلين؛ إذ تنص المادة (48) على ضرورة توجيه العمليات العسكرية حصرًا ضد الأهداف العسكرية المشروعة(43). وفي ضوء ذلك، يرى بعض الباحثين أن الاعتماد المتزايد على أنظمة الاستهداف المؤتمتة قد يثير إشكالات قانونية تتعلق بمدى تحقق هذا الشرط، خصوصًا إذا تقلَّصت فترات المراجعة البشرية قبل تنفيذ الضربات.

كما تُثار تساؤلات قانونية مماثلة في ما يتعلق بمبدأ التناسب المنصوص عليه في المادة (51) من البروتوكول الإضافي الأول، التي تحظر الهجمات التي قد يُتوقع أن تسبب خسائر مفرطة في صفوف المدنيين مقارنة بالميزة العسكرية المتوقعة(44). فحين تعتمد قرارات الاستهداف على تحليل خوارزمي للبيانات، يصبح من الصعب أحيانًا تقييم كيفية احتساب هذه الأنظمة لمعادلة التناسب بين المكاسب العسكرية والأضرار المدنية المحتملة.

ولا يقتصر الجدل القانوني على سلوك القوات المسلحة فحسب بل يمتد أيضًا إلى دور الشركات التكنولوجية الخاصة التي تشارك في تطوير البنية التحتية الرقمية المستخدمة في العمليات العسكرية. ففي هذا السياق أثار مشروع Nimbus، الذي تشارك فيه شركات تكنولوجيا كبرى مثل Amazon Web Services وGoogle وMicrosoft، نقاشًا واسعًا حول مسؤولية الشركات في تطوير تقنيات قد تُستخدم في العمليات العسكرية، وذلك في ضوء المبادئ التوجيهية للأمم المتحدة بشأن الأعمال التجارية وحقوق الإنسان(45).

كما تمتد البنية التحتية الرقمية المرتبطة بأنظمة المراقبة المدعومة بالذكاء الاصطناعي إلى مناطق أخرى خارج قطاع غزة، بما في ذلك الضفة الغربية؛ حيث تُستخدم تقنيات تحليل البيانات البيومترية وأنظمة التعرف على الوجه في بعض المناطق، ولاسيما في مدينة الخليل(46). وتعتمد بعض هذه الأنظمة على تطبيقات مثل Blue Wolf وقواعد بيانات مثل Wolf Pack التي تجمع البيانات الشخصية والبيومترية للفلسطينيين وربطها بقواعد بيانات أمنية واسعة(47).

وقد أثارت هذه الممارسات تساؤلات قانونية تتعلق بالحق في الخصوصية؛ إذ تشير بعض التحليلات إلى أن جمع البيانات البيومترية للأفراد دون موافقة واضحة قد يتعارض مع المادة (17) من العهد الدولي الخاص بالحقوق المدنية والسياسية، التي تحظر التدخل التعسفي أو غير القانوني في خصوصية الأفراد(48). وتجدر الإشارة إلى أن إسرائيل طرف في هذا العهد منذ تصديقها عليه في الثالث من أكتوبر/تشرين الأول 1991؛ ما يجعلها ملزمة قانونيًّا بأحكامه(49).

وفي ضوء هذه التطورات، يطرح إدماج الذكاء الاصطناعي في العمليات القتالية تحديات غير مسبوقة أمام منظومة القانون الدولي الإنساني. فالخوارزميات لا تمتلك قدرة ذاتية على التمييز الأخلاقي بل تعتمد على تحليل احتمالي للبيانات والأنماط السلوكية، وهي بيانات قد تكون ناقصة أو متحيزة. ومن ثم فإن الاعتماد المتزايد على هذه الأنظمة يفرض الحاجة إلى تطوير أطر قانونية أكثر وضوحًا لتنظيم استخدامها وضمان توافقها مع المبادئ الأساسية للقانون الدولي الإنساني(50).

  1. التحديات القانونية والأخلاقية لاستخدام الذكاء الاصطناعي في العمليات العسكرية

يثير استخدام أنظمة الذكاء الاصطناعي في العمليات العسكرية عددًا من الإشكالات القانونية والأخلاقية المعقدة، وفي مقدمتها ما يُعرف في الأدبيات القانونية بمفهوم “فجوة المسؤولية” (Responsibility Gap). فحين تعتمد القرارات العسكرية على توصيات أنظمة خوارزمية في تحديد الأهداف أو تحليل البيانات الاستخباراتية، يصبح من الصعب تحديد الجهة المسؤولة قانونيًّا عن نتائج هذه القرارات في حال وقوع أخطاء تؤدي إلى سقوط ضحايا مدنيين. فقد يرى المبرمِج أنه صمَّم أداة تقنية محايدة، بينما قد يعتبر الضابط العسكري أنه اعتمد على توصية تقنية متخصصة، في حين قد ترى القيادة العسكرية أن القرار استند إلى تحليلات يُفترض أنها موثوقة. ويؤدي هذا التداخل في المسؤوليات إلى خلق فراغ قانوني قد يعقِّد آليات المساءلة في حال وقوع انتهاكات للقانون الدولي الإنساني(51).

وترتبط هذه الإشكالية أيضًا بطبيعة البيانات التي تعتمد عليها الخوارزميات في عملها. فالأنظمة القائمة على التعلم الآلي تعتمد على تحليل بيانات بشرية، وهي بيانات قد لا تكون محايدة دائمًا؛ إذ يمكن أن تتضمن هذه البيانات أنماطًا من التحيزات العرقية أو السياسية أو السياقية؛ الأمر الذي قد يؤدي إلى تصنيف مجموعات بشرية معينة ضمن فئات الخطر استنادًا إلى مؤشرات غير دقيقة، مثل اللغة أو أنماط السلوك أو الخصائص الديمغرافية. وفي سياقات النزاع المسلح قد يؤدي ذلك إلى تحويل فئات واسعة من السكان إلى موضوع اشتباه دائم، وهو ما يثير تساؤلات جدية حول مدى حياد الأنظمة الخوارزمية المستخدمة في عمليات الاستهداف(52).

كما أن الاعتماد المتزايد على الأتمتة في إدارة العمليات العسكرية يؤدي إلى تقليص الدور البشري في عملية اتخاذ القرار. ففي بعض الحالات يقتصر التدخل البشري على المصادقة السريعة على قرارات تولدها الأنظمة الخوارزمية؛ الأمر الذي قد يؤدي إلى تراجع مستوى التدقيق النقدي في نتائج هذه الأنظمة. وقد أثار هذا التحول نقاشًا متزايدًا في الأدبيات القانونية حول ضرورة الحفاظ على ما يُعرف بمبدأ “التحكم البشري الهادف” (Meaningful Human Control) في جميع مراحل اتخاذ القرار العسكري، بوصفه شرطًا أساسيًّا لضمان الامتثال للقانون الدولي الإنساني(53).

ومن القضايا المرتبطة بذلك أيضًا مسألة مبدأ التناسب في القانون الدولي الإنساني، الذي يفرض على أطراف النزاع تجنب الهجمات التي قد تسبب أضرارًا مفرطة بالمدنيين مقارنة بالميزة العسكرية المتوقعة. وفي ظل استخدام الأنظمة الخوارزمية في تحليل الأهداف وتقدير المخاطر، تبرز تساؤلات حول كيفية ترجمة هذا المبدأ القانوني إلى معايير حسابية داخل الخوارزميات، خصوصًا عندما تعتمد هذه الأنظمة على نماذج احتمالية في تقدير النتائج المحتملة للهجمات(54).

كما تثير أنظمة الذكاء الاصطناعي المستخدمة في المراقبة إشكالات قانونية إضافية تتعلق بحماية الخصوصية وحقوق الإنسان. فبعض الأنظمة الرقمية تعتمد على جمع بيانات بيومترية واسعة النطاق، مثل تقنيات التعرف على الوجه وقواعد البيانات المرتبطة بها، وهو ما قد يؤدي إلى إنشاء منظومات مراقبة شاملة قادرة على تتبع الأفراد وتصنيفهم ضمن قواعد بيانات أمنية. وقد اعتبر بعض الباحثين أن مثل هذه الممارسات قد تتعارض مع الحق في الخصوصية المنصوص عليه في العهد الدولي الخاص بالحقوق المدنية والسياسية، الذي يحظر التدخل التعسفي أو غير القانوني في الحياة الخاصة للأفراد(55).

وتتجاوز هذه الإشكالات البعد القانوني لتطرح أسئلة أخلاقية أعمق تتعلق بطبيعة الحرب في عصر الذكاء الاصطناعي. فحين تُختزل حياة الإنسان في بيانات رقمية أو أنماط خوارزمية، قد تتحول قرارات الاستهداف إلى عمليات حسابية بحتة، منفصلة عن الاعتبارات الإنسانية المرتبطة بحماية الحياة المدنية. ويثير هذا الواقع نقاشًا متزايدًا حول حدود التفويض الذي يمكن منحه للأنظمة الآلية في اتخاذ قرارات تتعلق بالحياة والموت(56).

وقد انعكس هذا الجدل في النقاشات القانونية الدولية حول التمييز المنهجي والآثار المحتملة لأنظمة المراقبة والاستهداف المدعومة بالذكاء الاصطناعي. ففي رأي استشاري صدر في يوليو/تموز 2024، أشارت محكمة العدل الدولية إلى أن السياسات الإسرائيلية تجاه الفلسطينيين تنتهك أحكام المادة الثالثة من الاتفاقية الدولية للقضاء على جميع أشكال التمييز العنصري، التي تحظر سياسات الفصل العنصري(57). ويشير بعض الباحثين إلى أن إدماج تقنيات المراقبة الرقمية وأنظمة الاستهداف المؤتمتة قد يسهم في تعزيز أنماط التمييز البنيوي في بعض السياقات السياسية.

ولا تقتصر أهمية هذه النقاشات على الحالة الغزِّية وحدها؛ إذ يرى عدد من الباحثين أن التجارب الحالية قد تمثل مؤشرات مبكرة على التحولات التي قد تشهدها الحروب في المستقبل. فمع تزايد انتشار تقنيات الذكاء الاصطناعي العسكرية قد تصبح الأنظمة الخوارزمية جزءًا أساسيًّا من إدارة العمليات القتالية في نزاعات أخرى، وهو ما يثير مخاوف من انتقال قرارات القتل أو الاستهداف إلى أنظمة يصعب تفسير آليات عملها أو مساءلتها قانونيًّا(58).

وفي ضوء هذه التحديات، يتزايد النقاش الدولي حول ضرورة تطوير إطار قانوني وأخلاقي أكثر وضوحًا لتنظيم استخدام الذكاء الاصطناعي في المجال العسكري. وتشمل المقترحات المطروحة في هذا السياق تعزيز مبدأ التحكم البشري الهادف في قرارات الاستهداف، وفرض قدر أكبر من الشفافية في تصميم الأنظمة العسكرية الخوارزمية، إضافة إلى تطوير آليات قانونية واضحة لتحديد المسؤولية في حال وقوع انتهاكات للقانون الدولي الإنساني(59).

خاتمة

تكشف دراسة تجربة استخدام أنظمة الذكاء الاصطناعي في الحرب على غزة تحولات عميقة في طبيعة النزاعات المسلحة المعاصرة، سواء على المستوى العملياتي أو القانوني أو الأخلاقي. فقد أظهرت هذه التجربة أن الذكاء الاصطناعي لم يعد يقتصر على دور الدعم التحليلي أو الاستخباراتي، بل أصبح عنصرًا فاعلًا في إدارة العمليات العسكرية وتحديد الأهداف؛ الأمر الذي يعكس انتقالًا تدريجيًّا نحو نمط جديد من الحروب يعتمد بدرجة متزايدة على الخوارزميات وتحليل البيانات في اتخاذ القرارات القتالية.

ويترتب على هذا التحول عدد من النتائج الجوهرية: أول هذه النتائج يتمثل في إعادة تشكيل طبيعة عملية الاستهداف العسكري؛ حيث تعتمد الأنظمة الخوارزمية على تحليل البيانات الضخمة وتصنيف الأفراد والمواقع ضمن قواعد معلومات واسعة، وهو ما يؤدي إلى تحويل البشر إلى وحدات معلوماتية داخل منظومات تحليل رقمية. ويثير هذا التحول إشكاليات أخلاقية عميقة؛ إذ قد يؤدي إلى تقليص الاعتبارات الإنسانية المرتبطة بحماية المدنيين، وتحويل حياة الأفراد إلى متغيرات ضمن معادلات احتمالية تعتمد عليها الأنظمة الذكية في تقدير الأهداف.

كما كشفت التجربة الغزِّية عن إشكالية قانونية بارزة تتعلق بما يُعرف في الأدبيات المعاصرة بـ”فجوة المسؤولية”. فحين تعتمد القرارات العسكرية على توصيات أنظمة خوارزمية معقدة يصبح من الصعب تحديد الجهة المسؤولة عن نتائج هذه القرارات في حال وقوع أخطاء أو انتهاكات للقانون الدولي الإنساني. وقد يؤدي هذا الغموض في توزيع المسؤولية إلى إضعاف آليات المساءلة القانونية، خصوصًا في الحالات التي تتداخل فيها أدوار القادة العسكريين والمبرمجين والشركات التكنولوجية المشاركة في تطوير هذه الأنظمة.

ومن ناحية أخرى، أظهرت الدراسة أن استخدام أنظمة الذكاء الاصطناعي في العمليات العسكرية يثير تساؤلات جدية حول مدى توافق هذه الممارسات مع المبادئ الأساسية للقانون الدولي الإنساني، ولاسيما مبادئ التمييز والتناسب والحيطة. فطبيعة الأنظمة الخوارزمية القائمة على التحليل الاحتمالي للبيانات قد تجعل من الصعب في بعض الحالات ضمان الامتثال الدقيق لهذه المبادئ، خصوصًا في البيئات القتالية المكتظة بالسكان.

كما أبرزت التجربة الغزِّية الدور المتنامي لتقنيات المراقبة الرقمية في إدارة النزاعات المعاصرة؛ إذ لم يقتصر استخدام الذكاء الاصطناعي على عمليات الاستهداف العسكري بل امتد أيضًا إلى بناء منظومات مراقبة رقمية واسعة تعتمد على تحليل البيانات البيومترية وأنظمة التعرف على الوجه وقواعد البيانات الضخمة. ويثير هذا التوسع في أنظمة المراقبة تساؤلات قانونية تتعلق بحماية الخصوصية والحقوق المدنية، خاصة في ظل ارتباط هذه التقنيات بالبنية التحتية الأمنية والعسكرية.

ولا تقتصر دلالات هذه التطورات على الحالة الغزِّية وحدها؛ إذ تشير إلى اتجاه أوسع قد يشكِّل ملامح الحروب المستقبلية في ظل التقدم السريع في تقنيات الذكاء الاصطناعي العسكرية. فمع تزايد الاستثمارات الدولية في تطوير هذه التقنيات قد تصبح الأنظمة الخوارزمية جزءًا متزايد الأهمية في إدارة العمليات القتالية في النزاعات المقبلة، وهو ما يطرح تحديات جديدة أمام الأطر القانونية والأخلاقية المنظمة للحروب.

وفي ضوء هذه النتائج، تبرز الحاجة إلى تطوير إطار قانوني وأخلاقي دولي أكثر وضوحًا لتنظيم استخدام الذكاء الاصطناعي في المجال العسكري. ويشمل ذلك العمل على صياغة قواعد دولية تحدد حدود استخدام الأنظمة المؤتمتة في العمليات القتالية، مع التأكيد على ضرورة الحفاظ على التحكم البشري الهادف في القرارات العسكرية المصيرية. كما تبرز أهمية تطوير آليات واضحة للمساءلة القانونية تأخذ في الاعتبار الأدوار المتعددة للدول والقادة العسكريين والشركات التكنولوجية المشاركة في تطوير هذه الأنظمة.

إلى جانب ذلك، تظل حماية المدنيين في النزاعات المسلحة أحد التحديات الأساسية التي يجب أن توجه أي نقاش دولي حول استخدام الذكاء الاصطناعي في الحرب. فالتطور التكنولوجي، على الرغم من قدرته على تعزيز الكفاءة العملياتية، لا ينبغي أن يؤدي إلى إضعاف المبادئ الإنسانية التي يقوم عليها القانون الدولي الإنساني.

وفي هذا السياق، يمكن النظر إلى تجربة غزة بوصفها مثالًا مبكرًا على التحديات التي قد تواجه المجتمع الدولي في عصر الحروب الخوارزمية. فهي تبرز بوضوح أن إدماج تقنيات الذكاء الاصطناعي في العمليات العسكرية يفرض ضرورة إعادة التفكير في الأطر القانونية والأخلاقية القائمة، بما يضمن الحفاظ على التوازن بين التطور التكنولوجي ومتطلبات حماية الإنسان في زمن الحرب.

المراجع

 

(1) David A. Grossman and Ophir Frieder, Information Retrieval: Algorithms and Heuristics, 2nd ed. (Dordrecht: Springer, 2004).

(2) Hartley Jr. Rogers, Theory of Recursive Functions and Effective Computability (Cambridge, MA: MIT Press, 1987).

(3) Donald E. Knuth, “Ancient Babylonian Algorithms,” Communications of the ACM 15, no. 7 (1972): 671–677.

(4) Harold S. Stone, Introduction to Computer Organization and Data Structures (New York: McGraw-Hill, 1971).

(5) Stuart J. Russell and Peter Norvig, Artificial Intelligence: A Modern Approach, 4th ed. (Hoboken: Pearson, 2021).

(6) Andreas Kaplan and Michael Haenlein, “Siri, Siri, in My Hand: Who’s the Fairest in the Land? On the Interpretations, Illustrations, and Implications of Artificial Intelligence,” Business Horizons 62, no. 1 (2019): 15–25.

(7) David Poole, Alan Mackworth, and Randy Goebel, Computational Intelligence: A Logical Approach (New York: Oxford University Press, 1998).

(8) Nils J. Nilsson, Artificial Intelligence: A New Synthesis (San Francisco: Morgan Kaufmann, 1998).

(9) “Tech Companies Want to Build Artificial General Intelligence, but Who Decides When AGI Is Attained?” AP News, April 4, 2024.

(10) Vadym Slyusar, “Artificial Intelligence as the Basis of Future Control Networks,” 2019.

https://www.researchgate.net/publication/340338894

(11) G. J. Kuperman, R. M. Reichley, and T. C. Bailey, “Using Commercial Knowledge Bases for Clinical Decision Support: Opportunities, Hurdles, and Recommendations,” Journal of the American Medical Informatics Association 13, no. 4 (2006): 369–371.

(12) Stephen Chen, “Chinese Scientists Create AI Military Commander to Run Virtual War Games,” South China Morning Post, June 16, 2024.

(13) Werner J. Marti, “Drohnen haben den Krieg in der Ukraine revolutioniert,” Neue Zürcher Zeitung (NZZ).

(14) Katyanna Quach, “US Military Pulls the Trigger, Uses AI to Target Air Strikes,” The Register, February 27, 2024.

(15) Artificial Intelligence and National Security, Congressional Research Service Report R45178, November 10, 2020.

(16) “From Automation to Autonomy,” Siemens, archived infographic.

https://web.archive.org/web/20180818045750/https://www.siemens.com

(17) Will Knight, “The US and 30 Other Nations Agree to Set Guardrails for Military AI,” Wired, November 8, 2023.

(18) Khaled Walid Mahmoud, “Killer Algorithms: When Code Becomes a Tool of Extermination,” The Peninsula, July 9, 2025.

(19) Michael C. Horowitz, “Artificial Intelligence, International Competition, and the Balance of Power,” Texas National Security Review 1, no. 3 (2018): 36–57.

(20) Audrey K. Cronin, “Technology and Strategic Surprise: Adapting to an Era of Open Innovation,” Parameters 50, no. 3 (2020): 71–84.

(21) Nate Allen, “Digital Technology, Strategic Adaptation, and the Outcomes of Twenty-First Century Armed Conflict,” Carnegie Endowment for International Peace, June 17, 2025.

(22) Matt Burgess, “A Mysterious Satellite Hack Has Victims Far Beyond Ukraine,” Wired, March 23, 2022.

(23) “Elon Musk’s Starlink Arrives in Ukraine but What Next?” BBC News, March 1, 2022.

(24) “How Elon Musk’s Satellites Have Saved Ukraine and Changed Warfare,” The Economist, January 5, 2023.

(25) Alan Yuhas, Thomas Gibbons-Neff, and Yousur Al-Hlou, “For Russian Troops, Cellphone Use Is a Persistent, Lethal Danger,” The New York Times, January 3, 2023.

(26) Kevin Freese, “Smart Phones Playing Prominent Role in Russia-Ukraine War,” United States Army Training and Doctrine Command, August 10, 2023.

(27) “Telegram Has Become a Key Tool for the Russian Military,” Meduza, August 28, 2024.

(28) Amber Rahman, “Explainer: The Role of AI in Israel’s Genocidal Campaign Against Palestinians,” Institute for Palestine Studies, October 16, 2024.

(29) Marwa Fatafta and Daniel Leufer, Artificial Genocidal Intelligence: How Israel Is Automating Human Rights Abuses and War Crimes, Access Now, May 9, 2024.

(30) Belén Fernández, “The Lebanon Pager Attack: Israel’s Terror Playbook Strikes Again,” Al Jazeera, September 18, 2024.

(31) Emelie Andersin, “The Use of the ‘Lavender’ in Gaza and the Law of Targeting: AI Decision-Support Systems and Facial Recognition Technology,” Journal of International Humanitarian Legal Studies 16, no. 1 (2025): 1–35.

(32) Noah Sylvia, “The Israeli Military’s Use of AI in Gaza: Operational Efficiency at the Cost of Humanity.”

https://www.iemed.org/publication/the-israeli-militarys-use-of-ai-in-gaza-operational-efficiency-at-the-cost-of-humanity/

(33) Sheera Frenkel, “Israel Deploys Expansive Facial Recognition Program in Gaza,” The New York Times, March 27, 2024.

(34) Elia Zureik, “Strategies of Surveillance: The Israeli Gaze,” Jerusalem Quarterly 66 (2016).

(35) Fayez Sayegh, “Zionist Colonialism in Palestine,” Settler Colonial Studies 2, no. 1 (2012).

(36) Tamara Nassar, “Inside One Israeli Death and Torture Camp,” Electronic Intifada, May 19, 2024.

(37) Kanav Kathuria, “How Israeli Prison Doctors Assist in the Torture of Palestinian Detainees,” Mondoweiss, May 28, 2024.

(38) Noah Sylvia, “Israel’s Targeting AI: How Capable Is It?” Royal United Services Institute (RUSI), February 8, 2024.

(39) Helga Tawil-Souri, “Digital Occupation: Gaza’s High-Tech Enclosure,” Journal of Palestine Studies 41, no. 2 (2012): 27–43.

(40) Sibel Düz, “Gaza as a Testing Ground: Israel’s AI Warfare,” SETA Foundation, July 3, 2025.

(41) Anthony Patt and Richard Zeckhauser, “Action Bias and Environmental Decisions,” Journal of Risk and Uncertainty 21 (2000): 45–72.

(42) Protocol Additional to the Geneva Conventions of 12 August 1949 (Protocol I), Article 57(2)(c), 1977.

(43) Protocol Additional to the Geneva Conventions of 12 August 1949 (Protocol I), Article 57(1), 1977.

(44) Jonathan Horowitz, “Precautionary Measures in Urban Warfare: A Commander’s Obligation to Obtain Information,” ICRC Law and Policy Blog, January 10, 2019.

(45) Asaf Lubin, “Algorithms of Care: Military AI, Digital Rights, and the Duty of Constant Care,” Lieber Institute Blog, February 13, 2024.

(46) International Committee of the Red Cross, Customary International Humanitarian Law, Rule 15: Precautions in Attack.

(47) Protocol Additional to the Geneva Conventions of 12 August 1949 (Protocol I), Article 58, 1977.

(48) International Covenant on Civil and Political Rights, Article 17, United Nations, 1966.

(49) Jessica Dorsey and Marta Bo, “AI-Enabled Decision-Support Systems in the Joint Targeting Cycle,” International Law Studies 106 (2025).

(50) Yuval Abraham, “Israel Is Falsely Designating Gaza Areas as Empty in Order to Bomb Them,” +972 Magazine, June 4, 2025.

(51) Callum Fraser, “AI’s Baptism by Fire in Ukraine and Gaza Offers Wider Lessons,” Military Balance Blog, April 22, 2024.

(52) Hans Van Eyghen, “AI Algorithms as (Un)Virtuous Knowers,” Discover Artificial Intelligence 5 (2024).

(53) Tomáš Kliegr, Štěpán Bahník, and Johannes Fürnkranz, “A Review of Possible Effects of Cognitive Biases on Interpretation of Rule-Based Machine Learning Models,” Artificial Intelligence 295 (2021).

(54) Alexander Blanchard and Laura Bruun, Bias in Military Artificial Intelligence (Stockholm: SIPRI, 2024).

(55) Elizabeth Dwoskin, “Israel Built an ‘AI Factory’ for War. It Unleashed It in Gaza,” The Washington Post, December 29, 2024.

(56) Luigi Daniele, “A Lethal Misconception in Gaza and Beyond,” EJIL: Talk! Blog, November 7, 2023.

(57) “Questions and Answers: Israeli Military’s Use of Digital Tools in Gaza,” Human Rights Watch, September 10, 2024.

(58) Nick Robins-Early, “How Israel Uses Facial-Recognition Systems in Gaza and Beyond,” The Guardian, April 19, 2024.

(59) Michael J. McNerney, “Operational Effectiveness and Civilian Harm Mitigation by Design,” Military Review, January 2025.