إن ميدان القتل الذي تديره إسرائيل في غزة والذي يعمل بالذكاء الاصطناعي ينذر بمستقبل قاتم
إنها “نبأ طيب” للبنية الأساسية و”الخزامى” للأصول البشرية. هناك كلمتان غير ضارتين ظاهرياً قد تفسران العدد الكبير من القتلى والجرحى المسجلين خلال الأشهر الستة الأولى من الحرب التي شنتها إسرائيل ضد حماس في غزة والدمار الكامل للبنية التحتية والمنازل في القطاع.
تستخدم إسرائيل الذكاء الاصطناعي وتكنولوجيا التعلم الآلي في حربها ضد حماس، مستخدمة هذه التكنولوجيا القاتلة باعتبارها مقدمة لما يقول الكثيرون إنها حرب الجيل التالي، مما يعني أننا الآن في منطقة مجهولة. تثير النتائج والأدلة التي تم الكشف عنها في تقرير جديد أسئلة قانونية وأخلاقية مهمة من شأنها أن تغير إلى الأبد العلاقة بين الجيش والآلة وسيادة القانون. لقد أصبحت المساءلة والشفافية اليوم صفرًا على الرغم من أن هذه الأداة الجديدة تكشف عن العديد من القيود التي يمكن أن تزيد المخاطر التي يتعرض لها المدنيون الأبرياء من جميع الأطراف. ومن الأمثلة على ذلك مقتل سبعة من عمال الإغاثة من المطبخ المركزي العالمي الأسبوع الماضي.
هناك تحول متزايد في البلدان المتقدمة في جميع أنحاء العالم نحو مشهد دفاعي وعسكري أكثر توجهاً من الناحية التكنولوجية ومنفصلاً لإنجاز الأمور بتكلفة أقل وأكثر كفاءة. لقد أنشأت حلولاً قائمة على الآلة مع الحد الأدنى من التدخل والرقابة البشرية وبطبيعتها قدر أقل من الشفافية والمساءلة. إن العيوب والتدفقات والتحيزات في الخوارزميات المستخدمة في المراقبة وجمع المعلومات الاستخبارية تترجم إلى أهداف محددة، في حين لا يوجد سوى القليل من التحقق البشري، وهو ما يُنظر إليه على أنه بطيء وعفا عليه الزمن.
ووفقا لتقرير نشرته الأسبوع الماضي المجلة الإسرائيلية المستقلة +972، استخدمت إسرائيل الذكاء الاصطناعي لتحديد الأهداف في غزة، وأحيانا مع 20 ثانية من الإشراف البشري، تحت الانطباع بأن الآلة شاركت في العديد من العمليات العسكرية. وكان الناتج يعادل قرار الإنسان. وقال تقرير +972، الذي تضمن مقابلات مع ستة مسؤولين في المخابرات الإسرائيلية، إن “الجيش الإسرائيلي يشتبه في قيامه بذبح عشرات الآلاف من سكان غزة، باستخدام نظام استهداف الذكاء الاصطناعي وسياسة السماح بالرقابة البشرية والإصابات”.
أصبح استخدام تكنولوجيا الذكاء الاصطناعي في الحروب حقيقة واقعة على مدى العقدين الماضيين، مما دفع الكثيرين إلى التحذير من أن عسكرة مثل هذه الأدوات ستكون لها آثار خطيرة على مستقبل الأمن والحرب العالميين. وأعرب الأمين العام للأمم المتحدة أنطونيو جوتيريش عن قلقه البالغ إزاء نتائج التقرير. وقال إنه يشعر بقلق بالغ إزاء التقارير التي تفيد بأن “الذكاء الاصطناعي قد تم استخدامه كأداة لتحديد الأهداف في حملة القصف العسكرية الإسرائيلية، خاصة في المناطق السكنية المكتظة بالسكان، مما أدى إلى ارتفاع مستويات الضحايا المدنيين”. وأضاف غوتيريش: “لا ينبغي ترك أي جزء من قرارات الحياة والموت التي تؤثر على عائلات بأكملها للحسابات الباردة للخوارزميات”.
لقد مر أكثر من ستة أشهر منذ أن شنت حماس هجوما غير مسبوق ضد إسرائيل في 7 تشرين الأول/أكتوبر، مما أدى إلى مقتل نحو 1200 إسرائيلي وأجنبي، معظمهم من المدنيين، وفقا لإحصاء وكالة فرانس برس استنادا إلى الإحصائيات الإسرائيلية. كما احتجز المسلحون أكثر من 250 رهينة، لا يزال 130 منهم في غزة حتى اليوم. وأدت الحملة الانتقامية التي شنتها إسرائيل منذ 7 أكتوبر/تشرين الأول إلى مقتل أكثر من 34 ألف شخص، معظمهم من النساء والأطفال.
هناك حاجة متزايدة إلى حوكمة فعالة لإدارة استخدام الذكاء الاصطناعي في الحرب وتقليل المخاطر المحتملة.
محمد سيبارو
ولعبت المنظمة، المعروفة باسم لافندر، دورًا رئيسيًا في المراحل الأولى من الحرب، حيث حددت أكثر من 37 ألف فرد مرتبط بحماس لإدراجهم في قاعدة بيانات المخابرات الإسرائيلية. وسمحت القيادة الإسرائيلية بتعويض عن الأضرار الجانبية، يتراوح بين خمسة إلى 20 مدنياً فلسطينياً محتملاً، كلما قام الجيش بالقضاء على ناشط منخفض أو متوسط المستوى في حماس. لقد سمحت المنظمة بوقوع العديد من الضحايا المدنيين لكل محارب قديم، بأرقام مضاعفة أو حتى ثلاثية.
تم الكشف عن استخدام إسرائيل للاستهداف الذي يعمل بالذكاء الاصطناعي لأول مرة بعد الصراع الذي استمر 11 يومًا في غزة في مايو 2021، والذي وصفه القادة بأنه “أول حرب للذكاء الاصطناعي في العالم”. وحدد نظام الذكاء الاصطناعي الإسرائيلي “100 هدف جديد كل يوم” بدلا من 50 سنويا حسب الأصول البشرية، وذلك باستخدام مزيج من التكنولوجيا وجمع بيانات الأصول البشرية. بعد أسابيع من بدء الحرب الأخيرة في غزة، زعمت مدونة على موقع عسكري إسرائيلي أن مديرية الاستهداف المعززة بالذكاء الاصطناعي حددت أكثر من 12 ألف هدف في 27 يومًا فقط.
وبالمثل، أنشأ نظام الذكاء الاصطناعي المسمى Gospel أهدافًا “لضربات دقيقة على البنية التحتية المرتبطة بحماس”. ووصف مسؤول استخباراتي إسرائيلي سابق مجهول الإنجيل بأنه أداة خلقت “مصنعًا للقتل الجماعي”.
وفي اعتراف نادر بارتكاب مخالفات، اعترفت إسرائيل الأسبوع الماضي بسلسلة من الأخطاء والانتهاكات لقواعدها التي أدت إلى مقتل سبعة من عمال الإغاثة في غزة، مما دفع العديد من الخبراء إلى الاعتقاد بأن النظام الذي يعمل بالذكاء الاصطناعي لا بد أنه كان مخطئا. استهداف نشطاء حماس المسلحين.
ومع استمرار تطور الذكاء الاصطناعي وازدياد انتشار وظائف الأسلحة المنفصلة، تزداد الحاجة أيضًا إلى آليات حوكمة فعالة لإدارة استخدامه والتخفيف من المخاطر المحتملة. ولكن في عالم متشرذم على نحو متزايد، ووسط سباق متجدد على التفوق بين القوى العظمى، والافتقار على نحو متزايد إلى بوصلة أخلاقية مشتركة، يبدو المستقبل قاتما.
أحدثت التكنولوجيا ثورة في جميع جوانب الحياة البشرية والمجتمع الحديث. ومع ذلك، فإن النهج المتساهل في التعامل مع المساءلة – اختراع أدوات جديدة الآن والتنظيم لاحقًا – قد وضع الإنسانية بطبيعتها تحت رحمة آلة خطيرة ذات حراسة أخلاقية سيئة. هذا التغيير غير المسبوق، الذي وصفه ضابط مخابرات إسرائيلي استخدم الخزامى، دفع اللاعبين إلى وضع المزيد من الثقة في “الآلية الإحصائية” أكثر من زميلهم الحزين. قال: “الجميع هناك، بما فيهم أنا، كانوا في أكتوبر. لقد فقدنا الناس في السابع. الآلة هي التي (قتلت) ذلك. وهذا جعل الأمر أسهل.”
• محمد شبارو صحفي بريطاني-لبناني يتمتع بخبرة تزيد عن 25 عامًا في تغطية قضايا الحرب والإرهاب والأمن والشؤون الجارية والدبلوماسية. وهو مستشار إعلامي ومدرب.
إخلاء المسؤولية: الآراء التي عبر عنها الكتاب في هذا القسم خاصة بهم ولا تعكس بالضرورة آراء عرب نيوز.
“إدمان الإنترنت في المحطات. خبير بيرة حائز على جوائز. خبير سفر. محلل عام.”