الذكاء الاصطناعي أداة إسرائيلية للقتل في غزة

20 اغسطس 2024
مدينة غزة، أكتوبر 2023 (محمود الهمص/ فرانس برس)
+ الخط -
اظهر الملخص
- **الذكاء الاصطناعي في الحروب**: استخدم الاحتلال الإسرائيلي الذكاء الاصطناعي في معركة سيف القدس 2021، وتوسع استخدامه في الصراعات مثل روسيا وأوكرانيا، مما يسهل المراقبة وجمع المعلومات الاستخبارية. في غزة، يعزز الذكاء الاصطناعي العقاب والقتل الجماعي للفلسطينيين.

- **التضليل والدعاية**: بعد عملية طوفان الأقصى 2021، استخدم الاحتلال الذكاء الاصطناعي لفبركة معلومات مضللة ضد الفلسطينيين، مثل اتهامهم بقتل الأطفال. كشف موقع مسبار عن صور مختلقة نشرتها الحسابات المؤيدة للاحتلال.

- **أنظمة تحديد الأهداف والمراقبة**: تعتمد قوات الاحتلال على أنظمة ذكاء اصطناعي لتحديد الأهداف وقصفها، مما يساهم في ارتفاع عدد الشهداء الفلسطينيين. تستخدم الطائرات بدون طيار وتقنيات التعرف على الوجوه لرصد الفلسطينيين، مما أثار مخاوف وإدانات دولية.

عام 2021 وصفت قوات الاحتلال الإسرائيلي معركة سيف القدس التي استمرت 11 يوماً بأنّها "أوّل حرب تخاض بالذكاء الاصطناعي". بعد ثلاث سنوات دخل الذكاء الاصطناعي مختلف المجالات، كما برز استعماله في الحروب والصراعات العسكرية، وهو ما يظهر في العدوان الإسرائيلي المتواصل على قطاع غزة منذ السابع من أكتوبر/ تشرين الأوّل الماضي.
قدّم الصراع المستمر بين روسيا وأوكرانيا منذ فبراير/ شباط 2022 صورةً جديدةً عن الحرب التكنولوجية، إذ يلعب الذكاء الاصطناعي دوراً رئيسياً في تشغيل الطائرات المسيرة وأنظمة التعرف على المعدات والقوات العسكرية، ممّا يسهّل المراقبة وجمع المعلومات الاستخبارية والمراقبة. كما يساعد طرفيِ النزاع على معالجة كمية كبيرة من المعلومات عن الميدان وتحليلها بطريقة أسرع من المحللين البشريين.
فيما جاءت حرب الإبادة الإسرائيلية على غزة لتقدّم صورة مرعبةً عن الشكل الدموي الذي يتخذه استعمال الذكاء الاصطناعي في حرب غير متكافئة تكنولوجياً، يتحوّل فيها إلى أداة للتدمير تعزّز العقاب والقتل الجماعي للفلسطينيين.
طوال عقود شكلت غزة مختبراً لقوات الاحتلال من أجل اختبار أسلحة وتقنيات حديثة على الفلسطينيين قبل بيعها للخارج. خلال السنوات الأخيرة، استعمل الاحتلال طائرات من دون طيار وأسلحة آلية وأبراجاً تعمل بالذكاء الاصطناعي لإنشاء "مناطق قتل آلية" على الحدود مع القطاع. كما أطلق في عام 2021 روبوت عسكري اسمه "جاغوار"، وروّجه باعتباره "أحد أول الروبوتات العسكرية في العالم التي يمكنها أن تحل محل الجنود على الحدود". وجاء العدوان الحالي ليدخل الاحتلال مرحلة جديدة تعتمد إلى حد كبير على التكنولوجيا الصاعدة. من الصور المفبركة واستهداف الصحافيين وصولاً إلى "الأنظمة الذكية لتحديد الأهداف"، يلعب الذكاء الاصطناعي اليوم دوراً رئيسياً عند الاحتلال وجيشه في حرب الإبادة المتواصلة على القطاع المحاصر.

الذكاء الاصطناعي لأهداف التضليل والدعاية

في الأسابيع الأولى التي تلت عملية طوفان الأقصى في السابع من أكتوبر الماضي، أطلق الاحتلال حملات دعائية مليئة بالأكاذيب ضد قطاع غزة والفلسطينيين، حاول من خلالها ترويج روايته لما جرى مع التركيز على نزعة الإنسانية عن الفلسطيني. كان الذكاء الاصطناعي وسيلةً مهمةً في يد الاحتلال وداعميه من أجل فبركة معلومات مضللة ونشرها تتماشى مع السردية الإسرائيلية عبر الإنترنت.
ووجّه الاحتلال اتهامات إلى المقاومة الفلسطينية بقتل الأطفال و"قطع رأس أربعين رضيعاً"، لكن مع افتقاره إلى الأدلة بدأت حسابات إسرائيلية بعرض صور مختلفة، أظهر أحدها جثة متفحمة على أساس أنها تعود لرضيع إسرائيلي، فيما أظهرت أخرى جندياً يحمل رضيعين "أنقذهما من أيدي عناصر حماس"، ليتضح لاحقاً أنّ كلّ هذه الصورة كانت ملفقةً باستخدام الذكاء الاصطناعي.
وكان موقع مسبار للتحقق من الأخبار والمعلومات، قد كشف في تقريرٍ صدر في مارس/ آذار الماضي عن نشر الحسابات المؤيدة للاحتلال صوراً مختلقة أو معدلة بواسطة الذكاء الاصطناعي لترويج الدعاية الإسرائيلية. اعتمد "مسبار" على ملاحظة إخفاقات التقنيات التوليدية، مثل تشوهات شكل اليد وعناصر خلفية الصورة، وعدم التناسب بين أجزاء الجسم المختلفة، بالإضافة إلى لمعان بشرة الأشخاص في الصور، لتمييز هذه الصور.
وعلى الرغم من المخاطر الناجمة عن استعمال الذكاء الاصطناعي في الحرب الإعلامية والبروباغندا لكنها لا تقارن بتلك الناجمة عن استخدامه في الحرب العسكرية، وهو ما يبيّنه الواقع الميداني في غزة.

أنظمة تحديد الأهداف

خلال الأشهر القليلة الماضية، كشفت تحقيقات وتقارير صحافية مختلفة أنّ قوات الاحتلال تعتمد على أنظمة تعمل بالذكاء الاصطناعي لتوليد الأهداف التي يتعين قصفها، وأبرزها "غوسبل" الذي يحدد مراكز وبنى تحتية، و"لافندر" الذي يحدد الأفراد، وWhere is Daddy؟ لتتبع المسلحين المشتبه بهم واستهدافهم عندما يكونون في المنزل مع عائلاتهم.

إعلام وحريات
التحديثات الحية

وكشف موقع 972+ مطلع إبريل/ نيسان الماضي، أنّ نظام "لافندر" أنشأ قاعدة بيانات تضم عشرات الآلاف من الفلسطينيين الذين صنّفهم على أنهم أعضاء من ذوي الرتب المنخفضة في الجناح العسكري لحركة حماس. وعلى الرغم من أنّ تحليلات جيش الاحتلال توصلت إلى أنّ معدل خطأ "لافندر" يصل إلى 10% في تحديد ما إذا كان الشخص ينتمي إلى "حماس"، إلّا أنّها اعتمدت عليه من أجل إنشاء قوائم قتل لكل الفلسطينيين الواردة أسماؤهم. 
أدى استعمال البرنامج الذي طوّرته الوحدة 8200 في استخبارات جيش الاحتلال إلى ارتفاع كبيرٍ في عدد الشهداء الفلسطينيين الذي تجاوز 40 ألفاً، إذ وصفت مصادر من جيش الاحتلال لـ"+972" كيف كان يُسمح للجنود بقتل المدنيين. وقال مصدران إنه خلال الأسابيع الأولى من الحرب، سُمح لهم بقتل 15 أو 20 مدنياً خلال الغارات الجوية على مسلحين ذوي رتب منخفضة. مع العلم أنّ الهجمات على مثل هذه الأهداف تُنفَّذ باستخدام ذخائر غير موجهة تُعرف باسم "القنابل الغبية"، مما يؤدي إلى تدمير منازل بأكملها وقتل جميع ساكنيها.

المراقبة والاستطلاع

اعتمد جيش الاحتلال كثيراً على الطائرات من دون طيار التي تعمل بالذكاء الاصطناعي وتقنيات المراقبة الأخرى، وذلك بهدف مراقبة قطاع غزة وسكانه. تساعد هذه الأدوات في رسم خرائط للمواقع والأحياء وفي رصد تحركات المقاتلين والمدنيين على حد سواء، كما تقدم بيانات مباشرة للمسؤولين العسكريين. واستعملت تقنيات الذكاء الاصطناعي من الاحتلال أيضاً في محاولاته للكشف عن شبكة الأنفاق التي تملكها حركة حماس تحت الأرض، ولرسم خرائطها، من أجل تدميرها.
إضافةً إلى ذلك، وسّع الاحتلال نظام المراقبة البيومترية للفلسطينيين من الضفة الغربية والقدس إلى غزة. في مارس الماضي، كشف تقرير لصحيفة نيويورك تايمز الأميركية أن الجيش الإسرائيلي يستخدم نظام التعرف على الوجوه في القطاع، من أجل جمع وجوه الفلسطينيين وفهرستهم من دون علمهم. كما أشار التقرير إلى أنّ النظام يعتمد على تكنولوجيا من شركة كورسايت الإسرائيلية و"غوغل" لاختيار الوجوه من الحشود وحتى من لقطات الطائرات بدون طيار.

مخاوف

أثار استخدام الاحتلال للذكاء الاصطناعي في حرب الإبادة المستمرة على غزة مخاوف جهات مختلفة وإدانتهم، من بينها خبراء الأمم المتحدة الذين أدانوا في إبريل/ نيسان الماضي لجوء جنود الاحتلال إلى أدوات الذكاء الاصطناعي في عملياتهم العسكرية، واعتبروا أنّها "تساهم في تفسير العدد الكبير للقتلى وتدمير المنازل في غزة".
بحسب المعارضين له، يتناقض استعمال أنظمة الذكاء الاصطناعي مع حقوق الإنسان، وتحوّلهم إلى أرقام إحصائية، وتخفّف من المسؤولية البشرية في عمليات القتل الجماعي، عدا عن أنّ أنظمة التعلم الآلي أثبتت مراراً أنّها تفتقر إلى الدقة ولا تستطيع التنبؤ تنبؤاً موثوقاً بصفات بشرية معقدة، بالإضافة إلى أنها مدرّبة باستخدام بيانات معيبة أو منحازة.

المساهمون