دخلت وكالة مشاريع البحوث المتقدمة الدفاعية (داربا)، التابعة لوزارة الدفاع الأميركية، والتي تعدّ العقل المدبر للبنتاغون على صعيد التحديث العلمي، منعطفاً جديداً لجهة معالجة معضلة هوامش الأخطاء خلال الحروب، والخاصة بإنقاذ حياة أشخاص معرّضين للموت بسبب ما يوصف بالانحياز البشري.
البنتاغون يسخّر الذكاء الاصطناعي لإنقاذ الأرواح
وعلى الرغم من أن برنامجاً أطلق عليه اسم "في اللحظة" (In the Moment)، في إشارة إلى أوضاع مصيرية وبالغة الدقة، تقع فيها الجيوش خلال أوقات القتال، وتستدعي اتخاذ قرارات مصيرية وسريعة لإنقاذ ضحايا أو مصابين من العسكريين أو المدنيين، لا يزال في مراحله الأولى، إلا أن تكليف البرنامج للذكاء الاصطناعي بهذه المهمة، يطرح الكثير من علامات التشكيك لدى المختصين، ليس فقط لناحية دقته وفعاليته، بل لجهة عدم القدرة على المحاسبة لاحقاً.
توكل وكالة "داربا" مهمة تحديد أولويات عمليات الإنقاذ إلى الذكاء الاصطناعي، من خلال برنامج "في اللحظة"
لكن أساس الفكرة يبقى في سياق السباق العلمي العالمي، والذي تقوده الدول الكبرى، وعلى رأسها الولايات المتحدة، لتحديث أنظمة عمرها قرون وترتبط بالفرز الطبي للأولويات، وذلك للاستجابة لحالات متزايدة من الوقائع والحوادث العسكرية التي تقع فيها خسائر جماعية. وضمن ذلك، يقع هدف البنتاغون في تقليل خسائره، والتي حدّت من رغبة واشنطن في الانغماس في حروب على الأرض.
وللإضاءة على هذا المسعى لـ"داربا"، الوكالة التي أبصرت النور في عهد الرئيس الأميركي دوايت أيزنهاور عام 1958، استشهدت صحيفة "واشنطن بوست"، في تقرير لها نشر أمس الأربعاء، بالهجوم الانتحاري الذي استهدف مطار العاصمة الأفغانية كابول في أغسطس/آب من العام الماضي، خلال عمليات الإجلاء الأميركية للرعايا الأجانب والراغبين من الأفغان في مغادرة البلاد، بعد سيطرة حركة "طالبان" عليها. وأسفر الهجوم حينها عن سقوط 183 قتيلاً، بمن فيهم 13 عسكرياً أميركياً.
وبرأي الصحيفة، فإن سقوط كم كبير من الضحايا، قد يكون على الأرجح أمراً مرهقاً للمسعفين على الأرض، وذلك حين يكونون في وضع يستدعي إسعاف مئات الأشخاص، وحين تكون القدرة الاستيعابية للمستشفيات القريبة محدودة، فيما يتطلب اتخاذ القرار حول الأولويات الطبية السرعة.
وفي الكثير من الأحيان، لا تكون الأجوبة حاسمة في مثل هذه الحالات، كما أنها قد لا تحظى بإجماع، بحسب الصحيفة، وهو ما تحاول الوكالة الإجابة عليه، عبر توكيل المهمة إلى الذكاء الاصطناعي، من خلال برنامج "في اللحظة".
وتسعى الوكالة من خلال هذا البرنامج إلى تطوير تكنولوجيا لاتخاذ القرارات خلال الأوضاع الحسّاسة باستخدام بيانات وخوارزميات، وفق نظرية ترى أن تحييد الانحياز البشري من شأنه إنقاذ أرواح، بحسب تفاصيل عن إطلاق البرنامج خلال شهر مارس/آذار الحالي، واطلعت عليها الصحيفة.
تشكيك في انحياز الذكاء الاصطناعي
ويتزامن البرنامج، الذي لا يزال في مراحله الأولى، مع اتجاه المؤسسة العسكرية الأميركية أكثر فأكثر للاعتماد على التكنولوجيا، لتقليص هوامش الخطأ البشري خلال الحروب.
تطور الوكالة تكنولوجيا لاتخاذ القرارات خلال الأوضاع الحسّاسة باستخدام بيانات وخوارزميات
لكن هذا الحلّ يطرح الكثير من علامات الاستفهام والتشكيك بين المختصين، ومنهم المختصون في علم الأخلاقيات، الذين يتساءلون ما إذا كان أخلاقياً انخراط الذكاء الاصطناعي حين تكون حياة أشخاص معرضة للخطر.
وفي هذا السياق، رأت سالي أبلين، الباحثة في دراسات التقاطعات بين الأفراد والخوارزميات والأخلاقيات، أن "الذكاء الاصطناعي جيّد في تعداد الأشياء، لكنه قد يشكل سابقة إذا ما وضعت حياة أشخاص بيد آلة"، بحسب اعتقادها.
وتعد وكالة "داربا" إحدى أكثر المؤسسات نفوذاً في البحث التكنولوجي، حيث إنها أفرخت مشاريع عدة أدت دوراً في تحديثات عديدة، بما فيها التي ترتبط بالإنترنت ونظام "جي بي أس" (نظام تحديد المواقع)، وأخيراً في تطوير لقاح مودرنا المضاد لفيروس كورونا. لكن، بحسب "واشنطن بوست"، فإن تاريخها مع الذكاء الاصطناعي عكس إنجازات، ولكن أيضاً ثغرات.
ومنذ مطلع القرن الحالي، استثمرت "داربا" في استخدام الذكاء الاصطناعي للتطبيقات العسكرية بوتيرة متسارعة، وخصّصت في عام 2018 ملياري دولار عبر برنامج "أرتيفيشال إنتلجنس نيكست"، لإدخال الذكاء الاصطناعي في أكثر من 60 مشروعاً دفاعياً، للدلالة على مركزية العلم للأجيال المستقبلية من المقاتلين.
ويهدف برنامج الوكالة "في اللحظة"، إلى خلق وتقييم الخوارزميات التي عليها أن تساعد العسكر في اتخاذ القرارات في وضعين: الإصابات التي تقع في الوحدات العسكرية الصغيرة، وفي الأحداث التي يقع فيها عدد كبير من الضحايا. ولاحقاً، قد يتضمن البرنامج تطوير خوارزميات للمساعدة في الكوارث، كالزلازل، بحسب المسؤولين في الوكالة.
ويحتاج البرنامج إلى 3 سنوات ونصف السنة لإنجازه، وطلبت "داربا" من الشركات الخاصة المساهمة في تحقيق أهدافه. وقال مات توريك، مدير برمجة في "داربا"، إن اقتراحات الخوارزميات ستتخذ نماذج "أشخاص موثوق بهم لدرجة عالية"، ولديهم خبرة في تصنيف الأولويات، مع القدرة على الوصول إلى المعلومات.
وقدّم توريك مثالاً على ذلك، أن الذكاء الاصطناعي سيعمل على تحديد الإمكانيات المتوفرة في مستشفى قريب، للمساعدة في اتخاذ القرار، وهي معلومات قد لا يستوعبها كلها العقل البشري. وبشكل مشابه، يعمل فريق في حلف شمال الأطلسي على تطوير برنامج مساعدة رقمي يمكن لدول الناتو الاستعانة به.
على الرغم من ذلك، تبقى أسئلة كثيرة محل جدل بين المختصين، ومنها إمكانية تناقض "المنطق البشري" مع الذكاء الاصطناعي، وعلى من تقع المسؤولية في حال حصول أخطاء "اصطناعية"؟ ولمن الأولوية، للعسكر أم للمدنيين؟ وقالت الباحثة أبلين عن ذلك: "نعلم أن الذكاء الاصطناعي هو أيضاً منحاز".
(العربي الجديد)