مسؤولون تنفيذيون وخبراء يحذرون من خطر انقراض البشرية بسبب الذكاء الاصطناعي

30 مايو 2023
المدير التنفيذي لـ"أوبن إيه آي" سام ألتمان (جويل ساجيت/فرانس برس)
+ الخط -

انضم كبار المسؤولين التنفيذيين في مجال الذكاء الاصطناعي، اليوم الثلاثاء، إلى الخبراء في التحذير من "خطر الانقراض الذي يواجه البشرية جرّاء الذكاء الاصطناعي"، وحثوا صانعي السياسات على مساواة الأخطار التي تشكلها هذه التقنية بتلك الناجمة عن الأوبئة والحرب النووية.

وكتب أكثر من 350 موقعاً في رسالة نشرها مركز أمان الذكاء الاصطناعي غير الربحي (CAIS): "يجب أن يكون التخفيف من خطر الانقراض من الذكاء الاصطناعي أولوية عالمية، إلى جانب الأخطار المجتمعية الأخرى مثل الأوبئة والحرب النووية".

وضمت قائمة الموقعين: الرئيس التنفيذي لشركة أوبن إيه آي سام ألتمان، والرئيس التنفيذي لمشروع "غوغل ديب مايند" ديميس هاسابيس، والباحثين جيفري هينتون ويوشوا بنجو. 

جيفري هينتون، الذي يلقب بـ"عرّاب الذكاء الاصطناعي"، ترك وظيفته في "غوغل" للتنديد علناً بمخاطر هذه التكنولوجيا. عام 2018، حصل هو وبنجو على جائزة تورينغ التي تُعرف غالباً باسم "جائزة نوبل للحوسبة"، تقديراً لعملهم على الشبكات العصبية.

الشبكة العصبية هي نظام رياضي يتعلم المهارات من خلال تحليل البيانات. منذ نحو خمس سنوات، بدأت شركات مثل غوغل ومايكروسوفت وأوبن إيه آي ببناء شبكات عصبية تعلمت من كميات هائلة من النصوص الرقمية تسمى نماذج اللغات الكبيرة أو L.L.M.s.

البيان هو أحدث تحذير من الأخطار التي يثيرها الذكاء الاصطناعي الذي يلقى رواجاً واسعاً أخيراً.

كان رئيس شركة أوبن إيه آي المطورة لـ"تشات جي بي تي" سام ألتمان قد قال أمام مجلس الشيوخ الأميركي هذا الشهر: "نحن بحاجة إلى تنظيم عالمي"، معرباً عن خشيته من أن هذه التكنولوجيا يمكن أن "تسبب أضراراً جسيمة للعالم، من خلال التلاعب بالانتخابات، أو التسبب باضطرابات في سوق العمل".

وفي نهاية مارس/ آذار، طالبت أكثر من ألف شخصية بوقف الأبحاث على الذكاء الاصطناعي لمدة ستة أشهر، من بينهم إيلون ماسك، الذي يعمل أيضاً على تطوير شركة للذكاء الاصطناعي، والمفكر يوفال نوا هراري، المقتنع بأن الذكاء الاصطناعي يمكنه تدمير البشرية.

 

المساهمون