الذكاء الاصطناعي ينتج دراسات علمية رديئة أو مسروقة

11 اغسطس 2024
ضرورة الإنتاج تضغط على الباحثين (Getty)
+ الخط -
اظهر الملخص
- **زيادة استخدام الذكاء الاصطناعي في الأبحاث العلمية وتأثيره على الجودة**: تزايد استخدام أدوات الذكاء الاصطناعي مثل ChatGPT في إعداد المنشورات العلمية أدى إلى تراجع الجودة وسحب أبحاث من مجلات مرموقة بسبب أخطاء فادحة.

- **تأثير الذكاء الاصطناعي على الأدبيات العلمية**: الذكاء الاصطناعي قد يكون مسؤولاً عن إنتاج نحو 60 ألف مقال علمي في 2023، مع زيادة في سحب المقالات بسبب "مصانع" الدراسات الزائفة.

- **جهود مكافحة الاحتيال وضوابط الرصد**: المجلات العلمية والجامعات تواجه تحديات كبيرة في مكافحة الاحتيال، مع جهود مثل خدمة "رصد مصانع المقالات" من "وايلي"، لكن الضوابط لا تزال غير كافية.

أكدت حالات سُجلت في الآونة الأخيرة ظاهرة الاستخدام المتزايد لأدوات الذكاء الاصطناعي في إعداد المنشورات العلمية، على حساب جودتها، منها احتواء دراسات في بعض المجلات المتخصصة على عبارات تفضح إنتاجها بواسطة البرامج القائمة على هذه التكنولوجيا، أو تَضمّنها مثلاً صوراً تفتقر إلى الدقة.

ومع أن متخصصين أقرّوا بأهمية استخدام أدوات مثل ChatGPT للمساعدة في كتابة المحتوى، لا سيما في ما يتعلق بالترجمة للباحثين الذين لا تكون الإنكليزية لغتهم الأم، فإن سحب بعض المجلات العلمية في الآونة الأخيرة عدداً من الدراسات التي نشرتها سلّط الضوء على وجود ممارسات غير نزيهة. ففي بداية السنة الحالية، أدّت صورة لفأر بعضو تناسلي كبيرة الحجم، جرى تداولها على نطاق واسع على شبكات التواصل الاجتماعي، إلى سحب دراسة نُشرت في مجلة تابعة لدار النشر الجامعية فرونتيرز المرموقة في هذا القطاع. وفي الشهر الفائت، سُحِبَت دراسة أخرى لتضمّنها صورة لساق بشرية تحوي عدداً من العظام أكبر مما يُفترض أن تحويه فعلياً.

ولا يقتصر الأمر على هذه الصور المغلوطة، إذ يبدو أن المشاكل الأبرز في هذا القطاع متأتية من ChatGPT، أداة المحادثة التي طورتها شركة أوبن إيه آي الأميركية القائمة على الذكاء الاصطناعي. ففي بداية مارس/آذار الفائت، شهدت شبكات التواصل الاجتماعي تداولاً على نطاق واسع لدراسة نشرتها مجموعة النشر العلمي البريطانية إلسيفير، كان مطلعها عبارة "بالطبع! إليك مقدمة لموضوعك"، وهي صيغة نموذجية لأجوبة ChatGPT.

الذكاء الاصطناعي يوفّر "مصانع" مقالات

لاحظ عدد من المتخصصين أن هذه الأخطاء المحرجة التي سها عنها الخبراء المسؤولون عن قراءة الدراسات قبل نشرها، لا تزال نادرة، ولم تكن لتمرّ على لجان مراجعة الأبحاث في المجلات المرموقة. وغالباً ما يصعب اكتشاف استخدام الذكاء الاصطناعي، ولكن يبدو بوضوح أنه يتزايد في الأدبيات العلمية.

وأجرى أمين مكتبة جامعة يونيفيرسيتي كولدج اللندنية، أندرو غراي، بحثاً في ملايين المقالات العلمية عن كلمات تُكثر أدوات الذكاء الاصطناعي من استخدامها، مثل "دقيق" أو "معقد" أو "جدير بالثناء". وتبيّن له أن الذكاء الاصطناعي استُخدم على الأرجح في 60 ألف مقال علمي عام 2023، أي بنسبة واحد في المائة من الإنتاج السنوي، متوقعاً "زيادة كبيرة" في هذه الأرقام سنة 2024. أما جمعية "ريتراكشن ووتش" الأميركية، فلاحظت أن حالات سحب المقالات العلمية بلغت رقماً قياسياً عام 2023 هو 13 ألفاً. ورأى إيفان أورانسكي، وهو أحد مؤسسيها، أن الذكاء الاصطناعي بات يوفّر ما يشبه "المصانع" لإصدار الدراسات "الزائفة" بكثافة.

وتنتج هذه الجهات عدداً كبيراً من المقالات رديئة الجودة أو الكاذبة، على ما أفادت عالمة الأحياء الدقيقة الهولندية المتخصصة في الكشف عن الصور المزيفة إليزابيث بيك. ويُعتقد أن هذه "المصانع" التي يدفع لها الباحثون الذين يتم حضّهم على إنتاج المزيد، هي مصدر نحو 2% من الدراسات المنشورة سنوياً، لكنّ هذا الرقم يشهد زيادة كبيرة بفعل استخدام الذكاء الاصطناعي وفقاً للخبيرة نفسها.

ضوابط ورصد

رأى إيفان أورانسكي أن الذكاء الاصطناعي يفاقم "مشكلة ساحقة"، تتمثل في أن طلب الناشرين والجامعات النهم على المقالات يشكّل ضغطاً على الباحثين الذين يُصنفون وفقاً لإنتاجهم، مما يؤدي تالياً إلى "حلقة مفرغة". وفي الوقت نفسه، لا تزال الضوابط الهادفة إلى مكافحة "مصانع" الدراسات غير كافية.

وكان استحواذ شركة وايلي الأميركية على دار هنداوي للنشر عام 2021 العامل الأبرز في كشف مشكلة عمليات الاحتيال الضخمة، إذ أعقبه سحب نحو 11300 مقال سبق أن نشرتها "هنداوي". وسعياً إلى حل هذه المشكلة المتنامية، وفّرت "وايلي" خدمة "رصد مصانع المقالات" لكشف إساءة استخدام الذكاء الاصطناعي، وهذه الخدمة نفسها قائمة على الذكاء الاصطناعي.

إلا أن باحثاً أميركياً اكتشف الأسبوع الفائت في مجلة "وايلي" ما يبدو أنه نسخة من أحد مقالاته أعيدت كتابتها بواسطة ChatGPT. وقال أستاذ المعلوماتية الحيوية في جامعة بريغهام يونغ الأميركية سامويل باين، لوكالة فرانس برس إنه كُلِّف في مارس/آذار الفائت بالتحقق من صحة هذه الدراسة. وعندما أدرك أنها عبارة عن "سرقة أدبية" لدراسته التي أعيدت كتابتها بواسطة الذكاء الاصطناعي، رفض الموافقة على النشر. وأضاف باين أنه صُدم عندما اكتشف أن مجلة أخرى تولّت نشر الدراسة المسروقة بدلاً من سحبها.

(فرانس برس)

المساهمون