هل ينتج الذكاء الاصطناعي صوراً جنسية للأطفال؟

19 يوليو 2023
تمنع التطبيقات إنشاء صور مسيئة للأطفال (ألفونسو كاكيولا/ Getty)
+ الخط -

تتزايد المخاطر الناجمة عن إنتاج الصور المعالجة باستخدام الذكاء الاصطناعي، وهو الأمر الذي دفع جمعية خيرية بريطانية رائدة لدعوة رئيس الوزراء ريشي سوناك إلى الاهتمام بالقضية، خاصة مع تحضيرات البلاد لاستضافة أوّل قمة عالمية حول سلامة الذكاء الاصطناعي في الخريف.

وتهتم مؤسسة مراقبة الإنترنت (IWF) بإزالة المحتوى المسيء والمخالف للقواعد من الشبكة العنكبوتية، وبدأت خلال مايو/ أيّار الماضي مراقبة الصورة المسيئة للأطفال المصنوعة أو المعالجة بواسطة الذكاء الاصطناعي، ليتبين لها أنّ معتدين من جميع أنحاء العالم يشاركون صوراً تبدو حقيقية في بعض الأحيان.

وقالت الرئيسة التنفيذية للمؤسسة سوزي هارغريفز، في حديث مع هيئة البث البريطانية "بي بي سي": "لا نرى أعداداً كبيرةً من الصور في الوقت الحالي، لكن من الواضح أنّ الإمكانية متاحة أمام المجرمين لإنتاج كميات غير مسبوقة من مواد تصوّر عمليات الاعتداء الجنسي على الأطفال".

وعرضت "بي بي سي" نسخاً منقحة من بعض الصور، التي أظهرت فتيات، لم يتجاوزن الخامسة، عاريات وفي أوضاع جنسية.

وتعد مؤسسة مراقبة الإنترنت واحدةً من ثلاث جمعيات خيرية مرخصّة في العالم للبحث والتحقيق في المحتوى الإلكتروني الذي يتضمن إساءة معاملة للأطفال.

ولم تعطِ المؤسسة عدداً دقيقاً للصور المسيئة للأطفال، خلال فترة البحث التي استمر من 24 مايو وحتى 30 يونيو/ حزيران، لكنّها أكدّت أنّ عشرات من صور الذكاء الاصطناعي اختلطت بصور جنسية للأطفال، تُشارك عبر مواقع غير قانونية.

ويأتي ذلك في الوقت الذي حذرت فيه الوكالة الوطنية لمكافحة الجريمة (NCA) من أنّ استخدامات الذكاء الاصطناعي قد تزيد من تعرّض الأطفال للإساءات الجنسية.

وقالت هارغريفز: "لدينا فرصة الآن للاستفادة من هذه التكنولوجيا الجديدة، لكن يجب تطوير التشريعات والقوانين لتأخذ بعين الاعتبار التهديدات والمخاطر التي يحملها الذكاء الاصطناعي معه".

وتعهدت الحكومة البريطانية بجمع الخبراء القانونيين والتكنولوجيين للنظر في الأخطار الناجمة عن الذكاء الاصطناعي، ومناقشة كيفية الحد منها عبر اتباع إجراءات منسقة دولياً.

من جهتها، تشعر المؤسسة الخيرية بالقلق من ارتفاع وتيرة إنتاج الصور المسيئة للأطفال باستخدام الذكاء الاصطناعي، على الرغم من أنّ عدد الصور المكتشفة حتّى الآن تشكّل نسبةً ضئيلة من المحتوى غير القانوني.

خلال العام الماضي، وثقت المؤسسة أكثر من 250 ألف صفحة على الإنترنت تحتوي على صور اعتداء جنسي على الأطفال.

كذلك، سجّل المحللون المحادثات في المنتديات الإلكترونية بين المعتدين، الذين تبادلوا نصائح حول كيفية إنشاء صور "أكثر واقعية". كما وجدوا أدلة على وسائل للتحايل على الذكاء الاصطناعي ليصنع صوراً جنسية للأطفال.

وفي حين أنّ معظم المواقع التي تقدم خدمة إنشاء صور بواسطة الذكاء الاصطناعي تملك قواعد صارمة لمنع المستخدمين من إنشاء محتوى بكلمات أو عبارات محظورة، يمكن تنزيل برامج وأدوات مفتوحة المصدر مجاناً وتعديلها من قبل المستخدم.

وحتّى الآن يستخدم معظم المعتدين الجنسيين برنامج Stable Diffusion، والذي صدر الكود الخاص به على الإنترنت، في أغسطس/ آب 2022، من قبل فريق من أكاديميي الذكاء الاصطناعي الألمان.

وتحدثت "بي بي سي" إلى صانع صور يعمل بالذكاء الاصطناعي يستخدم نسخة من البرنامج لإنشاء صور جنسية للفتيات في سن ما قبل المراهقة، وقال الرجل الياباني إنّ صوره "لطيفة" و"مبررة"، معتبراً أنّها "المرة الأولى في التاريخ التي يمكن فيها التقاط صور للأطفال دون استغلال أطفال حقيقيين".

لكن الخبراء يقولون إن الصور يمكن أن تسبب أضراراً جسيمة. قال المتخصّص في قضايا مرتكبي الجرائم الجنسية والاستغلال الجنسي للأطفال، مايكل بورك: "لا شك لديّ بأن الصور التي تنشأ بواسطة الذكاء الاصطناعي ستزيد من هذه الميول المنحرفة، وستؤدي إلى ضرر أكبر على الأطفال في جميع أنحاء العالم".

ودافع أحدّ مطوري Stable Diffusion، البروفيسور بيورن أومر، عن قرار جعل برنامجهم مفتوح المصدر في حديث مع موقع بي بي سي، قائلاً إنّ المئات من مشاريع البحث الأكاديمي أنجزت بفضل قرارهم، كما استفادت منه العديد من الشركات المزدهرة.

ورأى أومر أنّ هذه النتائج تثبت صحة قراره، مشيراً إلى ضرورة التفكير في إيجاد حلول أخرى، بدل وقف الأبحاث والتطوير. أضاف: "نحتاج حقاً إلى مواجهة حقيقةِ أن هذا تطوّر عالمي، ولن يؤدّي تعطيله هنا، إلى وقف تطوّر هذه التكنولوجيات في بلدان أخرى".

المساهمون