"غوغل" ترفض إعادة حساب رجل فشلت أنظمتها في تصنيف محتوى صوره

23 اغسطس 2022
فتحت شرطة سان فرانسيسكو تحقيقاً نتيجة بلاغ من الشركة (جستن سوليفان/ Getty)
+ الخط -

رفضت "غوغل" إعادة تفعيل حساب رجل بعد أن حظرت حسابه، إثر نشره صورة طبية لأربية ابنه، صُنّفت عن طريق الخطأ أنّها "صورة اعتداء جنسي على أطفال"، بحسب ما ذكرته صحيفة نيويورك تايمز. يقول الخبراء إنها مشكلة لا مفر منها عند محاولة تطبيق حلّ تقني لمشكلة مجتمعية.

حذّر الخبراء منذ فترة طويلة من محدودية أنظمة الكشف الآلية عن صور الاعتداء الجنسي على الأطفال، خاصةً أنّ الشركات تواجه ضغوطاً من الحكومات ومن المستخدمين للمساعدة في معالجة مشكلة انتشار مواد الاعتداء الجنسي على الإنترنت.

قال أحد كبار الموظفين التكنولوجيين في اتحاد الحريات المدنية الأميركية دانيال كان غيلمور، لصحيفة ذا غارديان البريطانية: "تتمتع هذه الشركات بإمكانية الوصول إلى كمية هائلة من البيانات حول حياة الأشخاص، مع ذلك ما زالوا غير قادرين على إدراك كيف يكون هؤلاء الناس في الواقع".

تابع: "هناك كلّ أنواع المعلومات، مع ذلك تظلّ حقيقة حياتك غير واضحة لتلك الشركات العملاقة." وأضاف أنّ استخدام هذه الأنظمة من قبل شركات التكنولوجيا التي "تعمل بصفتها وكيلة" لإنفاذ القانون يعرّض الناس لخطر "جرفهم" من قبل "سلطة الدولة".

التقط الرجل، الذي اكتفت صحيفة نيويورك تايمز الأميركية بتسميته مارك صوراً لأربية ابنه المصاب بالالتهاب من أجل إرسالها إلى الطبيب. استخدم الطبيب هذه الصورة لتشخيص حالة ابن مارك ووصف المضادات الحيوية له.

عندما تمّ تحميل الصور تلقائياً على منصة التخزين السحابي (cloud) حدّدها نظام "غوغل" على أنّها صورة اعتداء جنسي على أطفال.

حول العالم
التحديثات الحية

بحسب "ذا غارديان"، عُطّلت بعد يومين حسابات مارك على "غوغل" من "جيميل" إلى "غوغل فاي"، التي توفر له خدمة الهاتف. أمّا السبب فكان "المحتوى الضار" الذي يعدّ "انتهاكاً صارخاً لسياسات الشركة وقد يكون غير قانوني"، بحسب الرسالة التي وصلت إلى هاتف مارك، ونقلتها عنه "نيويورك تايمز".

لاحقاً، اكتشف مارك أنّ "غوغل" أبلغت عن مقطع فيديو آخر موجودٍ على هاتفه وبأنّ شرطة سان فرانسيسكو فتحت تحقيقاً معه. جرت تبرئة مارك من أيّ مخالفات جنائية، لكن "غوغل" قالت إنّها ستلتزم بقرارها.

قالت المتحّدثة باسم "غوغل" كريستا مولدون: "نحن نتبع القانون الأميركي في تحديد محتوى الاعتداء الجنسي على الأطفال، ونستخدم مزيجاً من تقنية مطابقة البصمة الإلكترونية والذكاء الاصطناعي لتحديده وإزالته عن منصاتنا".

وأضافت مولدون أنّ موظفي "غوغل" الذين يراجعون المحتوى المصنّف في فئة الاعتداء الجنسي ضدّ الأطفال تلقوا تدريباً من قبل خبراء طبيين للبحث عن وجود طفح جلدي أو مشكلات أخرى قبل اتخاذ قرارهم. لكنّها قالت إنّهم لم يكونوا خبراء طبيّين وإنّه لم تتمّ استشارة الخبراء الطبيين عند مراجعة كلّ حالة.

هذه مجرد واحدةٍ من الطرق التي يمكن لهذه الأنظمة من خلال أن توقع الأضرار، وفقاً لغيلمور. في العادة تعالج الشركات أيّ قيود قد تفرضها الخوارزميات نتيجة فشلها في التمييز بين صور الاعتداء الجنسي الضارة والصور الطبية، عبر وجود موظفين بشريين يعالجون كلّ حالةٍ على حدّة. لكن خبرة هؤلاء ومعرفتهم تظلّ محدودة، ويظلّ من الضروري الحصول على مزيد من بيانات المستخدمين ليتمكنوا من فهم سياق كلّ صورة.

بالنسبة لغيلمور فإنّ هذه الطريقة تمثّل مزيداً من الانتهاك لخصوصية المستخدم، من دون أن تكون بالضرورة أكثر فعالية في تحديد المحتوى الجنسي من عدمه.

قال: "هذه الأنظمة يمكن أن تسبب مشكلات حقيقية للناس، ولا يقتصر الأمر على أنني لا أعتقد أن هذه الأنظمة يمكنها اكتشاف كل حالة من حالات إساءة معاملة الأطفال فقط. يمكن أن تنقلب حياة الناس رأساً على عقب بسبب الأنظمة الآلية، فيما البشر الموجودون كصلة وصل بين المستخدم والآلة يتّخذون قراراتٍ سيئة لأنّه ليس لديهم ببساطة أي سبب لمحاولة إصلاح الأمر".

يرى غيلمور أنّ التكنولوجيا لم تنجح في تقديم حلٍ لهذه المشكلة. بالنسبة إليه يمكن أن يؤدي ذلك إلى العديد من المشكلات الجديدة، بما في ذلك إنشاء نظام مراقبة قوي يمكن أن يضرّ بشكل كبيرٍ بمن هم على الهامش.

يقول: "هناك وهم يتمثل بإيجاد نوع من الحلول التكنولوجية لكل المشكلات. يقول الناس: هناك تطبيق يعثر لي على غداء رخيص، لماذا لا يوجد تطبيق لإيجاد حل مشكلة اجتماعية شائكة مثل الاعتداء الجنسي على الأطفال؟". لكن في الواقع فإنّ مشكلة كهذه "لن تكون قابلة للحل باستخدام نفس أنواع التكنولوجيا".

المساهمون