"غوغل" تُلزم الكشف عن استعمال الذكاء الاصطناعي في الإعلانات السياسية

07 سبتمبر 2023
تحظر الشركة التلاعب بالوسائط الرقمية لخداع المستخدمين (زهانغ يي/ Getty)
+ الخط -

قالت شركة غوغل، الأربعاء، إنّها ستلزم ناشري الإعلانات السياسية على منصاتها بالكشف عن الصور والصوت التي أنشأت أو عدّلت باستخدام أدوات مثل الذكاء الاصطناعي، بحسب وكالة فرانس برس.

ومن المقرّر أن يدخل التغيير في سياسة إعلانات الشركة حيز التنفيذ في نوفمبر/ تشرين الثاني المقبل، أي قبل عام تقريباً من الموعد المرجح للانتخابات الرئاسية الأميركية المثيرة للجدل، وفي ظل تزايد المخاوف من استخدام الذكاء الاصطناعي التوليدي لتضليل الناخبين.

وقال متحدث باسم "غوغل" رداً على استفسار لوكالة فرانس برس: "على مدى سنوات، فرضنا شروطاً أعلى للشفافية في الإعلانات الانتخابية".

وتابع: "نظراً للانتشار المتزايد للأدوات التي تنتج المحتوى اصطناعياً، فإننا نعمل على توسيع سياساتنا خطوة أخرى لمطالبة المعلنين بالكشف عن المواد التي أنشئت أو عدّلت رقمياً ضمن إعلاناتهم الانتخابي".

وفي يونيو/ حزيران الماضي، أظهر مقطع فيديو لحملة المرشح الأميركي رون ديسانتيس يهاجم فيه الرئيس السابق دونالد ترامب، صوراً تحمل علامات تدلّ على إنشائها باستخدام الذكاء الاصطناعي، بحسب فريق التحقق من الحقائق التابع لـ"فرانس برس".

يحتوي الفيديو الذي تمت مشاركته في تغريدة على موقع إكس ("تويتر" سابقاً) على صور بدت وكأنّها معدّلة لإظهار ترامب وهو يحتضن ويقبل العضو الرئيسي في فريق عمل البيت الأبيض لمكافحة فيروس كورونا، أنتوني فاوتشي، بحسب فريق "فرانس برس".

وتحظر سياسات "غوغل" الإعلانية التلاعب بالوسائط الرقمية لخداع الأشخاص أو تضليلهم بشأن السياسة أو القضايا الاجتماعية أو الأمور ذات الاهتمام العام. كذلك، فإنّ الادعاءات الكاذبة، والتي يمكن أن تؤثر على المشاركة أو على الثقة في العملية الانتخابية محظورة أيضاً، وفقاً لسياسة الإعلانات الخاصة بعملاق الإنترنت. كذلك، تطلب "غوغل" من الراغبين ببث إعلانات سياسية الكشف عن هوية الجهات التي تدفع ثمنها، كما توفر معلومات حول الرسائل في مكتبة الإعلانات عبر الإنترنت.

ويتطلب التحديث القادم لشروط الإعلانات المتعلقة بالانتخابات "الكشف بشكل واضح" عمّا إذا كانت تحتوي على "محتوى اصطناعي" يصور أشخاصاً وأحداثًا حقيقية أو تحاكي الحقيقة، وفقاً للشركة، التي أكّدت أنها تواصل الاستثمار في التكنولوجيا لاكتشاف مثل هذا المحتوى وإزالته.

وتتضمن الأمثلة على الصور أو الأصوات الاصطناعية تلك التي تظهر شخصاً يقول أو يفعل شيئاً لم يفعله، أو يصور حدثاً لم يحدث، واقترحت "غوغل" إضافة عبارات إلى هذه المواد تقول: "هذه الصورة لا تظهر أحداثًا حقيقية" أو "تم إنشاء محتوى هذا الفيديو بشكل صناعي".

المساهمون