- هناك مخاوف متزايدة من الجهات التنظيمية حول استخدام الذكاء الاصطناعي في التزييف والتأثير على الانتخابات، بالإضافة إلى استخداماته في النزاعات مثل الاستخدام الإسرائيلي ضد الفلسطينيين.
- الدراسات تشير إلى مخاطر الذكاء الاصطناعي مثل قدرته على خداع البشر، مع تحذيرات حول الأخلاقيات والتحديات المستقبلية، بما في ذلك إمكانية استخدامه في الاحتيال والتزوير الانتخابي.
يخوض عمالقة التكنولوجيا سباقاً شرساً لتطوير الذكاء الاصطناعي، إذ تسارع شركات أوبن إيه آي وغوغل وميتا وغيرها إلى إطلاق نماذج ذات قدرات مختلفة ومعقدة، بينما تتزايد مخاوف الجهات التنظيمية إزاء استغلال هذه التقنيات في التزييف والتأثير في الانتخابات والتضليل وحتى في تسهيل ارتكاب الإبادة الجماعية، وفقاً لتقارير إخبارية عدة سلطت الضوء على التكنولوجيا التي يستخدمها الاحتلال الإسرائيلي في عدوانه المتواصل على الفلسطينيين في قطاع غزة.
وفي سياق هذا السباق الشرس، أعلنت شركة أوبن إيه آي، مطورة روبوت الدردشة "تشات جي بي تي"، أنها ستطلق نموذجاً جديداً للذكاء الاصطناعي يُسمى GPT-4o، يمكنه إجراء محادثة صوتية واقعية والتعامل مع النصوص والصور. وهذه أحدث خطوة تخطوها الشركة المدعومة من "مايكروسوفت" للبقاء في مقدمة سباق السيطرة على تلك التكنولوجيا الناشئة. تتيح الإمكانات الصوتية الجديدة للمستخدمين التحدث إلى "تشات جي بي تي" والحصول على ردود في الوقت الفعلي من دون أي تأخير، بالإضافة إلى مقاطعته في أثناء التحدث، وكلاهما من السمات المميزة للمحادثات الواقعية التي استعصت على خدمات سابقة من المساعد الصوتي الذي يعمل بالذكاء الاصطناعي.
وكتب رئيس "أوبن إيه آي" التنفيذي، سام ألتمان، على مدونة الشركة: "يبدو الأمر وكأن الذكاء الاصطناعي ضرب من الخيال... لم يكن التحدث إلى جهاز كمبيوتر أمراً طبيعياً بالنسبة إليّ أبداً، والآن أصبح كذلك".
تواجه "أوبن إيه آي" منافسة وضغوطاً متزايدة لتوسيع قاعدة مستخدمي "تشات جي بي تي"، وهو روبوت الدردشة ذائع الصيت الذي أبهر العالم بقدرته على إنتاج محتوى مكتوب يشبه الذي ينتجه البشر وكتابة رموز برمجيات الكمبيوتر. وأظهر باحثو "أوبن إيه آي" في مؤتمر مباشر، الاثنين، قدرات المساعد الصوتي الجديدة. ففي أحد العروض التوضيحية، استخدم "تشات جي بي تي" إمكاناته البصرية والصوتية للتحدث مع أحد الباحثين لحل معادلة رياضية على ورقة. وفي عرض توضيحي آخر، أظهر الباحثون قدرة نموذج GPT-4o على الترجمة في الوقت الفعلي. وكانت العروض التوضيحية التي قدمتها "أوبن إي آي" أقرب إلى الخيال العلمي، حيث انخرط "تشات جي بي تي" ومحاوره في المزاح عند نقطة معينة. وأخبر باحث "أوبن إيه آي" برنامج الدردشة الآلي أنه في حالة مزاجية رائعة لكونه "مفيداً ومدهشاً"، ليبادره "تشات جي بي تي" بالقول: "توقف عن ذلك! أنت تجعلني أحمرّ خجلاً!".
وذكرت كبيرة مسؤولي التكنولوجيا في "أوبن إيه آي"، ميرا موراتي، في الحدث نفسه، أن النموذج الجديد سيُطرح مجاناً لأنه أكثر فعالية من حيث التكلفة من النماذج السابقة للشركة. غير أنها أوضحت أن نسخة "جي بي تي-40" المدفوعة ستكون أوسع نطاقاً من المجانية. وأعلنت الشركة أن GPT-4o سيكون متاحاً في الأسابيع القليلة المقبلة. وبعد فترة بسيطة من إطلاقه في أواخر 2022، صُنّف "تشات جي بي تي" على أنه أسرع تطبيق على الإطلاق يصل إلى 100 مليون مستخدم نشط شهرياً.
أما "ألفابت"، الشركة الأم لـ"غوغل"، فاستعرضت الثلاثاء كيف تعتمد على الذكاء الاصطناعي في جميع أعمالها، بما في ذلك نسخة أحدث من روبوت الدردشة الآلي "جيميناي" ومحركها البحثي الشهير. ويسلط ذلك الضوء على مساعي "غوغل" الحثيثة لتحديث منتجاتها منذ أن أذهل إطلاق "تشات جي بي تي" العالم في أواخر 2022، ما هدد سيطرتها الطويلة على البحث عبر الإنترنت والذكاء الاصطناعي.
ومن التحديثات التي كشفت "ألفابت" النقاب عنها، "فلاش"، أحدث نسخة من عائلة "جيميناي 1.5" لنماذج الذكاء الاصطناعي، وهو أسرع وأرخص في التشغيل، ونموذج أولي يسمى "بروجيكت أسترا" يمكنه التحدث مع المستخدمين عن أي شيء تلتقطه كاميرا هواتفهم الذكية في الوقت الفعلي، وكذلك نتائج بحث مصنفة تحت عناوين رئيسية مولدة بواسطة الذكاء الاصطناعي.
عرضت المنتجات الجديدة في مؤتمر "غوغل" السنوي للمطورين في ماونتن فيو في ولاية كاليفورنيا الثلاثاء. وقال الرئيس التنفيذي لشركة ألفابت، ساندر بيتشاي، للصحافيين عندما سئل عما إذا كانت تحديثات الذكاء الاصطناعي يمكن أن تخاطر بأعمال "غوغل" المربحة: "هذه لحظة نمو وفرصة".
في المقابل، يخشى البعض من أن ينقلب الذكاء الاصطناعي على الإنسان مستقبلاً، لكنّ هذه المخاوف باتت واقعاً منذ الآن، وفقاً لدراسة جديدة، إذ إن البرامج التي صُمِّمَت لتكون صادقة، باتت لديها قدرة مثيرة للقلق على خداع البشر.
وبيّنت دراسة أجراها فريق باحثين ونشرت نتائجها مجلة باترنز، الأسبوع الماضي، أن برامج من هذا النوع باتت قادرة على استغلال البشر في ألعاب إلكترونية أو التحايل على برمجيات مصممة في الأساس للتحقق من أن المستخدم إنسان وليس آلة أو روبوتاً.
وعلى الرغم من أن هذه الأمثلة قد تبدو تافهة، فإنها تكشف عن مشكلات قد تكون لها قريباً عواقب وخيمة في العالم الحقيقي، كما يحذر بيتر بارك، الباحث في معهد ماساتشوستس للتكنولوجيا، المتخصص في الذكاء الاصطناعي. وقال بارك لوكالة فرانس برس إن "هذه القدرات الخطرة لا تُكتشف إلا بعد وقوعها". وأوضح أنه على عكس البرامج التقليدية، فإن برامج الذكاء الاصطناعي القائمة على التعلم العميق ليست مشفرة، بل تُطوّر عبر عملية مشابهة لتربية النباتات، إذ إن السلوك الذي يبدو قابلاً للتنبؤ ويمكن التحكم فيه يمكن أن يصبح سريعاً غير قابل للتنبؤ في الطبيعة.
وفحص باحثون من معهد ماساتشوستس للتكنولوجيا برنامج ذكاء اصطناعي صممه "ميتا" يسمى "شيشرو" الذي كان قادراً على التغلب على البشر في اللعبة اللوحية Diplomacy، عبر الجمع بين خوارزميات للتعرف إلى اللغة الطبيعية وأخرى للاستراتيجية. وحظي هذا الأداء بثناء الشركة الأم لـ"فيسبوك" عام 2022، وفصل في مقال نُشر عام 2022 في مجلة سَينس. كان بيتر بارك يشكك في ظروف فوز "شيشرو" وفقاً لـ"ميتا" التي أكدت أن البرنامج كان "صادقاً ومفيداً في الأساس"، وغير قادر على الغش أو الخداع. ولكن من خلال البحث في بيانات النظام، اكتشف باحثو معهد ماساتشوستس للتكنولوجيا حقيقة أخرى.على سبيل المثال، من خلال لعب دور فرنسا، خدع "شيشرو" إنكلترا (التي تولى دورها لاعب بشري)، ودفعها إلى التآمر مع ألمانيا (التي لعب دورها إنسان آخر) للغزو. وعلى وجه التحديد، وعد "شيشرو" إنكلترا بالحماية، ثمّ أسرّ لألمانيا بأن الأخيرة مستعدة للهجوم، مستغلاً الثقة التي اكتسبها من إنكلترا.
وفي تصريح لوكالة فرانس برس، لم تنفِ "ميتا" المزاعم المتعلقة بقدرة "شيشرو" على الخداع، لكنها قالت إنه "مشروع بحثي محض"، مع برنامج "مصمم فقط للعب لعبة Diplomacy". وأضافت "ميتا" أنها لا تنوي استخدام الخلاصات التي استنتجتها من "شيشرو" في منتجاتها. ومع ذلك، تكشف الدراسة التي أجراها بارك وفريقه أن الكثير من برامج الذكاء الاصطناعي تستخدم الخداع لتحقيق أهدافها، من دون تعليمات صريحة للقيام بذلك.
وفي أحد الأمثلة الصارخة، تمكن برنامج "تشات جي بي تي - 4" من خداع عامل مستقل عيّن على منصة TaskRabbit لإجراء اختبار Captcha الذي يستعان به عادة للتأكد من أن المستخدم على الصفحة هو في الواقع إنسان وليس آلة أو روبوتاً. وحذر معدو الدراسة من أخطار رؤية الذكاء الاصطناعي في يوم من الأيام يرتكب عمليات احتيال أو تزوير في الانتخابات. وأشاروا إلى أنه في أسوأ السيناريوهات، يمكن تخيل ذكاء اصطناعي فائق يسعى للسيطرة على المجتمع، ما يؤدي إلى إزالة البشر من السلطة، أو حتى التسبب في انقراض البشرية.