جهود للسيطرة على "الذكاء الاصطناعي" وChatGPT في مرمى الهجمات

03 فبراير 2023
هجوم متوقع على برنامج تطبيقات الذكاء الاصطناعي تشات جي بي تي (Getty)
+ الخط -

في تعليق نادر من كبار المسؤولين في بروكسل على تطبيقاتهم الصاعدة حول العالم، قال مسؤول الصناعة في الاتحاد الأوروبي، تيري بريتون، إن قواعد الذكاء الاصطناعي الجديدة المقترحة ستهدف إلى معالجة المخاوف بشأن المخاطر المتعلقة ببرنامج الدردشة ChatGPT، وتكنولوجيا الذكاء الاصطناعي.

وأثار بعض الخبراء مخاوف من إساءة استخدام الأنظمة التي تستخدمها مثل هذه التطبيقات في السرقة الأدبية والاحتيال ونشر المعلومات الخاطئة والغش في الامتحانات، بينما يصفه رواد علم الذكاء الاصطناعي بأنه قفزة تكنولوجية.

وبعد شهرين فقط من إطلاقه، تم تصنيف ChatGPT، الذي يمكنه إنشاء مقالات وتقارير ونكات، وشعر وموسيقى ورسومات، استجابة لطلبات المستخدمين، على أنه تطبيق المستهلك الأسرع نموًا في التاريخ.

وقال بريتون إن المخاطر التي يشكلها ChatGPT، باستخدام أفكار OpenAI، وبدعم مالي ضخم منتظر من شركة مايكروسوفت، أكدت الحاجة الملحة للقواعد التي اقترحها العام الماضي، في محاولة لوضع المعيار العالمي للتكنولوجيا. وتجري حالياً مناقشة القواعد المقترحة في بروكسل.

وأظهر برنامج ChatGPT إمكانية توفير حلول الذكاء الاصطناعي فرصًا رائعة للشركات والمواطنين، إلا أنه أبرز أيضاً المخاطر المحتملة، ما مثل ضغوطاً على الهيئات المختصة للعمل على إيجاد الإطار التنظيمي المطلوب لضمان توفير الذكاء الاصطناعي الجدير بالثقة، بما يحتويه من بيانات عالية الجودة.

وقالت شركة OpenAI على موقعها الإلكتروني إنها تهدف إلى إنتاج ذكاء اصطناعي "يفيد البشرية جمعاء" في الوقت الذي تحاول فيه بناء ذكاء اصطناعي آمن ومفيد.

وبموجب مسودة قواعد الاتحاد الأوروبي، يعتبر ChatGPT نظام ذكاء اصطناعي للأغراض العامة، يمكن استخدامه لأغراض متعددة، بما في ذلك الأغراض عالية المخاطر، مثل اختيار المرشحين للوظائف وتسجيل الائتمان.

ويريد بريتون أن تتعاون OpenAI بشكل وثيق مع مطوري أنظمة الذكاء الاصطناعي عالية المخاطر، لضمان خضوعهم لقانون الذكاء الاصطناعي المقترح.

مخاوف من "مخاطر عالية"

وتشعر الشركات بالقلق من تصنيف تقنيتها ضمن فئة الذكاء الاصطناعي "عالية المخاطر"، مما قد يؤدي إلى متطلبات امتثال أكثر صرامة وتكاليف أعلى، وفقًا للمديرين التنفيذيين في العديد من الشركات المشاركة في تطوير الذكاء الاصطناعي.

وأظهر مسح أجرته الهيئة الصناعية التطبيقية للذكاء الاصطناعي أن 51% من المستجيبين يتوقعون تباطؤًا في أنشطة تطوير الذكاء الاصطناعي نتيجة لإقرار القانون المقترح.

وكتب رئيس مايكروسوفت براد سميث، في مدونته يوم الأربعاء، أن لوائح الذكاء الاصطناعي الفعالة يجب أن تركز على التطبيقات الأكثر خطورة، مضيفاً أن "هناك أياما أشعر فيها بالتفاؤل ولحظات أشعر فيها بالتشاؤم بشأن كيفية استخدام البشرية للذكاء الاصطناعي".

وقال بريتون إن المفوضية الأوروبية تعمل عن كثب مع مجلس الاتحاد الأوروبي والبرلمان الأوروبي، لزيادة توضيح القواعد الواردة في قانون الذكاء الاصطناعي لأنظمة الذكاء الاصطناعي للأغراض العامة.

وأضاف: "سيحتاج الناس إلى معرفة أنهم يتعاملون مع روبوت محادثة وليس مع إنسان، كما أن الشفافية مهمة أيضًا في ما يتعلق بخطر التحيز والمعلومات الكاذبة ".

وقال بريتون إن المناقشات المقبلة مع المشرعين حول قواعد الذكاء الاصطناعي ستغطي جوانب تتعلق بانتهاكات حقوق النشر.

ودفعت المخاوف بشأن الاحتيال من قبل الطلاب بعض المدارس الحكومية الأميركية وجامعة العلوم الفرنسية إلى حظر استخدام ChatGPT.

وتسعى شركة ألفابيت، صاحبة محرك البحث غوغل Google، لاختبار منتجات الدردشة الجديدة التي تعمل بالذكاء الاصطناعي، والتي من المرجح أن تؤثر على عملية إطلاق منتج دردشة جديد لها في المستقبل، أو دمجه بشكل ما في محرك البحث الشهير.

كما تختبر الشركة أيضاً برنامجا جديدا، يدعى Apprentice Bard، يمكن للموظفين من خلاله طرح أسئلة وتلقي إجابات مفصلة مشابهة لـChatGPT.

المساهمون