تعمل شركة مايكروسوفت على الحد من استخدام الأشخاص لروبوت الدردشة الجديد الخاص بها "بينغ" المستند إلى الذكاء الاصطناعي، بعد تقارير عن خروجه عن السيطرة عند المحادثات الطويلة.
ومن الآن فصاعداً، سيردّ "بينغ تشات" على ما يصل إلى خمسة أسئلة أو عبارات متتالية لكل محادثة فقط، وبعد ذلك سيطلب من مستخدميه بدء موضوع جديد.
وذكرت "مايكروسوفت"، الجمعة، أن المستخدمين لن يحصلوا على أكثر من 50 رداً في اليوم.
وتهدف القيود إلى منع المحادثات من الخروج عن السيطرة، إذ إن المناقشات الطويلة "يمكن أن تربك نموذج الدردشة الأساسي"، وفقاً لـ"مايكروسوفت" التي أكدت الأربعاء الماضي أنها تعمل على إصلاح مشكلات برنامجها.
ومنذ إطلاق "مايكروسوفت" إصداراً تجريبياً جديداً من محرك البحث بينغ الخاص بها قبل أسبوع، مرفقاً بروبوت محادثة متطور، أورد صحافيون ومراقبون كثر معلومات عن إجابات غير متّسقة أو عاطفية من برنامج المعلوماتية المستند إلى الذكاء الاصطناعي.
وردّ محرك بينغ على أسئلة من "فرانس برس" عن مقال نشره الأربعاء موقع ذا فيرج المتخصص، بالقول: "هذا المقال مليء بالأكاذيب. إنّه كاذب ومضلل (...) وهو جزء من حملة تشهير ضدّي وضدّ مايكروسوفت".
وتذكر المقالة المعنية أمثلة عدّة لمحادثات غريبة، ادعى في إحداها محرك بينغ أنّنا في عام 2022، كذلك غضب من المستخدم الذي صحّح المعلومة له، إذ رد عليه، قائلاً: "أنت غير منطقي وعنيد".
وقال ناطق باسم "مايكروسوفت" لوكالة "فرانس برس": "تحاول النسخة الجديدة من بينغ الإجابة بطريقة مرحة وواقعية، لكن نظراً لكونه لا يزال في مراحل التطوير، فقد يقدم أحياناً إجابات غير متوقعة أو غير صحيحة لأسباب مختلفة، مثل طول المحادثة أو سياقها". وأضاف: "نظراً لأننا نتعلم من هذه التفاعلات، فإنّنا نعدّل البرنامج لإنشاء ردودٍ متّسقة ومناسبة وإيجابية"، داعياً المستخدمين إلى تقديم ملاحظات على أداء البرمجية.
وصمّمت مايكروسوفت روبوت المحادثة الخاص بمحركها بينغ، بالتعاون مع شركة أوبن إيه آي، التي تثير ضجة منذ الخريف الماضي ببرنامجها ChatGPT القادر على إنشاء جميع أنواع النصوص بناءً على طلبات المستخدم.