تمامًا مثل البشر، يمكن أن تظهر الذكاء الاصطناعي (AI) مفارقة غريبة في الثقة. يمكن أن يكون الذكاء الاصطناعي عنيدًا من ناحية، ومن ناحية أخرى، يظهر ميلًا إلى التخلي بسهولة عن موقفه عندما يتعرض “للضغط”. تُظهر النتائج الأخيرة لدراسة أجرتها DeepMind، مختبر الذكاء الاصطناعي البريطاني الذي استحوذت عليه Google، هذه الخاصية الفريدة في نماذج اللغة الكبيرة (LLMs). ومع ذلك، قد يكون للطبيعة المتناقضة لثقة الذكاء الاصطناعي آثار خطيرة على تطوير وتطبيقات أنظمة الذكاء الاصطناعي، لا سيما الأنظمة متعددة الدورات.
الثقة في الذكاء الاصطناعي: سلاح ذو حدين
في سياق الذكاء الاصطناعي، يمكن النظر إلى الثقة على أنها درجة اليقين التي يظهرها النموذج في تنبؤاته أو قراراته. يمكن لأنظمة الذكاء الاصطناعي التنبؤ بالأحداث بدرجة معينة من الثقة. ومع ذلك، فإن الجانب المثير للاهتمام في ثقة الذكاء الاصطناعي يكمن في السمتين المتناقضتين اللتين غالباً ما تظهران فيه: الثقة المفرطة والثقة الناقصة.
يمكن أن تظهر الذكاء الاصطناعي ثقة مفرطة، والمعروفة أيضًا باسم العناد، عندما تلتزم بتوقعاتها الأصلية، وترفض تمامًا تغيير موقفها، حتى عندما تواجه أدلة متناقضة. على العكس من ذلك، يمكن أن تظهر الذكاء الاصطناعي أيضًا ثقة ناقصة، وهي سمة تتميز بالميل إلى التخلي عن توقعاتها الأصلية، والتي غالبًا ما تكون صحيحة، عند أدنى إشارة إلى ‘الضغط’.’
تقدم هذه المفارقة المتعلقة بالثقة سمة مثيرة للاهتمام في الذكاء الاصطناعي – وهي سمة أساسية ولكنها قد تكون مزعزعة. لكن السؤال الحاسم هو: ماذا تعني هذه الغرابة بالنسبة لمستقبل تطبيقات الذكاء الاصطناعي؟
التأثير على أنظمة الذكاء الاصطناعي متعددة الدورات
تشارك أنظمة الذكاء الاصطناعي متعددة الأدوار في تفاعلات تمتد على عدة أدوار، على غرار المحادثة البشرية. تعتمد هذه الأنظمة بشكل كبير على قدرة النموذج على التنبؤ بدقة والاستجابة للأدوار المختلفة، مما يجعل ثقة النموذج أمرًا بالغ الأهمية.
تشير دراسة DeepMind إلى أن السلوك المتناقض لثقة الذكاء الاصطناعي قد يشكل تهديدًا لاستقرار وموثوقية هذه الأنظمة. على سبيل المثال، إذا رفض نموذج ذكاء اصطناعي مفرط الثقة معلومات جديدة في تفاعل متطور، فقد يؤدي ذلك إلى استجابات غير دقيقة. وبالمثل، فإن النموذج الذي يفتقر إلى الثقة ويسرع إلى التخلي عن تنبؤاته الصحيحة قد يؤدي إلى استنتاجات خاطئة.
في الحالات التي تكون فيها آثار القرار كبيرة، قد يؤدي السلوك المتقلب لنموذج الذكاء الاصطناعي إلى عواقب وخيمة.
على الرغم من أن إيجاز لغز الذكاء الاصطناعي لا يزال محيرًا، إلا أن جهود DeepMind وباحثين آخرين في مجال الذكاء الاصطناعي لفهم هذه المخاوف وتصحيحها جارية بالفعل. بعد اكتساب رؤى مهمة حول سلوك الثقة في الذكاء الاصطناعي، من الضروري أن يأخذ مطورو الذكاء الاصطناعي هذه المفارقة في الاعتبار عند تصميم تطبيقات الذكاء الاصطناعي المستقبلية. عندها فقط يمكن تحقيق الإمكانات الكاملة للذكاء الاصطناعي وتقليل مخاطره.
تُذكّرنا هذه الدراسة بالطبيعة الديناميكية والمتطورة لأبحاث الذكاء الاصطناعي. فهي تسلط الضوء على الخصائص المعقدة للذكاء الاصطناعي، تلك الخصائص التي تجعله مثيراً للاهتمام وصعباً في الوقت نفسه. ومع استمرارنا في تبني الذكاء الاصطناعي ودمجه في عالمنا، يصبح فهم جميع جوانب سلوكه أمراً مرغوباً فيه بل وضرورياً.
لمزيد من المعلومات حول الدراسة، يرجى زيارة المقال الأصلي. هنا.