دراسة أجرتها جوجل تكشف أن طلبة الماجستير في القانون قد يتجاهلون الإجابات الصحيحة تحت الضغط

تمامًا مثل البشر، يمكن أن تظهر الذكاء الاصطناعي (AI) مفارقة غريبة في الثقة. يمكن أن يكون الذكاء الاصطناعي عنيدًا من ناحية، ومن ناحية أخرى، يظهر ميلًا إلى التخلي بسهولة عن موقفه عندما يتعرض “للضغط”. تُظهر النتائج الأخيرة لدراسة أجرتها DeepMind، مختبر الذكاء الاصطناعي البريطاني الذي استحوذت عليه Google، هذه الخاصية الفريدة في نماذج اللغة الكبيرة (LLMs). ومع ذلك، قد يكون للطبيعة المتناقضة لثقة الذكاء الاصطناعي آثار خطيرة على تطوير وتطبيقات أنظمة الذكاء الاصطناعي، لا سيما الأنظمة متعددة الدورات.

الثقة في الذكاء الاصطناعي: سلاح ذو حدين

في سياق الذكاء الاصطناعي، يمكن النظر إلى الثقة على أنها درجة اليقين التي يظهرها النموذج في تنبؤاته أو قراراته. يمكن لأنظمة الذكاء الاصطناعي التنبؤ بالأحداث بدرجة معينة من الثقة. ومع ذلك، فإن الجانب المثير للاهتمام في ثقة الذكاء الاصطناعي يكمن في السمتين المتناقضتين اللتين غالباً ما تظهران فيه: الثقة المفرطة والثقة الناقصة.

AI can exhibit overconfidence, also known as stubbornness, when it sticks to its original predictions, completely reluctant to change its stance, even when faced with contradictory evidence. Conversely, AI can also display underconfidence, a trait characterized by the tendency to ditch its original, and often correct predictions under the slightest hint of ‘pressure.’

تقدم هذه المفارقة المتعلقة بالثقة سمة مثيرة للاهتمام في الذكاء الاصطناعي – وهي سمة أساسية ولكنها قد تكون مزعزعة. لكن السؤال الحاسم هو: ماذا تعني هذه الغرابة بالنسبة لمستقبل تطبيقات الذكاء الاصطناعي؟

التأثير على أنظمة الذكاء الاصطناعي متعددة الدورات

Multi-turn AI systems engage in interactions that span several turns, akin to a human conversation. Such systems rely heavily on the model’s ability to accurately predict and respond to different turns, making the model’s confidence crucial.

تشير دراسة DeepMind إلى أن السلوك المتناقض لثقة الذكاء الاصطناعي قد يشكل تهديدًا لاستقرار وموثوقية هذه الأنظمة. على سبيل المثال، إذا رفض نموذج ذكاء اصطناعي مفرط الثقة معلومات جديدة في تفاعل متطور، فقد يؤدي ذلك إلى استجابات غير دقيقة. وبالمثل، فإن النموذج الذي يفتقر إلى الثقة ويسرع إلى التخلي عن تنبؤاته الصحيحة قد يؤدي إلى استنتاجات خاطئة.

في الحالات التي تكون فيها آثار القرار كبيرة، قد يؤدي السلوك المتقلب لنموذج الذكاء الاصطناعي إلى عواقب وخيمة.

على الرغم من أن إيجاز لغز الذكاء الاصطناعي لا يزال محيرًا، إلا أن جهود DeepMind وباحثين آخرين في مجال الذكاء الاصطناعي لفهم هذه المخاوف وتصحيحها جارية بالفعل. بعد اكتساب رؤى مهمة حول سلوك الثقة في الذكاء الاصطناعي، من الضروري أن يأخذ مطورو الذكاء الاصطناعي هذه المفارقة في الاعتبار عند تصميم تطبيقات الذكاء الاصطناعي المستقبلية. عندها فقط يمكن تحقيق الإمكانات الكاملة للذكاء الاصطناعي وتقليل مخاطره.

تُذكّرنا هذه الدراسة بالطبيعة الديناميكية والمتطورة لأبحاث الذكاء الاصطناعي. فهي تسلط الضوء على الخصائص المعقدة للذكاء الاصطناعي، تلك الخصائص التي تجعله مثيراً للاهتمام وصعباً في الوقت نفسه. ومع استمرارنا في تبني الذكاء الاصطناعي ودمجه في عالمنا، يصبح فهم جميع جوانب سلوكه أمراً مرغوباً فيه بل وضرورياً.

لمزيد من المعلومات حول الدراسة، يرجى زيارة المقال الأصلي. هنا.

قد تعجبك أيضاً هذه

بوروزماويج ز أليا

أليا