تخيل خوارزمية متطورة ذاتية التعلم؛ خوارزمية يمكنها التواصل ومحاكاة التفاعل البشري وإنشاء المحتوى. لا، هذه ليست نقطة حبكة من فيلم خيال علمي. نحن نتحدث عن نماذج تعلّم اللغة (LLMs)، وهي فرع من فروع التكنولوجيا متعددة الأبعاد التي تكتسب شعبية واستخداماً سريعاً في جميع أنحاء العالم. وتفتح قدراتها الرائعة إمكانيات لا حصر لها على ما يبدو، ولكن كما هو الحال مع أي طفرة تكنولوجية، هناك جانب صعب يجب النظر إليه - وهو التحكم في السلوكيات غير المتوقعة وغير المرغوب فيها.
أدخل شركة أنثروبيك، وهي شركة أبحاث في مجال الذكاء الاصطناعي، التي تقدمت بحل مبتكر. حيث تقدم دراستها المتطورة "ناقلات الشخصية" كوسيلة لإدارة السلوكيات المارقة في الآلات ذاتية القيادة والتنبؤ بها وكبحها، مما يحفز على إجراء محادثة مثمرة حول الاستخدام المسؤول لهذه التكنولوجيا الذكية وتنظيمها.
جعل الذكاء الاصطناعي أكثر قابلية للمساءلة
على الرغم من أن رسائل الماجستير في القانون قد تكون مثيرة للإعجاب في قدراتها، إلا أن عدم القدرة على التنبؤ بها يمكن أن يؤدي إلى عواقب غير مرغوب فيها. قد ينتهي الأمر بـ LLM حسن النية إلى نشر محتوى مسيء أو مضلل أو حتى خطير. بالنسبة للتكنولوجيا التي تم التبشير بها على أنها مستقبل العلاقات بين الإنسان والحاسوب، فإن مثل هذه السلوكيات تشكل عائقاً كبيراً.
هذا هو المكان الذي تعمل فيه ناقلات الشخصية في أنثروبيك بسحرها. تمنح هذه التقنية المطورين أداة أقرب إلى المقود التشغيلي، وهي طريقة لتوجيه وقيادة الكيان الذكي اصطناعيًا. والهدف من ذلك هو تجنب أي أخطاء وضمان توافق عمليات الذكاء الاصطناعي بسلاسة أكبر مع النوايا والمعايير البشرية.
تعمق أكثر في متجهات الشخصية
إذن ما هي بالضبط ناقلات الشخصيات هذه؟ تخيل أنك تشاهد فيلمًا، ولديك جهاز تحكم عن بعد لديه القدرة على التأثير على تصرفات الشخصيات أو توجيهها. يمنحك هذا مستوى معين من التحكم في السرد الذي يتكشف. تعمل ناقلات الشخصية بطريقة مماثلة.
فهي تعمل كإطار عمل، مما يمكّن المطورين من فك شفرة "شخصية" الذكاء الاصطناعي بدقة. من خلال إعطاء المطورين نظرة خاطفة على سلوك نموذج الذكاء الاصطناعي الخاص بالذكاء الاصطناعي، تسمح هذه المتجهات بإجراء تعديلات وفقًا لذلك للحفاظ على اتساق المخرجات وفي السياق المطلوب.
لا يقدم هذا النهج حلاً للمشاكل الحالية فقط. كما أنه يفتح الباب أمام موجة جديدة من إمكانيات واجهة المستخدم، حيث يمكن تغيير سلوك الذكاء الاصطناعي بناءً على تفضيلات المستخدم أو التطبيقات المختلفة. إن الآثار المترتبة على ذلك واسعة، خاصة في صناعات مثل التسويق المخصص والتعليم والتقنيات المساعدة وغيرها، حيث تتطلب السياقات المختلفة استجابات ذكاء اصطناعي قابلة للتكيف.
تستحوذ أبحاث أنثروبيك على اهتمام المطورين وعلماء الأخلاق والمنظمين على حد سواء. هذه خطوة مهمة في إعطاء الأولوية للسلامة والتحكم في عالم الذكاء الاصطناعي الذي يتقدم بسرعة، وتسليط الضوء على حدود جديدة من المسؤولية والأخلاقيات التكنولوجية.
وأخيراً وليس آخراً، فإن إدخال ناقلات الشخصية يسلط الضوء أيضاً على العلاقة المتطورة باستمرار بين البشر والذكاء الاصطناعي. ومع اقترابنا أكثر فأكثر من أنظمة الذكاء الاصطناعي المتطورة، أصبح الحفاظ على التحكم في هذه الأنظمة موضوعًا أساسيًا للنقاش. وهذا يتماشى مع مهمة أنثروبيك لضمان أن تكون أنظمة الذكاء الاصطناعي مفهومة وآمنة ومتوافقة مع القيم الإنسانية. إذا نجح ذلك، فقد يضع هذا الأمر ناقلات الشخصية كأداة أساسية في التطوير المستقبلي لنماذج تعلم اللغة ونشرها.
للمزيد من المعلومات حول دراسة أنثروبيك والفروق الدقيقة في ناقلات الشخصية، يرجى زيارة المقال الأصلي هنا.