نداء عالمي يحث على اتخاذ إجراءات بشأن ثغرات سياسات الذكاء الاصطناعي

لطالما هيمنت المداولات حول الاستخدام غير المقيد للذكاء الاصطناعي (AI) على الخطاب التكنولوجي منذ فترة طويلة، والآن، اتخذ المئات من القادة والمنظمات العالمية خطوة حاسمة نحو إدارة هذه المعضلة. ففي يوم الاثنين، انضم أكثر من 200 من رؤساء الدول السابقين والدبلوماسيين والدبلوماسيين والحائزين على جائزة نوبل والمتخصصين في مجال الذكاء الاصطناعي والباحثين وغيرهم إلى صفوفهم لاقتراح اتفاق دولي بشأن "الخطوط الحمراء" التي يجب ألا يتجاوزها الذكاء الاصطناعي. ومن بين القيود المقترحة حظر انتحال الذكاء الاصطناعي لشخصية البشر أو استنساخ نفسه.

وبالتعاون مع أكثر من 70 منظمة مكرسة للذكاء الاصطناعي، أيدت هذه الشخصيات البارزة مبادرة "النداء العالمي للخطوط الحمراء للذكاء الاصطناعي". وتحث المبادرة الحكومات في جميع أنحاء العالم على إقرار هذه "الخطوط الحمراء" للذكاء الاصطناعي قبل نهاية عام 2026. ومن بين الموقعين البارزين على المبادرة جيفري هينتون، عالم الكمبيوتر الكندي البريطاني، وفويتشيتش زاريمبا، أحد مؤسسي OpenAI، وجيسون كلينتون، الرئيس التنفيذي لأمن المعلومات في شركة أنثروبيك، وإيان جودفيلو، عالم الأبحاث في Google DeepMind.

إن الدافع وراء هذه المبادرة، وفقًا لشربل رافاييل سيجيري، المدير التنفيذي للمركز الفرنسي لسلامة الذكاء الاصطناعي (CeSIA)، هو معالجة المخاطر المرتبطة بالذكاء الاصطناعي بشكل استباقي، بدلاً من الاستجابة فقط بعد وقوع حادث كبير. وشدد على ضرورة الاتفاق، قائلاً: "إذا لم تتمكن الدول من الاتفاق بعد على ما تريد فعله بالذكاء الاصطناعي، فيجب على الأقل الاتفاق على ما يجب ألا يفعله الذكاء الاصطناعي أبدًا".

تأتي هذه المبادرة على أعتاب الأسبوع رفيع المستوى للجمعية العامة للأمم المتحدة في دورتها الثمانين في نيويورك. وقد قاد هذه المبادرة كل من مركز الذكاء الاصطناعي المتوافق مع البشر وجمعية المستقبل ومركز الذكاء الاصطناعي المتوافق مع البشر التابع لجامعة كاليفورنيا في بيركلي. وخلال الجمعية، أشارت ماريا ريسا الحائزة على جائزة نوبل للسلام إلى المبادرة خلال كلمتها الافتتاحية، داعيةً إلى المساءلة العالمية للحد من إفلات شركات التكنولوجيا الكبرى من العقاب.

في حين أن "الخطوط الحمراء" الإقليمية لاستخدام الذكاء الاصطناعي موجودة بالفعل، مثل قانون الاتحاد الأوروبي للذكاء الاصطناعي والاتفاق بين الولايات المتحدة والصين على أن الأسلحة النووية يجب أن تظل تحت سيطرة البشر، لا يزال هناك نقص في الإجماع العالمي. يرى نيكي إلياديس، مدير الحوكمة العالمية للذكاء الاصطناعي في جمعية المستقبل، أنه في نهاية المطاف، لا بد من وجود مؤسسة عالمية مستقلة ذات سلطة قابلة للتنفيذ لوضع هذه الخطوط الحمراء والإشراف عليها ودعمها. وأضافت: "يجب أن تكون المسؤولية أكثر من مجرد تعهد طوعي".

لكن الدعوة إلى توخي الحذر لا تعني خنق الابتكار أو النمو الاقتصادي، كما يجادل بعض المشككين. فقد أجرى ستيوارت راسل، أستاذ علوم الحاسوب في جامعة كاليفورنيا في بيركلي وباحث رائد في مجال الذكاء الاصطناعي، مقارنة بين صناعة الذكاء الاصطناعي الناشئة والأيام الأولى للطاقة النووية. وقال: "يمكن أن يمتثلوا بعدم بناء الذكاء الاصطناعي الآلي المُعزز حتى يعرفوا كيف يجعلونه آمناً، تماماً كما لم يقم مطورو الطاقة النووية ببناء محطات نووية حتى تكون لديهم فكرة عن كيفية منعها من الانفجار".

ووفقًا لراسل، يمكننا تسخير قوة الذكاء الاصطناعي من أجل التنمية الاقتصادية دون إطلاق العنان للذكاء العام المتقدم (AGI) الذي لا يمكننا التحكم فيه. "وقال: "هذه الثنائية المفترضة، إذا كنت تريد التشخيص الطبي فعليك أن تقبل بالذكاء العام المتقدم الذي يدمر العالم - أعتقد أن هذا هراء.

في عصر يعطله الذكاء الاصطناعي ويمكّنه الذكاء الاصطناعي، تهدف الدعوة العالمية لوضع خطوط حمراء للذكاء الاصطناعي إلى رسم توازن بين الإمكانات الهائلة للتكنولوجيا والمخاطر الكامنة، داعيةً إلى توافق دولي في الآراء لحوكمة الاستخدام الحذر للذكاء الاصطناعي. ومع ذلك، فإن هذه الدعوة الأولية هي مجرد خطوة أولى نحو الحوكمة العالمية للذكاء الاصطناعي. ويبقى أن نرى كيف سيستجيب أصحاب السلطة لهذه الدعوة.

المقال الأصلي

قد تعجبك أيضاً هذه

بوروزماويج ز أليا

أليا