对人工智能(AI)肆意使用的讨论长期以来一直占据着科技话题的主导地位,而现在,数百位全球领导人和组织已经迈出了管理这一难题的关键一步。本周一,200 多位前国家元首、外交官、诺贝尔奖获得者、人工智能专家、研究人员等共同提议就人工智能绝不能逾越的 "红线 "达成一项国际协议。建议的限制包括禁止人工智能冒充人类或复制自身。
这些知名人士与 70 多个致力于人工智能的组织一起,支持 "全球呼吁人工智能红线 "倡议。该倡议敦促世界各国政府在 2026 年底之前接受这些人工智能 "红线"。这些高知名度的签名者包括加拿大英裔计算机科学家杰弗里-辛顿(Geoffrey Hinton)、OpenAI 联合创始人沃伊切赫-扎伦巴(Wojciech Zaremba)、Anthropic 公司首席信息官杰森-克林顿(Jason Clinton)和谷歌 DeepMind 研究科学家伊恩-古德费洛(Ian Goodfellow)。
法国人工智能安全中心(CeSIA)执行主任夏贝尔-拉斐尔-塞盖里(Charbel-Raphaël Segerie)认为,这一倡议背后的驱动力是主动应对人工智能的相关风险,而不是在发生重大事故后才作出反应。他强调了达成一致的必要性,他说:"如果各国还不能就他们想用人工智能做什么达成一致,那么他们至少必须就人工智能绝不能做什么达成一致。
这项倡议是在第 80 届联合国大会高级别会议周即将在纽约召开之际提出的。该倡议由 CeSIA、未来学会(Future Society)和加州大学伯克利分校人类兼容人工智能中心(Center for Human-Compatible Artificial Intelligence)牵头发起。大会期间,诺贝尔和平奖获得者玛丽亚-雷萨(Maria Ressa)在开幕致辞中提到了这一倡议,她倡导全球问责制,以遏制大科技公司有罪不罚的现象。
虽然地区性的人工智能使用 "红线 "已经到位,如欧盟的《人工智能法案》和中美之间关于核武器应继续由人类控制的协议,但全球仍缺乏共识。未来学会(The Future Society)人工智能全球治理总监尼基-伊利亚迪斯(Niki Iliadis)认为,最终需要一个具有强制执行权的独立全球机构来确立、监督和维护这些红线。"她补充说:"责任必须超越自愿承诺。
但呼吁谨慎并不意味着扼杀创新或经济增长,正如一些持怀疑态度的人所认为的那样。加州大学伯克利分校计算机科学教授、著名人工智能研究专家斯图尔特-拉塞尔(Stuart Russell)将新兴的人工智能产业与早期的核电相提并论。他说:"他们可以遵守规定,在知道如何确保AGI安全之前不建造AGI,就像核电开发商在知道如何阻止核电站爆炸之前不建造核电站一样"。
罗素认为,我们可以利用人工智能的力量促进经济发展,而不必放任我们无法控制的高级通用智能(AGI)。"他说:"这种所谓的二分法,即如果你想要医疗诊断,那么你就必须接受毁灭世界的AGI--我认为这是无稽之谈。
在人工智能颠覆和赋能的时代,"全球人工智能红线呼吁 "旨在在技术的巨大潜力和固有风险之间寻求平衡,呼吁达成国际共识,管理人工智能的谨慎使用。然而,这一初步呼吁只是迈向全球人工智能治理的第一步。当权者将如何响应这一呼吁,我们拭目以待。