与人类一样,人工智能(AI)也会表现出一种奇特的自信悖论。一方面,人工智能会变得固执己见,另一方面,当受到 "压力 "时,又会表现出轻易放弃立场的倾向。最近,由谷歌收购的英国人工智能实验室 DeepMind 进行的一项研究发现,大型语言模型(LLMs)就具有这种独特的特性。然而,人工智能信心的矛盾性可能会对人工智能系统的开发和应用产生严重影响,尤其是多转弯系统。
人工智能的信心:一把双刃剑
在人工智能领域,置信度可视为模型在其预测或决策中表现出的确定程度。人工智能系统可以在一定程度上预测事件。然而,人工智能信心的有趣之处在于它经常表现出两种截然不同的特征:过度自信和信心不足。
人工智能会表现出过度自信,也被称为固执,即坚持自己最初的预测,即使面对矛盾的证据,也完全不愿改变自己的立场。相反,人工智能也会表现出不自信,这种特性的特点是倾向于放弃自己最初的预测,而且往往是在最轻微的 "压力 "下做出正确的预测。
这种信心悖论展现了人工智能的一个耐人寻味的特性--一个既不可或缺又具有潜在破坏性的特性。但关键问题是,这种怪异性对人工智能应用的未来意味着什么?
对多圈人工智能系统的影响
多回合人工智能系统参与的互动跨越多个回合,类似于人类对话。此类系统在很大程度上依赖于模型准确预测和应对不同回合的能力,因此模型的可信度至关重要。
DeepMind 的研究表明,人工智能自信的矛盾行为可能会对这些系统的稳定性和可靠性构成威胁。例如,如果一个过于自信的人工智能模型在不断发展的互动中拒绝接受新信息,就可能导致不准确的反应。同样,信心不足的模型如果轻易放弃正确的预测,也会导致错误的结论。
在决策影响重大的情况下,人工智能模型的不稳定行为可能会带来有害后果。
尽管人工智能难题的简洁性仍然令人困惑,但 DeepMind 和其他人工智能研究人员已经开始努力理解和纠正这些问题。在深入了解了人工智能的自信行为之后,人工智能开发人员在设计未来的人工智能应用时必须考虑到这一悖论。只有这样,才能充分发挥人工智能的潜力,并将其风险降至最低。
这项研究提醒人们注意人工智能研究的动态性和演变性。它揭示了人工智能的复杂特性,这些特性使其既迷人又充满挑战。随着我们不断拥抱人工智能并将其融入我们的世界,了解其行为的方方面面不仅是可取的,也是必要的。
有关该研究的更多信息,请访问原文 这里.