超级智能AI是否会悄然涌现?
发布时间:2024-01-27 

人工智能(AI)的超级智能会突然出现,还是科学家会预测到它出现并有机会警告世人?随着大语言模型(如ChatGPT)的崛起,最近这种新的功能得到了极大的重视。有人指出了“涌现”现象,所谓人工智能模型以不可思议的方式急速获得智能的现象。但是最近的一项研究把这种情形称为“幻景”,即在系统测试中产生的幻觉,并且认为创造能力实际上是一个渐进的过程。

“我认为他们说出来‘没发生什么魔法事件’这一点做得很好。” Mozilla 基金会的计算科学家Deborah Raji说,她研究人工智能审计。“这是一个很好的、很可靠且基于测量的批评。”这项工作已于去年12月在新奥尔良举行的NeurIPS机器学习会议上发表。

大语言模型一般都是用海量文本或其他信息进行训练,通过预测接下来会发生什么,来生成现实回答。就算没有经过特定训练,它们也能翻译语言、解决数学问题,写诗或计算代码。模型越大(有些有超过千亿的可调参数),它表现就越好。一些研究者怀疑,这些工具最终可能会实现通用人工智能(AGI),在大多数任务上和人类表现相当,甚至超过人类。

图片

新的研究从几个方面检验了自然发生的断言。其中之一就是,在4种大小的 OpenAIGPT-3中,对四个数字的加法运算进行了对比。在相对正确率方面,排名第3和第4位的模式在表现上相差几乎为0至几乎100%。但是,从这些人的回答中,我们可以看出,他们之间的成绩差距并不大。调查人员还发现,将很多试验问题交给一个模型,也可以使这些曲线变得平滑,因为在这些情形中,小型的模型往往能够做出准确的答案。随后,研究人员对谷歌的 LaMDA语言模式进行了测试。当人们发现语言中存在着大量的选择题时,人们发现语言中存在着对与错两种不同的答案。但是,随着研究人员对各种模式给出的可能性进行分析(一个持续的测量),自发的信号就会随之消失。

最后,”研究人调查了计算机视觉,他们先进行了一次模式的压缩,再重构了一张图片。但是,通过设置一个精确的临界点,它们可以引发显著的反应。“他们的研究方法还真是别出心裁。”美国华盛顿大学从事人工智能和普通知识研究的一名电脑专家叶金·崔如是说。斯坦福的电脑科学家桑米·柯约称,当一些系统显示出非预期的“阶段改变”时,人类会突然出现这种想法并非异想天开。他也注意到,该研究并没有彻底否定大型语文模式(更别提将来的体制)的可能性,但是他又补充道:“目前的科研工作已经很清楚地显示,在大部分情况下,语言学模式仍然可以被预言。”

Raji很高兴看到学术界更关注基准测试而非开发神经网络架构。她想要研究者能更进一步,提问这些任务与真实世界运用的关系。例如,像GPT-4那样在LSAT(法学院入学考试)中成绩优异,是否意味着模型也能做律师助理的工作?

这项工作还对人工智能安全和政策有所影响。“AGI人群一直在吹嘘涌现能力的说法。” Raji说。无端的恐惧可能会导致扼杀性的法规,或转移人们对更紧迫风险的关注。“模型正在不断进步,它们是有用的。”她说。“但它们离出现意识还远。”

原文以Will superintelligent AI sneak up on us? New study offers reassurance标题发表在2023年12月22日《自然》的新闻版块上。