那些站「LLMs没有理解能力」一派的人认为,虽然大型语言模型的流畅性令人惊讶,但我们的惊讶反映了我们对统计相关性在这些模型的规模上能生成什么缺乏直觉 。
2022年对自然语言处理社区的活跃研究人员进行的一项调查报告显示了这场辩论中的明显分歧 。
当询问480名受访者是否同意关于LLMs是否能在原理上理解语言的说法,即「只对文本进行训练的生成式语言模型,只要有足够的数据和计算资源,就能在某种意义上理解自然语言」
调查结果五五开,一半(51%)同意,另一半(49%)不同意 。
机器的理解不同于人类虽然参与「LLM理解能力」辩论的双方都有充分的直觉来支持各自的观点,但目前可用来深入了解理解力的且基于认知科学的 *** 并不足以回答关于LLM的这类问题 。
事实上,一些研究人员已经将心理测试(最初是为了评估人类的理解和推理机制)应用于LLMs,发现在某些情况下,LLMs确实在思想理论测试中表现出类似人类的反应,以及在推理评估中表现出类似人类的能力和偏见 。
虽然这些测试被认为是评估人类泛化能力的可靠智能体,但对于人工智能系统来说可能不是这样 。
大型语言模型有一种特别的能力来学习其训练数据和输入中的token之间的相关性,并且可以使用这种相关性来解决问题;相反,人类使用反映其现实世界经验的压缩概念 。
当把为人类设计的测试应用于LLMs时,对结果的解释可能依赖于对人类认知的假设,而这些假设对这些模型来说可能根本不真实 。
为了取得进展,科学家们将需要开发新的基准和探测 *** ,以了解不同类型的智能和理解的机制,包括我们所创造的新形式的「奇异的、类似心灵的实体」,目前也已经有了一些相关工作 。
随着模型规模越来越大,能力更强的系统被开发出来后,关于LLMs中的理解能力的争论强调了我们需要「扩展我们的智能科学」,以便使得「理解」是有意义的,无论是对人还是机器都是如此 。
神经科学家Terrence Sejnowski指出,专家们对LLMs智能的不同意见表明,我们基于自然智能的旧观念是不够的 。
如果LLMs和相关模型通过利用前所未有的规模的统计相关性就能获得成功,也许可以被认为是一种「新的理解形式」, 一种能够实现非凡的、超人的预测能力的形式,例如DeepMind的AlphaZero和AlphaFold系统,它们分别给下棋和蛋白质结构预测领域带来了一种「外来」的直觉形式 。
因此可以说,近年来,人工智能领域创造了具有新的理解模式的机器,很可能是一个全新的概念,随着我们在追求智能的难以捉摸的本质方面取得进展,这些新概念将继续得到丰富 。
那些需要大量编码的知识、对性能要求很高的问题将会继续促进大规模统计模型的开发,而那些拥有有限知识和强大因果机制的问题将有利于理解人类智能 。
未来的挑战是开发新的科学 *** ,以揭示不同形式的智能的详细理解机制,辨别它们的优势和局限,并学习如何整合这些真正不同的认知模式 。
参考资料:
https://www.pnas.org/doi/10.1073/pnas.2215907120
- 庄家洗盘的目的是什么?
- 主力什么位置会砸盘,洗盘?
- 什么是洗盘和出货?两者有什么区别?
- 新鲜山楂吃了有什么好处
- 股票中量大但是出现十字星能代表什么?
- 股票中的洗盘是什么意思?如何使用?
- 捞女、贴家庭主妇标签、没底线!为什么批评李靓蕾的全是女人?
- 吃桔子对身体有什么好处和坏处
- 在股票市场中,什么是主力洗盘,洗盘的作用是什么?
- 暴涨牛股拉升前洗盘常见手法有哪些?K线特征是什么?
