期刊文献+
共找到1篇文章
< 1 >
每页显示 20 50 100
大型语言模型展示了语言统计学习的潜力 被引量:1
1
作者 +1 位作者 杨旭(译) 《长江学术》 CSSCI 2023年第4期119-123,共5页
语言在多大程度上可以仅通过语言输入来习得?这个问题已经困扰了学者们几千年,仍然是语言认知科学中的一个主要争论焦点。人类语言的复杂性阻碍了这一进程,因为语言研究,尤其是涉及计算建模的研究,只能处理人类语言技能的一小部分。我... 语言在多大程度上可以仅通过语言输入来习得?这个问题已经困扰了学者们几千年,仍然是语言认知科学中的一个主要争论焦点。人类语言的复杂性阻碍了这一进程,因为语言研究,尤其是涉及计算建模的研究,只能处理人类语言技能的一小部分。我们认为,最新一代的大型语言模型(LLMs)可能最终提供了计算工具,以实证方式确定了人类可以从语言经验中获得多少语言能力。LLMs是基于大量自然语言数据进行训练的复杂深度学习架构,能够执行大量的语言任务。尽管在语义和语用方面存在限制,但我们认为LLMs已经表明,合乎语法的类人语言可以在不需要内置语法的情况下习得。因此,虽然关于人类如何习得和使用语言还有很多要研究的地方,但LLMs为认知科学家提供了成熟的计算模型,可用来以实证方式评估在解释人类语言的全部复杂性方面,统计学习可以带我们走多远。 展开更多
关键词 大型语言模型 人工智能 语言习得 统计学习 语法 先天论 语言经验
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部