-
题名大型语言模型展示了语言统计学习的潜力
被引量:1
- 1
-
-
作者
杨旭(译)
-
机构
康奈尔大学心理学系
奥胡斯大学传播与文化学院
武汉大学文学院
-
出处
《长江学术》
CSSCI
2023年第4期119-123,共5页
-
文摘
语言在多大程度上可以仅通过语言输入来习得?这个问题已经困扰了学者们几千年,仍然是语言认知科学中的一个主要争论焦点。人类语言的复杂性阻碍了这一进程,因为语言研究,尤其是涉及计算建模的研究,只能处理人类语言技能的一小部分。我们认为,最新一代的大型语言模型(LLMs)可能最终提供了计算工具,以实证方式确定了人类可以从语言经验中获得多少语言能力。LLMs是基于大量自然语言数据进行训练的复杂深度学习架构,能够执行大量的语言任务。尽管在语义和语用方面存在限制,但我们认为LLMs已经表明,合乎语法的类人语言可以在不需要内置语法的情况下习得。因此,虽然关于人类如何习得和使用语言还有很多要研究的地方,但LLMs为认知科学家提供了成熟的计算模型,可用来以实证方式评估在解释人类语言的全部复杂性方面,统计学习可以带我们走多远。
-
关键词
大型语言模型
人工智能
语言习得
统计学习
语法
先天论
语言经验
-
Keywords
Large language Models
Artificial Intelligence
Language Acquisition
Statistical Learning
Grammar
Innateness
Linguistic Experience
-
分类号
B842.3
[哲学宗教—基础心理学]
H0-05
[语言文字—语言学]
-