期刊文献+
共找到1篇文章
< 1 >
每页显示 20 50 100
人类语言习得的亲知还原模式——从ChatGPT的言知还原模式说起 被引量:3
1
作者 陈保亚 陈樾 《北京大学学报(哲学社会科学版)》 CSSCI 北大核心 2024年第2期167-174,共8页
尽管语言人工智能的大语言模型ChatGPT取得了比较大的进展,哲学上的图灵和塞尔之争仍然在继续。不过ChatGPT能够生成符合语法的崭新的句子,一定还原出了语言单位(tokens)和规则,解决了长期以来人工智能中自然语言理解的难题,这是一个重... 尽管语言人工智能的大语言模型ChatGPT取得了比较大的进展,哲学上的图灵和塞尔之争仍然在继续。不过ChatGPT能够生成符合语法的崭新的句子,一定还原出了语言单位(tokens)和规则,解决了长期以来人工智能中自然语言理解的难题,这是一个重要的转折。ChatGPT的学习模型依赖强大的运算能力和计算机的海量存储能力,这两种能力可以合称为强储算能力。相比之下,人脑只具有弱储算能力。正是因为弱储算能力的限制,人脑语言学习不可能完全走ChatGPT的语言学习模式。人脑是在基于经验的亲知活动中还原出有限的单位和规则,从而生成崭新的句子。ChatGPT目前采用的是言知学习模式,而不是基于经验的亲知学习模式,将来的大语言模型可能扩展出亲知学习模式,真正模拟人类获得亲知还原模式。那个时候或许可以说机器人真正理解了自然语言,哲学上的图灵和塞尔之争或许可能得到解决。 展开更多
关键词 人工智能 图灵测试 中国房间 自然语言理解 思维
原文传递
上一页 1 下一页 到第
使用帮助 返回顶部