摘要
人类的知识图谱是基于二值化的逻辑框架的,基于这种框架的人类知识归赋活动自然能够在“知”与“无知”之间划出清楚的界限。经由大量语元“预训练”而运作的ChatGPT至多只能做到对人类知识图谱的一种统计学模拟,这就在根底上使得其难以避免“机器幻想”问题。不过,只要对ChatGPT的基础原理与技术极限有清楚的意识,学术界依然可以利用ChatGPT大大提高科研效率。在学术专家给以积极语言提示的前提下,ChatGPT能够在展现具体科研路线图方面成为人类的学术参谋。ChatGPT的出现显然会倒逼我国的学术培养机制更多关注学者宏观知识图谱构建力的培养,并刺激中国的人工智能界开发能够弥补ChatGPT缺陷的通用人工智能产品。
出处
《江淮论坛》
CSSCI
北大核心
2023年第5期81-88,共8页
Jiang-huai Tribune
基金
国家社会科学基金项目“对于通用人工智能与特定文化风土之间关系的哲学研究”(22BZX031)
国家自然科学基金项目“探索研究AI伦理对科研环境的影响”(L2124040)。