期刊文献+
共找到3篇文章
< 1 >
每页显示 20 50 100
研究使用GPT构建大语言模型智能母基金决策投资支持系统
1
作者 朱铮雄 周智宏 《计算机应用与软件》 北大核心 2024年第5期21-26,共6页
构建基于GPT的智能大语言模型基金决策支持系统,以有效应对金融市场的复杂性。通过大语言模型技术,系统提供深层次的基金和项目洞察,同时进行风险计量。采用Python与Flask构建,整合了OpenAI GPT模型,通过嵌入式AI模式提升了投前管理、... 构建基于GPT的智能大语言模型基金决策支持系统,以有效应对金融市场的复杂性。通过大语言模型技术,系统提供深层次的基金和项目洞察,同时进行风险计量。采用Python与Flask构建,整合了OpenAI GPT模型,通过嵌入式AI模式提升了投前管理、初筛、评分和风险评估的效能,旨在提高整体决策效率。未来的改进方向包括对模型的优化和系统的扩展。这一创新将推动金融领域数字化转型,进一步提升投资效率。 展开更多
关键词 人工智能大语言模型 gpt transformer OpenAI PYTHON FLASK 母基金
下载PDF
生成式预训练Transformer模型的逻辑性优化方法
2
作者 张兆天 《信息与电脑》 2024年第4期50-52,共3页
生成式预训练Transformer(Generative Pre-Trained Transformer,GPT)模型作为一种基于Transformer架构的预训练模型,在完成自然语言处理任务方面取得了巨大的成功。由于依赖于生成下一个词的局部贪婪过程,使对任务或输出的全局理解、逻... 生成式预训练Transformer(Generative Pre-Trained Transformer,GPT)模型作为一种基于Transformer架构的预训练模型,在完成自然语言处理任务方面取得了巨大的成功。由于依赖于生成下一个词的局部贪婪过程,使对任务或输出的全局理解、逻辑推理和道德法规约束能力不够。为了提升计算的逻辑性和可靠性,结合的生成型计算过程,论述计算结果的逻辑局限性,从而引入一类和逻辑计算模型混合的优化结构。 展开更多
关键词 生成式预训练transformer模型(gpt) 逻辑性 优化结构
下载PDF
GPT模型发展视角下笔迹分析面临的挑战与机遇
3
作者 徐寅杰 沙万中 《西部公安论坛》 2023年第3期57-62,共6页
GPT模型(Generative Pre-trained Transformer)是由OpenAI公司开发的一系列自然语言处理模型,采用多层Transformer结构来预测下一个词组的概率分布,通过在大型文本语料库中学习到的语言模型来生成自然语言文本。2023年3月15日OpenAI公... GPT模型(Generative Pre-trained Transformer)是由OpenAI公司开发的一系列自然语言处理模型,采用多层Transformer结构来预测下一个词组的概率分布,通过在大型文本语料库中学习到的语言模型来生成自然语言文本。2023年3月15日OpenAI公司发布了GPT-4,多模态模型的推出吸引了世界各行业的高度关注,堪称人工智能时代里程碑式的事件。目前,笔迹行业关于该模型的研究尚少,本文首先介绍了GPT模型的特点和发展趋势,然后结合笔迹行业的发展现状探究了GPT模型未来会带来哪些挑战和机遇,最后针对GPT模型的利弊,分析了该技术对笔迹分析未来会产生的影响,强调了司法部门、鉴定机构、鉴定人要给予人工智能宽松的环境,在合理使用的同时注意风险的防控。 展开更多
关键词 笔迹检验 gpt模型(Generative Pre-trained transformer) 笔迹分析
原文传递
上一页 1 下一页 到第
使用帮助 返回顶部