期刊文献+
共找到76篇文章
< 1 2 4 >
每页显示 20 50 100
Security Vulnerability Analyses of Large Language Models (LLMs) through Extension of the Common Vulnerability Scoring System (CVSS) Framework
1
作者 Alicia Biju Vishnupriya Ramesh Vijay K. Madisetti 《Journal of Software Engineering and Applications》 2024年第5期340-358,共19页
Large Language Models (LLMs) have revolutionized Generative Artificial Intelligence (GenAI) tasks, becoming an integral part of various applications in society, including text generation, translation, summarization, a... Large Language Models (LLMs) have revolutionized Generative Artificial Intelligence (GenAI) tasks, becoming an integral part of various applications in society, including text generation, translation, summarization, and more. However, their widespread usage emphasizes the critical need to enhance their security posture to ensure the integrity and reliability of their outputs and minimize harmful effects. Prompt injections and training data poisoning attacks are two of the most prominent vulnerabilities in LLMs, which could potentially lead to unpredictable and undesirable behaviors, such as biased outputs, misinformation propagation, and even malicious content generation. The Common Vulnerability Scoring System (CVSS) framework provides a standardized approach to capturing the principal characteristics of vulnerabilities, facilitating a deeper understanding of their severity within the security and AI communities. By extending the current CVSS framework, we generate scores for these vulnerabilities such that organizations can prioritize mitigation efforts, allocate resources effectively, and implement targeted security measures to defend against potential risks. 展开更多
关键词 Common Vulnerability Scoring System (CVSS) Large Language Models (llms) DALL-E Prompt Injections Training Data Poisoning CVSS Metrics
下载PDF
大型语言模型(LLMs)介入教育生态对高校思政教育带来的机遇、挑战及应对策略
2
作者 廖一任 《新丝路》 2024年第9期130-132,共3页
当前,大型语言模型(? LLMs)?崭露头角,并在介入教育生态后引起广泛讨论。文章系统梳理了大型语言模型(? LLMs)?对高校思政教育带来的机遇和挑战,并在此背景下提出相应的对策,即提高学生独立思辨能力,强化学术道德和原创性观念,重新定位... 当前,大型语言模型(? LLMs)?崭露头角,并在介入教育生态后引起广泛讨论。文章系统梳理了大型语言模型(? LLMs)?对高校思政教育带来的机遇和挑战,并在此背景下提出相应的对策,即提高学生独立思辨能力,强化学术道德和原创性观念,重新定位思政教育者角色,落实全面育人、育全面人的目标,科学合理使用工具,推动教育生态良性发展。 展开更多
关键词 llms 思政教育 人才培养
下载PDF
GUARDIAN: A Multi-Tiered Defense Architecture for Thwarting Prompt Injection Attacks on LLMs
3
作者 Parijat Rai Saumil Sood +1 位作者 Vijay K. Madisetti Arshdeep Bahga 《Journal of Software Engineering and Applications》 2024年第1期43-68,共26页
This paper introduces a novel multi-tiered defense architecture to protect language models from adversarial prompt attacks. We construct adversarial prompts using strategies like role emulation and manipulative assist... This paper introduces a novel multi-tiered defense architecture to protect language models from adversarial prompt attacks. We construct adversarial prompts using strategies like role emulation and manipulative assistance to simulate real threats. We introduce a comprehensive, multi-tiered defense framework named GUARDIAN (Guardrails for Upholding Ethics in Language Models) comprising a system prompt filter, pre-processing filter leveraging a toxic classifier and ethical prompt generator, and pre-display filter using the model itself for output screening. Extensive testing on Meta’s Llama-2 model demonstrates the capability to block 100% of attack prompts. The approach also auto-suggests safer prompt alternatives, thereby bolstering language model security. Quantitatively evaluated defense layers and an ethical substitution mechanism represent key innovations to counter sophisticated attacks. The integrated methodology not only fortifies smaller LLMs against emerging cyber threats but also guides the broader application of LLMs in a secure and ethical manner. 展开更多
关键词 Large Language Models (llms) Adversarial Attack Prompt Injection Filter Defense Artificial Intelligence Machine Learning CYBERSECURITY
下载PDF
基于DD-LLMS算法的盲自适应判决反馈均衡器 被引量:2
4
作者 刘锋 《电讯技术》 北大核心 2004年第6期150-153,共4页
本文把用于自适应线性滤波器的LLMS算法推广到盲判决反馈均衡器,并应用于短波信道的盲均衡。仿真结果表明这种DD-LLMS盲判决反馈均衡算法具有很好的稳定性、较快的收敛速度和较好的跟踪性能。
关键词 短波通信 DD—llms算法 盲判决反馈均衡器 收敛性能
下载PDF
大语言模型辅助下的增强现实装配方法
5
作者 鲍劲松 李建军 +2 位作者 袁轶 吕超凡 王森 《航空制造技术》 CSCD 北大核心 2024年第16期107-116,共10页
基于增强现实的装配引导系统将数字信息叠加到物理场景中,有效指导了复杂装配作业任务。然而装配环境中人与物理世界的隔阂仍然巨大,待融合到物理世界的信息需事先准备好,并且需要人工在装配过程中来触发。研究实时且无处不在的提示,成... 基于增强现实的装配引导系统将数字信息叠加到物理场景中,有效指导了复杂装配作业任务。然而装配环境中人与物理世界的隔阂仍然巨大,待融合到物理世界的信息需事先准备好,并且需要人工在装配过程中来触发。研究实时且无处不在的提示,成为当前增强现实环境下的复杂装配研究热点,本文提出了一种基于大语言模型(LLMs)辅助的增强现实装配方法,其核心是将LLMs作为装配过程中的另外一个大脑,提供无处不在的装配引导和工艺信息提示支持。首先,建立了LLMs辅助的增强现实装配方法体系,分析了体系的要素及关联关系。其次,面向LLMs环境,构建了匹配的工艺信息模型。随后,给出了基于LLMs的辅助引导装配方法和流程。最后,结合某线缆装配专业知识,研发了一个专业问答系统,实现了LLMs智能辅助引导,使装配合格率提升了15%,并通过多个案例验证了该方法的有效性。 展开更多
关键词 增强现实 大语言模型(llms) 装配 问答系统 知识图谱
下载PDF
基于大语言模型的低碳电力市场发展应用前景 被引量:3
6
作者 曹祎 张莉 +4 位作者 郭静 李楠 齐剑川 陈皓轩 赵润彤 《智慧电力》 北大核心 2024年第2期8-16,共9页
随着全球环境问题加剧,低碳电力市场备受关注。深入探讨了低碳电力市场的发展现状及其面临的挑战,并特别聚焦于基于大语言模型(LLMs)的方法在推动低碳电力市场发展中的应用潜力。通过微调、提示语设计、语义嵌入等手段,LLMs能有效适应... 随着全球环境问题加剧,低碳电力市场备受关注。深入探讨了低碳电力市场的发展现状及其面临的挑战,并特别聚焦于基于大语言模型(LLMs)的方法在推动低碳电力市场发展中的应用潜力。通过微调、提示语设计、语义嵌入等手段,LLMs能有效适应电力领域的专业化应用,尤其是在电源结构调整、电力需求预测和风险预警等领域展现出潜力。此外,基于LLMs的智能体和思维链的方法可解决复杂问题,助力低碳电力市场建设。随着LLMs技术的发展和电力行业改革的深入,这些方法将支持中国电力系统的低碳转型和实现“双碳”目标。但也需关注LLMs应用局限性,采取措施预防潜在风险,确保其在低碳市场的安全、有序发展。 展开更多
关键词 低碳电力市场 大语言模型 llms 电力系统
下载PDF
大语言模型研究现状与趋势 被引量:2
7
作者 王耀祖 李擎 +1 位作者 戴张杰 徐越 《工程科学学报》 EI CSCD 北大核心 2024年第8期1411-1425,共15页
在过去20年中,语言建模(Language models,LM)已经成为一种主要方法,用于语言理解和生成,同时作为自然语言处理(Natural language processing,NLP)领域下游的关键技术受到广泛关注.近年来,大语言模型(Large language models,LLMs),例如Ch... 在过去20年中,语言建模(Language models,LM)已经成为一种主要方法,用于语言理解和生成,同时作为自然语言处理(Natural language processing,NLP)领域下游的关键技术受到广泛关注.近年来,大语言模型(Large language models,LLMs),例如ChatGPT等技术,取得了显著进展,对人工智能乃至其他领域的变革和发展产生了深远的影响.鉴于LLMs迅猛的发展,本文首先对LLMs相关技术架构和模型规模等方面的演进历程进行了全面综述,总结了模型训练方法、优化技术以及评估手段.随后,分析了LLMs在教育、医疗、金融、工业等领域的应用现状,同时讨论了它们的优势和局限性.此外,还探讨了大语言模型针对社会伦理、隐私和安全等方面引发的安全性与一致性问题及技术措施.最后,展望了大语言模型未来的研究趋势,包括模型的规模与效能、多模态处理、社会影响等方面的发展方向.本文通过全面分析当前研究状况和未来走向,旨在为研究者提供关于大语言模型的深刻见解和启发,以推动该领域的进一步发展. 展开更多
关键词 大语言模型(llms) 自然语言处理 深度学习 人工智能 ChatGPT
下载PDF
基于大语言模型的水工程调度知识图谱的构建与应用 被引量:2
8
作者 冯钧 畅阳红 +3 位作者 陆佳民 唐海麟 吕志鹏 邱钰淳 《计算机科学与探索》 CSCD 北大核心 2024年第6期1637-1647,共11页
随着水利事业的发展和信息化需求的增加,处理和表示海量水利数据变得复杂而繁琐。特别是调度文本数据通常以自然语言的形式存在,缺乏明确的结构和规范,并且处理和应用这些多样性的数据需要具备广泛的领域知识和专业背景。为此,提出了基... 随着水利事业的发展和信息化需求的增加,处理和表示海量水利数据变得复杂而繁琐。特别是调度文本数据通常以自然语言的形式存在,缺乏明确的结构和规范,并且处理和应用这些多样性的数据需要具备广泛的领域知识和专业背景。为此,提出了基于大语言模型的水工程调度知识图谱的构建方法。通过数据层的调度规则数据收集与预处理,再利用大语言模型挖掘和抽取数据中蕴藏的知识,完成概念层本体构建和实例层“三步法”提示策略抽取。在数据层、概念层、实例层的相互作用下,实现了规则文本的高性能抽取,完成了数据集和知识图谱的构建。实验结果表明,大语言模型抽取方法F1值达到85.5%,且通过消融实验验证了模型各模块的有效性和合理性。构建的水工程调度知识图谱整合了分散的水利规则信息,有效处理非结构化文本数据,并提供可视化查询和功能追溯功能。这有助于领域从业人员判断来水情况并选择适当的调度方案,为水利决策和智能推荐等提供了重要支持。 展开更多
关键词 知识图谱 大语言模型(LLM) 本体构建 知识抽取 水工程调度
下载PDF
Improve Chinese Aspect Sentiment Quadruplet Prediction via Instruction Learning Based on Large Generate Models
9
作者 Zhaoliang Wu Yuewei Wu +2 位作者 Xiaoli Feng Jiajun Zou Fulian Yin 《Computers, Materials & Continua》 SCIE EI 2024年第3期3391-3412,共22页
Aspect-Based Sentiment Analysis(ABSA)is a fundamental area of research in Natural Language Processing(NLP).Within ABSA,Aspect Sentiment Quad Prediction(ASQP)aims to accurately identify sentiment quadruplets in target ... Aspect-Based Sentiment Analysis(ABSA)is a fundamental area of research in Natural Language Processing(NLP).Within ABSA,Aspect Sentiment Quad Prediction(ASQP)aims to accurately identify sentiment quadruplets in target sentences,including aspect terms,aspect categories,corresponding opinion terms,and sentiment polarity.However,most existing research has focused on English datasets.Consequently,while ASQP has seen significant progress in English,the Chinese ASQP task has remained relatively stagnant.Drawing inspiration from methods applied to English ASQP,we propose Chinese generation templates and employ prompt-based instruction learning to enhance the model’s understanding of the task,ultimately improving ASQP performance in the Chinese context.Ultimately,under the same pre-training model configuration,our approach achieved a 5.79%improvement in the F1 score compared to the previously leading method.Furthermore,when utilizing a larger model with reduced training parameters,the F1 score demonstrated an 8.14%enhancement.Additionally,we suggest a novel evaluation metric based on the characteristics of generative models,better-reflecting model generalization.Experimental results validate the effectiveness of our approach. 展开更多
关键词 ABSA ASQP llms sentiment analysis Chinese comments
下载PDF
从故事生成程序到大语言模型:人工智能编剧创作的历史与实践
10
作者 侯光明 杜若飞 《电影文学》 北大核心 2024年第14期3-14,共12页
人工智能生成内容(AI Generated Content,简称AIGC)电影包括内涵丰富的多种维度,从编剧角度可以分为AI生成故事(AI Generated Storyline,简称AIGSL)与AI生成剧本(AI Generated Screenplay,简称AIGSP)。AIGSL研究始于20世纪60年代初,按... 人工智能生成内容(AI Generated Content,简称AIGC)电影包括内涵丰富的多种维度,从编剧角度可以分为AI生成故事(AI Generated Storyline,简称AIGSL)与AI生成剧本(AI Generated Screenplay,简称AIGSP)。AIGSL研究始于20世纪60年代初,按照创作模式可以分为基于结构模型的故事生成、基于规则的故事生成和基于机器学习的故事生成三类程序。2022年底以来,以Chat GPT为代表的大语言模型将AIGC的内容从简单的AIGSL拓展到了AIGSP领域,同时催生了基于大语言模型的专用故事与剧本生成工具。大语言模型的故事和剧本生产存在事实错误、陈词滥调以及主观偏见等天然缺陷,但AIGSL与AIGSP已经开始实现产业化。目前的人工智能编剧创作绝大多数并不完全由AI创作,属于弱人工智能领域。中国电影工作者与软件工程师有必要利用机器学习等AI技术,学习中国传统叙事文本并总结其叙事风格,为具有中国叙事特色的编剧创作提供智能助力。 展开更多
关键词 人工智能生成内容(AIGC) 人工智能生成故事(AIGSL) 人工智能生成剧本(AIGSP) 叙事生成程序(Narrative Generation Programs) 大语言模型(LLM)
下载PDF
一种基于大语言模型的命题智能辅助系统
11
作者 陈哲 郎为民 +2 位作者 安海燕 徐鸿羽 陈定定 《电信快报》 2024年第4期1-6,共6页
命题作为高等教育自学考试的核心环节,直接决定着考试的质量。命题智能辅助系统通过采用LLM(大语言模型),有效解决了命题文件不规范、拟制工作量大等问题。文章列举管理端和应用端等命题智能辅助系统构成要素的功能,提出包含基础资源层... 命题作为高等教育自学考试的核心环节,直接决定着考试的质量。命题智能辅助系统通过采用LLM(大语言模型),有效解决了命题文件不规范、拟制工作量大等问题。文章列举管理端和应用端等命题智能辅助系统构成要素的功能,提出包含基础资源层、数据资源层、模型资源层、能力支撑层和应用服务层在内的命题智能辅助系统架构,分析试题数据处理、大模型开发训练和大模型应用编排等管理端模块的基本构成、功能指标和设计思路,描述试题生成、试题复核、试卷生成、试卷审核、试卷文档生成和发布考试等应用端模块的实现流程。 展开更多
关键词 LLM(大语言模型) 自学考试 命题智能辅助系统 大模型开发训练 大模型应用编排
下载PDF
专利视角下的大语言模型应用
12
作者 程小梅 《电视技术》 2024年第5期215-217,共3页
以中国专利全文数据库(CNTXT)中公开的大语言模型相关文献为依据,对我国的大语言模型相关专利申请进行统计分析。结合实际专利申请案例,分析大语言模型技术在中国的几个主要应用方向,为相关研究人员提供参考。
关键词 大语言模型(LLM) ChatGPT 专利分析
下载PDF
Impact of Artificial Intelligence on Corporate Leadership
13
作者 Daniel Schilling Weiss Nguyen Mudassir Mohiddin Shaik 《Journal of Computer and Communications》 2024年第4期40-48,共9页
Artificial Intelligence (AI) is transforming organizational dynamics, and revolutionizing corporate leadership practices. This research paper delves into the question of how AI influences corporate leadership, examini... Artificial Intelligence (AI) is transforming organizational dynamics, and revolutionizing corporate leadership practices. This research paper delves into the question of how AI influences corporate leadership, examining both its advantages and disadvantages. Positive impacts of AI are evident in communication, feedback systems, tracking mechanisms, and decision-making processes within organizations. AI-powered communication tools, as exemplified by Slack, facilitate seamless collaboration, transcending geographical barriers. Feedback systems, like Adobe’s Performance Management System, employ AI algorithms to provide personalized development opportunities, enhancing employee growth. AI-based tracking systems optimize resource allocation, as exemplified by studies like “AI-Based Tracking Systems: Enhancing Efficiency and Accountability.” Additionally, AI-powered decision support, demonstrated during the COVID-19 pandemic, showcases the capability to navigate complex challenges and maintain resilience. However, AI adoption poses challenges in human resources, potentially leading to job displacement and necessitating upskilling efforts. Managing AI errors becomes crucial, as illustrated by instances like Amazon’s biased recruiting tool. Data privacy concerns also arise, emphasizing the need for robust security measures. The proposed solution suggests leveraging Local Machine Learning Models (LLMs) to address data privacy issues. Approaches such as federated learning, on-device learning, differential privacy, and homomorphic encryption offer promising strategies. By exploring the evolving dynamics of AI and leadership, this research advocates for responsible AI adoption and proposes LLMs as a potential solution, fostering a balanced integration of AI benefits while mitigating associated risks in corporate settings. 展开更多
关键词 Artificial Intelligence (AI) Corporate Leadership Communication Feedback Systems Tracking Mechanisms DECISION-MAKING Local Machine Learning Models (llms) Federated Learning On-Device Learning Differential Privacy Homomorphic Encryption
下载PDF
Smaller & Smarter: Score-Driven Network Chaining of Smaller Language Models
14
作者 Gunika Dhingra Siddansh Chawla +1 位作者 Vijay K. Madisetti Arshdeep Bahga 《Journal of Software Engineering and Applications》 2024年第1期23-42,共20页
With the continuous evolution and expanding applications of Large Language Models (LLMs), there has been a noticeable surge in the size of the emerging models. It is not solely the growth in model size, primarily meas... With the continuous evolution and expanding applications of Large Language Models (LLMs), there has been a noticeable surge in the size of the emerging models. It is not solely the growth in model size, primarily measured by the number of parameters, but also the subsequent escalation in computational demands, hardware and software prerequisites for training, all culminating in a substantial financial investment as well. In this paper, we present novel techniques like supervision, parallelization, and scoring functions to get better results out of chains of smaller language models, rather than relying solely on scaling up model size. Firstly, we propose an approach to quantify the performance of a Smaller Language Models (SLM) by introducing a corresponding supervisor model that incrementally corrects the encountered errors. Secondly, we propose an approach to utilize two smaller language models (in a network) performing the same task and retrieving the best relevant output from the two, ensuring peak performance for a specific task. Experimental evaluations establish the quantitative accuracy improvements on financial reasoning and arithmetic calculation tasks from utilizing techniques like supervisor models (in a network of model scenario), threshold scoring and parallel processing over a baseline study. 展开更多
关键词 Large Language Models (llms) Smaller Language Models (SLMs) FINANCE NETWORKING Supervisor Model Scoring Function
下载PDF
面向大语言模型的青少年人工智能教育 被引量:1
15
作者 褚乐阳 王浩 陈向东 《中国电化教育》 北大核心 2024年第4期32-44,共13页
大语言模型(LLM)作为一种先进的AI技术,正对人类生活产生深远影响。与传统AI技术相比,LLM能够处理大量的文本数据,并在自然语言处理等领域发挥着巨大作用。LLM的快速发展与应用推进已经对AI教育的课程内容、教学模式与学习平台产生了显... 大语言模型(LLM)作为一种先进的AI技术,正对人类生活产生深远影响。与传统AI技术相比,LLM能够处理大量的文本数据,并在自然语言处理等领域发挥着巨大作用。LLM的快速发展与应用推进已经对AI教育的课程内容、教学模式与学习平台产生了显著的影响,这些影响也迫切要求青少年AI教育课程与时俱进的变革。为应对这种变革,该研究从课程内容框架、基于LLM的教学模式以及LLM辅助学习平台三个维度设计了一个面向LLM的青少年AI课程架构,并以教学活动设计为切入点,深入探讨了如何使该课程架构与学科核心素养紧密契合。基于此架构,设计并开发了一门高中LLM示范课程,重点展示了如何利用自主开发平台(LLM 4 Kids)进行人机协同教学。选取了示范课程中《面向LLM的提示与评估》的单元内容,解释了如何在教学过程中有效的应用和整合LLM技术。通过提供面向LLM的青少年AI课程架构以及解释案例,为AI教育实践者提供面向LLM的框架体系与课程参考,推动最新的人工智能前沿知识进入中小学课堂,从而有助于青少年适应AI快速发展的时代。 展开更多
关键词 大语言模型 人工智能课程 人机协同 LLM 4 Kids
下载PDF
基于大语言模型增强表征对齐的小样本持续关系抽取方法
16
作者 李逸飞 张玲玲 +3 位作者 董宇轩 王佳欣 仲宇杰 魏笔凡 《计算机科学与探索》 CSCD 北大核心 2024年第9期2326-2336,共11页
关系抽取作为自然语言处理的关键任务,对于深化语言理解、构建知识图谱以及优化信息检索系统具有重要作用。然而,由于新关系不断涌现且缺乏大量标注示例,传统的监督学习方法并不适合实际场景。尽管大语言模型的出现显著提升了许多自然... 关系抽取作为自然语言处理的关键任务,对于深化语言理解、构建知识图谱以及优化信息检索系统具有重要作用。然而,由于新关系不断涌现且缺乏大量标注示例,传统的监督学习方法并不适合实际场景。尽管大语言模型的出现显著提升了许多自然语言处理任务的性能,但仍然无法直接有效地解决小样本持续关系抽取任务的挑战。为了充分利用大语言模型的语义知识来缓解灾难性遗忘与过拟合问题,提出了一种基于大语言模型增强表征对齐的小样本持续关系抽取方法LAFA,通过关系实例改写、语义扩充和关系增强表征等策略,在保持数据量和计算成本较低的同时,有效提升了模型对新关系的适应性和对旧知识的保持能力。在两个关系抽取数据集FewRel、TACRED上进行实验验证,与现有方法相比,LAFA在小样本持续关系抽取任务中展现出较好的效果,尤其在增量阶段取得了最佳的实验结果。通过消融实验进一步揭示了方法中各个模块对整体性能的显著贡献。LAFA的推理效率与开销远远低于现有的基于大语言模型的方法,并且具有很强的扩展性,能够适配多种语言模型。 展开更多
关键词 大语言模型(LLM) 关系抽取 持续学习 小样本学习
下载PDF
面向中医药大模型的知识增强方法研究
17
作者 吉祥宇 王鑫 +5 位作者 张鹤译 孟昭鹏 张俊华 庄朋伟 贾勇哲 徐大为 《计算机科学与探索》 CSCD 北大核心 2024年第10期2616-2629,共14页
近年来,大语言模型(LLM)在各个领域取得了许多重大成果。由于缺乏专业知识,以及中医和现代医学的思想不同,大模型在中医药领域的应用仍是一项挑战。现有的知识增强方法难以保持中医方剂具有的自身结构性。为了解决以上问题,提出了一种... 近年来,大语言模型(LLM)在各个领域取得了许多重大成果。由于缺乏专业知识,以及中医和现代医学的思想不同,大模型在中医药领域的应用仍是一项挑战。现有的知识增强方法难以保持中医方剂具有的自身结构性。为了解决以上问题,提出了一种新的知识增强方法。该方法由模型训练、图谱构建和知识增强三部分组成。在模型训练阶段,通过对基础大模型在中医药数据集上进行预训练和微调两阶段训练,得到中医药领域大模型。在图谱构建阶段,基于中医十万首经典方剂和古籍中的方剂,利用清洗后的数据集构建中医药图谱。在知识增强阶段,基于对知识图谱上信息的计算,利用检索图谱中的专业知识和图谱结构计算检索结果,中医药方剂中的结构特性得以保留。在中医药方剂配伍任务上,针对于任务特性提出了一组评价标准,包括主观指标和客观指标,用于评估模型在该任务上的表现。实验表明,该方法相对于基准测试模型,在主观指标和客观指标上均获得了较大提升,BLEU-1最高提升0.09,ROUGE-1最高提升0.21。消融实验表明,该方法对于模型在该任务上具有较大作用,未使用知识增强的模型BLEU-1相比于使用知识增强下降约37%。 展开更多
关键词 大语言模型(LLM) 中医药 方剂优化 检索增强生成
下载PDF
LLM在水利政府网站公共服务中的应用研究
18
作者 杨柳 姚葳 +3 位作者 马辉 李珊珊 翁春元 曹豪 《水利信息化》 2024年第2期58-62,共5页
针对水利政府网站中传统自然语言处理技术导致的公共服务机械、低效问题,引入LLM技术和理念,对多种智能分析计算服务进行封装,设计构建一套以封装后的智能框架平台为服务支撑,以多元化的应用服务实现各业务流程,以多维度数据为资源存储... 针对水利政府网站中传统自然语言处理技术导致的公共服务机械、低效问题,引入LLM技术和理念,对多种智能分析计算服务进行封装,设计构建一套以封装后的智能框架平台为服务支撑,以多元化的应用服务实现各业务流程,以多维度数据为资源存储的水利智能公共服务体系。提出水利智能公共服务的应用场景,提升政府网站公共服务智能化、便捷化程度,更加精准地理解民众意图,为今后水利政务服务与公共大模型的结合应用提供有益的尝试,帮助水利政府网站公共服务构建更高效的模型,全面提升公共服务的多样普适性、长期有效性、专业权威性、方便快捷性,同时为创新水利公共服务流程和模式等提供参考借鉴。 展开更多
关键词 LLM 水利政府网站 公共服务 人工智能
下载PDF
不同大型语言模型与不同水平医学专业人士回答眼科问题的对比研究
19
作者 黄慧 胡瑾瑜 +7 位作者 王晓宇 叶书苑 吴世楠 陈程 何良琪 曾艳梅 魏红 邵毅 《国际眼科杂志》 CAS 2024年第3期458-462,共5页
目的:评估3种不同的大型语言模型(LLM,包括GPT-3.5、GPT-4和PaLM2)在回答眼科专业问题中的表现并与3种不同水平的专业人群(医学本科生、医学硕士、主治医师)进行比较。方法:分别对三种不同的LLM和3种不同水平的专业人群(包括了本科生9名... 目的:评估3种不同的大型语言模型(LLM,包括GPT-3.5、GPT-4和PaLM2)在回答眼科专业问题中的表现并与3种不同水平的专业人群(医学本科生、医学硕士、主治医师)进行比较。方法:分别对三种不同的LLM和3种不同水平的专业人群(包括了本科生9名,专业型研究生6名,主治医师3名)进行一项由100道眼科单项选择题组成的测试,问题涵盖了眼科基础知识、临床知识、眼科检查诊断方法以及眼病相关治疗手段。从平均得分、答题稳定性和答题自信心等方面综合评估LLM的性能并与人类组进行比较。结果:在平均测试得分中,每个LLM都在总体上优于本科生(GPT-4:56分,GPT-3.5:42分,PaLM2:47分,本科生:40分),其中GPT-3.5、PaLM2略低于硕士水平(硕士:51分),而GPT-4则表现出与主治医师相当的水平(主治医师:62分)。另外,GPT-4表现出明显高于GPT-3.5和PaLM2的答题稳定性和答题自信心。结论:以GPT-4为代表的LLM在眼科领域表现的较为出色,LLM模型可为临床医生和医学教育进行临床决策及教学辅助。 展开更多
关键词 大型语言模型(LLM) 自然语言处理 眼科问题
下载PDF
国内外大语言模型的图书情报应用探讨
20
作者 洪贇 叶鹰 佟彤 《图书馆理论与实践》 2024年第2期72-80,共9页
在人工智能(AI)技术不断发展的背景下,大语言模型(LLM)如OpenAI的GPT系列等已经引发了广泛关注,在包括图书情报在内的许多领域都有潜在应用价值。文章探讨了国内外LLM在文献分类、文摘生成、读者推荐等图书情报任务中的成功应用案例,在... 在人工智能(AI)技术不断发展的背景下,大语言模型(LLM)如OpenAI的GPT系列等已经引发了广泛关注,在包括图书情报在内的许多领域都有潜在应用价值。文章探讨了国内外LLM在文献分类、文摘生成、读者推荐等图书情报任务中的成功应用案例,在分析LLM应用潜力的基础上,进一步分析了知识整合、结构化数据利用、学术真实性检验、AI科学家等LLM应用新方向。但LLM在图书情报领域的应用仍面临计算资源需求大、泛化能力有限的挑战,因而成功利用LLM有赖于图书情报领域的技术和管理创新,需要谨慎推进。 展开更多
关键词 大语言模型 LLM GPT 图书情报 AI 技术应用
下载PDF
上一页 1 2 4 下一页 到第
使用帮助 返回顶部