期刊导航
期刊开放获取
河南省图书馆
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
2
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
大规模语言模型的跨云联合训练关键技术
被引量:
1
1
作者
潘囿丞
侯永帅
+2 位作者
杨卿
余跃
相洋
《中兴通讯技术》
2023年第4期49-56,共8页
模型参数规模的不断增加使模型训练所需的算力资源变得更加庞大,导致很多情况下单个算力集群难以满足大规模语言模型的训练需求。大规模语言模型的跨云联合训练成为解决这一问题的有效方式。以自然语言处理大模型的跨云预训练和微调为例...
模型参数规模的不断增加使模型训练所需的算力资源变得更加庞大,导致很多情况下单个算力集群难以满足大规模语言模型的训练需求。大规模语言模型的跨云联合训练成为解决这一问题的有效方式。以自然语言处理大模型的跨云预训练和微调为例,介绍了大规模语言模型跨云训练的主要挑战和关键技术,并探讨了这些技术在跨云训练过程中的具体应用、实际效果和未来场景。这些技术将为智能化应用和人机交互等提供有力支持。
展开更多
关键词
大规模语言模型
算力资源
跨云训练
自然语言处理
下载PDF
职称材料
Cloudless-Training:基于serverless的高效跨地域分布式ML训练框架
2
作者
谭文婷
吕存驰
+1 位作者
史骁
赵晓芳
《高技术通讯》
CAS
北大核心
2024年第3期219-232,共14页
跨地域分布式机器学习(ML)训练能够联合多区域的云资源协作训练,可满足许多新兴ML场景(比如大型模型训练、联邦学习)的训练需求。但其训练效率仍受2方面挑战的制约。首先,多区域云资源缺乏有效的弹性调度,这会影响训练的资源利用率和性...
跨地域分布式机器学习(ML)训练能够联合多区域的云资源协作训练,可满足许多新兴ML场景(比如大型模型训练、联邦学习)的训练需求。但其训练效率仍受2方面挑战的制约。首先,多区域云资源缺乏有效的弹性调度,这会影响训练的资源利用率和性能;其次,模型跨地域同步需要在广域网(WAN)上高频通信,受WAN的低带宽和高波动的影响,会产生巨大通信开销。本文提出Cloudless-Training,从3个方面实现高效的跨地域分布式ML训练。首先,它基于serverless计算模式实现,使用控制层和训练执行层的2层架构,支持多云区域的弹性调度和通信。其次,它提供一种弹性调度策略,根据可用云资源的异构性和训练数据集的分布自适应地部署训练工作流。最后,它提供了2种高效的跨云同步策略,包括基于梯度累积的异步随机梯度下降(ASGD-GA)和跨云参数服务器(PS)间的模型平均(MA)。Cloudless-Training是基于OpenFaaS实现的,并被部署在腾讯云上评估,实验结果表明Cloudless-Training可显著地提高跨地域分布式ML训练的资源利用率(训练成本降低了9.2%~24.0%)和同步效率(训练速度最多比基线快1.7倍),并能保证模型的收敛精度。
展开更多
关键词
跨
地域分布式机器学习(ML)
训练
跨
云
ML
训练
分布式
训练
框架
serverless
跨
云
模型同步
下载PDF
职称材料
题名
大规模语言模型的跨云联合训练关键技术
被引量:
1
1
作者
潘囿丞
侯永帅
杨卿
余跃
相洋
机构
鹏城实验室
出处
《中兴通讯技术》
2023年第4期49-56,共8页
基金
科技创新2030——“新一代人工智能”重大项目(2022ZD0115301)。
文摘
模型参数规模的不断增加使模型训练所需的算力资源变得更加庞大,导致很多情况下单个算力集群难以满足大规模语言模型的训练需求。大规模语言模型的跨云联合训练成为解决这一问题的有效方式。以自然语言处理大模型的跨云预训练和微调为例,介绍了大规模语言模型跨云训练的主要挑战和关键技术,并探讨了这些技术在跨云训练过程中的具体应用、实际效果和未来场景。这些技术将为智能化应用和人机交互等提供有力支持。
关键词
大规模语言模型
算力资源
跨云训练
自然语言处理
Keywords
large-scale language model
computational resource
cross-cloud training
natural language processing
分类号
TP391.1 [自动化与计算机技术—计算机应用技术]
TP18 [自动化与计算机技术—控制理论与控制工程]
下载PDF
职称材料
题名
Cloudless-Training:基于serverless的高效跨地域分布式ML训练框架
2
作者
谭文婷
吕存驰
史骁
赵晓芳
机构
中国科学院计算技术研究所
中国科学院大学
中科南京信息高铁研究院
中科苏州智能计算技术研究院
出处
《高技术通讯》
CAS
北大核心
2024年第3期219-232,共14页
基金
国家重点研发计划(2021YFF0703800)
光合基金B类(202302028357)资助项目。
文摘
跨地域分布式机器学习(ML)训练能够联合多区域的云资源协作训练,可满足许多新兴ML场景(比如大型模型训练、联邦学习)的训练需求。但其训练效率仍受2方面挑战的制约。首先,多区域云资源缺乏有效的弹性调度,这会影响训练的资源利用率和性能;其次,模型跨地域同步需要在广域网(WAN)上高频通信,受WAN的低带宽和高波动的影响,会产生巨大通信开销。本文提出Cloudless-Training,从3个方面实现高效的跨地域分布式ML训练。首先,它基于serverless计算模式实现,使用控制层和训练执行层的2层架构,支持多云区域的弹性调度和通信。其次,它提供一种弹性调度策略,根据可用云资源的异构性和训练数据集的分布自适应地部署训练工作流。最后,它提供了2种高效的跨云同步策略,包括基于梯度累积的异步随机梯度下降(ASGD-GA)和跨云参数服务器(PS)间的模型平均(MA)。Cloudless-Training是基于OpenFaaS实现的,并被部署在腾讯云上评估,实验结果表明Cloudless-Training可显著地提高跨地域分布式ML训练的资源利用率(训练成本降低了9.2%~24.0%)和同步效率(训练速度最多比基线快1.7倍),并能保证模型的收敛精度。
关键词
跨
地域分布式机器学习(ML)
训练
跨
云
ML
训练
分布式
训练
框架
serverless
跨
云
模型同步
Keywords
geo-distributed machine learning(ML)training
cross cloud ML training
distributed training framework
serverless
cross cloud model synchronization
分类号
TP181 [自动化与计算机技术—控制理论与控制工程]
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
大规模语言模型的跨云联合训练关键技术
潘囿丞
侯永帅
杨卿
余跃
相洋
《中兴通讯技术》
2023
1
下载PDF
职称材料
2
Cloudless-Training:基于serverless的高效跨地域分布式ML训练框架
谭文婷
吕存驰
史骁
赵晓芳
《高技术通讯》
CAS
北大核心
2024
0
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部