期刊文献+
共找到4篇文章
< 1 >
每页显示 20 50 100
网络大模型专题导读
1
作者 唐宏 熊先奎 《中兴通讯技术》 北大核心 2024年第2期1-1,共1页
OpenAI公司基于“Scaling Law”哲学,通过堆叠算力,使用模块化易于扩展且擅长捕捉长距离依赖关系的Transformer神经网络,构建了自回归、生成式的千亿以上参数量大模型,在多个人工智能(AI)领域取得了SOTA效果。目前,OpenAI正在通过图像... OpenAI公司基于“Scaling Law”哲学,通过堆叠算力,使用模块化易于扩展且擅长捕捉长距离依赖关系的Transformer神经网络,构建了自回归、生成式的千亿以上参数量大模型,在多个人工智能(AI)领域取得了SOTA效果。目前,OpenAI正在通过图像、视频等一系列多模态学习,力图实现“World Model”“World Simulator”,以建立物理世界映射。它的实战成果给全世界AI从业者提供了一种目前看来行之有效且朝向通用人工智能(AGI)发展的方法论和技术路线。 展开更多
关键词 OPEN 长距离依赖 World 神经网络 易于扩展 自回归 参数量 多模态学习
下载PDF
移动边缘计算规模部署的技术制约因素和对策 被引量:8
2
作者 熊先奎 段向阳 王卫斌 《中兴通讯技术》 2019年第6期65-72,共8页
指出了边缘计算规模落地的制约因素,具体包括计算、连接、部署位置和设备形态。认为移动边缘计算需要平衡"计算"和"连接"。通过对边缘计算的针对性研究,中兴通讯给出了相应的软硬件解决方案,并提出与整个业界紧密... 指出了边缘计算规模落地的制约因素,具体包括计算、连接、部署位置和设备形态。认为移动边缘计算需要平衡"计算"和"连接"。通过对边缘计算的针对性研究,中兴通讯给出了相应的软硬件解决方案,并提出与整个业界紧密合作、共同推进边缘计算产业发展的愿望。 展开更多
关键词 边缘计算 异构加速 智能网卡 边缘定制化服务器
下载PDF
面向分布式AI的智能网卡低延迟Fabric技术 被引量:2
3
作者 熊先奎 袁进辉 宋庆春 《中兴通讯技术》 2020年第5期23-28,共6页
系统阐述了在分布式人工智能计算负载中使用低延迟Fabric技术出现的问题,包括虚拟化环境支撑、通信原语抽象化、网络拥塞控制等。针对这些问题,提出了使用基于可编程智能网卡的解决思路。
关键词 分布式人工智能 智能网卡 远程直接内存访问
下载PDF
Research on High-Precision Stochastic Computing VLSI Structures for Deep Neural Network Accelerators
4
作者 WU Jingguo ZHU Jingwei +3 位作者 xiong xiankui YAO Haidong WANG Chengchen CHEN Yun 《ZTE Communications》 2024年第4期9-17,共9页
Deep neural networks(DNN)are widely used in image recognition,image classification,and other fields.However,as the model size increases,the DNN hardware accelerators face the challenge of higher area overhead and ener... Deep neural networks(DNN)are widely used in image recognition,image classification,and other fields.However,as the model size increases,the DNN hardware accelerators face the challenge of higher area overhead and energy consumption.In recent years,stochastic computing(SC)has been considered a way to realize deep neural networks and reduce hardware consumption.A probabilistic compensation algorithm is proposed to solve the accuracy problem of stochastic calculation,and a fully parallel neural network accelerator based on a deterministic method is designed.The software simulation results show that the accuracy of the probability compensation algorithm on the CIFAR-10 data set is 95.32%,which is 14.98%higher than that of the traditional SC algorithm.The accuracy of the deterministic algorithm on the CIFAR-10 dataset is 95.06%,which is 14.72%higher than that of the traditional SC algorithm.The results of Very Large Scale Integration Circuit(VLSI)hardware tests show that the normalized energy efficiency of the fully parallel neural network accelerator based on the deterministic method is improved by 31%compared with the circuit based on binary computing. 展开更多
关键词 stochastic computing hardware accelerator deep neural network
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部