期刊文献+
共找到2篇文章
< 1 >
每页显示 20 50 100
基于特征图切分的轻量级卷积神经网络 被引量:8
1
作者 张雨丰 郑忠龙 +5 位作者 刘华文 向道红 何小卫 李知菲 何依然 KHODJA Abd Erraouf 《模式识别与人工智能》 EI CSCD 北大核心 2019年第3期237-246,共10页
卷积神经网络模型所需的存储容量和计算资源远超出移动和嵌入式设备的承载量,因此文中提出轻量级卷积神经网络架构(SFNet).SFNet架构引入切分模块的概念,通过将网络的输出特征图进行"切分"处理,每个特征图片段分别输送给不同... 卷积神经网络模型所需的存储容量和计算资源远超出移动和嵌入式设备的承载量,因此文中提出轻量级卷积神经网络架构(SFNet).SFNet架构引入切分模块的概念,通过将网络的输出特征图进行"切分"处理,每个特征图片段分别输送给不同大小的卷积核进行卷积运算,将运算得到的特征图拼接后由大小为1×1的卷积核进行通道融合.实验表明,相比目前通用的轻量级卷积神经网络,在卷积核数目及输入特征图通道数相同时,SFNet的参数和计算量更少,分类正确率更高.相比标准卷积,在网络复杂度大幅降低的情况下,切分模块的分类正确率持平甚至更高. 展开更多
关键词 卷积神经网络 轻量级网络 切分模块 特征图切分 组卷积
下载PDF
Classification with Gaussians and convex loss Ⅱ:improving error bounds by noise conditions 被引量:3
2
作者 xiang daohong 《Science China Mathematics》 SCIE 2011年第1期165-171,共7页
We continue our study on classification learning algorithms generated by Tikhonov regularization schemes associated with Gaussian kernels and general convex loss functions. Our main purpose of this paper is to improve... We continue our study on classification learning algorithms generated by Tikhonov regularization schemes associated with Gaussian kernels and general convex loss functions. Our main purpose of this paper is to improve error bounds by presenting a new comparison theorem associated with general convex loss functions and Tsybakov noise conditions. Some concrete examples are provided to illustrate the improved learning rates which demonstrate the effect of various loss functions for learning algorithms. In our analysis, the convexity of the loss functions plays a central role. 展开更多
关键词 reproducing kernel Hilbert space binary classification general convex loss Tsybakov noise condition Sobolev space
原文传递
上一页 1 下一页 到第
使用帮助 返回顶部