期刊文献+
共找到2篇文章
< 1 >
每页显示 20 50 100
深度生成模型综述 被引量:32
1
作者 胡铭菲 左信 刘建伟 《自动化学报》 EI CAS CSCD 北大核心 2022年第1期40-74,共35页
通过学习可观测数据的概率密度而随机生成样本的生成模型在近年来受到人们的广泛关注,网络结构中包含多个隐藏层的深度生成式模型以更出色的生成能力成为研究热点,深度生成模型在计算机视觉、密度估计、自然语言和语音识别、半监督学习... 通过学习可观测数据的概率密度而随机生成样本的生成模型在近年来受到人们的广泛关注,网络结构中包含多个隐藏层的深度生成式模型以更出色的生成能力成为研究热点,深度生成模型在计算机视觉、密度估计、自然语言和语音识别、半监督学习等领域得到成功应用,并给无监督学习提供了良好的范式.本文根据深度生成模型处理似然函数的不同方法将模型分为三类:第一类方法是近似方法,包括采用抽样方法近似计算似然函数的受限玻尔兹曼机(Restricted Boltzmann machine,RBM)和以受限玻尔兹曼机为基础模块的深度置信网络(Deep belief network,DBN)、深度玻尔兹曼机(Deep Boltzmann machines,DBM)和亥姆霍兹机,与之对应的另一种模型是直接优化似然函数变分下界的变分自编码器以及其重要的改进模型,包括重要性加权自编码和可用于半监督学习的深度辅助深度模型;第二类方法是避开求极大似然过程的隐式方法,其代表模型是通过生成器和判别器之间的对抗行为来优化模型参数从而巧妙避开求解似然函数的生成对抗网络以及重要的改进模型,包括WGAN、深度卷积生成对抗网络和当前最顶级的深度生成模型BigGAN;第三类方法是对似然函数进行适当变形的流模型和自回归模型,流模型利用可逆函数构造似然函数后直接优化模型参数,包括以NICE为基础的常规流模型、变分流模型和可逆残差网络(i-ResNet),自回归模型(NADE)将目标函数分解为条件概率乘积的形式,包括神经自回归密度估计(NADE)、像素循环神经网络(PixelRNN)、掩码自编码器(MADE)以及WaveNet等.详细描述上述模型的原理和结构以及模型变形后,阐述各个模型的研究进展和应用,最后对深度生成式模型进行展望和总结. 展开更多
关键词 深度生成式模型 受限玻尔兹曼机 变分自编码器 模型 生成对抗网络 自回归分布估计
下载PDF
利用标注者相关性的深度生成式众包学习
2
作者 李绍园 韦梦龙 黄圣君 《软件学报》 EI CSCD 北大核心 2022年第4期1274-1286,共13页
传统监督学习需要训练样本的真实标记信息,而在很多情况下,真实标记并不容易收集.与之对比,众包学习从多个可能犯错的非专家收集标注,通过某种融合方式估计样本的真实标记.注意到现有深度众包学习工作对标注者相关性建模不足,而非深度... 传统监督学习需要训练样本的真实标记信息,而在很多情况下,真实标记并不容易收集.与之对比,众包学习从多个可能犯错的非专家收集标注,通过某种融合方式估计样本的真实标记.注意到现有深度众包学习工作对标注者相关性建模不足,而非深度众包学习方面的工作表明,标注者相关性建模利用有助于改善学习效果.提出一种深度生成式众包学习方法,以结合深度神经网络优势及利用标注者相关性.该模型由深度神经网络分类器先验和标注生成过程组成,其中,标注生成过程通过引入各类别内标注者能力的混合模型以建模标注者相关性.为自适应地匹配数据及模型复杂度,实现了完全贝叶斯推断.基于结构变分自编码器的自然梯度随机变分推断技术,将共轭参数变分消息传递与神经网络参数随机梯度下降结合到统一框架,实现端到端的高效优化.在22个真实众包数据集上的实验结果验证了该方法的有效性. 展开更多
关键词 众包学习 深度生成式模型 标注者相关性 贝叶斯 自然梯度随机变分推断
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部