期刊导航
期刊开放获取
河南省图书馆
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
1
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
基于联合学习框架的音频场景聚类
1
作者
张聿晗
李艳雄
+1 位作者
江钟杰
陈昊
《电子学报》
EI
CAS
CSCD
北大核心
2021年第10期2041-2047,共7页
音频场景聚类的任务是将属于相同音频场景的音频样本合并到同一个类中.本文提出一种基于联合学习框架的音频场景聚类方法.该框架由一个卷积自编码网络(Convolution Autoencoder Network,CAN)与一个判别性聚类网络(Discriminative Cluste...
音频场景聚类的任务是将属于相同音频场景的音频样本合并到同一个类中.本文提出一种基于联合学习框架的音频场景聚类方法.该框架由一个卷积自编码网络(Convolution Autoencoder Network,CAN)与一个判别性聚类网络(Discriminative Clustering Network,DCN)组成.CAN包括编码器和译码器,用于提取深度变换特征,DCN用于对输入的深度变换特征进行类别估计从而实现音频场景聚类.采用DCASE-2017和LITIS-Rouen数据集作为实验数据,比较不同特征与聚类方法的性能.实验结果表明:采用归一化互信息和聚类精度作为评价指标时,基于联合学习框架提取的深度变换特征优于其他特征,本文方法优于其他方法.本文方法所需要付出的代价是需要较大的计算复杂度.
展开更多
关键词
音频场景聚类
联合学习框架
卷积自编码网络
判别性聚类网络
下载PDF
职称材料
题名
基于联合学习框架的音频场景聚类
1
作者
张聿晗
李艳雄
江钟杰
陈昊
机构
华南理工大学电子与信息学院
出处
《电子学报》
EI
CAS
CSCD
北大核心
2021年第10期2041-2047,共7页
基金
国家自然科学基金(No.61771200)。
文摘
音频场景聚类的任务是将属于相同音频场景的音频样本合并到同一个类中.本文提出一种基于联合学习框架的音频场景聚类方法.该框架由一个卷积自编码网络(Convolution Autoencoder Network,CAN)与一个判别性聚类网络(Discriminative Clustering Network,DCN)组成.CAN包括编码器和译码器,用于提取深度变换特征,DCN用于对输入的深度变换特征进行类别估计从而实现音频场景聚类.采用DCASE-2017和LITIS-Rouen数据集作为实验数据,比较不同特征与聚类方法的性能.实验结果表明:采用归一化互信息和聚类精度作为评价指标时,基于联合学习框架提取的深度变换特征优于其他特征,本文方法优于其他方法.本文方法所需要付出的代价是需要较大的计算复杂度.
关键词
音频场景聚类
联合学习框架
卷积自编码网络
判别性聚类网络
Keywords
audio scene clustering
joint learning framework
convolutional autoencoder network
discriminative clustering network
分类号
TN912.3 [电子电信—通信与信息系统]
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
基于联合学习框架的音频场景聚类
张聿晗
李艳雄
江钟杰
陈昊
《电子学报》
EI
CAS
CSCD
北大核心
2021
0
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部