期刊文献+
共找到3篇文章
< 1 >
每页显示 20 50 100
通信信号自动分类的一种方法──学习子空间法的应用 被引量:1
1
作者 傅丰林 苗建苏 《西安电子科技大学学报》 EI CAS CSCD 北大核心 1995年第1期89-93,共5页
文中提出了应用学习子空间法的通信信号自动分类的网络结构,通过将输入矢量在子空间内的投影实现聚类运算,达到了将隐含层节点数降低的目的,提高了网络的训练速度,增强了网络的抗干扰和实时处理能力.文中还对加噪后的通信信号进行... 文中提出了应用学习子空间法的通信信号自动分类的网络结构,通过将输入矢量在子空间内的投影实现聚类运算,达到了将隐含层节点数降低的目的,提高了网络的训练速度,增强了网络的抗干扰和实时处理能力.文中还对加噪后的通信信号进行计算机模拟实现了分类. 展开更多
关键词 通信信号 自动分类 学习空间 空间
下载PDF
四诊合参智能化发展现状及实现路径 被引量:30
2
作者 赵文 张佳 +4 位作者 徐佳君 辛基梁 周常恩 李绍滋 李灿东 《中医杂志》 CSCD 北大核心 2020年第1期58-62,67,共6页
为确保中医诊断的正确性,除了要求单诊信息的准确性和客观性外,更重要的是四诊合参。中医四诊信息客观采集和分析系统的研究不断取得突破,为开展四诊客观信息的融合研究奠定了基础,但不同诊法设备分类标准不统一,信息来源存在差异,制约... 为确保中医诊断的正确性,除了要求单诊信息的准确性和客观性外,更重要的是四诊合参。中医四诊信息客观采集和分析系统的研究不断取得突破,为开展四诊客观信息的融合研究奠定了基础,但不同诊法设备分类标准不统一,信息来源存在差异,制约了四诊合参的融合。通过梳理近年来有关中医四诊包括望诊、闻诊、问诊、脉诊等方面的智能化研究,结合四诊合参智能化研究尚处起步阶段的现状,提出尝试从多源数据融合角度,借助协同训练法、多核学习法、基于子空间学习法提升四诊合参的融合度及准确性,探寻四诊合参智能化的可能实现路径。 展开更多
关键词 四诊合参 中医智能化 多源数据融合 协同训练 多核学习 子空间学习法
原文传递
Affective rating ranking based on face images in arousal-valence dimensional space
3
作者 Guo-peng XU Hai-tang LU +1 位作者 Fei-fei ZHANG Qi-rong MAO 《Frontiers of Information Technology & Electronic Engineering》 SCIE EI CSCD 2018年第6期783-795,共13页
In dimensional affect recognition, the machine learning methods, which are used to model and predict affect, are mostly classification and regression. However, the annotation in the dimensional affect space usually ta... In dimensional affect recognition, the machine learning methods, which are used to model and predict affect, are mostly classification and regression. However, the annotation in the dimensional affect space usually takes the form of a continuous real value which has an ordinal property. The aforementioned methods do not focus on taking advantage of this important information. Therefore, we propose an affective rating ranking framework for affect recognition based on face images in the valence and arousal dimensional space. Our approach can appropriately use the ordinal information among affective ratings which are generated by discretizing continuous annotations.Specifically, we first train a series of basic cost-sensitive binary classifiers, each of which uses all samples relabeled according to the comparison results between corresponding ratings and a given rank of a binary classifier. We obtain the final affective ratings by aggregating the outputs of binary classifiers. By comparing the experimental results with the baseline and deep learning based classification and regression methods on the benchmarking database of the AVEC 2015 Challenge and the selected subset of SEMAINE database, we find that our ordinal ranking method is effective in both arousal and valence dimensions. 展开更多
关键词 Ordinal ranking Dimensional affect recognition VALENCE AROUSAL Facial image processing
原文传递
上一页 1 下一页 到第
使用帮助 返回顶部