期刊文献+
共找到96篇文章
< 1 2 5 >
每页显示 20 50 100
新型ε-不敏感损失函数支持向量诱导回归算法及售后服务数据模型预测系统 被引量:2
1
作者 罗泽举 朱思铭 《计算机科学》 CSCD 北大核心 2005年第8期138-141,154,共5页
对含有噪声的数据序列根据预测置信度进行去噪处理,将训练集和测试集及预测数据共同作为训练向量集,以此建立新型支持向量诱导回归算法。本文利用该算法对实时售后服务的“千车故障数”进行了时间序列分析,并建立了新型的ε-不敏感损失... 对含有噪声的数据序列根据预测置信度进行去噪处理,将训练集和测试集及预测数据共同作为训练向量集,以此建立新型支持向量诱导回归算法。本文利用该算法对实时售后服务的“千车故障数”进行了时间序列分析,并建立了新型的ε-不敏感损失函数小样本模型预测系统。预测显示误差小于5.3%的值占了总体的98.1%,其预测署信度达到0.983,与二次和Huber损失函数相比其MAPE值只有2.3%。用计算机模拟仿真单批次预测显,当时间参量t→+∞,“千车故障数”将收敛于定值74.0601,这和实际相当吻合,表明所建预测模型的有效性。文章最后还和传统神经网络模型作了比较,说明新型SVM机比神经网络处理小样本能力更强。 展开更多
关键词 诱导回归算法 售后服务 预测系统 回归算法 损失函数 数据模型 支持向量 诱导 敏感 时间序列分析
下载PDF
基于RNN与级联损失函数的图像超分辨率研究
2
作者 曾强 刘晓群 郝娟 《信息技术与信息化》 2024年第10期81-84,共4页
为了获取具有更丰富细节和更清晰纹理的超分辨率图像,提出一种融合循环神经网络(RNN)与级联损失函数的超分辨率重建网络(RLNN)。相较于传统的RNN方法,所提出的网络架构主要实现了两大创新。首先,将RNN的每一次迭代与级联损失函数紧密集... 为了获取具有更丰富细节和更清晰纹理的超分辨率图像,提出一种融合循环神经网络(RNN)与级联损失函数的超分辨率重建网络(RLNN)。相较于传统的RNN方法,所提出的网络架构主要实现了两大创新。首先,将RNN的每一次迭代与级联损失函数紧密集成,通过这种方式,不仅提高了网络在超分辨率重建过程中的精度,还增强了其对复杂图像特征的捕捉能力。其次,设计了一种新颖的隐藏模块(HM),结合了空间-通道注意力机制与局部密集跳跃连接网络,有效提升了网络在特征提取与重用方面的性能。为了进一步优化网络的学习过程,还引入了一种课程学习策略,使网络能够逐步适应并处理更加复杂的任务。实验结果证明,所提出的RLNN网络在图像超分辨率任务上表现出极好的重建效果。 展开更多
关键词 卷积神经网络 超分辨率重建 循环神经网络 级联损失函数 密集跳跃连接 空间-通道注意力机制 课程学习策略
下载PDF
代价敏感学习中的损失函数设计 被引量:15
3
作者 李秋洁 赵亚琴 顾洲 《控制理论与应用》 EI CAS CSCD 北大核心 2015年第5期689-694,共6页
一般的学习算法通过最小化分类损失使分类错误率最小化,而代价敏感学习则以最小化分类代价为目标,需构造代价敏感损失.本文探讨代价敏感损失的设计准则,首先介绍基于代价敏感风险优化的代价敏感学习方法,然后在Bayes最优分类理论框架下... 一般的学习算法通过最小化分类损失使分类错误率最小化,而代价敏感学习则以最小化分类代价为目标,需构造代价敏感损失.本文探讨代价敏感损失的设计准则,首先介绍基于代价敏感风险优化的代价敏感学习方法,然后在Bayes最优分类理论框架下,提出两条代价敏感损失设计准则.接着采用两种常用代价敏感损失生成方法构造平方损失、指数损失、对数损失、支持向量机损失等经典损失函数的代价敏感扩展形式.根据所提出的设计准则,从理论上分析这些代价敏感损失的性能.最后通过实验表明,同时满足两条设计准则的代价敏感损失能有效降低分类代价,从而证明了本文提出的代价敏感损失设计准则的合理性. 展开更多
关键词 学习算法 代价敏感学习 损失函数 Bayes最优决策 代价敏感损失
下载PDF
ε不敏感损失函数支持向量机分类性能研究 被引量:17
4
作者 杨俊燕 张优云 朱永生 《西安交通大学学报》 EI CAS CSCD 北大核心 2007年第11期1315-1320,共6页
将原先用于支持向量回归的ε不敏感损失函数引入到支持向量分类中,提出ε不敏感损失函数支持向量分类算法(-εSVC).同标准支持向量分类方法(C-SVC)和最小二乘支持向量分类方法(LS-SVC)相比较,试验结果表明:当赋予参数ε一个足够大的接近... 将原先用于支持向量回归的ε不敏感损失函数引入到支持向量分类中,提出ε不敏感损失函数支持向量分类算法(-εSVC).同标准支持向量分类方法(C-SVC)和最小二乘支持向量分类方法(LS-SVC)相比较,试验结果表明:当赋予参数ε一个足够大的接近于1的值时,-εSVC的分类正确率略低于C-SVC和LS-SVC,但是-εSVC的训练、测试和参数选择的速度要高于C-SVC和LS-SVC.特别是对于大规模数据集,这种优势将更加明显.另外,通过精确选择参数ε的值,-εSVC能够获得比C-SVC和LS-SVC更高的分类正确率,但是训练、测试和参数选择的速度却随着ε的减小而降低. 展开更多
关键词 ε不敏感损失函数 支持向量分类 模式分类 支持向量回归
下载PDF
不同损失函数下指数-泊松分布的Bayes估计 被引量:7
5
作者 鄢伟安 师义民 刘英 《火力与指挥控制》 CSCD 北大核心 2012年第2期124-126,131,共4页
基于定数截尾样本,在熵损失、Linex损失和刻度平方损失函数下,给出了指数-泊松分布参数的Bayes估计,并证明了所给估计都是容许的。最后给出了随机模拟例子,对所给估计结果的优良性进行了分析比较。
关键词 指数-泊松分布 定数截尾试验 损失函数 BAYES估计
下载PDF
基于ε-不敏感准则和结构风险的鲁棒径向基函数神经网络学习 被引量:4
6
作者 桑庆兵 邓赵红 +1 位作者 王士同 吴小俊 《电子与信息学报》 EI CSCD 北大核心 2012年第6期1414-1419,共6页
该文提出一种新的基于ε-不敏感准则和结构风险的径向基神经网络(RBF-NN)建模方法。通过引入ε-不敏感准则和结构风险项,把RBF-NN训练转化为线性回归和经典的二次规划优化问题。和传统的基于最小平方误差准则的RBF-NN训练算法相比,提出... 该文提出一种新的基于ε-不敏感准则和结构风险的径向基神经网络(RBF-NN)建模方法。通过引入ε-不敏感准则和结构风险项,把RBF-NN训练转化为线性回归和经典的二次规划优化问题。和传统的基于最小平方误差准则的RBF-NN训练算法相比,提出的新方法对小样本数据集和噪声数据显示出较好的鲁棒性,具有较好的泛化能力。通过模拟和真实数据集进行仿真试验,上述优点得到了有效验证。 展开更多
关键词 径向基函数神经网络建模 ε-不敏感准则 结构风险 鲁棒性
下载PDF
一种求ε-不敏感支持向量回归机光滑函数的新方法
7
作者 陈勇 熊金志 《计算机工程与科学》 CSCD 北大核心 2010年第8期108-111,共4页
2008年熊金志等人提出了一种求光滑函数的方法,就理论而言可求得ε-不敏感支持向量回归机的无穷个光滑函数,但该方法每次都需要对光滑函数的导数进行积分,推导过程很繁琐。为克服这个缺点,本文利用支持向量分类机的光滑函数,通过相关的... 2008年熊金志等人提出了一种求光滑函数的方法,就理论而言可求得ε-不敏感支持向量回归机的无穷个光滑函数,但该方法每次都需要对光滑函数的导数进行积分,推导过程很繁琐。为克服这个缺点,本文利用支持向量分类机的光滑函数,通过相关的理论推导,用新的递推方式来表示支持向量回归机的光滑函数,简化了原方法的推导过程,得到了一种求支持向量回归机光滑函数的新方法。通过用原方法和新方法分别求光滑函数的两个算例,表明了新方法的有效性。还用新方法导出了光滑函数的一个重要性质,即光滑函数关于光滑阶数是单调减函数,为进一步研究光滑支持向量回归机提供了理论依据。 展开更多
关键词 支持向量机 光滑函数 回归 ε-不敏感损失函数
下载PDF
关于ε不敏感损失函数推广误差的界
8
作者 周学君 彭锦 《数学杂志》 CSCD 北大核心 2010年第3期527-532,共6页
本文研究了学习理论中推广误差的界的问题.利用ε不敏感损失函数的性质,分别获得了逼近误差和估计(样本)误差的界,并在特定的假设空间上得到了学习算法推广误差的界.
关键词 推广误差 ε不敏感损失函数 逼近误差 估计误差
下载PDF
一种基于词频-逆文档频率和混合损失的表情识别算法 被引量:2
9
作者 蓝峥杰 王烈 聂雄 《计算机工程》 CAS CSCD 北大核心 2023年第1期295-302,310,共9页
面部表情能自然高效地表达人类的心理活动和思想状态,影响着人们的沟通交流过程。在诸多智能化应用中,人脸表情识别是人类与机器间建立情感交互的重要基础。在细粒度人脸表情识别任务中,由于特征提取网络对表情产生区域的关键特征处理不... 面部表情能自然高效地表达人类的心理活动和思想状态,影响着人们的沟通交流过程。在诸多智能化应用中,人脸表情识别是人类与机器间建立情感交互的重要基础。在细粒度人脸表情识别任务中,由于特征提取网络对表情产生区域的关键特征处理不足,从而引发细节特征信息丢失问题。提出一种词频-逆文档频率注意力机制TF-IDF SPA,通过该机制调整表情产生关键区域的注意力分布,强化网络对该区域关键细节特征的提取能力。同时,为了应对表情识别任务中普遍存在的类间差异小、类内差异大的问题,设计一种改进型混合加权损失函数,以增强表情类内聚拢性同时增大类间距离。依据数据集中样本的数量分布情况,动态调整损失函数的分类权重值,从而强化模型对小数据量样本的学习能力。在此基础上,将结构简单的TF-IDF SPA模块与卷积层共同堆叠以构建人脸表情识别网络。实验结果表明,该网络具有较好的人脸表情识别性能,在FER2013和CK+数据集上的分类准确率分别达到73.52%和98.27%。 展开更多
关键词 表情识别 FER2013数据集 CK+数据集 词频-逆文档频率 损失函数 注意力机制
下载PDF
采用多类代价指数损失函数的代价敏感AdaBoost算法 被引量:2
10
作者 翟夕阳 王晓丹 +1 位作者 李睿 贾琪 《西安交通大学学报》 EI CAS CSCD 北大核心 2017年第8期33-39,共7页
为解决由多个二类代价敏感算法扩展而成的多类算法存在时间复杂度高和不能区分错分代价的问题,提出一种采用多类代价指数损失函数的多类代价敏感AdaBoost算法(MCCSADA)。为保证算法的代价敏感特性,首先设计一种满足代价敏感损失函数设... 为解决由多个二类代价敏感算法扩展而成的多类算法存在时间复杂度高和不能区分错分代价的问题,提出一种采用多类代价指数损失函数的多类代价敏感AdaBoost算法(MCCSADA)。为保证算法的代价敏感特性,首先设计一种满足代价敏感损失函数设计准则的多类代价敏感指数损失函数;然后将此损失函数作为评价分类器性能的标准,以最小化损失函数为目的使用逐步叠加模型推导算法的最优基分类器加权系数;最后使用多类代价损失函数和最优基分类器加权系数求解公式替换多类AdaBoost算法的损失数和加权系数求解公式,得到代价敏感的MCCSADA算法。使用UCI数据集对算法进行验证,实验结果表明:算法的稳定性得到了提升,退化现象被减弱;相比于由两类代价敏感算法通过一对一方法扩展而来的多类代价敏感算法,MCCSADA算法在大多数情况下能够取得更低的代价,而且具有较低的时间复杂度,在3类数据集上的时间复杂度降低约40%,并且随着类别数的增多效率提升更加明显。 展开更多
关键词 代价敏感 ADABOOST算法 多分类 贝叶斯决策 损失函数
下载PDF
洪涝灾害三参数损失函数的构建Ⅱ--实例研究 被引量:4
11
作者 李超超 程晓陶 +1 位作者 王艳艳 付德宇 《水利学报》 EI CSCD 北大核心 2020年第5期519-526,共8页
为了验证三参数洪涝灾害损失函数构建方法的合理性与适用性,以高度城镇化的太湖流域为对象开展实例研究。以现状与未来情景下太湖流域的洪涝灾害评估结果作为洪涝损失-重现期曲线构建样本,选取3组函数构建了太湖流域洪涝灾害风险函数。... 为了验证三参数洪涝灾害损失函数构建方法的合理性与适用性,以高度城镇化的太湖流域为对象开展实例研究。以现状与未来情景下太湖流域的洪涝灾害评估结果作为洪涝损失-重现期曲线构建样本,选取3组函数构建了太湖流域洪涝灾害风险函数。对3组函数的拟合结果进行对比,选择最优S型函数作为预测模型,并且根据函数转折点对洪灾风险进行了分级。研究表明,基于Gompertz函数的损失-重现期函数曲线对洪涝灾害损失的变化规律有较好的适应性,对未来洪水风险演变的预测较为合理。 展开更多
关键词 太湖流域 洪涝灾害 S型曲线 损失-重现期函数 风险预测 风险分级
下载PDF
基于代价敏感卷积神经网络的加密流量分类
12
作者 钟海龙 何月顺 +3 位作者 何璘琳 陈杰 田鸣 郑瑞银 《计算机与现代化》 2024年第5期55-60,共6页
针对加密流量分类中由于不平衡数据导致的分类偏差和少数类识别率低的问题,提出一种基于代价敏感卷积神经网络的加密流量分类方法。鉴于传统卷积神经网络在处理不平衡数据时容易偏向多数类,该方法引入动态权重调整策略,使其在每次迭代... 针对加密流量分类中由于不平衡数据导致的分类偏差和少数类识别率低的问题,提出一种基于代价敏感卷积神经网络的加密流量分类方法。鉴于传统卷积神经网络在处理不平衡数据时容易偏向多数类,该方法引入动态权重调整策略,使其在每次迭代中根据代价敏感层的反馈来重新评估并自适应调整每个样本的权重。当少数类样本被模型误分类时,其权重会增加,促使模型在后续训练中更加关注它们。随着训练的进行,这种动态权重调整策略持续驱使模型改进并提高对少数类样本的识别能力,从而有效地应对类别不平衡问题。为了避免过拟合,该方法还采纳早停策略,当验证集性能连续下滑时及时终止训练。实验结果表明,本文所提出的网络模型在处理类别不平衡的加密流量分类问题上具有显著的优势,准确率和F1值均达到0.97以上。本文研究为加密流量分类提供了一种更为有效且适应于类别不平衡问题的解决方案,为网络安全领域的研究与应用提供了有益的探索。 展开更多
关键词 卷积神经网络 代价敏感学习 加密流量分类 类不平衡 损失函数
下载PDF
基于注意力和代价敏感的软件缺陷预测方法
13
作者 毛敬恩 周世健 +1 位作者 章树卿 樊鑫 《计算机测量与控制》 2024年第9期94-100,共7页
软件缺陷预测的目的是预先识别容易出现缺陷的代码模块以帮助软件质量保障团队适当的分配资源和人力;当前基于稳定学习的软件缺陷预测方法在特征提取过程中缺乏代码图像的全局信息,并忽视了不平衡数据对模型性能的影响;为了解决上述问题... 软件缺陷预测的目的是预先识别容易出现缺陷的代码模块以帮助软件质量保障团队适当的分配资源和人力;当前基于稳定学习的软件缺陷预测方法在特征提取过程中缺乏代码图像的全局信息,并忽视了不平衡数据对模型性能的影响;为了解决上述问题,文章提出了一种基于注意力和代价敏感的软件缺陷预测方法;该方法在SDP-SL的神经网络中增加了全局注意力模块,重点关注图像中和缺陷代码相关的特征,并将分类器的损失函数改进为代价敏感的损失函数,降低类不平衡对模型性能的影响;为了评估SDP-SLAC的性能,在PROMISE数据库中的10个开源Java项目上进行了多组比较实验;实验结果表明,SDP-SLAC方法可以有效提升缺陷预测模型的性能。 展开更多
关键词 软件缺陷预测 全局注意力 代价敏感 类不平衡 损失函数
下载PDF
用涡量-流函数法研究颗粒的质量损失经历
14
作者 安明旺 李有章 《冶金能源》 1992年第3期32-35,共4页
本文提出用涡量—流函数法及颗粒轨道模型数值计算有相变的气体—颗粒群两相流动及传热传质问题.对轴对称情况推导了有关方程,并定义了边界条件。通过对高炉直吹管模型内含水颗粒群计算结果的分析,证明此方法是可行的。为进一步将涡量... 本文提出用涡量—流函数法及颗粒轨道模型数值计算有相变的气体—颗粒群两相流动及传热传质问题.对轴对称情况推导了有关方程,并定义了边界条件。通过对高炉直吹管模型内含水颗粒群计算结果的分析,证明此方法是可行的。为进一步将涡量—流函数法用于诸如高炉喷吹粉煤等问题的数值模拟打下了基础. 展开更多
关键词 涡量-函数 颗粒 质量损失
下载PDF
基于Born敏感核函数的速度、密度双参数全波形反演 被引量:7
15
作者 杨积忠 刘玉柱 董良国 《地球物理学报》 SCIE EI CAS CSCD 北大核心 2016年第3期1082-1094,共13页
速度、密度之间的相互耦合使得密度在多参数全波形反演中较难获得.本文将截断高斯-牛顿法用于声介质速度、密度双参数全波形反演,通过考虑近似Hessian矩阵中反映速度、密度相互作用的非主对角块元素,有效解决了多参数全波形反演中速度... 速度、密度之间的相互耦合使得密度在多参数全波形反演中较难获得.本文将截断高斯-牛顿法用于声介质速度、密度双参数全波形反演,通过考虑近似Hessian矩阵中反映速度、密度相互作用的非主对角块元素,有效解决了多参数全波形反演中速度、密度之间的耦合问题,在不采用反演策略的情况下,仍能够获得精度较高的速度、密度反演结果.常规的截断牛顿类全波形反演通常利用一阶伴随状态法求取目标函数对模型参数的梯度,利用二阶伴随状态法或有限差分法求解Hessian-向量乘,在每一步内循环迭代过程中需要额外求解两次正演问题,计算量较大.本文基于Born近似,将梯度计算中的核函数-向量乘表示为具有明确物理意义的向量-标量乘的累加运算,同时将Hessian-向量乘转化为两次核函数-向量乘,无需额外求解正演问题,有效降低了计算量.数值实验证明了本文提出的方法的有效性. 展开更多
关键词 全波形反演 敏感函数 多参数 速度 密度 截断高斯-牛顿法
下载PDF
LINEX损失下参数未知时指数-威布尔分布的Bayes估计 被引量:8
16
作者 崔群法 张明亮 康会光 《河南大学学报(自然科学版)》 CAS 北大核心 2011年第4期348-351,393,共5页
LINEX损失函数下,研究了两参数指数-威布尔(EW)分布形状参数、可靠度的Bayes估计问题.基于定数截尾试验,当两个形状参数均未知时,给出了参数的Bayes估计表达式,并求得可靠度函数的Bayes估计.最后运用随机模拟的方法,将Bayes估计和极大... LINEX损失函数下,研究了两参数指数-威布尔(EW)分布形状参数、可靠度的Bayes估计问题.基于定数截尾试验,当两个形状参数均未知时,给出了参数的Bayes估计表达式,并求得可靠度函数的Bayes估计.最后运用随机模拟的方法,将Bayes估计和极大似然估计的优良性进行比较分析比较,结果表明LINEX损失函数下Bayes估计的精度比极大似然估计高. 展开更多
关键词 两参数指数-威布尔分布 损失函数 BAYES估计 极大似然估计
下载PDF
混合损失函数支持向量回归机的性能研究 被引量:6
17
作者 李小光 《西北大学学报(自然科学版)》 CAS CSCD 北大核心 2011年第2期210-214,共5页
目的研究混合损失函数的支持向量回归机。方法综合一次ε-不敏感损失函数和二次ε-不敏感损失函数的部分性质,得到一种混合损失函数。结果同一般的一次ε-不敏感损失函数支持向量回归机和二次ε-不敏感损失函数支持向量回归机相比较,对... 目的研究混合损失函数的支持向量回归机。方法综合一次ε-不敏感损失函数和二次ε-不敏感损失函数的部分性质,得到一种混合损失函数。结果同一般的一次ε-不敏感损失函数支持向量回归机和二次ε-不敏感损失函数支持向量回归机相比较,对数据的波动性不大,噪声不明显的数据,混合损失函数支持向量回归机的优势并不显著。结论该混合损失函数支持向量回归机对含有高斯强噪声和一些具有振幅较大的异常点所形成的数据具有较高的准确率。 展开更多
关键词 一次ε-不敏感损失函数 二次ε-不敏感损失函数 混合损失函数 支持向量回归机
下载PDF
不同损失下指数-威布尔分布参数的Bayes估计 被引量:4
18
作者 朱宁 方爱秋 《统计与决策》 CSSCI 北大核心 2008年第21期7-9,共3页
文章在对称和非对称损失函数下研究了两参数指数-威布尔分布(EWD)形状参数的Bayes估计问题。当其中一个形状参数α已知时,给出了另一个形状参数θ在三种不同损失函数下Bayes估计表达式及极大似然估计;运用随机模拟方法产生不同容量的样... 文章在对称和非对称损失函数下研究了两参数指数-威布尔分布(EWD)形状参数的Bayes估计问题。当其中一个形状参数α已知时,给出了另一个形状参数θ在三种不同损失函数下Bayes估计表达式及极大似然估计;运用随机模拟方法产生不同容量的样本对三种不同形式的Bayes估计及极大似然估计的精确度进行了比较。模拟结果说明,要提高估计的精确度,应根据样本数选取损失函数。 展开更多
关键词 两参数指数-威布尔分布 损失函数 BAYES估计 随机模拟方法
下载PDF
ε-不敏感的光滑支持向量回归机的收敛性 被引量:1
19
作者 陈勇 徐建敏 《计算机工程》 CAS CSCD 北大核心 2010年第15期185-187,190,共4页
ε-不敏感的光滑支持向量回归机采用快速的迭代方法进行求解,使回归性能及效率得到了提高,但并没有考虑该回归机的收敛性。针对该问题,采用集合论等方法,通过相关的理论推导,证明该光滑支持向量回归机对任意给定的惩罚参数都是全局收敛... ε-不敏感的光滑支持向量回归机采用快速的迭代方法进行求解,使回归性能及效率得到了提高,但并没有考虑该回归机的收敛性。针对该问题,采用集合论等方法,通过相关的理论推导,证明该光滑支持向量回归机对任意给定的惩罚参数都是全局收敛的,并给出它的收敛上界,为该光滑支持向量机提供了基本的理论支持。 展开更多
关键词 ε-不敏感损失函数 回归 支持向量机 光滑 收敛
下载PDF
柯布-道格拉斯生产函数在某企业定量安全投入分配中的应用 被引量:4
20
作者 牛肖铮 吕力行 尹欣 《科技和产业》 2011年第9期61-64,共4页
介绍安全投入的相关概念,对某企业的安全投入与事故损失情况进行了分析,并根据柯布-道格拉斯生产函数对该企业的各安全投入项目进行分析,得出各安全投入参数的最优分配比例,为下一年的定量安全投入分配提供依据,通过函数分析得出的数据... 介绍安全投入的相关概念,对某企业的安全投入与事故损失情况进行了分析,并根据柯布-道格拉斯生产函数对该企业的各安全投入项目进行分析,得出各安全投入参数的最优分配比例,为下一年的定量安全投入分配提供依据,通过函数分析得出的数据和当年的投资作对比,证明了柯布-道格拉斯函数在企业定量安全投入分配中的科学性。 展开更多
关键词 安全投入 柯布-道格拉斯生产函数 事故损失 安全效益 边际效益
下载PDF
上一页 1 2 5 下一页 到第
使用帮助 返回顶部