为了进一步提高极限学习机(extreme learning machine,ELM)的稳定性和稀疏性,在鲁棒ELM的基础上,引入l_(0)范数作为模型的正则项来提高稀疏性,建立了基于l_(0)范数正则项的稀疏鲁棒ELM。首先,通过一个凸差(difference of convex,DC)函...为了进一步提高极限学习机(extreme learning machine,ELM)的稳定性和稀疏性,在鲁棒ELM的基础上,引入l_(0)范数作为模型的正则项来提高稀疏性,建立了基于l_(0)范数正则项的稀疏鲁棒ELM。首先,通过一个凸差(difference of convex,DC)函数逼近l_(0)范数,得到一个DC规划的优化问题;然后,采用DC算法进行求解;最后,在人工数据集和基准数据集上进行实验。实验结果表明:基于l_(0)范数的鲁棒ELM能够同时实现稀疏性和鲁棒性的提升,尤其在稀疏性上表现出较大的优势。展开更多
以L1范数为例,设计了一个L1范数的大间隔分类器L1MMC(L1-norm Maximum Margin Classifier),主要特点如下:(1)间隔由L1范数的点到平面距离解析表示;(2)该分类器与SVM一样,通过最大化L1间隔,达到同时最小化经验风险和结构风险的目的;(3)...以L1范数为例,设计了一个L1范数的大间隔分类器L1MMC(L1-norm Maximum Margin Classifier),主要特点如下:(1)间隔由L1范数的点到平面距离解析表示;(2)该分类器与SVM一样,通过最大化L1间隔,达到同时最小化经验风险和结构风险的目的;(3)只需要通过线性规划进行求解,避免了SVM的二次规划问题;(4)分类精度达到甚至超过SVM.最后,在人工数据和国际标准UCI数据集上,验证了该方法的有效性.展开更多
文摘为了进一步提高极限学习机(extreme learning machine,ELM)的稳定性和稀疏性,在鲁棒ELM的基础上,引入l_(0)范数作为模型的正则项来提高稀疏性,建立了基于l_(0)范数正则项的稀疏鲁棒ELM。首先,通过一个凸差(difference of convex,DC)函数逼近l_(0)范数,得到一个DC规划的优化问题;然后,采用DC算法进行求解;最后,在人工数据集和基准数据集上进行实验。实验结果表明:基于l_(0)范数的鲁棒ELM能够同时实现稀疏性和鲁棒性的提升,尤其在稀疏性上表现出较大的优势。
文摘以L1范数为例,设计了一个L1范数的大间隔分类器L1MMC(L1-norm Maximum Margin Classifier),主要特点如下:(1)间隔由L1范数的点到平面距离解析表示;(2)该分类器与SVM一样,通过最大化L1间隔,达到同时最小化经验风险和结构风险的目的;(3)只需要通过线性规划进行求解,避免了SVM的二次规划问题;(4)分类精度达到甚至超过SVM.最后,在人工数据和国际标准UCI数据集上,验证了该方法的有效性.