期刊文献+
共找到37篇文章
< 1 2 >
每页显示 20 50 100
A Survey on Chinese Sign Language Recognition:From Traditional Methods to Artificial Intelligence
1
作者 Xianwei Jiang Yanqiong Zhang +1 位作者 Juan Lei Yudong Zhang 《Computer Modeling in Engineering & Sciences》 SCIE EI 2024年第7期1-40,共40页
Research on Chinese Sign Language(CSL)provides convenience and support for individuals with hearing impairments to communicate and integrate into society.This article reviews the relevant literature on Chinese Sign La... Research on Chinese Sign Language(CSL)provides convenience and support for individuals with hearing impairments to communicate and integrate into society.This article reviews the relevant literature on Chinese Sign Language Recognition(CSLR)in the past 20 years.Hidden Markov Models(HMM),Support Vector Machines(SVM),and Dynamic Time Warping(DTW)were found to be the most commonly employed technologies among traditional identificationmethods.Benefiting from the rapid development of computer vision and artificial intelligence technology,Convolutional Neural Networks(CNN),3D-CNN,YOLO,Capsule Network(CapsNet)and various deep neural networks have sprung up.Deep Neural Networks(DNNs)and their derived models are integral tomodern artificial intelligence recognitionmethods.In addition,technologies thatwerewidely used in the early days have also been integrated and applied to specific hybrid models and customized identification methods.Sign language data collection includes acquiring data from data gloves,data sensors(such as Kinect,LeapMotion,etc.),and high-definition photography.Meanwhile,facial expression recognition,complex background processing,and 3D sign language recognition have also attracted research interests among scholars.Due to the uniqueness and complexity of Chinese sign language,accuracy,robustness,real-time performance,and user independence are significant challenges for future sign language recognition research.Additionally,suitable datasets and evaluation criteria are also worth pursuing. 展开更多
关键词 Chinese Sign Language Recognition deep neural networks artificial intelligence transfer learning hybrid network models
下载PDF
Predicting rock size distribution in mine blasting using various novel soft computing models based on meta-heuristics and machine learning algorithms 被引量:3
2
作者 Chengyu Xie Hoang Nguyen +3 位作者 Xuan-Nam Bui Yosoon Choi Jian Zhou Thao Nguyen-Trang 《Geoscience Frontiers》 SCIE CAS CSCD 2021年第3期458-472,共15页
Blasting is well-known as an effective method for fragmenting or moving rock in open-pit mines.To evaluate the quality of blasting,the size of rock distribution is used as a critical criterion in blasting operations.A... Blasting is well-known as an effective method for fragmenting or moving rock in open-pit mines.To evaluate the quality of blasting,the size of rock distribution is used as a critical criterion in blasting operations.A high percentage of oversized rocks generated by blasting operations can lead to economic and environmental damage.Therefore,this study proposed four novel intelligent models to predict the size of rock distribution in mine blasting in order to optimize blasting parameters,as well as the efficiency of blasting operation in open mines.Accordingly,a nature-inspired algorithm(i.e.,firefly algorithm-FFA)and different machine learning algorithms(i.e.,gradient boosting machine(GBM),support vector machine(SVM),Gaussian process(GP),and artificial neural network(ANN))were combined for this aim,abbreviated as FFA-GBM,FFA-SVM,FFA-GP,and FFA-ANN,respectively.Subsequently,predicted results from the abovementioned models were compared with each other using three statistical indicators(e.g.,mean absolute error,root-mean-squared error,and correlation coefficient)and color intensity method.For developing and simulating the size of rock in blasting operations,136 blasting events with their images were collected and analyzed by the Split-Desktop software.In which,111 events were randomly selected for the development and optimization of the models.Subsequently,the remaining 25 blasting events were applied to confirm the accuracy of the proposed models.Herein,blast design parameters were regarded as input variables to predict the size of rock in blasting operations.Finally,the obtained results revealed that the FFA is a robust optimization algorithm for estimating rock fragmentation in bench blasting.Among the models developed in this study,FFA-GBM provided the highest accuracy in predicting the size of fragmented rocks.The other techniques(i.e.,FFA-SVM,FFA-GP,and FFA-ANN)yielded lower computational stability and efficiency.Hence,the FFA-GBM model can be used as a powerful and precise soft computing tool that can be applied to practical engineering cases aiming to improve the quality of blasting and rock fragmentation. 展开更多
关键词 Mine blasting Rock fragmentation artificial intelligence Hybrid model Gradient boosting machine Meta-heuristic algorithm
下载PDF
Functionalized Data Operator Model for System Analysis and Forecasting
3
作者 George Danko 《Applied Mathematics》 2022年第12期988-1021,共34页
A deconvolution data processing is developed for obtaining a Functionalized Data Operator (FDO) model that is trained to approximate past and present, input-output data relations. The FDO model is designed to predict ... A deconvolution data processing is developed for obtaining a Functionalized Data Operator (FDO) model that is trained to approximate past and present, input-output data relations. The FDO model is designed to predict future output features for deviated input vectors from any expected, feared of conceivable, future input for optimum control, forecast, or early-warning hazard evaluation. The linearized FDO provides fast analytical, input-output solution in matrix equation form. If the FDO is invertible, the necessary input for a desired output may be explicitly evaluated. A numerical example is presented for FDO model identification and hazard evaluation for methane inflow into the working face in an underground mine: First, a Physics-Based Operator (PBO) model to match monitored data. Second, FDO models are identified for matching the observed, short-term variations with time in the measured data of methane inflow, varying model parameters and simplifications following the parsimony concept of Occam’s Razor. The numerical coefficients of the PBO and FDO models are found to differ by two to three orders of magnitude for methane release as a function of short-time barometric pressure variations. As being data-driven, the significantly different results from an FDO versus PBO model is either an indication of methane release processes poorly understood and modeled in PBO, missing some physics for the pressure spikes;or of problems in the monitored data fluctuations, erroneously sampled with time;or of false correlation. Either way, the FDO model is originated from the functionalized form of the monitored data, and its result is considered experimentally significant within the specified RMS error of model matching. 展开更多
关键词 artificial intelligence Machine Learning Matrix Operator numerical Functionalization Convolution model DECONVOLUTION Occam’s Razor
下载PDF
Hybrid Power Bank Deployment Model for Energy Supply Coverage Optimization in Industrial Wireless Sensor Network
4
作者 Hang Yang Xunbo Li Witold Pedrycz 《Intelligent Automation & Soft Computing》 SCIE 2023年第8期1531-1551,共21页
Energy supply is one of the most critical challenges of wireless sensor networks(WSNs)and industrial wireless sensor networks(IWSNs).While research on coverage optimization problem(COP)centers on the network’s monito... Energy supply is one of the most critical challenges of wireless sensor networks(WSNs)and industrial wireless sensor networks(IWSNs).While research on coverage optimization problem(COP)centers on the network’s monitoring coverage,this research focuses on the power banks’energy supply coverage.The study of 2-D and 3-D spaces is typical in IWSN,with the realistic environment being more complex with obstacles(i.e.,machines).A 3-D surface is the field of interest(FOI)in this work with the established hybrid power bank deployment model for the energy supply COP optimization of IWSN.The hybrid power bank deployment model is highly adaptive and flexible for new or existing plants already using the IWSN system.The model improves the power supply to a more considerable extent with the least number of power bank deployments.The main innovation in this work is the utilization of a more practical surface model with obstacles and training while improving the convergence speed and quality of the heuristic algorithm.An overall probabilistic coverage rate analysis of every point on the FOI is provided,not limiting the scope to target points or areas.Bresenham’s algorithm is extended from 2-D to 3-D surface to enhance the probabilistic covering model for coverage measurement.A dynamic search strategy(DSS)is proposed to modify the artificial bee colony(ABC)and balance the exploration and exploitation ability for better convergence toward eliminating NP-hard deployment problems.Further,the cellular automata(CA)is utilized to enhance the convergence speed.The case study based on two typical FOI in the IWSN shows that the CA scheme effectively speeds up the optimization process.Comparative experiments are conducted on four benchmark functions to validate the effectiveness of the proposed method.The experimental results show that the proposed algorithm outperforms the ABC and gbest-guided ABC(GABC)algorithms.The results show that the proposed energy coverage optimization method based on the hybrid power bank deployment model generates more accurate results than the results obtained by similar algorithms(i.e.,ABC,GABC).The proposed model is,therefore,effective and efficient for optimization in the IWSN. 展开更多
关键词 Industrial wireless sensor network hybrid power bank deployment model:energy supply coverage optimization artificial bee colony algorithm radio frequency numerical function optimization
下载PDF
基于“技术道德化”理论的生成式人工智能教育应用潜能与风险研究
5
作者 童慧 杨彦军 《电化教育研究》 北大核心 2024年第7期12-18,共7页
随着生成式人工智能的快速发展及其在教育领域的广泛应用,国内外研究者围绕它及其背后的大语言模型教育应用问题展开了热烈的讨论,但大部分研究因缺乏对生成式人工智能技术原理的了解而在问题探讨中存在伊莉莎效应。研究首先在对生成式... 随着生成式人工智能的快速发展及其在教育领域的广泛应用,国内外研究者围绕它及其背后的大语言模型教育应用问题展开了热烈的讨论,但大部分研究因缺乏对生成式人工智能技术原理的了解而在问题探讨中存在伊莉莎效应。研究首先在对生成式人工智能技术学原理进行深入剖析的基础上,从维贝克“人—技杂合”视角对生成式人工智能的本质展开技术哲学分析;其次,基于“技术道德化”理论分析了生成式人工智能教育应用的四大潜能和面临的五大风险挑战;最后,提出基于“人—技杂合”的思想从“设计者”和“使用者”两种视角构建“双向奔赴”的全球人工智能治理体系,将成为未来探索的重要方向。 展开更多
关键词 生成式人工智能 技术道德化 大模型 人—技杂合 应用风险
下载PDF
基于并行自适应遗传算法的水文模型率定研究
6
作者 左翔 马剑波 丛小飞 《水利水电技术(中英文)》 北大核心 2024年第3期102-112,共11页
【目的】参数率定是影响水文模型预报精度的重要因素,采用人工智能算法可以有效提高水文模型参数的率定效果。【方法】采用基于种群离散程度的自适应算子,对GA算法的交叉、变异和迁移过程进行自适应优化,并利用粗粒度并行计算模型提高... 【目的】参数率定是影响水文模型预报精度的重要因素,采用人工智能算法可以有效提高水文模型参数的率定效果。【方法】采用基于种群离散程度的自适应算子,对GA算法的交叉、变异和迁移过程进行自适应优化,并利用粗粒度并行计算模型提高种群进化效率,综合以上手段研究了一种基于自适应策略的并行遗传算法。将传统遗传算法(GA),串行自适应遗传算法(AGA)和并行自适应遗传算法(PAGA),应用于屯溪流域新安江模型的参数率定,从率定效率、率定收敛性、率定稳定性和率定效果四个方面,验证PAGA算法的综合性能。【结果】结果表明:PAGA算法的计算加速效果显著,在10核环境下相对于AGA算法计算时间减少了87.9%;在进化后期,PAGA算法能够更加稳定的收敛于最优解,收敛后的目标函数值具有更好的稳定性;在验证期的场次洪水模拟中,采用PAGA算法率定的模型模拟效果最优,总体洪水合格率大于90%,确定性系数均值为0.85。【结论】PAGA算法能够明显降低模型参数寻优耗时,改善模型率定效果和收敛性能,为水文模型参数的率定提供了新思路。 展开更多
关键词 水文预报 遗传算法 自适应策略 新安江模型 并行计算 人工智能算法 径流 数值模拟
下载PDF
强对流实况分析关键技术与产品研制进展和展望 被引量:2
7
作者 葛玲玲 师春香 +1 位作者 谷军霞 徐宾 《气象科技进展》 2023年第3期14-21,28,共9页
加强短时强降水、雷暴大风、冰雹和龙卷等强对流天气的科学认识对防灾减灾等精细化气象预报服务具有重要意义。如何基于过去和现在的观测去分析当前的强对流天气发生、发展情况是一个重要和具有挑战性的问题。调研了美国、欧洲、亚洲、... 加强短时强降水、雷暴大风、冰雹和龙卷等强对流天气的科学认识对防灾减灾等精细化气象预报服务具有重要意义。如何基于过去和现在的观测去分析当前的强对流天气发生、发展情况是一个重要和具有挑战性的问题。调研了美国、欧洲、亚洲、加拿大和澳大利亚等强对流实况分析业务系统的现状,并从多角度对比了美国的预警决策支持系统—综合信息(WDSS-II)、奥地利的综合分析集成临近预报(INCA)和中国的强对流天气短时临近预报(SWAN)业务系统的现状。此外,针对强对流实况分析产品与预报实践的结合,调研了对强对流实况分析产品应用具有启发性的美国国家海洋和大气管理局(NOAA)的试验平台和春季预报试验。同时,梳理了国内外强对流实况分析研究技术动向,对比了快速更新同化数值模式、概念模型预报技术以及识别追踪和外推预报技术等强对流预报预警技术的优缺点,并回顾了近年来国内外各大主流机构的强对流实况分析人工智能解决方案,为我国今后的强对流实况分析体系建设提供借鉴和思考,为后续开展具有自身特色的强对流多源融合实况分析研究奠定基础。 展开更多
关键词 强对流实况分析 识别追踪 预报预警 数值模式 人工智能 应用反馈
下载PDF
基于CDIO模式的人工智能赋能混合式教学方法 被引量:5
8
作者 邱思航 艾川 陈彬 《高教学刊》 2023年第7期14-17,共4页
针对当前混合式教学方法容易忽视创新实践能力培养的问题,该文结合CDIO工程教育模式,提出人工智能赋能的线上线下混合式教学方法。该文基于线下授课为教学主线,线上虚拟实验为创新实践环节的教学模式,结合人工智能系统与学习分析等技术... 针对当前混合式教学方法容易忽视创新实践能力培养的问题,该文结合CDIO工程教育模式,提出人工智能赋能的线上线下混合式教学方法。该文基于线下授课为教学主线,线上虚拟实验为创新实践环节的教学模式,结合人工智能系统与学习分析等技术为教学中的创新实践环节赋能,进一步丰富课程资源、提升学习体验、提高教学质量。该文以寻源算法学习为例,深入开展混合式教学方法在培养学生创新实践能力、促进学习参与度与成就感、发展量化分析评价方法中的应用与实践,并为相关课程提供可资借鉴的混合式教学实施方案。 展开更多
关键词 CDIO模式 人工智能赋能教育 混合式教学 混合智能 寻源算法
下载PDF
基于人工智能与大数据的双碳大气环境信息化应用进展与展望
9
作者 朱明明 曹无敌 +8 位作者 吴林 王自溪 廖琦 张思 唐晓 李杰 王婧 王彦棡 王自发 《数据与计算发展前沿》 CSCD 2023年第3期2-12,共11页
[目的]二氧化碳与大气污染物化石燃料排放同源,在碳达峰碳中和的双碳进程中应协同治理,改善双碳大气环境。大气环境信息化应用主要基于大气化学传输数值模式展开,而双碳大气环境信息化应用还处于起步阶段。近年来,人工智能与大数据技术... [目的]二氧化碳与大气污染物化石燃料排放同源,在碳达峰碳中和的双碳进程中应协同治理,改善双碳大气环境。大气环境信息化应用主要基于大气化学传输数值模式展开,而双碳大气环境信息化应用还处于起步阶段。近年来,人工智能与大数据技术在双碳大气环境上的应用愈加广泛,蕴育科研范式从数值模式向与人工智能、大数据深度融合变革,因而亟需梳理当前进展并展望未来发展方向与路径。[方法]通过调研领域工作,勾勒基于人工智能与大数据的双碳大气环境信息化应用的研究路径和发展方向。[结果]双碳大气环境信息化应用应以人工智能、大数据科技创新实现对大气化学传输模式的融合替代,形成应用体系,实现更高精度、更快速度的数字化治理。[局限]本文提出的概念与设计,有待于未来的实施与验证。[结论]人工智能与大数据技术的应用,带来双碳大气环境科研范式变革机遇,同时也提出了挑战。协同推进算法突破与信息化系统研制,有助于实现这一科研范式变革。 展开更多
关键词 双碳大气环境 大气化学传输模式 人工智能与大数据 人工智能与数值模式融合 科研范式转变
下载PDF
人工智能技术驱动的纺纱质量预测研究进展 被引量:2
10
作者 赵薇玲 章军辉 +2 位作者 陈明亮 李庆 陈大鹏 《丝绸》 CAS CSCD 北大核心 2023年第4期61-70,共10页
本文探讨了人工智能技术在纺纱质量预测领域的应用、创新与不足,介绍了Hadoop技术为纺纱质量预测建模提供可靠高效的数据处理与运算平台,重点阐述了智能建模方法在纺纱质量预测领域的研究进展。通过分析得出基于数据与知识融合驱动的人... 本文探讨了人工智能技术在纺纱质量预测领域的应用、创新与不足,介绍了Hadoop技术为纺纱质量预测建模提供可靠高效的数据处理与运算平台,重点阐述了智能建模方法在纺纱质量预测领域的研究进展。通过分析得出基于数据与知识融合驱动的人工智能技术,构建出多工序关联的混合智能模型,用以准确描述纱线质量与纤维特性、工艺参数、环境参数等之间的非线性映射关系,可为试纺、过程参数设计、态势预测等环节提供指导,具有重要的理论研究意义。 展开更多
关键词 纺纱质量预测 人工智能 Hadoop技术 混合智能模型 目标优化 发展趋势
下载PDF
国内外太阳能资源评估方法研究现状和展望 被引量:2
11
作者 王科 黄晶 《气候变化研究进展》 CSCD 北大核心 2023年第2期160-172,共13页
太阳能被认为是最有希望大规模利用的可再生能源,具有广阔的应用前景。对太阳能资源进行合理且准确的评估是太阳能资源开发利用的第一步,也是关键的一步。然而全球大部分地区的太阳辐射观测资料十分有限,利用其他气象数据对太阳能资源... 太阳能被认为是最有希望大规模利用的可再生能源,具有广阔的应用前景。对太阳能资源进行合理且准确的评估是太阳能资源开发利用的第一步,也是关键的一步。然而全球大部分地区的太阳辐射观测资料十分有限,利用其他气象数据对太阳能资源进行评估是目前的主流方法。文中归纳和总结国内外太阳能资源评估的4种主要方法的基本原理、主要技术路线以及最新研究进展,对比分析不同方法的误差范围,系统地讨论各种评估方法的不足,并在此基础上对太阳能资源评估方法在我国未来的发展趋势进行了展望。经验模型和人工智能模型较依赖数据的特征,物理模型中云影响太阳辐射过程的描述存在不准确性,数值天气预报模式中资料同化和物理过程参数化方案的选定较关键。发展多种方法结合的太阳能资源混合评估模型是未来太阳能资源评估的主要发展方向之一。 展开更多
关键词 太阳能资源评估 经验模型 物理模型 数值天气预报 人工智能 均方根误差
下载PDF
深度强化学习在电网实时计划编排中的应用 被引量:1
12
作者 刘金波 宋旭日 +3 位作者 杨楠 万雄 蔡宇 黄宇鹏 《电力系统自动化》 EI CSCD 北大核心 2023年第14期157-166,共10页
面对新型电力系统的强不确定性、快速增长的控制规模、低碳化运行目标等变化,实时计划编排将会呈现高维、非线性、非凸的复杂特征,以强化学习为代表的数据驱动算法为探索实时计划快速优化编排带来了新思路。文中将深度强化学习引入实时... 面对新型电力系统的强不确定性、快速增长的控制规模、低碳化运行目标等变化,实时计划编排将会呈现高维、非线性、非凸的复杂特征,以强化学习为代表的数据驱动算法为探索实时计划快速优化编排带来了新思路。文中将深度强化学习引入实时计划编排模型中,构建面向强化学习的实时计划编排仿真环境;提出了双层多目标多智能体深度强化学习实时计划编排方法,该方法基于模型-数据混合驱动强化学习思想,采用双层架构以及多智能体设计,实现实时计划并行快速编排。最后,通过算例验证了所提方法的有效性和可行性。 展开更多
关键词 电网调度 实时计划 人工智能 深度强化学习 模型-数据混合驱动
下载PDF
基于云模型的进化算法 被引量:127
13
作者 张光卫 何锐 +2 位作者 刘禹 李德毅 陈桂生 《计算机学报》 EI CSCD 北大核心 2008年第7期1082-1091,共10页
基于云模型在非规范知识的定性、定量表示及其相互转换过程中的优良特征,结合进化计算的基本思想,提出一种基于云模型的进化算法.该算法利用云模型对物种的遗传变异进化统一建模,能够自适应控制遗传变异的程度和搜索空间的范围,从而可... 基于云模型在非规范知识的定性、定量表示及其相互转换过程中的优良特征,结合进化计算的基本思想,提出一种基于云模型的进化算法.该算法利用云模型对物种的遗传变异进化统一建模,能够自适应控制遗传变异的程度和搜索空间的范围,从而可以快速收敛到最优解,较好地避免了传统遗传算法易陷入局部最优解和选择压力过大造成的早熟收敛等问题.仿真结果表明:该算法具有精度高、收敛速度快等优点.云模型和进化计算思想的有效结合一方面拓宽了云模型的应用领域,也为进化计算的研究进行了新的探索和尝试. 展开更多
关键词 云模型 进化计算 遗传算法 数值优化 人工智能
下载PDF
基于模型的混杂系统中控制器故障诊断方法 被引量:3
14
作者 赵剑 欧阳丹彤 +1 位作者 王晓宇 张立明 《吉林大学学报(工学版)》 EI CAS CSCD 北大核心 2011年第1期155-159,共5页
为解决混杂系统中控制器故障诊断问题,提出一种混杂系统故障发生在控制器与设备组件之上的新诊断方法,解决了控制器故障检测与诊断问题,并给出解决上述问题的基本诊断算法。实验结果表明,该算法程序简单且效率较好,对于复杂的被诊断对... 为解决混杂系统中控制器故障诊断问题,提出一种混杂系统故障发生在控制器与设备组件之上的新诊断方法,解决了控制器故障检测与诊断问题,并给出解决上述问题的基本诊断算法。实验结果表明,该算法程序简单且效率较好,对于复杂的被诊断对象可以满足实时性。 展开更多
关键词 人工智能 基于模型的诊断 混合键合图 混杂系统
下载PDF
混成系统的分布式诊断方法 被引量:2
15
作者 赵剑 欧阳丹彤 +1 位作者 王晓宇 张立明 《吉林大学学报(工学版)》 EI CAS CSCD 北大核心 2012年第6期1498-1504,共7页
提出了一种基于分布式自动机模型的混成系统故障诊断方法。在分布式自动机模拟的混合键合图方法下,设计并实现了系统诊断。能够在系统模式动态改变时根据相应的时间因果图模型自动生成分布式时间因果图和分布式自动机。故障发生时,根据... 提出了一种基于分布式自动机模型的混成系统故障诊断方法。在分布式自动机模拟的混合键合图方法下,设计并实现了系统诊断。能够在系统模式动态改变时根据相应的时间因果图模型自动生成分布式时间因果图和分布式自动机。故障发生时,根据生成的时间因果图在分布自动机内进行诊断。分布式自动机将诊断空间分解成较小规模,从而提高了诊断效率。最后,在三容水箱模型标准测试样例上进行了系统测试,结果验证了本文方法具有较高的正确性及处理效率。 展开更多
关键词 人工智能 基于模型的诊断 混成系统 混合键合图 分布式诊断
下载PDF
基于混合并行遗传算法和阈值限定法的基因调控网络构建 被引量:4
16
作者 郑明 卓慕瑰 +2 位作者 张树功 周柚 刘桂霞 《吉林大学学报(工学版)》 EI CAS CSCD 北大核心 2017年第2期624-631,共8页
为了解决传统基因调控网络构建算法准确度不高的问题,提出了一种基于混合并行遗传算法和阈值限定法的新型基因调控网络构建算法。该算法分缩小解空间和参数拟合两部分,缩小解空间阶段先用奇异值分解法限定数学上可行的基因调控网络,减... 为了解决传统基因调控网络构建算法准确度不高的问题,提出了一种基于混合并行遗传算法和阈值限定法的新型基因调控网络构建算法。该算法分缩小解空间和参数拟合两部分,缩小解空间阶段先用奇异值分解法限定数学上可行的基因调控网络,减少不必要计算,然后用阈值限定法将每个基因的控制基因限定到一定规模,提高计算效率的同时更合乎生物信息学规则。参数拟合部分先用并行遗传算法在整个解空间快速寻优,而后采用爬山法进行小范围细致求解,提高计算精度。实验部分将本文算法应用于人类复杂疾病的皮肤黑色素瘤和2型糖尿病基因调控网络的构建上。本文计算结果与真实网络作对比,验证了本文算法的有效性。同时将本文计算结果与传统遗传算法,粒子群算法进行比较,证明本文算法具有更高的执行效率。 展开更多
关键词 人工智能 混合并行遗传算法 阈值限定法 奇异值分解 微分方程模型 基因调控网络
下载PDF
自然语言处理的计算模型 被引量:17
17
作者 张钹 《中文信息学报》 CSCD 北大核心 2007年第3期3-7,共5页
本文讨论自然语言处理的计算模型。目前已经存在有各种类型的语言计算模型,如分析模型、概率统计模型、混合模型等,这些模型各具特色,并存在其自身的局限性。自然语言处理作为一个不适定问题,我们将讨论求解这类问题的本质困难,面临的挑... 本文讨论自然语言处理的计算模型。目前已经存在有各种类型的语言计算模型,如分析模型、概率统计模型、混合模型等,这些模型各具特色,并存在其自身的局限性。自然语言处理作为一个不适定问题,我们将讨论求解这类问题的本质困难,面临的挑战,以及解决这些困难的途径。 展开更多
关键词 人工智能 自然语言处理 计算模型 分析模型 概念统计模型 混合模型 不适定问题
下载PDF
混合模型下的雅可比矩阵退火算法优化 被引量:4
18
作者 王静红 冯婵 柴变芳 《深圳大学学报(理工版)》 EI CAS CSCD 北大核心 2021年第2期188-193,共6页
退火算法可有效发现网络结构的聚类分布情况,但在不同的网络中算法处理结果的准确性有待提高.为更精确地识别混合模型网络结构中的数据分布,解决混合模型易陷入局部最大值和收敛等问题,提出混合模型下雅可比矩阵退火算法.首先利用逆温... 退火算法可有效发现网络结构的聚类分布情况,但在不同的网络中算法处理结果的准确性有待提高.为更精确地识别混合模型网络结构中的数据分布,解决混合模型易陷入局部最大值和收敛等问题,提出混合模型下雅可比矩阵退火算法.首先利用逆温度参数β对模型进行初始化,然后迭代执行计算期望步骤和最大化步骤2个任务;采用雅可比矩阵计算模型的后验概率,直至算法达到设定的准确性或收敛.将建立的雅可比矩阵退火算法与半监督高斯混合模型下的逆模拟退火聚类算法在真实网络上进行对比分析,实验结果表明,基于雅可比矩阵的算法在混合网络模型中的准确性更优.该算法不仅能防止陷入局部最优,而且能提高分析网络聚类分布的准确性. 展开更多
关键词 人工智能理论 复杂网络 混合模型 退火算法 收敛速度 雅可比矩阵 半监督学习
下载PDF
一种优化的神经网络数字预失真方法 被引量:3
19
作者 张烈 冯燕 《西北工业大学学报》 EI CAS CSCD 北大核心 2014年第6期967-973,共7页
提出一种基于遗传算法和低阶广义记忆多项式实值神经网络的射频功率放大器数字预失真方法。该方法将遗传算法优化的低阶广义记忆多项式模型与神经网络模型进行级联来增强校正模型与功放失真的匹配程度。它不仅可以提升模型的校正能力,... 提出一种基于遗传算法和低阶广义记忆多项式实值神经网络的射频功率放大器数字预失真方法。该方法将遗传算法优化的低阶广义记忆多项式模型与神经网络模型进行级联来增强校正模型与功放失真的匹配程度。它不仅可以提升模型的校正能力,同时可以加快网络的收敛速度。采用60MHz的三载波LTE信号进行实验,通过与实值延时线神经网络模型对比,在收敛速度上有显著提升,同时在邻道功率泄露ACLR指标上有6 d B左右改善。 展开更多
关键词 射频功率放大器 数字预失真 神经网络模型 广义记忆多项式模型 实值延时线神经网络模型 遗传算法
下载PDF
化工过程的智能混合建模方法及应用 被引量:13
20
作者 张梦轩 刘洪辰 +3 位作者 王敏 蓝兴英 石孝刚 高金森 《化工进展》 EI CAS CSCD 北大核心 2021年第4期1765-1776,共12页
随着人工智能技术和配套数据系统的快速发展,化工过程建模技术达到了新的高度,将多个机理模型和数据驱动模型以合理的结构加以组合的智能混合建模方法,可以综合利用化工过程的第一性原理及过程数据,结合人工智能算法以串联、并联或者混... 随着人工智能技术和配套数据系统的快速发展,化工过程建模技术达到了新的高度,将多个机理模型和数据驱动模型以合理的结构加以组合的智能混合建模方法,可以综合利用化工过程的第一性原理及过程数据,结合人工智能算法以串联、并联或者混联的形式解决化工过程中的模拟、监测、优化和预测等问题,建模目的明确,过程灵活,形成的混合模型有着更好的整体性能,是近年来过程建模技术的重要发展趋势。本文围绕近年来针对化工过程的智能混合建模工作进行了总结,包括应用的机器学习算法、混合结构设计、结构选择等关键问题,重点论述了混合模型在不同任务场景下的应用。指出混合建模的关键在于问题和模型结构的匹配,而提高机理子模型性能,获取高质量宽范围的数据,深化对过程机理的理解,形成更有效率的混合建模范式,这些都是现阶段提高混合建模性能的研究方向。 展开更多
关键词 过程系统工程 混合建模 机器学习 人工智能 神经网络
下载PDF
上一页 1 2 下一页 到第
使用帮助 返回顶部