期刊文献+
共找到160篇文章
< 1 2 8 >
每页显示 20 50 100
Integral Data Benchmark of HENDL2.0/MG Compared with Neutronics Shielding Experiments 被引量:2
1
作者 蒋洁琼 许德政 +7 位作者 郑善良 何兆忠 胡杨林 李静惊 邹俊 曾勤 陈明亮 王明煌 《Plasma Science and Technology》 SCIE EI CAS CSCD 2009年第5期625-631,共7页
HENDL2.0, the latest version of the hybrid evaluated nuclear data library, was developed based upon some evaluated data from FENDL2.1 and ENDF/B-VII. To qualify and validate the working library, an integral test for t... HENDL2.0, the latest version of the hybrid evaluated nuclear data library, was developed based upon some evaluated data from FENDL2.1 and ENDF/B-VII. To qualify and validate the working library, an integral test for the neutron production data of HENDL2.0 was performed with a series of existing spherical shell benchmark experiments (such as V, Be, Fe, Pb, Cr, Mn, Cu, Al, Si, Co, Zr, Nb, Mo, W and Ti). These experiments were simulated numerically using HENDL2.0/MG and a home-developed code VisualBUS. Calculations were conducted with both FENDL2.1/MG and FENDL2.1/MC, which are based on a continuous-energy Monte Carlo Code MCNP/4C. By comparison and analysis of the neutron leakage spectra and the integral test, benchmark results of neutron production data are presented in this paper. 展开更多
关键词 benchmark data library HENDL VisualBUS SHIELDING fusion
下载PDF
Job schedulers for Big data processing in Hadoop environment: testing real-life schedulers using benchmark programs 被引量:2
2
作者 Mohd Usama Mengchen Liu Min Chen 《Digital Communications and Networks》 SCIE 2017年第4期260-273,共14页
At present, big data is very popular, because it has proved to be much successful in many fields such as social media, E-commerce transactions, etc. Big data describes the tools and technologies needed to capture, man... At present, big data is very popular, because it has proved to be much successful in many fields such as social media, E-commerce transactions, etc. Big data describes the tools and technologies needed to capture, manage, store, distribute, and analyze petabyte or larger-sized datasets having different structures with high speed. Big data can be structured, unstructured, or semi structured. Hadoop is an open source framework that is used to process large amounts of data in an inexpensive and efficient way, and job scheduling is a key factor for achieving high performance in big data processing. This paper gives an overview of big data and highlights the problems and challenges in big data. It then highlights Hadoop Distributed File System (HDFS), Hadoop MapReduce, and various parameters that affect the performance of job scheduling algorithms in big data such as Job Tracker, Task Tracker, Name Node, Data Node, etc. The primary purpose of this paper is to present a comparative study of job scheduling algorithms along with their experimental results in Hadoop environment. In addition, this paper describes the advantages, disadvantages, features, and drawbacks of various Hadoop job schedulers such as FIFO, Fair, capacity, Deadline Constraints, Delay, LATE, Resource Aware, etc, and provides a comparative study among these schedulers. 展开更多
关键词 Big data Hadoop MapReduce HDFS Scheduler Classification Locality benchmark
下载PDF
Second-Order MaxEnt Predictive Modelling Methodology. III: Illustrative Application to a Reactor Physics Benchmark
3
作者 Ruixian Fang Dan Gabriel Cacuci 《American Journal of Computational Mathematics》 2023年第2期295-322,共28页
This work illustrates the innovative results obtained by applying the recently developed the 2<sup>nd</sup>-order predictive modeling methodology called “2<sup>nd</sup>- BERRU-PM”, where the ... This work illustrates the innovative results obtained by applying the recently developed the 2<sup>nd</sup>-order predictive modeling methodology called “2<sup>nd</sup>- BERRU-PM”, where the acronym BERRU denotes “best-estimate results with reduced uncertainties” and “PM” denotes “predictive modeling.” The physical system selected for this illustrative application is a polyethylene-reflected plutonium (acronym: PERP) OECD/NEA reactor physics benchmark. This benchmark is modeled using the neutron transport Boltzmann equation (involving 21,976 uncertain parameters), the solution of which is representative of “large-scale computations.” The results obtained in this work confirm the fact that the 2<sup>nd</sup>-BERRU-PM methodology predicts best-estimate results that fall in between the corresponding computed and measured values, while reducing the predicted standard deviations of the predicted results to values smaller than either the experimentally measured or the computed values of the respective standard deviations. The obtained results also indicate that 2<sup>nd</sup>-order response sensitivities must always be included to quantify the need for including (or not) the 3<sup>rd</sup>- and/or 4<sup>th</sup>-order sensitivities. When the parameters are known with high precision, the contributions of the higher-order sensitivities diminish with increasing order, so that the inclusion of the 1<sup>st</sup>- and 2<sup>nd</sup>-order sensitivities may suffice for obtaining accurate predicted best- estimate response values and best-estimate standard deviations. On the other hand, when the parameters’ standard deviations are sufficiently large to approach (or be outside of) the radius of convergence of the multivariate Taylor-series which represents the response in the phase-space of model parameters, the contributions stemming from the 3<sup>rd</sup>- and even 4<sup>th</sup>-order sensitivities are necessary to ensure consistency between the computed and measured response. In such cases, the use of only the 1<sup>st</sup>-order sensitivities erroneously indicates that the computed results are inconsistent with the respective measured response. Ongoing research aims at extending the 2<sup>nd</sup>-BERRU-PM methodology to fourth-order, thus enabling the computation of third-order response correlations (skewness) and fourth-order response correlations (kurtosis). 展开更多
关键词 Second-Order Predictive Modeling OECD/NEA Reactor Physics benchmark data Assimilation Best-Estimate Results Uncertainty Quantification Reduced Predicted Uncertainties
下载PDF
基于ENDITS-2.1的CENDL-3.2临界基准检验
4
作者 吴海成 张环宇 《原子能科学技术》 EI CAS CSCD 北大核心 2024年第6期1271-1279,共9页
中国评价核数据库CENDL-3.2于2020年6月正式发布,并在ND2019上介绍了基于系统化宏观检验工具包ENDITS-1.0的临界基准检验结果。为更广泛测试新评价数据库的临界计算准确度并为将来的评价数据改进提供反馈,中国核数据中心发展了ENDITS-2... 中国评价核数据库CENDL-3.2于2020年6月正式发布,并在ND2019上介绍了基于系统化宏观检验工具包ENDITS-1.0的临界基准检验结果。为更广泛测试新评价数据库的临界计算准确度并为将来的评价数据改进提供反馈,中国核数据中心发展了ENDITS-2.1,并用其中2237个来自国际核临界安全手册ICSBEP2006的临界基准实验对国际最新版本的评价核数据库进行了临界基准检验。利用趋势分析方法和统计卡方对检验计算结果进行了分析,确定了获得改进的临界系统和评价数据,确认CENDL-3.2较CENDL-3.1有明显改进,临界计算准确度达国际领先水平。最后,结合对灵敏核素相关统计卡方的分析以及皮尔逊卡方检查,提出了CENDL-3.2库高优先级待改进核素清单,确定了CENDL库需要优先改进235,238U、239,240Pu、232Th等16种核素的核反应数据。 展开更多
关键词 评价核数据 临界基准检验 ENDITS-2.1 CENDL-3.2
下载PDF
BigDataBench:开源的大数据系统评测基准 被引量:34
5
作者 詹剑锋 高婉铃 +6 位作者 王磊 李经伟 魏凯 罗纯杰 韩锐 田昕晖 姜春宇 《计算机学报》 EI CSCD 北大核心 2016年第1期196-211,共16页
大数据系统的蓬勃发展催生了大数据基准测试的研究,如何公正地评价不同的大数据系统以及怎样根据需求选取合适的系统成为了热点问题.然而,应用领域的广泛性、数据类型的多样性和数据操作的复杂性使得大数据基准测试集的设计面临很大的挑... 大数据系统的蓬勃发展催生了大数据基准测试的研究,如何公正地评价不同的大数据系统以及怎样根据需求选取合适的系统成为了热点问题.然而,应用领域的广泛性、数据类型的多样性和数据操作的复杂性使得大数据基准测试集的设计面临很大的挑战.现有的相关基准测试工作要么针对某一类特定的应用或软件栈,要么根据流行度主观地选择大数据负载,难以全面覆盖大数据的多样性和复杂性.针对现有工作的不足,文中讨论大数据评测基准需要满足的需求,并研制了一个跨系统、体系结构、数据管理3个领域的大数据基准测试开源程序集——BigDataBench.它覆盖5个典型的应用领域(搜索引擎、电子商务、社交网络、多媒体、生物信息学),包含结构化、半结构化、非结构化的数据类型,涵盖离线分析、交互式分析、在线服务、NoSQL这4种负载类型.目前包含14个真实数据集、3种类型的数据生成工具以及33个负载的不同软件栈实现.BigDataBench已广泛应用到学术界和工业界中,应用案例包括负载分析、体系结构设计、系统优化等.基于BigDataBench,中国信息通信研究院联合中国科学院计算技术研究所、华为等国内外知名公司和科研机构共同制定了国内首个工业标准的大数据平台性能评测标准. 展开更多
关键词 大数据 基准测试 工业标准 测试方法 数据生成 应用案例
下载PDF
我国大型社会调查的经验与反思
6
作者 杨标致 李炜 《调研世界》 2024年第5期3-11,共9页
大型社会调查既为社会变迁的现状和趋势分析积累了宝贵的数据,又为教学、科研和公共决策提供了重要参考。21世纪以来,大型社会调查在抽样技术、管理模式、访问执行和数据分析等方面不断积累经验,为数据使用者提供高质量的数据库。本文... 大型社会调查既为社会变迁的现状和趋势分析积累了宝贵的数据,又为教学、科研和公共决策提供了重要参考。21世纪以来,大型社会调查在抽样技术、管理模式、访问执行和数据分析等方面不断积累经验,为数据使用者提供高质量的数据库。本文在总结这些经验的基础上,从测量的视角进行反思,以跨情境效度、概念规范性、比照权威统计为切入点,以典型概念的测量和数据分析为例子,从调查方法层面总结调查研究如何推动社会议题的发展。 展开更多
关键词 社会调查 测量 跨情境效度 数据标准化 权威统计对标
下载PDF
基于毫米波InSAR的数据获取研究
7
作者 康荔 杨晓磊 +1 位作者 刘莹 韩少峰 《工程技术研究》 2024年第8期38-40,共3页
机载毫米波干涉合成孔径雷达(InSAR)穿透雾、烟、灰尘、云、雨的能力强,具有全天候、全天时的特点,在复杂区域从事测绘工作的优势明显。但在数据获取过程中,需要研究如何规范流程才能获取高质量的数据。文章阐述了毫米波InSAR测绘的基... 机载毫米波干涉合成孔径雷达(InSAR)穿透雾、烟、灰尘、云、雨的能力强,具有全天候、全天时的特点,在复杂区域从事测绘工作的优势明显。但在数据获取过程中,需要研究如何规范流程才能获取高质量的数据。文章阐述了毫米波InSAR测绘的基本原理,重点介绍了数据获取的流程,并在试验案例中得以应用,通过所生产的1∶5000的数字表面模型(DSM)成果,充分验证了机载毫米波InSAR数据获取流程的可靠性。 展开更多
关键词 毫米波InSAR 数据获取 定标点 控制点
下载PDF
基于动态数据校正的非高斯系统性能评价研究
8
作者 左霞 《系统仿真技术》 2024年第1期85-90,共6页
针对现有工业系统运行中对非高斯噪声的影响处理不彻底的问题,设计一个基于动态数据校正的非高斯系统性能评价系统,其核心是通过动态数据校正来减少非高斯噪声对整个系统数据的影响。对于单输入单输出系统设计最小方差控制器,构建基于... 针对现有工业系统运行中对非高斯噪声的影响处理不彻底的问题,设计一个基于动态数据校正的非高斯系统性能评价系统,其核心是通过动态数据校正来减少非高斯噪声对整个系统数据的影响。对于单输入单输出系统设计最小方差控制器,构建基于最小方差的控制性能评价系统,然后通过动态数据校正(dynamic data reconciliation,DDR)技术分析噪声对评价的影响,构建校正评价标准。由于方差仅测量随机变量与均值的偏离程度,不能全面刻画非高斯随机特征,故引入最小有理熵(minimum rational entropy,MRE),构建DDR-MRE控制器,通过计算DDR-MRE的控制性能评价(control performance assessment,CPA)基准来获取非高斯系统评价标准,从而使控制系统长期保持在最佳状态运行。试验结果表明,该系统技术核算的数据误差率在可接受范围内。 展开更多
关键词 数据校正 DDR技术 MRE技术 CPA基准 SISO系统
下载PDF
大数据系统Benchmark测试综述 被引量:2
9
作者 闫义博 朱文强 +1 位作者 杨仝 李晓明 《网络新媒体技术》 2018年第3期6-13,共8页
Benchmark测试是目前最主要的计算机系统性能评测技术,其主要使用科学的评测方法测试系统的某些可量化性能指标,并通过对比不同的系统的测试结果对系统进行评价。在大数据时代背景下,与传统计算机系统相比,大数据相关的计算机系统具备... Benchmark测试是目前最主要的计算机系统性能评测技术,其主要使用科学的评测方法测试系统的某些可量化性能指标,并通过对比不同的系统的测试结果对系统进行评价。在大数据时代背景下,与传统计算机系统相比,大数据相关的计算机系统具备更高的多样性以及复杂性。因此Benchmark测试技术将涵盖广泛的应用领域并提供多样的数据类型和复杂的数据操作。本文对Benchmark测试技术中的测试规范进行了归纳总结,同时还列举了在大数据时代背景下Benchmark测试技术开发中的一些挑战以及发展趋势。 展开更多
关键词 基准测试 测试方法 大数据 性能
下载PDF
Integral Data Test of HENDL1.0/MG and VisualBUS with Neutronics Shielding Experiments (Ⅰ) 被引量:3
10
作者 高纯静 许德政 +2 位作者 李静惊 吴宜灿 邓铁如 《Plasma Science and Technology》 SCIE EI CAS CSCD 2004年第5期2507-2513,共7页
HENDL1.0/MG, a multi-group working library of the Hybrid Evaluated NuclearData Library, was home-developed by the FDS Team of ASIPP (Institute of Plasma Physics,Chinese Academy of Sciences) on the basis of several nat... HENDL1.0/MG, a multi-group working library of the Hybrid Evaluated NuclearData Library, was home-developed by the FDS Team of ASIPP (Institute of Plasma Physics,Chinese Academy of Sciences) on the basis of several national data libraries. To validate andqualify the process of producing HENDL1.0/MG, simulating calculations of a series of existentspherical shell benchmark experiments (Al, Mo, Co, Ti, Mn, W, Be and V) have been performedwith HENDL1.0/MG and the multifunctional neutronics code system named VisualBUS home-developed also by FDS Team. 展开更多
关键词 benchmark data library HENDL VisualBUS
下载PDF
基于空天大数据框架的智慧畜牧平台设计与应用研究
11
作者 王鹏 《中国科技纵横》 2024年第13期46-48,共3页
随着移动互联网、人工智能、位置感知技术的快速发展,以移动对象、空间/时空、遥感为代表的空天感知数据呈爆发式增长,成为新基建和数字化框架的重要基础。本文针对畜牧业发展中数据标准不统一、产业布局不科学、产值统计不精确、应用... 随着移动互联网、人工智能、位置感知技术的快速发展,以移动对象、空间/时空、遥感为代表的空天感知数据呈爆发式增长,成为新基建和数字化框架的重要基础。本文针对畜牧业发展中数据标准不统一、产业布局不科学、产值统计不精确、应用集成不完善等一系列问题,利用空天大数据多样、实时、关联性强等特点,汇聚畜牧生产经营活动中所产生的多源异构数据,设计并构建基于空天大数据框架的智慧畜牧平台,以此推动畜牧业从传统的数字化、网络化向智能化、智慧化的高端方向发展,进而提升产业全领域、全过程、全环节的监管水平。 展开更多
关键词 空天大数据 智慧畜牧 统一时空基准
下载PDF
Integral Data Test of HENDL1.0/MG with Neutronics Shielding Experiments (Ⅱ)
12
作者 高纯静 许德政 +2 位作者 李静惊 吴宜灿 邓铁如 《Plasma Science and Technology》 SCIE EI CAS CSCD 2004年第6期2596-2600,共5页
The multi-group working nuclear data library HENDL1.0/MG is numerically tested with a series of existent benchmark spherical shell experiments (Si, Cr, Fe, Cu, Zr and Nb) by calculations using the multi-functional neu... The multi-group working nuclear data library HENDL1.0/MG is numerically tested with a series of existent benchmark spherical shell experiments (Si, Cr, Fe, Cu, Zr and Nb) by calculations using the multi-functional neutronics code VisualBUS. The ratio of calculated/measured neutron leakage rates and the neutron leakage spectra are presented in tabular and figural forms. The results from the calculations with the code ANISN and IAEA data library FENDL2.0/MG were also included for comparison, where the origination of the data used is different from that of HENDL1.0/MG. 展开更多
关键词 benchmark nuclear data library HENDL VisualBUS
下载PDF
System-on-Chip Test Data Compression Based on Split-Data Variable Length (SDV) Code
13
作者 J. Robert Theivadas V. Ranganathan J. Raja Paul Perinbam 《Circuits and Systems》 2016年第8期1213-1223,共11页
System-on-a-chips with intellectual property cores need a large volume of data for testing. The large volume of test data requires a large testing time and test data memory. Therefore new techniques are needed to opti... System-on-a-chips with intellectual property cores need a large volume of data for testing. The large volume of test data requires a large testing time and test data memory. Therefore new techniques are needed to optimize the test data volume, decrease the testing time, and conquer the ATE memory limitation for SOC designs. This paper presents a new compression method of testing for intellectual property core-based system-on-chip. The proposed method is based on new split- data variable length (SDV) codes that are designed using the split-options along with identification bits in a string of test data. This paper analyses the reduction of test data volume, testing time, run time, size of memory required in ATE and improvement of compression ratio. Experimental results for ISCAS 85 and ISCAS 89 Benchmark circuits show that SDV codes outperform other compression methods with the best compression ratio for test data compression. The decompression architecture for SDV codes is also presented for decoding the implementations of compressed bits. The proposed scheme shows that SDV codes are accessible to any of the variations in the input test data stream. 展开更多
关键词 Test data Compression SDV Codes SOC ATE benchmark Circuits
下载PDF
基于相对标杆的科研质量评价
14
作者 周文泳 柏方云 张婧 《同济大学学报(自然科学版)》 EI CAS CSCD 北大核心 2023年第5期674-681,共8页
遴选和学习适合的相对科研标杆,有利于研究机构弥补因现行定量科研评价引发的负面效应。借鉴标杆管理、质量评价、数据包络分析法,从效率与质量视角,构建了一套基于相对标杆的科研质量评价体系(评价目标、准则、思路与方法)。以中国内... 遴选和学习适合的相对科研标杆,有利于研究机构弥补因现行定量科研评价引发的负面效应。借鉴标杆管理、质量评价、数据包络分析法,从效率与质量视角,构建了一套基于相对标杆的科研质量评价体系(评价目标、准则、思路与方法)。以中国内地31所典型985高校为对象,在科研效率评价的基础上,诊断和分析某高校的科研质量问题,遴选了可供学习的相对科研标杆,给出了科研质量提升建议。研究发现:学习相对标杆,有利于克服了传统标杆管理的局限性;基于相对标杆的科研质量评价方法,为高校有效识别和改进科研质量问题提供了有益启示。 展开更多
关键词 相对标杆 科研质量 质量评价 数据包络分析
下载PDF
基于微扰理论与抽样方法的临界实验数据不确定度分析研究 被引量:1
15
作者 张振洋 陈晓亮 +2 位作者 夏兆东 宁通 周琦 《原子能科学技术》 EI CAS CSCD 北大核心 2023年第11期2192-2200,共9页
基准化临界实验数据可为核数据的宏观检验、新型核能系统的设计方法验证以及核临界安全分析等提供基础数据支撑,不确定度分析是临界实验数据基准化评价中至关重要的一环。针对传统的基于测量不确定度表述导则(GUM)不确定度分析流程的“... 基准化临界实验数据可为核数据的宏观检验、新型核能系统的设计方法验证以及核临界安全分析等提供基础数据支撑,不确定度分析是临界实验数据基准化评价中至关重要的一环。针对传统的基于测量不确定度表述导则(GUM)不确定度分析流程的“一次一变策略”进行临界实验数据不确定度分析方法存在的缺陷与不足,提出了基于微扰理论与抽样方法的不确定度分析方法。利用研制的拉丁超立方抽样程序及复杂建模程序对中子毒物效应净堆芯临界实验数据基准化的不确定度进行计算分析,大幅提高了不确定度分析的效率及其准确性。本文结果为后续批量临界实验数据的基准化以及多参数的不确定度分析提供了更加高效合理的分析手段。 展开更多
关键词 微扰理论 临界实验数据基准化 不确定度分析 拉丁超立方抽样
下载PDF
基于大数据和标杆分析法的市级医院病种质量评价指标构建及应用 被引量:9
16
作者 侯冷晨 沈婷 +4 位作者 何慧敏 成月佳 余松轩 马延斌 沈兵 《中国卫生质量管理》 2023年第1期4-7,共4页
目的推动公立医院从粗放型管理转变为强调医疗质量和运营效率的精细化管理,引领公立医院高质量发展。方法以循证医学理念为核心,以病种精细化管理为抓手,以医疗大数据为基础,通过文献研究、专家咨询、层次分析、模型构建、标杆分析等方... 目的推动公立医院从粗放型管理转变为强调医疗质量和运营效率的精细化管理,引领公立医院高质量发展。方法以循证医学理念为核心,以病种精细化管理为抓手,以医疗大数据为基础,通过文献研究、专家咨询、层次分析、模型构建、标杆分析等方法对医疗质量管理的指标体系、评价方式、运行机制进行研究。结果构建了一种基于“病种-专科-医院”的区域分层医疗质量评价方法,开发了一套基于实时数据的标杆分析法,用于区域医疗质量的评价和持续改进,并通过信息化平台向全市市级医院展示。结论依托上海申康医院发展中心医联工程临床大数据平台,开展从病种、专科到医院的上海市级医院医疗质量评价及促进的实证研究,为公立医院高质量发展提供了新思路。 展开更多
关键词 大数据 标杆分析法 医疗质量 评价体系 信息化平台
下载PDF
低轨卫星数据链体系架构及应用前景 被引量:1
17
作者 陈康平 黄新明 李峥嵘 《导航定位学报》 CSCD 2023年第4期113-119,共7页
针对传统数据链面临的数据传输距离有限、数据传输容量受限,以及中高轨道卫星数据链存在着传输损耗大、延迟高等问题,提出基于低轨(LEO)卫星通信系统的低轨卫星数据链:介绍国内外低轨卫星通信系统的发展状况;总结加快发展建设适用于数... 针对传统数据链面临的数据传输距离有限、数据传输容量受限,以及中高轨道卫星数据链存在着传输损耗大、延迟高等问题,提出基于低轨(LEO)卫星通信系统的低轨卫星数据链:介绍国内外低轨卫星通信系统的发展状况;总结加快发展建设适用于数据链的低轨通信系统和在低轨卫星中放置数据链端机2种低轨卫星数据链建设方案,并提出适合低轨卫星数据链的抗干扰通信技术和低轨卫星数据链组网的时间基准、空间基准方案;最后分析低轨卫星数据链特点。结果表明低轨卫星数据链具有广阔的应用前景。 展开更多
关键词 数据链 低轨(LEO)卫星通信系统 低轨卫星数据链 抗干扰 时间基准 空间基准 应用前景
下载PDF
基于大数据可视化的混凝土质量分析及应用系统研究
18
作者 汪华文 胡骏 +2 位作者 秦明强 刘可心 余永升 《施工技术(中英文)》 CAS 2023年第2期20-24,71,共6页
针对当前混凝土信息化积累数据利用率不高、现场混凝土质量管控手段薄弱的问题,结合近3年混凝土技术咨询服务积累相关数据,开展包括混凝土原材料、配合比、留样强度质量多维度的质量特征值大数据挖掘;建立对应维度下的质量标杆,结合可... 针对当前混凝土信息化积累数据利用率不高、现场混凝土质量管控手段薄弱的问题,结合近3年混凝土技术咨询服务积累相关数据,开展包括混凝土原材料、配合比、留样强度质量多维度的质量特征值大数据挖掘;建立对应维度下的质量标杆,结合可视化技术,对混凝土多方面质量标杆信息进行动态统计、质量预警,实现了混凝土生产全过程质量定向管理和迭代优化,为混凝土可视化管控技术提供参考。 展开更多
关键词 混凝土 大数据 质量标杆 特征值 可视化
下载PDF
台区同期线损率标杆值与合理区间计算方法
19
作者 王淑云 李新家 +2 位作者 严永辉 赵磊 徐博 《电力大数据》 2023年第3期11-18,共8页
同期线损率合理值计算是配电台区线损精细化管理的重要组成部分,为定位线损异常台区并精准降损提供有效的技术支撑。本文将影响线损的复杂因素分解与降维,避免难以准确获取的台区网架参数,建立基于计量偏差、均衡满载工况下的线路传输... 同期线损率合理值计算是配电台区线损精细化管理的重要组成部分,为定位线损异常台区并精准降损提供有效的技术支撑。本文将影响线损的复杂因素分解与降维,避免难以准确获取的台区网架参数,建立基于计量偏差、均衡满载工况下的线路传输损耗、负荷特征、基础损耗等台区特性参数的同期线损率计算模型。基于大数据分析,提出特性参数的“双重学习”求解算法,实现每个台区个性化特性参数的求解;通过对同类型台区参数的关联分析,求解各类型台区的特性参数合理区间,实现异常台区的判别和参数合理值学习;最终实现全量台区在不同供电量下的同期线损率标杆值与合理区间智能计算。基于实际应用,验证了算法模型的合理性与有效性。 展开更多
关键词 同期线损率 标杆值 合理区间 大数据分析 双重学习 智能判别
下载PDF
基于分组的两步DEA基准学习
20
作者 姚佳 李俊桥 张青 《陆军工程大学学报》 2023年第4期32-39,共8页
数据包络分析(data envelopment analysis,DEA)在为决策单元(decision making unit,DMU)评估效率水平的同时,可为其中的非有效单元提供消除低效的改进措施,即基准信息。但经典DEA模型为非有效单元提供的基准信息不易一步到位,缺乏对分... 数据包络分析(data envelopment analysis,DEA)在为决策单元(decision making unit,DMU)评估效率水平的同时,可为其中的非有效单元提供消除低效的改进措施,即基准信息。但经典DEA模型为非有效单元提供的基准信息不易一步到位,缺乏对分组信息的充分利用。在依赖上下文的DEA框架内进行开发,提出了一种基于分组的两步DEA基准学习模型。模型使用加权L1范式衡量待评估单元与相应目标的接近程度。通过最小化实际点到Pareto有效边界的距离,为每一个决策单元在组内和全局的最佳实践前沿上分别设立单独基准,解决了在实践中目标点难以一步实现的问题,模型的结果可以视为针对最佳实践的长期改进策略。由于充分考虑了分组信息,模型能够反映给定基准过程中涉及的DMU周围环境,并增强了组内DMU在设立目标上的灵活性。该模型被用于评估西班牙公立大学的科研水平,通过对比实验验证了该模型的优势。 展开更多
关键词 数据包络分析 决策单元 基准学习 目标设定
下载PDF
上一页 1 2 8 下一页 到第
使用帮助 返回顶部