期刊文献+
共找到69篇文章
< 1 2 4 >
每页显示 20 50 100
Video caching and scheduling with edge cooperation
1
作者 Zhidu Li Fuxiang Li +2 位作者 Tong Tang Hong Zhang Jin Yang 《Digital Communications and Networks》 SCIE CSCD 2024年第2期450-460,共11页
In this paper,we explore a distributed collaborative caching and computing model to support the distribution of adaptive bit rate video streaming.The aim is to reduce the average initial buffer delay and improve the q... In this paper,we explore a distributed collaborative caching and computing model to support the distribution of adaptive bit rate video streaming.The aim is to reduce the average initial buffer delay and improve the quality of user experience.Considering the difference between global and local video popularities and the time-varying characteristics of video popularity,a two-stage caching scheme is proposed to push popular videos closer to users and minimize the average initial buffer delay.Based on both long-term content popularity and short-term content popularity,the proposed caching solution is decouple into the proactive cache stage and the cache update stage.In the proactive cache stage,we develop a proactive cache placement algorithm that can be executed in an off-peak period.In the cache update stage,we propose a reactive cache update algorithm to update the existing cache policy to minimize the buffer delay.Simulation results verify that the proposed caching algorithms can reduce the initial buffer delay efficiently. 展开更多
关键词 Video service Distributed and collaborative caching Long-term popularity Short-term popularity
下载PDF
Proactive Caching at the Wireless Edge:A Novel Predictive User Popularity-Aware Approach
2
作者 Yunye Wan Peng Chen +8 位作者 Yunni Xia Yong Ma Dongge Zhu Xu Wang Hui Liu Weiling Li Xianhua Niu Lei Xu Yumin Dong 《Computer Modeling in Engineering & Sciences》 SCIE EI 2024年第8期1997-2017,共21页
Mobile Edge Computing(MEC)is a promising technology that provides on-demand computing and efficient storage services as close to end users as possible.In an MEC environment,servers are deployed closer to mobile termin... Mobile Edge Computing(MEC)is a promising technology that provides on-demand computing and efficient storage services as close to end users as possible.In an MEC environment,servers are deployed closer to mobile terminals to exploit storage infrastructure,improve content delivery efficiency,and enhance user experience.However,due to the limited capacity of edge servers,it remains a significant challenge to meet the changing,time-varying,and customized needs for highly diversified content of users.Recently,techniques for caching content at the edge are becoming popular for addressing the above challenges.It is capable of filling the communication gap between the users and content providers while relieving pressure on remote cloud servers.However,existing static caching strategies are still inefficient in handling the dynamics of the time-varying popularity of content and meeting users’demands for highly diversified entity data.To address this challenge,we introduce a novel method for content caching over MEC,i.e.,PRIME.It synthesizes a content popularity prediction model,which takes users’stay time and their request traces as inputs,and a deep reinforcement learning model for yielding dynamic caching schedules.Experimental results demonstrate that PRIME,when tested upon the MovieLens 1M dataset for user request patterns and the Shanghai Telecom dataset for user mobility,outperforms its peers in terms of cache hit rates,transmission latency,and system cost. 展开更多
关键词 Mobile edge computing content caching system average cost deep reinforcement learning collaborative mechanism
下载PDF
ECC:Edge Collaborative Caching Strategy for Differentiated Services Load-Balancing 被引量:1
3
作者 Fang Liu Zhenyuan Zhang +1 位作者 Zunfu Wang Yuting Xing 《Computers, Materials & Continua》 SCIE EI 2021年第11期2045-2060,共16页
Due to the explosion of network data traffic and IoT devices,edge servers are overloaded and slow to respond to the massive volume of online requests.A large number of studies have shown that edge caching can solve th... Due to the explosion of network data traffic and IoT devices,edge servers are overloaded and slow to respond to the massive volume of online requests.A large number of studies have shown that edge caching can solve this problem effectively.This paper proposes a distributed edge collaborative caching mechanism for Internet online request services scenario.It solves the problem of large average access delay caused by unbalanced load of edge servers,meets users’differentiated service demands and improves user experience.In particular,the edge cache node selection algorithm is optimized,and a novel edge cache replacement strategy considering the differentiated user requests is proposed.This mechanism can shorten the response time to a large number of user requests.Experimental results show that,compared with the current advanced online edge caching algorithm,the proposed edge collaborative caching strategy in this paper can reduce the average response delay by 9%.It also increases the user utility by 4.5 times in differentiated service scenarios,and significantly reduces the time complexity of the edge caching algorithm. 展开更多
关键词 Edge collaborative caching differentiated service cache replacement strategy load balancing
下载PDF
Deep Reinforcement Learning Empowered Edge Collaborative Caching Scheme for Internet of Vehicles
4
作者 Xin Liu Siya Xu +4 位作者 Chao Yang Zhili Wang Hao Zhang Jingye Chi Qinghan Li 《Computer Systems Science & Engineering》 SCIE EI 2022年第7期271-287,共17页
With the development of internet of vehicles,the traditional centralized content caching mode transmits content through the core network,which causes a large delay and cannot meet the demands for delay-sensitive servi... With the development of internet of vehicles,the traditional centralized content caching mode transmits content through the core network,which causes a large delay and cannot meet the demands for delay-sensitive services.To solve these problems,on basis of vehicle caching network,we propose an edge colla-borative caching scheme.Road side unit(RSU)and mobile edge computing(MEC)are used to collect vehicle information,predict and cache popular content,thereby provide low-latency content delivery services.However,the storage capa-city of a single RSU severely limits the edge caching performance and cannot handle intensive content requests at the same time.Through content sharing,col-laborative caching can relieve the storage burden on caching servers.Therefore,we integrate RSU and collaborative caching to build a MEC-assisted vehicle edge collaborative caching(MVECC)scheme,so as to realize the collaborative caching among cloud,edge and vehicle.MVECC uses deep reinforcement learning to pre-dict what needs to be cached on RSU,which enables RSUs to cache more popular content.In addition,MVECC also introduces a mobility-aware caching replace-ment scheme at the edge network to reduce redundant cache and improving cache efficiency,which allows RSU to dynamically replace the cached content in response to the mobility of vehicles.The simulation results show that the pro-posed MVECC scheme can improve cache performance in terms of energy cost and content hit rate. 展开更多
关键词 Internet of vehicles vehicle caching network collaborative caching caching replacement deep reinforcement learning
下载PDF
Research on message resource optimization in computer supported collaborative design 被引量:1
5
作者 ZhangJingyi ZhangShensheng ChenChun WangBo 《Journal of Systems Engineering and Electronics》 SCIE EI CSCD 2004年第2期184-189,共6页
An adaptive mechanism is presented to reduce bandwidth usage and to optimize the use of computing resources of heterogeneous computer mixes utilized in CSCD to reach the goal of collaborative design in distributed-syn... An adaptive mechanism is presented to reduce bandwidth usage and to optimize the use of computing resources of heterogeneous computer mixes utilized in CSCD to reach the goal of collaborative design in distributed-synchronous mode. The mechanism is realized on a C/S architecture based on operation information sharing. Firstly, messages are aggregated into packets on the client. Secondly, an outgoing-message weight priority queue with traffic adjusting technique is cached on the server. Thirdly, an incoming-message queue is cached on the client. At last, the results of implementing the proposed scheme in a simple collaborative design environment are presented. 展开更多
关键词 collaborative design message caching SYNCHRONOUS data packet.
下载PDF
Towards Cache-Assisted Hierarchical Detection for Real-Time Health Data Monitoring in IoHT
6
作者 Muhammad Tahir Mingchu Li +4 位作者 Irfan Khan Salman AAl Qahtani Rubia Fatima Javed Ali Khan Muhammad Shahid Anwar 《Computers, Materials & Continua》 SCIE EI 2023年第11期2529-2544,共16页
Real-time health data monitoring is pivotal for bolstering road services’safety,intelligence,and efficiency within the Internet of Health Things(IoHT)framework.Yet,delays in data retrieval can markedly hinder the eff... Real-time health data monitoring is pivotal for bolstering road services’safety,intelligence,and efficiency within the Internet of Health Things(IoHT)framework.Yet,delays in data retrieval can markedly hinder the efficacy of big data awareness detection systems.We advocate for a collaborative caching approach involving edge devices and cloud networks to combat this.This strategy is devised to streamline the data retrieval path,subsequently diminishing network strain.Crafting an adept cache processing scheme poses its own set of challenges,especially given the transient nature of monitoring data and the imperative for swift data transmission,intertwined with resource allocation tactics.This paper unveils a novel mobile healthcare solution that harnesses the power of our collaborative caching approach,facilitating nuanced health monitoring via edge devices.The system capitalizes on cloud computing for intricate health data analytics,especially in pinpointing health anomalies.Given the dynamic locational shifts and possible connection disruptions,we have architected a hierarchical detection system,particularly during crises.This system caches data efficiently and incorporates a detection utility to assess data freshness and potential lag in response times.Furthermore,we introduce the Cache-Assisted Real-Time Detection(CARD)model,crafted to optimize utility.Addressing the inherent complexity of the NP-hard CARD model,we have championed a greedy algorithm as a solution.Simulations reveal that our collaborative caching technique markedly elevates the Cache Hit Ratio(CHR)and data freshness,outshining its contemporaneous benchmark algorithms.The empirical results underscore the strength and efficiency of our innovative IoHT-based health monitoring solution.To encapsulate,this paper tackles the nuances of real-time health data monitoring in the IoHT landscape,presenting a joint edge-cloud caching strategy paired with a hierarchical detection system.Our methodology yields enhanced cache efficiency and data freshness.The corroborative numerical data accentuates the feasibility and relevance of our model,casting a beacon for the future trajectory of real-time health data monitoring systems. 展开更多
关键词 Real-time health data monitoring cache-Assisted Real-Time Detection(CARD) edge-cloud collaborative caching scheme hierarchical detection Internet of Health Things(IoHT)
下载PDF
面向缓存的动态协作任务迁移技术研究
7
作者 赵晓焱 赵斌 +1 位作者 张俊娜 袁培燕 《计算机科学》 CSCD 北大核心 2024年第2期300-310,共11页
边缘网络中不断出现的计算密集和延迟敏感型业务推动了任务迁移技术的快速发展。然而,任务迁移过程中存在应用场景复杂多变、问题建模难度高等技术瓶颈。尤其是考虑用户移动时,如何保证用户服务的稳定性和连续性,设计合理的任务迁移策... 边缘网络中不断出现的计算密集和延迟敏感型业务推动了任务迁移技术的快速发展。然而,任务迁移过程中存在应用场景复杂多变、问题建模难度高等技术瓶颈。尤其是考虑用户移动时,如何保证用户服务的稳定性和连续性,设计合理的任务迁移策略仍是一个值得深入探讨的问题。因此,提出了一种移动感知的服务预缓存模型和任务预迁移策略,将任务迁移问题转化为最优分簇与边缘服务预缓存的组合优化问题。首先,基于用户的移动轨迹对当前执行任务状态进行预测,引入动态协作簇和迁移预测半径的概念,提出了一种面向移动和负载两种任务场景的预迁移模型,解决了何时何地迁移的问题。然后,针对需要迁移的任务,基于最大容忍时延约束分析协作簇半径和簇内目标服务器数量的极限值,提出了以用户为中心的分布式多服务器间动态协作分簇算法(Distributed Dynamic Multi-server Cooperative Clustering Algorithm,DDMC)以及面向服务缓存的深度强化学习算法(Cache Based Double Deep Q Network,C-DDQN),解决了最优分簇和服务缓存问题。最后,利用服务缓存的因果关系,设计了一种低复杂度的交替最小化服务缓存位置更新算法,求解出了最佳迁移目标服务器集合,实现了任务迁移中的服务器协作及网络负载均衡。实验结果表明,提出的迁移选择算法具有良好的鲁棒性和系统性能,相比其他迁移算法所消耗的总成本降低了至少12.06%,所消耗的总时延降低了至少31.92%。 展开更多
关键词 移动边缘计算 服务缓存 动态协作簇 任务迁移 深度强化学习
下载PDF
存储体编译和布局协同的片上缓存设计方法
8
作者 刘必慰 熊琪 +1 位作者 杨茗 宋雨露 《国防科技大学学报》 EI CAS CSCD 北大核心 2024年第1期198-203,共6页
为了提高片上缓存的速度、降低面积和功耗,提出了一种存储体编译和布局协同的片上缓存设计方法。该方法基于存储体在芯片上的不同空间位置预估该存储体的时序余量,分别采用拆分/合并、尺寸调整、阈值替换和长宽比变形等多种配置参数穷... 为了提高片上缓存的速度、降低面积和功耗,提出了一种存储体编译和布局协同的片上缓存设计方法。该方法基于存储体在芯片上的不同空间位置预估该存储体的时序余量,分别采用拆分/合并、尺寸调整、阈值替换和长宽比变形等多种配置参数穷举组合进行存储体编译,根据时序余量选择最优的静态随机存取存储器存储体编译配置。将该方法与现有的物理设计步骤集成为一个完整的设计流程。实验结果表明,该方法能够降低约9.9%的功耗,同时缩短7.5%的关键路径延时。 展开更多
关键词 片上缓存 静态随机存取存储器 协同设计 低功耗
下载PDF
边缘计算中支持分簇编排的应用缓存方法研究
9
作者 张文柱 邵正源 余静华 《小型微型计算机系统》 CSCD 北大核心 2024年第5期1209-1217,共9页
移动边缘计算通过在距离终端更近的位置提供计算存储服务来提供更优的任务处理表现.为减少系统通信链路压力,进一步优化任务处理时延和能耗,本文首先提出了一种支持位置更新的分布式分簇编排策略,对通信区域进行分簇和簇头选取,簇头作... 移动边缘计算通过在距离终端更近的位置提供计算存储服务来提供更优的任务处理表现.为减少系统通信链路压力,进一步优化任务处理时延和能耗,本文首先提出了一种支持位置更新的分布式分簇编排策略,对通信区域进行分簇和簇头选取,簇头作为编排节点进行簇内管理,当有卸载任务时寻找最佳执行设备进行处理;然后基于Docker容器提出应用程序协作缓存算法,通过在存储资源丰富的设备中提前部署高频拉取的应用程序来降低任务部署延迟,从而进一步降低任务处理延迟;最后应用多接入边缘计算仿真平台进行对比实验,结果表明提出的分簇编排策略和协作缓存算法可以有效降低网络和CPU占用率,获得超低任务部署和完成时延,显著提高服务质量,并显示出强可扩展性. 展开更多
关键词 移动边缘计算 编排策略 簇头选取 协作缓存 Docker容器
下载PDF
基于隐式协作缓存机制的WSN网络能耗优化算法
10
作者 张鑫 《计算机仿真》 2024年第2期425-429,共5页
针对无线传感器网络(Wireless Sensor Networks,WSN)节点间缓存空间压力造成计算、存储、通信能力差的问题,提出一种基于隐式协作缓存机制的WSN网络能耗优化算法。在明确WSN网络数据采集机制的基础上,使用远端节点缓存内容的隐式协作,... 针对无线传感器网络(Wireless Sensor Networks,WSN)节点间缓存空间压力造成计算、存储、通信能力差的问题,提出一种基于隐式协作缓存机制的WSN网络能耗优化算法。在明确WSN网络数据采集机制的基础上,使用远端节点缓存内容的隐式协作,降低网络节点间缓存空间压力,平衡节点间的缓存替换率;以传感器到基站的距离、节点剩余能量以及节点分散比重作为优化指标,获得选举簇头无线传感器网络能耗优化算法。仿真结果表明,所提方法可以降低WSN节点能耗,使WSN网络中不同节点能量消耗相对平衡,有效延长了WSN网络使用周期。 展开更多
关键词 无线传感器网络 隐式协作 分簇协议 能量消耗 缓存机制 能耗优化
下载PDF
面向存算联调的跨云纠删码自适应数据访问方法
11
作者 张凯鑫 王意洁 +1 位作者 包涵 阚浚晖 《计算机研究与发展》 EI CSCD 北大核心 2024年第3期571-588,共18页
日益旺盛的跨云存算联调需求对跨云数据访问速度提出较高要求.因此,跨云数据访问速度较高的基于数据冗余技术(纠删码和多副本)的跨云数据访问方法逐渐受到关注.其中,基于纠删码的跨云数据访问方法因其存储开销较低、容错性较高而成为当... 日益旺盛的跨云存算联调需求对跨云数据访问速度提出较高要求.因此,跨云数据访问速度较高的基于数据冗余技术(纠删码和多副本)的跨云数据访问方法逐渐受到关注.其中,基于纠删码的跨云数据访问方法因其存储开销较低、容错性较高而成为当前研究热点.为通过缩短编码块传输用时以提高数据访问速度,现有基于纠删码的跨云数据访问方法尝试引入缓存技术并优化编码数据访问方案.然而,由于现有方法的缓存管理粒度较粗且未协同优化缓存管理与编码数据访问方案,导致其存在缓存命中量低、缓存命中增效低、低传输速度编码块访问量大等问题,使得其编码块传输用时仍较长.为此,首先提出了一种基于星际文件系统(interplanetary file system,IPFS)的跨云存储系统框架(IPFS-based cross-cloud storage system framework,IBCS),可基于IPFS数据分片管理机制实现细粒度的缓存管理,从而可提高缓存命中量.然后,提出一种面向存算联调的跨云纠删码自适应数据访问方法(adaptive erasure-coded data access method for cross-cloud collaborative scheduling of storage and computation,AECAM).AECAM以编码块(含缓存编码块)与数据访问节点的分布为依据评估数据访问过程中各编码块的传输速度,并据此制定可避免访问低传输速度编码块的编码数据访问方案.此外,AECAM可识别出其制定编码数据访问方案时易选中且实际传输速度较低的编码块,并将其缓存在数据访问节点附近,从而可同时提高缓存命中量和命中增效.最后,基于IBCS和AECAM构建了面向跨云存算联调的存储系统(cross-cloud storage system for collaborative scheduling of storage and computation,C2S2).跨云环境下的实验表明,相较于现有引入缓存的基于纠删码的存储系统,C2S2可以将数据访问速度提高75.22%~81.29%. 展开更多
关键词 跨云存算联调 纠删码 数据访问技术 星际文件系统 缓存
下载PDF
考虑岸桥缓存区和能耗节约的AGV协同调度研究
12
作者 陈信强 戴锦宇 +1 位作者 刘恕浩 韩冰 《中国航海》 CSCD 北大核心 2024年第3期72-80,共9页
针对自动化集装箱码头岸桥与自动导引小车(Automatic Guided Vehicle, AGV)之间相互等待以及由此产生的能耗浪费等问题,提出了考虑岸桥缓存区和能耗节约的AGV协同调度模型。以岸桥作业延误时间,岸桥和AGV双向等待时间以及设备等待延误... 针对自动化集装箱码头岸桥与自动导引小车(Automatic Guided Vehicle, AGV)之间相互等待以及由此产生的能耗浪费等问题,提出了考虑岸桥缓存区和能耗节约的AGV协同调度模型。以岸桥作业延误时间,岸桥和AGV双向等待时间以及设备等待延误能耗为目标建立了多目标混合整数规划模型。提出遗传-模拟退火算法,将遗传算法的结果作为模拟退火算法的初始解输入,在提升模拟退火算法初始解质量的同时还摆脱了遗传算法陷入局部最优的情况。用遗传-模拟退火算法对模型进行求解,并与其他算法进行对比,试验结果表明:遗传-模拟退火算法在收敛速度和收敛效果上相对于其他算法均有所提升。该研究对于码头决策者在调度作业中提高设备作业连续性、节约能耗,实现绿色低碳优化调度具有参考意义。 展开更多
关键词 自动化集装箱码头 岸桥缓存区 能耗节约 AGV协同调度
下载PDF
MEC动态联合服务缓存和请求调度优化算法 被引量:1
13
作者 徐正超 黎作鹏 《计算机工程与设计》 北大核心 2024年第5期1451-1457,共7页
针对移动边缘计算(MEC)中边缘服务器资源有限,服务提供商面临如何充分利用稀缺的边缘资源最大化系统性能的问题,提出一种基于李雅普诺夫优化的动态优化算法。建立服务缓存和请求调度模型,得到在满足服务缓存成本的长期预算约束时最小化... 针对移动边缘计算(MEC)中边缘服务器资源有限,服务提供商面临如何充分利用稀缺的边缘资源最大化系统性能的问题,提出一种基于李雅普诺夫优化的动态优化算法。建立服务缓存和请求调度模型,得到在满足服务缓存成本的长期预算约束时最小化系统延迟的优化函数模型;利用李雅普诺夫优化技术将长期优化问题转化为多个连续时隙的实时优化问题,设计对偶分解算法求解实时优化问题。通过仿真实验验证了所提算法的有效性。 展开更多
关键词 移动边缘计算 服务缓存 请求调度 协同计算 联合优化 李雅普诺夫函数 对偶分解算法
下载PDF
基于竞价模式和智能迭代模式的边缘协作缓存算法研究
14
作者 李长敏琛 陆飞澎 王燕灵 《现代电子技术》 北大核心 2024年第12期165-169,共5页
为了让用户更快地获取内容,提出一种基于竞价模式和智能迭代模式的综合式边缘协作缓存算法。在竞价算法部分,采用熵权法计算中间值、访问热度、缓存空间和内容热度的权重,并综合计算节点上内容的缓存分数,根据缓存分数进行缓存替换。在... 为了让用户更快地获取内容,提出一种基于竞价模式和智能迭代模式的综合式边缘协作缓存算法。在竞价算法部分,采用熵权法计算中间值、访问热度、缓存空间和内容热度的权重,并综合计算节点上内容的缓存分数,根据缓存分数进行缓存替换。在迭代算法部分,将网络空间划分为多个子域,每个子域通过混合遗传算法进行周期性计算,并得出子域内内容缓存方案。实验结果表明,所提算法在降低云服务器负载、减少请求平均跳数方面具有明显的优势。 展开更多
关键词 边缘计算 协作缓存 竞价模式 智能迭代模式 熵权法 网络空间 混合遗传算法
下载PDF
Blockchain-based collaborative edge caching scheme for trustworthy content sharing 被引量:1
15
作者 Zhou Yutong Li Xi +1 位作者 Ji Hong Zhang Heli 《The Journal of China Universities of Posts and Telecommunications》 EI CSCD 2021年第2期38-47,共10页
Moving data from cloud to the edge network can effectively reduce traffic burden on the core network,and edge collaboration can further improve the edge caching capacity and the quality of service(QoS).However,it is d... Moving data from cloud to the edge network can effectively reduce traffic burden on the core network,and edge collaboration can further improve the edge caching capacity and the quality of service(QoS).However,it is difficult for various edge caching devices to cooperate due to the lack of trust and the existence of malicious nodes.In this paper,blockchain which has the distributed and immutable characteristics is utilized to build a trustworthy collaborative edge caching scheme to make full use of the storage resources of various edge devices.The collaboration process is described in this paper,and a proof of credit(PoC)protocol is proposed,in which credit and tokens are used to encourage nodes to cache and transmit more content in honest behavior.Untrusted nodes will pay for their malicious actions such as tampering or deleting cached data.Since each node chooses strategy independently to maximize its benefits in an environment of mutual influence,a non-cooperative game model is designed to study the caching behavior among edge nodes.The existence of Nash equilibrium(NE)is proved in this game,so the edge server(ES)can choose the optimal caching strategy for all collaborative devices,including itself,to obtain the maximum rewards.Simulation results show that the system can save mining overhead as well as organize a trusted collaborative edge caching effectively. 展开更多
关键词 caching blockchain collaborative edges consensus mechanism game theory
原文传递
CoCache:基于文件关联性的协同缓存策略 被引量:1
16
作者 孟子潇 《计算机应用与软件》 北大核心 2018年第7期52-56,共5页
在大数据查询过程中,有时需要对两个有关联的文件同时进行操作,在这种情况下进行缓存时,可以通过考虑文件的关联性以提高查询效率和缓存命中率。提出一种基于文件关联性的协同缓存策略称为CoCache。利用文件的元信息,提出定义文件关联... 在大数据查询过程中,有时需要对两个有关联的文件同时进行操作,在这种情况下进行缓存时,可以通过考虑文件的关联性以提高查询效率和缓存命中率。提出一种基于文件关联性的协同缓存策略称为CoCache。利用文件的元信息,提出定义文件关联性的方法,并且给出缓存方案,即在进行缓存和替换的时候,将有关联性的部分绑定操作。实验表明,CoCache可以提高数据缓存效率,减少查询时间。 展开更多
关键词 大数据 文件关联 协同缓存
下载PDF
服务缓存约束下优化用户设备执行成本的任务卸载策略 被引量:1
17
作者 张俊娜 陈家伟 +2 位作者 鲍想 刘春红 袁培燕 《计算机科学》 CSCD 北大核心 2023年第10期275-281,共7页
边缘计算通过在网络边缘侧提供更优的计算和存储能力,能够有效降低用户设备的执行时延和能耗。随着应用程序对计算和存储资源的需求越来越大,任务卸载作为消除用户设备固有限制的一种有效手段,成为了主要的研究热点之一。然而,在已有的... 边缘计算通过在网络边缘侧提供更优的计算和存储能力,能够有效降低用户设备的执行时延和能耗。随着应用程序对计算和存储资源的需求越来越大,任务卸载作为消除用户设备固有限制的一种有效手段,成为了主要的研究热点之一。然而,在已有的任务卸载研究中,常常忽略不同类型的任务对服务需求的多样性以及边缘服务器服务缓存有限的情形,从而导致不可行的卸载决策。因此,在服务缓存约束下,研究了能够使得用户设备执行成本最优的任务卸载问题。首先设计了云服务器、边缘服务器和本地设备的协同卸载模型,用于平衡边缘服务器的负载问题,同时借助云服务器弥补边缘服务器有限的服务缓存能力。然后,提出了适用于云边端协同的任务卸载算法,优化用户设备的执行成本。当任务被卸载时,先采用改进的贪婪算法选择最佳的边缘服务器,再通过比较任务在不同位置上的执行成本,来确定任务的卸载决策。实验结果表明,所提算法相比对比算法能够有效降低用户设备的执行成本。 展开更多
关键词 边缘计算 任务卸载 云边端协同 服务缓存 卸载策略优化
下载PDF
区块链辅助的多边缘服务器协作视频流缓存优化策略 被引量:1
18
作者 郭永安 周沂 +3 位作者 王全 王宇翱 程瑶 朱浩 《数据采集与处理》 CSCD 北大核心 2023年第6期1353-1368,共16页
随着互联网视频流量增长和用户对体验质量的要求提高,传统骨干网面临巨大压力。移动边缘缓存技术可以减少延迟、减轻回程链路负载,提升视频用户的体验质量。然而,边缘服务器缓存资源的有限性、视频请求内容的动态性以及用户对缓存数据... 随着互联网视频流量增长和用户对体验质量的要求提高,传统骨干网面临巨大压力。移动边缘缓存技术可以减少延迟、减轻回程链路负载,提升视频用户的体验质量。然而,边缘服务器缓存资源的有限性、视频请求内容的动态性以及用户对缓存数据安全性的关注,对边缘缓存策略研究提出了新的挑战。针对以上问题,提出了一种区块链辅助的多边缘服务器协作视频流缓存优化方案。其中,构建了一个由内容分发网络(Content delivery network,CDN)服务器、边缘服务器、用户设备和区块链组成的4层网络架构,并引入区块链共识机制来保护请求延迟不敏感的计费视频内容,保证用户的数据安全。基于本地命中、邻近命中和CDN命中3层缓存机制,通过定义邻近命中奖励因子,进一步加强边缘服务器之间的协作缓存,提高边缘服务器的缓存命中率。联合考虑边缘服务器的状态、内容流行度的变化以及多边缘服务器间协作缓存的资源分配,建立了最小化访问延迟、流量成本和系统能耗的优化问题,并采用基于多智能体近端策略优化(Multi-agent proximal policy optimization,MAPPO)的协作缓存优化算法进行问题求解。仿真结果表明,与现有缓存策略相比,可以有效提升视频内容的缓存命中率,同时也能节约能耗及时延成本。 展开更多
关键词 边缘计算 视频流 协作缓存 区块链 多智能体深度强化学习
下载PDF
基于图协同过滤模型的D2D协作缓存策略 被引量:1
19
作者 陈宁江 练林明 +1 位作者 欧平杰 袁雪梅 《通信学报》 EI CSCD 北大核心 2023年第7期136-148,共13页
针对设备到设备(D2D)缓存中基站信号覆盖范围有限导致的难以获得足够数据来预测用户偏好的问题,提出了一种基于图协同过滤模型的D2D协作缓存策略。首先,构建图协同过滤模型,通过多层图卷积神经网络捕捉用户-内容交互图中的高阶连通信息... 针对设备到设备(D2D)缓存中基站信号覆盖范围有限导致的难以获得足够数据来预测用户偏好的问题,提出了一种基于图协同过滤模型的D2D协作缓存策略。首先,构建图协同过滤模型,通过多层图卷积神经网络捕捉用户-内容交互图中的高阶连通信息,并利用多层感知机学习用户和内容之间的非线性关系来预测用户偏好。其次,为了最小化平均访问时延,综合考虑用户偏好和缓存时延收益,将缓存内容放置问题建模为马尔可夫决策过程模型,设计基于深度强化学习的协作缓存算法进行求解。仿真实验表明,与现有的缓存策略相比,所提缓存策略在不同的内容种类、用户密度和D2D通信距离参数下均取得了最优的性能效果。 展开更多
关键词 设备到设备 图协同过滤 协作缓存 深度强化学习
下载PDF
基于联盟链的边缘缓存系统收益最大化的缓存策略 被引量:1
20
作者 杨帆 姜静 +3 位作者 杜剑波 张雪薇 刘锰 琚磊 《计算机应用研究》 CSCD 北大核心 2023年第8期2447-2451,2466,共6页
边缘缓存技术能够将热点内容提前放置在距离用户较近的网络边缘,可以显著降低传输时延、提高网络效率。然而,不同的运营商各自部署边缘设备,投入巨大且缓存内容相互隔离,无法共享。针对此问题,改进了一种基于联盟链的边缘缓存系统架构,... 边缘缓存技术能够将热点内容提前放置在距离用户较近的网络边缘,可以显著降低传输时延、提高网络效率。然而,不同的运营商各自部署边缘设备,投入巨大且缓存内容相互隔离,无法共享。针对此问题,改进了一种基于联盟链的边缘缓存系统架构,运营商部署的边缘设备间能够打破内容隔离,实现更大范围的内容共享。此外,设计了基于智能合约的内容交易流程,使得不同运营商之间的合作变得可信、公平和可追踪。最后,考虑到热门内容的流行程度、文件大小以及传输时延等,对热点内容进行定价,并以收益最大化为目标,通过贪婪算法确定缓存内容放置的位置。仿真实验表明,基于该架构下的收益最大化缓存策略能够有效增加边缘缓存的收益。 展开更多
关键词 边缘缓存 联盟链 智能合约 内容共享 协作缓存
下载PDF
上一页 1 2 4 下一页 到第
使用帮助 返回顶部