使用缓存调度算法缓存通信信息

使用缓存调度算法缓存通信信息

一、利用高速缓存调度算法实现通讯信息的缓冲(论文文献综述)

薛栋[1](2021)在《基于DDR3的星载动态载荷缓存调度及管理技术研究》文中研究表明当今太空探索和对地监控是卫星的重要任务,随着卫星单次任务量的增加,其携带的检测设备也随之增加。这些设备都将产生庞大的数据量,各设备之间存在错综复杂的数据交互,部分载荷数据的码率也越来越高,所以如何对高速动态载荷进行灵活缓存和转存,使卫星在有限的带宽和工作时间内,传输重要信息显得尤为关键。基于此背景,本文依托于“XX多载荷高动态星上路由系统的FPGA设计”项目,针对该项目的高速多载荷接收、动态缓存调度、快速转存的设计要求,展开了一系列研究,其中,高速动态缓存调度和缓存空间管理是本文的核心研究内容。本文针对现如今应用于星上路由系统的主流方案——DDR3 SDRAM缓存阵列,主要对以下问题进行了研究与处理:1)如何在尽可能少的缓存芯片前提下实现对动态载荷数据的缓存调度?提出了一种改进型的WRR调度算法,在初始状态为各队列设定初始优先级,并为各优先级队列配置一个固定的权重,在传输过程中根据各优先级队列的当前缓存量以及该队列对应的载荷码率来共同决定该队列的优先级,最后再根据队列的优先级来依次轮询缓存。当载荷码率发生变化后,会重新计算各载荷数据对应队列的优先级从而决定轮询顺序,保证了各队列优先级设置的合理性,有效解决了队列数量较多时各队列数据缓存延时高的问题。2)在有限的存储空间下,如何在保证高使用率的情况下管理各载荷数据的缓存空间?由于载荷码率的动态变化,所以各载荷所占空间无法估计,预分配缓存空间的方法不适用,进而需要对其缓存空间进行精细化管理。在计算合理的基础缓存单元容量后,将各载荷的基础缓存单元地址以及其缓存的数据类型等信息存放在BAT表中,实现高效管理的同时保证了缓存空间的利用率。本文实现了以FPGA为主控的载荷缓存调度和缓存空间管理,遵照CCSDS协议对数据进行编帧、编码的同时不妨碍数据的高速传输。以上设计均进行了RTL仿真以及FPGA板级验证,确保了设计的准确性和可行性。

张玄[2](2021)在《异构多核SOC处理器内部存储架构优化》文中提出随着异构多核技术的发展,微处理器的性能得到了提升,处理器与外部存储器之间的带宽差异严重限制了处理器的性能发挥。本文针对一种用于高密度计算的异构多核So C系统,优化了存储设计方案。该方案通过复用一些网络中闲置的空闲存储资源作为二级共享缓存来增加访存带宽,降低对外部存储器访问频率;同时分布式高速共享二级缓存结构通过结合多路并行访问外部存储的层次化存储结构,缩短系统处理数据与外部存储器间的速度差异,提高数据的存取效率,优化系统的性能。本文的主要工作内容如下:1.针对异构多核系统的访存特点与数据存储需求,本文设计了一种能够复用本地的空闲存储资源用作二级缓存的层次化存储结构。该结构将网络系统中的闲置功能单元的存储资源进行统一编址,在逻辑功能上为共享存储结构,而在物理结构上为分布式存储结构,将统一编址管理的存储块用作二级缓存为其他运算节点存取数据。这种分布式缓存、集中式控制的结构节省了片上存储资源,减小面积,缓解存片内外存储速度不匹配的问题,提升了系统的访存性能。2.根据设计方案,本文对分布式共享缓存结构进行硬件设计,对缓存的整体硬件架构进行介绍,并根据功能的不同分出主要的功能模块,包括缓存控制模块、数据缓存模块、片上网络通讯模块和多路数据并行传输模块等;对功能模块进行介绍,包括工作原理、硬件的架构设计和工作的流程等;对功能模块的数据通道进行了介绍,包括两大类数据通道的设计实现和工作流程等。3.本文将分布式高速共享缓存结构集成到目标系统异构多核系统上,构建测试平台,加载不同类型的任务,定义性能指标,验证该结构功能并对资源消耗和性能进行评估。最终实验结果表明,该结构与无缓存结构相比在单一模式下任务平均性能提升了40.6%,流模式任务的平均性能提升了13.3%。综上,本文设计的分布式共享缓存结构能有效提升系统性能。

王富[3](2020)在《基于软件定义网的多维多域光网络带宽资源优化技术研究》文中研究表明随着5G、流媒体、虚拟现实、自动驾驶等新兴应用的出现,终端用户对光通信网络的带宽、时延和信号灵活性都提出了更高的要求。而光网络不仅需要增加传输带宽来保证信息传输的容量,更需要提高光网络带宽的灵活性来提高带宽的效率。而目前光网络分为接入网、城域网、核心网,以及即数据中心网。接入网技术的发展已经迈进了50G/100G无源光网络(PON)阶段,所以如何提高PON带宽分配灵活性从而为用户提供高质量服务成为目前研究的热点。城域网速率上已经实现单载波百G光信号的百公里传输,如何增加光分插复用器(ROADM)的灵活性并完成毫秒级的光路重配,是城域网络发展的重点和热点问题。数据中心网(DCN)中,面对DCN的大规模、高能耗、大带宽带来的挑战,如何提高DCN网络灵活配置和全光交换是未来技术发展的主题之一。而随着软件定义网(SDN)的出现,光网络的发展带来了新的契机,采用控制平面和数据平面分离的架构可以大幅提高了网络管控的效率。随着软件定义光网络(SDON)概念的提出,目前该领域已经成为光网络技术研究的热点问题,受到广泛关注。然而,SDON技术的发展还存在不足,很多光网络上的问题还没有得到有效解决。本论文在基于软件定义光网络概念的基础上,通过软件定义的方法来增加光网络的灵活性,进而实现对光网络各个领域的带宽资源管理进行优化。本论文对接入网动态带宽分配算法,路由与频谱分配算法,光分组交换端口冲突解决方案,以及数据中心负载平衡算法进行了研究。论文的主要研究工作和创新点如下:1.接入网中基于软件定义的动态波长-带宽联合分配算法论文研究了波分/时分复用无源光网络(WDM/TDM-PON)中的波长和时隙的带宽分配问题。提出一种可以实现波长调度的多子PON架构,并且提出了一种可以有效分配时隙和波长的动态调度算法。该算法可以对时隙和波长进行二维带宽分配,并且支持业务分级来保证高等级业务的服务质量。该方法采用光线路终端(OLT)对光带宽分配周期中的时隙实现动态分配,并通过软件定义网的控制器来实现波长的分配,在二维资源调度空间中实现更灵活的资源调度。论文通过仿真和实验对提出的算法进行了研究。2.软件定义的频谱灵活光网络(EON)中基于蚁群优化的路由与频谱分配算法论文研究了以EON为框架的路由和频谱分配算法,提出了一种多层拓扑模型,并提出了一种基于频谱连贯度和蚁群优化的路由与频谱分配算法。基于论文提出的多层拓扑模型及频谱连贯度统计方法,将提出的算法与现有算法进行了仿真比较。仿真结果表明相较于目前已有算法,论文提出的算法可以降低5%以上的光路建立的阻塞率,提高链路利用率,并且减少频谱碎片的产生。3.DCN中基于软件定义网的全光交换机的分组冲突解决方案及负载平衡方案论文研究了基于快速光交换和流控制(Flow Control)的DCN中光分组冲突解决方案和负载均衡问题。提出了基于混合轮询的光分组冲突解决方案,并基于OPSquare的DCN架构为所提出的方案进行了实验和仿真研究。结果证明了论文提出的混合轮询方案能有效降低丢包率,提高吞吐量,并降低平均时延。论文提出了一种基于SDN的负载平衡方案。通过仿真,将提出的方案与现有方案进行比较。结果表明提出的方案可以提高吞吐量,并降低丢包率。

戴柯宇[4](2020)在《一种基于任务相关性的物联网终端调度策略研究》文中研究指明物联网被视为信息科技产业的第三次革命,将广泛应用于各个领域中。物联网终端完成物理世界信息的感知并实现物-物和物-人之间的信息交互,其地位至关重要。由于成本、功耗等因素影响,物联网终端的计算能力和存储能力受限,导致终端任务执行效率低,响应速度慢。考虑到物联网终端中的许多任务之间存在相关性的特点,为合理调度有限的计算和存储资源进而提高运行效率,本文提出基于任务相关性的调度策略,该策略包含了任务调度和存储资源调度两个部分,主要研究内容如下:1.针对物联网终端任务间存在相关关系的特点,本文提出一种基于任务相关性的任务调度策略。该策略设计了以作业轮询组为主体的任务模型,根据任务的执行时间建立了优先级因子矩阵并以此作为任务调度的凭据。在每个任务执行完毕后生成以任务相关性为参数的增量矩阵用以动态修改任务优先级,使前驱任务能优先执行;对于实时性要求较高的非周期任务采用了构建临时作业轮询组的方式进行抢占调度。仿真结果表明,该策略能够有效提升终端的任务吞吐量,缩短非周期任务响应时间。2.针对物联网终端中内存资源紧张的问题,进一步提出基于任务相关性的存储资源调度策略。该策略利用熵权法计算任务迁出权重并根据使用数据段的任务数量为每个数据段设置装载优先级,当内存使用量超过阈值后根据任务迁出权重和装载优先级选择合适的数据段从内存迁出至外存,使相关性强的任务的内存需求能够优先满足。仿真结果表明,该策略能够有效减少内存过载对任务吞吐量和非周期任务响应时间产生的影响。综上所述,本文从物联网终端中任务间具有的相关性入手,对任务调度和存储资源调度进行了研究,并分别通过搭建仿真测试平台进行了相关性能的测试验证,结果表明所提策略在任务集具有相关性环境下能够有效提升任务吞吐量并缩短非周期任务响应时间。

李宇中[5](2019)在《大阵元超声相控阵多组扫查系统的局部调度建模与优化》文中研究说明超声相控阵仪器具有空间声场完整覆盖(无须移动探头)、准确度高、抗干扰能力强、全方位实时超声成像等特点,是适用于材料参量定征、材料失效机理分析与寿命预测等科研工作的重要科学仪器。大阵元超声相控阵多组扫查系统可增加扫查灵活性、图像对比度、聚焦法则多样性,实现分布式扫查,但会产生大量不同到达时间、长度、形式的回波信号,需要耗用仪器大量硬件资源处理。为提高资源利用率、实时性,减少仪器硬件开销,避免信号处理混叠冲突,需研究资源复用、数据处理协同调度问题。论文以“大阵元超声相控阵多组扫查系统的局部调度建模与优化”为题,重点研究延时聚焦、信号处理等方面的调度理论方法与实现技巧,并应用于超声相控阵多组扫查仪器研制中。论文研究旨在提高无损检测仪器的实时性、利用率、协同性和扫查方式多样性。论文从大阵元超声相控阵多组扫查系统的多组延时聚焦调度算法、多组同构流水信号处理调度算法、异构分层多DAG(Directed Acyclic Graph)信号处理调度算法等方面,论述国内外研究进展,确定研究内容。论文主要工作包括:(1)大阵元超声相控阵多组扫查系统延时聚焦调度与优化算法研究。为解决延时精度、资源利用率矛盾,提出基于时分复用超声相控阵多组扫查架构,抽象出延时聚焦同等并行机调度问题,对其数学模型和时间复杂度进行分析;研究基于同等并行机问题BF(Bound Fit)算法,提出IBF(Improved Bound Fit)算法,减少全聚焦方法(Total Focus Methos,TFM)帧任务数据调度的最大完成时间;仿真实验对比SPT(Shortest Processing Time)、BF、IBF算法,大阵元超声相控阵多组扫查延时聚焦调度架构和IBF算法使最大完成时间缩短8.7621.48%,硬件资源减少3040%,提升最高运行频率6.72%11.22%;现场可编程门阵列(Field Programmable Gate Array,FPGA)仿真实验表明,相比于LIST算法节约帧任务时间12.26%。(2)大阵元超声相控阵多组扫查系统同构流水信号处理调度与优化算法研究。分析超声相控阵延时聚焦和扫查时间,推导出帧任务信号开始时间;提出基于时分复用超声相控阵多组扫查信号处理架构,抽象出分布流水线车间调度问题,研究其带开始时间的同构简化模型,即带开始时间车间任务调度问题,并根据该问题提出开始与执行时间合并近邻算法(The sum of start time and processing time adjacent,SSPA);通过仿真算法实验,最大完成时间提高4.0036.84%,资源利用率提高1.0121.67%;虚拟逻辑分析仪实验,与FCFS、SPT算法比较,SSPA算法使最大完成时间缩短11%,资源利用率提高9.72%,并通过架构增加阵元分组灵活性。(3)大阵元超声相控阵多组扫查系统异构分层多DAG信号处理调度与优化算法研究。为增加分布式扫查方式的多样性,提出片上总线异构多组扫查信号处理架构;基于该架构,针对多组扫查超声相控阵系统中不同分组扫查方式产生的不同信号处理工作流,与其在特定功能信号处理模块中的分层处理,抽象出一种异构分层多DAG工作流问题(Heterogeneous Hierarchical Multi DAG Problem,HHMDP)。基于改进的异构最早完成时间(HEFT)算法,提出一种具有前任指针调整的异构前任最早完成时间(Heterogeneous Precedent Earlist Finish Time,HPEFT)算法。与SPT、Round-Robin、HEFT(Heterogeneous Earlist Finish Time)、RHEFT(Reverse Heterogeneous Earlist Finish Time)进行仿真实验比较,采用最大完成时间、空闲时隙比RITS(Idle Time Slot Ratio)、截止期相对裕量RLD(Relative Laxity with Deadline)和错失截止期率MDR(Missing Deadline Rate)等指标,HPEFT算法最大完成时间缩短3.8757.68%,RITS最大降低4.326.82%,RLD增加2.278.58%,在严重负荷条件下MDR降低25%58%;FPGA前仿真验证表明,希尔伯特变换模块调度帧率相比于HEFT算法增加3.56%。(4)大阵元超声相控阵多组扫查仪器实验验证与分析。基于自行设计的超声相控阵传输测速平台,在给边界条件下,多组延时聚焦采用LIST算法、IBF算法,多组同构流水信号处理采用SPT算法、SPA算法,异构分层多DAG信号处理采用HEFT、HPEFT算法比较,总体帧率提高2.959.36%;将新机型用于成像,对比原机型有更窄的盲区,更好的穿透力和分辨力;阵元数量成像对比实验得到64阵元A扫成像对比度是32阵元2.30倍;64阵元TFM扫查相比于32阵元最大信号强度提高22.09%,得出阵元数量越高,信噪比越好;比较多组扫查成像,可以看出成像效果与单组扫查无明显差异,并且多组扫查能保证实时帧率,从而验证多组扫查调度的可行性和有效性。

林晗[6](2019)在《异构融合平台上的数据流运行时系统研究》文中认为随着半导体工艺的发展越来越逼近物理极限,以及大数据和人工智能等新型应用不断涌现,为了获得更好的计算能效比,微处理器芯片也越来越朝着专用化的方向发展,各种新型的领域专用加速芯片层出不穷。随着加速硬件的多样性不断增加,高性能计算系统也由早期的简单异构变为更加复杂的异构结构。如何将这些异构的加速器硬件有机地融合在统一的软件生态系统里,缩小它们在编程效率和运行效率方面的差异,实现高效能的计算,是一个极为挑战的问题。特别地,在高度异构系统里,硬件的多样性将导致同步和数据移动的代价十分昂贵。如果采用整体同步这样的粗粒度并行计算模型,需要依靠大量的同步操作来协同计算,无法组织起高效的计算;如果采用数据流模型来组织细粒度的并行计算,以一种点到点的方式表达任务之间的依赖,不仅可以消除在异构系统中代价高昂的全局同步操作,还可以最大限度地消除由于任务划分不均匀和硬件多样性带来的性能瓶颈。但是,数据流计算模型在实际应用中仍然面临诸多问题,包括:对应用和异构平台进行一般化的抽象、系统资源分配、在新场景下高效地调度任务,以及在与实际应用结合的过程中如何保证各层次的计算效率等。对这些问题的研究和解决,有助于我们重新思考超异构计算时代的程序执行模型,为今后在大规模复杂异构平台上实现应用程序的统一编程和高效计算提供借鉴和参考。本文旨在从运行时的角度研究数据流模型在异构平台上的若干关键问题,重点研究数据流程序执行模型如何更有效地组织异构计算。通过对程序和异构平台进行一般化的抽象,构建数据流运行时模拟器和性能模型。在此基础上,基于异构平台上数据流运行时系统的软硬件特点,提出具有更高调度效率的细粒度任务调度算法。在实际系统的研究中,则重点讨论了面向深度学习的数据流运行时软件系统。本文的主要研究工作和成果主要包括以下四个方面:1.在总结了目前已有的数据流程序执行模型的基础上,本文提出了更一般化的抽象机器模型和基于有向无环图的抽象程序模型,并构建出一个通用的数据流运行时模型,同时设计了数据流运行时模拟器TripletRun。在模拟器中一方面实现了多种异构系统上主流的启发式任务调度算法,为新调度算法的实现提供了扩展接口;另一方面也为新数据流模型的探索提供了新视角。TripletRun对程序执行过程中任务的不同行为进行了明确定义,这保证了在运行时层面对程序行为的精确模拟,另外它也为程序性能评估提供了不同衡量指标。2.在异构平台上的数据流运行时中,任务调度问题更为复杂,在研究了异构系统上主流的任务调度算法之后,本文结合数据流程序执行模型与异构系统的特点,提出了基于任务节点加权出度的任务调度算法:DONF算法。首先,在数据流程序执行模型中,任务数量更多,且任务间依赖关系更复杂,DONF调度算法采用加权出度这种更简单的方式计算任务优先级,在降低了任务选择阶段时间复杂度的情况下,还避免了对程序有向无环图的遍历,以支持动态调度;其次,异构系统中不同硬件之间差异大,通信在程序执行过程中扮演着更重要的角色,DONF调度算法考虑了通信链路冲突的情况,构建了通信模型以更好地为被调度任务选择处理器。与参与实验评估的异构系统上主流调度算法HEFT、CPOP、PEFT和HSIP相比,DONF系列算法的调度长度比降低了 34.6%-65.8%,并行效率提高了 19%-137%。3.TensorFlow是一个流行的深度学习软件框架,它基于数据流程序执行模型构建。本文在神威超级计算机上,基于TensorFlow构建了数据流深度学习框架swFLOW。经过性能分析与热点优化后,swFLOW在单核组上的性能加速比达到10.42倍。在大规模分布式深度学习中,本文重点就运行时中的通信和数据读取进行了讨论与优化,使得swFLOW在512进程时达到81.01%的并行效率。作为神威系统上最早支持分布式深度学习的框架之一,swFLOW对神威系统上深度学习软件生态的发展以及未来针对深度学习的软硬件协同设计具有重要的参考意义。4.作为理论研究与实际系统相结合的尝试,本文融合TripletRun与Tensor-Flow/swFLOW,提出了一种统一的调度框架。统一调度框架隐藏了实际系统中任务调度策略的实现细节,便于新调度算法的快速实现和效果验证,也允许采用空间搜索等方法实现任务调度或映射;而且统一调度框架可以令TensorFlow/swFLOW自动实现并行计算,免去了由用户对神经网络进行手动分割及反复试验寻找最佳分配方案之虞;再次,通过统一调度框架确定的映射策略可以打破一些紧耦合算子被绑定到一起的限制,在更大解空间内寻找并行策略。初步的实验结果表明了统一调度框架的可行性与实用价值。本文的研究以异构平台上的数据流运行时系统为中心,以任务调度为主线,以通信、数据读取等为重点,涵盖理论研究与实际系统实践,对异构平台上数据流运行时系统的关键问题进行了深入研究与讨论。本文设计的数据流运行时系统模型很好地抽象了异构融合平台上数据流程序的执行过程,提出的任务调度算法与异构系统上主流调度算法相比具有更好的效果。swFLOW框架的设计与实现则为类似平台上数据流深度学习框架的构建提供了有益借鉴,也对神威系统上深度学习软件生态的发展具有重要的参考意义。

李竹林[7](2018)在《云环境下基于负载均衡感知的任务调度算法研究》文中指出云计算作为一种新的高速网络计算服务受到越来越多的青睐,云计算技术广泛应用于通讯、交通、金融、制造等领域。通过实施任务的最优调度,充分利用现有资源实现任务的最快完成,是云计算中任务调度算法研究的目标。随着云计算的高速发展,云系统底层技术构架发生了明显变化,云系统结构越来越复杂,资源节点数量越来越多,不同云之间的差异性越来越明显。同时,用户数量多、行业普及、服务需求多、时效性期望高、数据海量且多样化等特点日益明显。已有的任务调度算法难以满足新形势下任务调度的需求,迫切需要研发更优的任务调度算法。为此,本文遵循实现系统负载均衡的基本原则,提出了适于云环境面向负载均的任务调度算法,以适应新形势下云环境及用户的需求。本文针对云环境复杂程度不同,分别提出负载评估和负载预测的算法,并对云计算中具有差异性的资源节点和任务进行聚类分析,在此基础上提出了新的任务调度算法,取得以下主要创新成果:(1)针对私有云节点异构等原因产生的负载不均衡现象,提出了节点负载评估的SARIMA算法。该算法以提高私有云系统资源利用率为目标,采用基于时间序列的两步法预测CPU工作负载。算法使用WPD法将原始序列转化为更稳定的子序列,通过SVM拟合提高ARIMA模型预测的精度,得到资源节点负载情况。SARIMA算法得到的资源节点负载评估结果,可作为任务调度的基础,也可用于资源节点负载监测。(2)针对公有云多数据中心、多资源节点等特点,提出了适用于公有云的GFCEM资源节点负载预测算法。为提高负载预测结果的准确性,GFCEM算法允许考虑可能影响节点负载的主要指标。算法引入三角模糊权重对各个资源节点的指标进行赋值,应用模糊综合评价与灰色关联理论相结合的方法,预测公有云环境下的资源节点负载情况。GFCEM算法预测的负载结果可作为任务调度算法的初始参数,也可作为虚拟机迁移的依据。(3)针对云计算技术在实际应用中动态性强、时效性高,资源节点和云任务数量大,且往往具有数值型、分类型多属性的特点,为优化任务调度算法,提出了可实现高维混合属性对象聚类的MATC算法。算法首先度量对象与类之间的相异性,计算属性的类模糊质心,结合改进的欧氏距离模型计算对象与类质心的欧氏距离;然后利用熵的理论,计算类的内部熵和类的外部熵,得到基于信息熵的混合属性对象的聚类结果。MATC聚类算法可以对混合属性对象进行较为准确的聚类,聚类结果可作为任务调度的基本初始参数。(4)针对现有任务调度算法不能很好满足云计算系统规模差异性大和资源节点异构性突出的问题,提出面向负载均衡的任务调度算法IAACO和IAPSO,两种算法均较好的考虑了资源节点负载均衡的因素。IAACO算法在满足负载均衡的前提下,重点解决了传统算法中出现局部最优解的弊端。IAPSO算法考虑了节点的多属性且差异性明显的问题,在较好预测节点负载情况的基础上完成任务的调度,最终得到理想的任务完成时间。通过以上研究,就新形势下云环境中的任务调度问题提出了新的解决方案。经系统测试实验表明,本文提出的任务算法在保持系统负载均衡、提高系统资源利用率和执行效率方面优势明显,可广泛应用于云系统中。

熊东亮[8](2017)在《多核系统中处理内存干扰的技术研究》文中认为在多核系统中,内存是一项非常重要的共享资源。同时运行的多个应用程序竞争有限的内存带宽和容量,并互相干扰对方。应用程序间的内存干扰包含原有行缓冲命中率的破坏、阵列级并行度的破坏、对共享地址和数据总线的竞争等。如果这些干扰处理不恰当的话,会严重降低系统性能和公平性,不能预测应用程序性能,甚至导致部分应用程序饥饿的问题。在存储系统的不同部件中,如内存控制器、高速缓存和互连等,实现对服务质量和应用程序的识别对于控制这些部件中的干扰十分重要,并能减轻甚至消除不公平和不可预测性。为此,前人工作主要从两个方向来处理内存干扰问题:1)减轻干扰,从而降低应用程序延迟和提高系统性能;和2)精确量化和控制干扰对应用程序的延迟的影响,从而为需要的应用程序提供性能保证。识别应用程序的内存访问调度算法是一种常用地减轻干扰的方式。大多数识别应用程序的内存访问调度算法以获得高系统性能和公平性为目标,检测各应用程序的内存访问特征,并以此按全局的顺序排列应用程序,使得易受干扰的应用程序有更高的优先级,从而减轻内存干扰。但是对应用程序进行全局的排序会引起高硬件复杂度,以至于关键路径延迟已超过了最新DRAM协议的最小调度时间。另外,处于优先级底部的应用程序会受到不公平的延迟。少数识别应用程序的内存访问调度算法以实现低硬件复杂度为目标,通过简单的机制动态地将应用程序分成两个群,并优先执行易受干扰群中的应用程序,但是它们的系统性能和公平性较差。本文提出了 一种基于动态多层次优先级的内存访问调度算法DMPS,目标是平衡系统性能、公平性和硬件复杂度。首先,DMPS采用基于MPKC的指标内存占有率来计量干扰,该指标硬件实现简单,能有效反应应用程序已产生的内存干扰;其次,DMPS将应用程序映射到多层次优先级中,既能有效地区分不同特征的应用程序,又能保持低硬件复杂度;最后,应用程序的优先级会随着已执行的请求数增加而动态地降低,保证了具有类似特征的应用程序处在相同的优先级层次,能够公平地共享内存带宽。实验结果证明了DMPS能够保持前面两类调度算法的优点,并隐藏它们的缺点,在系统性能、公平性和硬件复杂度上做了很好的折中。在线延迟估计模型是一种量化和控制应用程序干扰的常用方式,主要的挑战是在内存和高速缓存干扰的存在下如何精确地估计出应用程序的延迟。前人工作对应用程序的延迟有两种定义:1)受干扰的停顿或执行时间与未受干扰的停顿或执行时间的比值,和2)未受干扰的请求访问或执行速率与受干扰的请求访问或执行速率的比值。前者需要估计每个请求被干扰拖延的周期数,但是存储系统中大量的并行使得不同请求的执行可以大幅重叠,导致该估计精确度很低。后者赋予被估计的应用程序最高优先级访问内存来最小化干扰,并估计一群请求受到干扰的周期数,大幅提高了估计精确度。但是请求访问或执行速率不能很好地代表计算密集型的应用程序的性能,同时量化干扰周期数的模型过于简单。本文提出了一种量化和控制内存干扰的在线延迟估计模型SEM。首先,SEM采用IPC来表示应用程序的性能,并将延迟定义为未受干扰的IPC与受干扰的IPC的比值,既避免了对应用程序的分类,统一了延迟计算公式,又增加了估计精确度,因为IPC是个更加细粒度的指标。其次,SEM在估计应用程序的延迟时赋予该应用程最高优先级访问内存,最小化它受到的干扰,并采用了类似于DRAM结构的干扰检测结构,考虑了写干扰、行缓冲干扰和数据总线干扰。最后,SEM在量化干扰时考虑了阵列级并行度,更贴近实际运行情形。实验结果表明了SEM能实现更高的估计精确度,无论高速缓存是否考虑。

夏纯中[9](2014)在《云存储多数据中心QoS保障机制研究》文中进行了进一步梳理云存储是云计算的核心基础组件,云存储的高可靠、高可用和高性能是云计算能够支撑各类云端业务的重要保证。基于多数据中心的云存储采用广域网分布式架构,通过遍布全球的数据中心实现数据的异地多副本存储,保证数据的高可靠和高可用;通过就近访问和数据并行下载,保证数据服务的高性能。云存储多数据中心在QoS保障与资源调度方面,和单数据中心有较大不同。目前业界尚无标准和规范,学术界也缺乏系统性研究。如何通过多数据中心之间相互协作进行资源分配,保障不同QoS级别业务并提高系统资源利用率,是当前云存储领域的研究重点。本文以实现云存储多数据中心QoS保障,提高云存储系统整体资源利用率为目标,深入研究了如何通过优化云存储多数据中心资源调度,实现QoS保障的问题。论文结合云存储多数据中心特点,将云存储服务分解为4个主要子服务(负载均衡、存储分层、存储网关、网络传输),针对不同的子服务采用特定手段实现QoS保障与系统资源优化的双重目标。本文的主要成果和创新点包括以下5点:(1)系统分析了云存储多数据中心资源管理的技术原理,总结了在多数据中心架构下,云存储在QoS保障和资源调度方面的研究现状和存在问题。本文对云存储在系统架构、负载均衡管理、存储分层管理、云存储网关管理、数据中心网络管理等方面的QOS保障机制和原理进行了综合分析,归纳出各自的工作思想和优缺点,指出了云存储多数据中心管理面临的挑战,并设计了一个云存储资源优化仿真平台。这是开展云存储多数据中心QoS保障和资源调度研究工作的理论和实验基础。(2)提出QoS全局最优的云存储多数据中心负载均衡调度模型,并提出一种基于商空间的层次式负载均衡调度算法(QBHLBSA)。本文分析了云存储负载均衡机制和云存储多数据中心在负载均衡方面存在的问题,提出了一种QoS全局最优的云存储多数据中心负载均衡调度模型。模型的优化目标是保证不同QoS级别业务的性能需求,并使各个数据中心资源利用率最大化。本文结合云存储多数据中心层次化管理特点,提出了一种基于商空间的层次式负载衡调度算法。该算法可以在不同粒度上由粗至细地对云存储负载进行调度,具有更快的收敛速度、避免了传统算法极易陷入局部最优值问题。仿真结果表明,本算法可以提升云存储的系统整体资源利用率和吞吐率,并且保障高QoS优先级业务的读写性能要求。(3)提出面向应用层QoS保障的对象分层存储系统模型,并提出一种基于定价策略的自动分层调度算法(PBACST)。为了保障云存储中高QoS优先级业务对存储性能的要求,本文建立了面向应用层QOS保障的对象分层存储系统模型。模型的优化目标是在充分考虑不同业务QoS需求、存储容量和吞吐率约束条件下最大化云存储高速缓存资源池的利用率。本文结合云存储多数据中心特点,提出了一种基于定价策略的自动分层调度算法。该算法具有分布式决策的特点,各组件相互协作地完成数据对象分层调度。仿真结果表明,本算法可以提升云存储中高速缓存资源池的利用率,并且保障高QoS优先级业务的读写性能要求。(4)提出支持QOS的云存储多数据中心任务调度模型,并提出一种基于动态带宽分配的实时任务调度算法(DBABRTSA)。本文分析了云存储中不同QoS级别业务竞争有限的带宽资源时产生的拥塞问题,提出了一种支持QoS的多数据中心任务调度模型。模型的优化目标是保证高QoS级别实时业务的性能需求,并提升云存储系统整体吞吐性能。本文结合云存储多数据中心层次化管理特点,提出了一种基于动态带宽分配的实时任务调度算法。该算法可以按照业务类型优先级从高到低,动态分配任务流量带宽。仿真结果表明,本算法可以保障高QoS级别实时业务的读写性能要求,同时保证其它各级QoS业务对带宽使用的比例公平性,并能提升系统整体的吞吐率。(5)提出面向QOS的数据中心间网络流量调度模型,并提出一种基于双层多粒子群的网络流量调度算法(BLMSPSOSA)。本文分析了云存储多数据中心间网络链路带宽利用不均衡的问题,提出了一种面向QOS的多数据中心间网络流量调度模型。模型的优化目标是保证不同QoS级别数据传输的性能需求,并使数据中心间网络链路带宽资源利用率最大化。本文结合云存储多数据中心层次化管理特点,提出了一种基于双层多粒子群的网络流量调度算法。该算法具有更快的收敛速度、避免了传统算法极易陷入局部最优值问题。仿真结果表明,本算法可以提升云存储多数据中心间网络链路带宽的利用率,并且保障高QoS优先级数据的传输需求。综上所述,本文通过对不同子服务的资源优化调度实现了云存储多数据中心QoS保障,并有效提升了云存储整体资源利用率和吞吐率。

杨艺[10](2013)在《网络仿真模拟平台的可扩展性与真实性研究》文中研究表明随着网络规模的不断扩大,研究人员对大规模网络实验平台的需求也越来越高。由于构建真实网络环境的代价过于巨大,所以网络仿真和模拟平台在网络研究中得到普遍应用。本文研究这两种平台的可扩展性和真实性,使其能更好地适应大规模网络实验的需要。本文以NS2网络仿真平台为基础,设计实现了高速缓存感知调度算法,通过加快仿真速度来提高其计算性能和可扩展性,并详细描述了算法出入队操作的实现。理论分析表明,所设计算法的出入队操作,相比于默认的日历队列算法,加速性能正比于缓存与主存的速度之比。为了直接观测算法的缓存利用效益,本文使用pfmon工具对缓存的命中率进行监测,并通过100个节点的网络仿真实验,证实高速缓存感知算法能够更有效地利用高速缓存,可以使仿真计算最大加速29倍。本文进一步设计了一个集成网络模拟平台。该平台集成了GNS3、Xen和NetEm三个开源软件包,使用Xen、GNS3的虚拟化能力来提高平台的可扩展性,并通过让网络端点运行真实的协议栈、用NetEm模拟网络的链路特性以及引入GNS3模拟真实路由器,来保证该平台在模拟与仿真方面的真实性。本文通过哑铃模型的实验准确地反映了CUBIC和Reno算法的公平性、友好性以及拥塞窗口的增长特性,从而验证了平台的可行性和真实性。

二、利用高速缓存调度算法实现通讯信息的缓冲(论文开题报告)

(1)论文研究背景及目的

此处内容要求:

首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。

写法范例:

本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。

(2)本文研究方法

调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。

观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。

实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。

文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。

实证研究法:依据现有的科学理论和实践的需要提出设计。

定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。

定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。

跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。

功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。

模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。

三、利用高速缓存调度算法实现通讯信息的缓冲(论文提纲范文)

(1)基于DDR3的星载动态载荷缓存调度及管理技术研究(论文提纲范文)

摘要
abstract
1.绪论
    1.1 课题研究背景及意义
    1.2 国内外现状分析
        1.2.1 调度算法现状分析
        1.2.2 星上路由及存储系统现状分析
    1.3 课题研究内容
    1.4 论文结构
2.星载高速缓存需求分析及系统方案设计
    2.1 高速缓存需求分析
    2.2 缓存芯片选择和需求计算
    2.3 DDR3 SDRAM阵列硬件设计
    2.4 系统硬件架构设计
    2.5 模块划分及功能介绍
    2.6 本章小结
3.动态调度算法及缓存管理研究
    3.1 动态数据调度问题分析及方案设计
    3.2 调度算法研究
        3.2.1 加权轮询算法WRR简介
        3.2.2 改进型加权轮询算法原理
        3.2.3 路由调度工作原理
    3.3 改进型WRR调度算法实现
        3.3.1 码率检测模块设计
        3.3.2 WRR调度控制器设计
        3.3.3 缓存请求模块设计
    3.4 路由调度单元实现
        3.4.1 路由调度控制器设计
        3.4.2 数据流量控制模块设计
    3.5 缓存空间管理方案
        3.5.1 BAT表设计
        3.5.2 缓存管理模块设计
    3.6 本章小结
4.DDR3 SDRAM驱动实现及接口设计
    4.1 DDR3 SDRAM驱动模块设计
        4.1.1 DDR3 SDRAM功能描述
        4.1.2 DDR3 SDRAM工作状态及命令
        4.1.3 DDR3 SDRAM IP core用户端口
        4.1.4 DDR3 SDRAM读写模式设计
    4.2 载荷传输接口设计
        4.2.1 SRIO传输协议及时序
        4.2.2 上层用户逻辑设计
    4.3 LVDS接口设计
    4.4 CCSDS空间数据协议
    4.5 本章小结
5.实验验证和分析
    5.1 验证方法
    5.2 各模块验证
        5.2.1 GTH接口传输测试验证
        5.2.2 AOS组帧编码模块测试验证
        5.2.3 WRR队列调度单元测试验证
        5.2.4 DDR3 SDRAM驱动测试验证
        5.2.5 BAT表读取和更新测试验证
    5.3 系统级测试验证
    5.4 本章小结
6. 总结与展望
    6.1 总结
    6.2 展望
参考文献
攻读硕士学位期间发表的论文及所取得的研究成果
致谢

(2)异构多核SOC处理器内部存储架构优化(论文提纲范文)

致谢
摘要
abstract
第一章 绪论
    1.1 研究背景
    1.2 研究现状
        1.2.1 国内研究现状
        1.2.2 国外研究现状
    1.3 主要工作内容
    1.4 课题来源
    1.5 论文结构
第二章 高速共享缓存的设计原理与目标系统
    2.1 缓存相关技术介绍
        2.1.1 缓存的地址映射方式
        2.1.2 缓存的读写策略
        2.1.3 缓存的替换策略
        2.1.4 共享缓存与私有缓存
        2.1.5 页表缓存的相关技术
        2.1.6 缓存的一致性
    2.2 目标系统介绍
        2.2.1 目标系统结构介绍
        2.2.2 目标系统通讯机制以及数据访存机制
        2.2.3 目标系统数据组织形式
    2.3 目标系统存储需求分析
    2.4 本章小结
第三章 高速共享缓存的设计方案
    3.1 共享缓存结构设计方案综述
    3.2 分布式共享缓存结构方案
        3.2.1 可复用节点的选择
        3.2.2 缓存读写策略
        3.2.3 数据查找表的设计
    3.3 数据通道设计方案
        3.3.1 数据通道分析
        3.3.2 数据通道分配
        3.3.3 多路并行分时访存设计
    3.4 共享缓存与私有缓存切换冲突处理
    3.5 本章小结
第四章 高速共享缓存的结构硬件实现
    4.1 共享缓存整体架构设计
    4.2 缓存控制器设计
        4.2.1 缓存数据写入的节点选择
        4.2.2 缓存任务的仲裁存储单元
        4.2.3 缓存任务的下发单元
        4.2.4 片上通讯网络接口
    4.3 节点数据缓存模块
        4.3.1 缓存数据的读出写入
        4.3.2 可变长批量数据记录表设计
    4.4 数据通道设计
        4.4.1 旁路数据通道设计
        4.4.2 读写缓存任务数据通道设计
    4.5 本章小结
第五章 高速共享缓存的设计验证
    5.1 资源消耗
    5.2 实验设计
    5.3 实验结果分析
        5.3.1 实验一矩阵转置应用
        5.3.2 实验二复数加应用
        5.3.3 实验三FFT计算应用
        5.3.4 实验四混合运算流水线应用
        5.3.5 实验五混合任务测试应用
        5.3.6 结果分析
    5.4 本章小结
第六章 总结与展望
    6.1 总结
    6.2 展望
参考文献
攻读硕士学位期间的学术活动及成果情况

(3)基于软件定义网的多维多域光网络带宽资源优化技术研究(论文提纲范文)

摘要
ABSTRCT
第一章 绪论
    1.1 光网络的发展概述
        1.1.1 光网络架构
        1.1.2 基于软件定义网的光传送网络
        1.1.3 无源光网络架构及动态带宽分配技术
        1.1.4 基于频谱灵活城域光网络的路由及频谱分配技术
        1.1.5 基于SDN的数据中心网络架构及交换技术
    1.2 国内外技术研究现状
        1.2.1 动态带宽分配及控制技术研究现状
        1.2.2 基于频谱灵活光网络的架构及路由-频谱分配技术研究现状
        1.2.3 基于SDN的数据中心全光交换技术研究现状
    1.3 论文主要研究内容和创新点
    1.4 论文的组织架构
    参考文献
第二章 基于SDN的WDM/TDM-PON中波长-时隙联合分配算法研究
    2.1 基于SDN的WDM/TDM-PON架构及动态带宽分配技术
        2.1.1 WDM/TDM-PON架构
        2.1.2 动态带宽分配技术
    2.2 基于波长分组的软件定义WDM/TDM-PON的波长-时隙联合分配方案
        2.2.1 基于波长分组的软件定义WDM/TDM-PON组网架构
        2.2.2 基于软件定义的波长-时隙联合分配技术
        2.2.3 实验和结果
    2.3 本章小结
    参考文献
第三章 城域网中基于蚁群优化的路由与频谱分配方案研究
    3.1 EON中多层虚拟拓扑模型及路由与频谱分配技术
        3.1.1 频谱灵活光网络与路由-频谱分配算法
        3.1.2 基于多层虚拟拓扑的软件定义EON架构
        3.1.3 RSA问题的启发式算法总结
    3.2 基于蚁群优化的路由与频谱分配方案研究
        3.2.1 频谱连贯性指数的统计方法
        3.2.2 基于蚁群优化的最小邻接-备选链路对连贯度损失RSA算法
        3.2.3 基于蚁群优化的最小连贯度损失RSA算法
    3.3 数值仿真和结果
    3.4 本章小结
    参考文献
第四章 软件定义数据中心网中基于混合轮询的光分组冲突解决方案研究
    4.1 快速光交换技术中的光分组冲突问题
    4.2 基于FOS的OPSquare数据中心网络架构
    4.3 基于混合轮询的光分组冲突解决方案
    4.4 快速光分组交换的架构性能优化
    4.5 光交换原型机中HPACR算法的实验验证
    4.6 DCN中HPACR算法的数值仿真
    4.7 本章小结
    参考文献
第五章 基于SDN的数据中心网中负载均衡方法研究
    5.1 数据中心网负载均衡技术
    5.2 基于ECMP的OPSquare路由技术
    5.3 基于软件定义的概率路由的负载均衡解决方案
    5.4 结果与分析
    5.5 本章小结
    参考文献
第六章 总结与展望
    6.1 总结
    6.2 展望
致谢
附录1: 缩略语列表
攻读学位期间发表的学术成果

(4)一种基于任务相关性的物联网终端调度策略研究(论文提纲范文)

摘要
abstract
注释表
第1章 绪论
    1.1 研究背景与意义
    1.2 国内外研究现状
    1.3 论文主要内容及结构安排
第2章 物联网终端关键技术及架构
    2.1 物联网定义与架构
    2.2 物联网终端任务调度技术
        2.2.1 任务调度评价指标
        2.2.2 经典任务调度算法
        2.2.3 考虑相关性的任务调度
    2.3 物联网终端存储技术
        2.3.1 存储器硬件类型
        2.3.2 存储管理技术
        2.3.3 经典内存置换策略
    2.4 基于任务相关性的调度策略总体方案
    2.5 本章小结
第3章 基于任务相关性的任务调度策略
    3.1 基于任务相关性的任务模型
        3.1.1 任务模型
        3.1.2 作业轮询组任务划分
        3.1.3 作业轮询组优先级管理
    3.2 基于任务相关性的任务调度策略
    3.3 仿真与分析
        3.3.1 任务吞吐量
        3.3.2 非周期任务平均响应时间
    3.4 本章小结
第4章 基于任务相关性的存储资源调度策略
    4.1 存储资源调度总体方案
        4.1.1 存储资源相关定义
        4.1.2 基于任务相关性的存储资源调度策略流程
    4.2 任务装载机制
    4.3 基于任务相关性的内存置换策略
        4.3.1 内存紧急状态阈值确定
        4.3.2 内存迁出约束条件
        4.3.3 熵权法计算任务置换权重
        4.3.4 迁出数据量及顺序控制
    4.4 仿真与分析
        4.4.1 任务吞吐量与非周期任务响应时间
        4.4.2 调度失败率
    4.5 本章小结
第5章 测试与分析
    5.1 测试环境搭建
        5.1.1 测试终端应用任务
        5.1.2 硬件测试平台
        5.1.3 测试服务器
    5.2 任务分组测试
    5.3 应答时间测试
    5.4 本章小结
第6章 总结与展望
    6.1 本文总结
    6.2 未来工作展望
参考文献
致谢
攻读硕士学位期间从事的科研工作及取得的成果

(5)大阵元超声相控阵多组扫查系统的局部调度建模与优化(论文提纲范文)

摘要
Abstract
主要符号表
第一章 绪论
    1.1 论文研究背景及研究意义
    1.2 大阵元超声相控阵多组扫查系统概述
        1.2.1 超声相控阵系统通用架构与信号处理流程
        1.2.2 大阵元超声相控阵多组扫查系统提出
    1.3 相关研究内容国内外进展
        1.3.1 多组延时聚焦架构与调度算法
        1.3.2 多组同构流水信号处理架构与调度算法
        1.3.3 异构信号处理架构及调度算法
    1.4 论文研究内容以及章节安排
第二章 大阵元超声相控阵多组扫查系统延时聚焦调度
    2.1 引言
    2.2 LE-UPA-MGSS延时聚焦调度构架设计
        2.2.1 LE-UPA-MGSS多组扫查系统延时聚焦调度架构
        2.2.2 LE-UPA-MGSS4组2 细延时调度模型图示例
    2.3 大阵元超声相控阵多组扫查系统延时调度建模与求解
        2.3.1 LE-UPA-MGSS细延时模块重要参数定义
        2.3.2 LE-UPA-MGSS细延时模块调度原则与数学模型
        2.3.3 LE-UPA-MGSS细延时模块调度模型的IBF求解
    2.4 大阵元超声相控阵多组扫查系统延时聚焦调度算法仿真实验
        2.4.1 LE-UPA-MGSS延时聚焦IBF算法调度性能仿真实验
        2.4.2 LE-UPA-MGSS延时聚焦调度资源帧率频率实验
    2.5 本章小结
第三章 大阵元超声相控阵多组扫查系统同构流水信号处理调度
    3.1 引言
    3.2 LE-UPA-MGSS多组扫查同构流水信号处理调度架构设计
        3.2.1 LE-UPA-MGSS同构流水信号处理调度系统框图
        3.2.2 LE-UPA-MGSS系统同构流水信号处理模块
        3.2.3 LE-UPA-MGSS4组2 同构流水信号处理调度器示例
    3.3 LE-UPA-MGSS同构流水信号处理调度建模与求解
        3.3.1 LE-UPA-MGSS同构流水信号处理模块重要参数定义
        3.3.2 LE-UPA-MGSS同构流水信号处理模块调度原则与数学模型
        3.3.3 LE-UPA-MGSS同构流水信号处理模块的SSPA求解
    3.4 LE-UPA-MGSS同构流水信号处理SSPA调度算法仿真实验
        3.4.1 LE-UPA-MGSS同构流水信号处理SSPA调度算法性能仿真实验
        3.4.2 LE-UPA-MGSS同构流水信号处理SSPA任务调度平台验证实验
    3.5 本章小结
第四章 大阵元超声相控阵多组扫查系统异构分层多DAG信号处理调度
    4.1 引言
    4.2 LE-UPA-MGSS异构分层多DAG信号处理调度架构设计
        4.2.1 LE-UPA-MGSS异构分层多DAG信号处理调度架构
        4.2.2 LE-UPA-MGSS异构分层多DAG信号处理调度架构示例
    4.3 LE-UPA-MGSS异构分层多DAG信号处理调度建模与求解
        4.3.1 LE-UPA-MGSS异构分层多DAG信号处理调度参数
        4.3.2 LE-UPA-MGSS异构分层多DAG信号处理调度数学模型
        4.3.3 LE-UPA-MGSS异构分层多DAG信号处理调度HPEFT算法求解
    4.4 LE-UPA-MGSS异构分层多DAG信号处理调度算法实验
        4.4.1 LE-UPA-MGSS异构分层多DAG信号处理HPEFT调度仿真实验
        4.4.2 LE-UPA-MGSS异构分层多DAG HPEFT希尔伯特变换调度实验
    4.5 本章小结
第五章 大阵元超声相控阵多组扫查系统实验与分析
    5.1 引言
    5.2 LE-UPA-MGSS延时聚焦调度效果实验
        5.2.1 LE-UPA-MGSS延时聚焦调度架构设计
        5.2.2 LE-UPA-MGSS延时聚焦调度效果验证
    5.3 LE-UPA-MGSS同构流水信号处理调度效果实验
        5.3.1 LE-UPA-MGSS同构流水信号处理调度架构设计
        5.3.2 LE-UPA-MGSS同构流水信号处理调度效果验证
    5.4 LE-UPA-MGSS异构分层多DAG信号处理调度效果实验
        5.4.1 LE-UPA-MGSS异构分层多DAG信号处理调度架构设计
        5.4.2 LE-UPA-MGSS异构分层多DAG信号处理调度效果验证
    5.5 本章小结
结论与展望
参考文献
攻读博士学位期间取得的研究成果
致谢
附件

(6)异构融合平台上的数据流运行时系统研究(论文提纲范文)

摘要
ABSTRACT
第1章 绪论
    1.1 异构融合平台的出现与发展趋势
    1.2 异构融合平台上数据流运行时系统设计的关键问题
        1.2.1 数据流运行时系统模型
        1.2.2 系统资源分配
        1.2.3 计算任务调度
    1.3 论文主要研究工作
        1.3.1 异构融合平台上的数据流运行时系统建模
        1.3.2 异构融合平台上的任务调度
        1.3.3 面向国产超算系统的线程级数据流运行时系统设计
    1.4 论文结构
第2章 相关研究工作综述
    2.1 数据流计算模型的发展
        2.1.1 指令级数据流计算模型
        2.1.2 线程级数据流计算模型
    2.2 异构系统上的任务调度算法
        2.2.1 异构系统上的任务调度问题
        2.2.2 异构系统上的主流调度算法
    2.3 面向深度学习应用的数据流运行时系统
        2.3.1 深度学习
        2.3.2 分布式深度学习中的任务映射
    2.4 小结
第3章 异构融合平台上的数据流运行时系统建模
    3.1 引言
    3.2 异构融合线程级数据流计算系统的通用模型
        3.2.1 抽象机器模型
        3.2.2 抽象程序模型
        3.2.3 线程级并行程序执行模型
    3.3 TripletRun:一种异构融合数据流运行时系统的建模
        3.3.1 机器模型
        3.3.2 程序模型
        3.3.3 程序执行流程的模拟与结果输出
        3.3.4 主流任务调度算法实现
    3.4 程序性能分析模型
        3.4.1 基于执行时间评估性能
        3.4.2 并行效率
        3.4.3 平均等待时间
        3.4.4 负载平衡
    3.5 小结
第4章 异构融合数据流运行时系统里的任务调度
    4.1 任务调度问题的抽象
    4.2 一种基于节点出度的任务调度算法的设计
        4.2.1 算法设计思想
        4.2.2 算法复杂度分析
        4.2.3 节点出度因子的确定
        4.2.4 实验评估
    4.3 一种统一任务调度框架的设计
        4.3.1 TensorFlow中任务调度存在的问题
        4.3.2 统一任务调度框架设计思想的提出
        4.3.3 统一任务调度框架在TensorFlow上的实现
    4.4 小结
第5章 swFLOW:一个实际的线程级数据流运行时系统设计
    5.1 神威·太湖之光
        5.1.1 申威SW26010体系结构
        5.1.2 整体架构与编程环境
    5.2 神威·太湖之光上面向深度学习应用的数据流运行时系统设计与实现
        5.2.1 主要设计思想
        5.2.2 实现方案
        5.2.3 卷积神经网络性能分析
        5.2.4 卷积算子优化:从核扩展
        5.2.5 分布式实现与优化
    5.3 实验评估
        5.3.1 单进程实验评估
        5.3.2 数据并行多进程实验评估
        5.3.3 实验结果综合分析
    5.4 讨论:swFLOW与神威·太湖之光
    5.5 小结
第6章 全文总结
    6.1 研究工作和成果
    6.2 主要创新
    6.3 局限性与进一步工作
参考文献
致谢
在读期间发表的学术论文与取得的研究成果
在读期间参与的科研项目

(7)云环境下基于负载均衡感知的任务调度算法研究(论文提纲范文)

摘要
Abstract
第1章 绪论
    1.1 研究背景
        1.1.1 云计算分类
        1.1.2 云平台承载的大数据
        1.1.3 云计算平台
    1.2 存在的问题与挑战
    1.3 研究的目标、内容和创新点
        1.3.1 研究目标
        1.3.2 研究内容
        1.3.3 主要创新点
    1.4 论文组织结构
第2章 云计算中任务调度关键技术研究
    2.1 典型任务调度算法
        2.1.1 传统任务调度算法
        2.1.2 启发式任务调度算法
    2.2 任务调度的研究进展
        2.2.1 负载均衡感知的任务调度
        2.2.2 成本感知的任务调度
        2.2.3 效率感知的任务调度
        2.2.4 能量感知的任务调度
        2.2.5 服务质量感知的任务调度
    2.3 服务于任务调度的负载预测研究
        2.3.1 时间序列线性预测模型
        2.3.2 指数平滑法预测模型
        2.3.3 神经网络预测模型
    2.4 小结
第3章 私有云节点负载评估SARIMA算法
    3.1 研究意义
    3.2 私有云负载评估模型建立
    3.3 SARIMA评估算法
        3.3.1 负载序列处理
        3.3.2 负载评估
        3.3.3 算法流程与代码实现
    3.4 实验与结果分析
        3.4.1 仿真实验与结果分析
        3.4.2 真实数据测试与结果分析
    3.5 小结
第4章 公有云环境GFCEM负载预测算法
    4.1 预备理论
    4.2 模型建立
    4.3 GFCEM评价算法
        4.3.1 指标数据处理
        4.3.2 三角模糊权重计算
        4.3.3 三角模糊相似度计算
        4.3.4 灰色关联度计算
        4.3.5 GFCEM算法伪代码
    4.4 实验与结果分析
        4.4.1 测度指标选取
        4.4.2 节点负载预测
        4.4.3 结果分析
    4.5 小结
第5章 面向云任务调度的MATC聚类算法
    5.1 研究的意义
    5.2 模型构建
    5.3 MATC聚类算法
        5.3.1 属性对象间相异性计算
        5.3.2 数值型属性对象聚类
        5.3.3 分类型属性对象聚类
        5.3.4 混合属性对象聚类
    5.4 任务调度中MATC的应用
        5.4.1 节点属性处理
        5.4.2 任务属性处理
        5.4.3 算法伪代码实现
    5.5 算法性能测试
    5.6 小结
第6章 云环境中面向负载均衡的任务调度算法
    6.1 研究的意义
    6.2 任务调度模型构建
    6.3 IAACO任务调度算法
        6.3.1 算法基础
        6.3.2 初始负载评估
        6.3.3 IAACO算法
        6.3.4 IAACO算法伪代码
    6.4 IAPSO任务调度算法
        6.4.1 IAPSO算法
        6.4.2 IAPSO算法优化
        6.4.3 IAPSO算法实现
    6.5 实验与结果分析
        6.5.1 IAACO算法实验
        6.5.2 IAPSO算法实验
        6.5.3 IAACO与IAPSO算法对比实验
    6.6 小结
第7章 结论与展望
    7.1 主要结论
    7.2 工作展望
参考文献
致谢
攻读博士学位期间取得的学术成果
作者从事科学研究和学习经历的简历

(8)多核系统中处理内存干扰的技术研究(论文提纲范文)

致谢
摘要
Abstract
缩写、符号清单、术语表
1 绪论
    1.1 研究背景及意义
    1.2 本文研究内容和主要创新点
        1.2.1 本文研究内容
        1.2.2 本文主要创新点
    1.3 本文章节安排
2 国内外研究现状
    2.1 内存的工作原理
        2.1.1 DRAM的结构
        2.1.2 访问过程和页管理策略
        2.1.3 地址映射机制
        2.1.4 刷新策略
    2.2 内存控制器的结构
    2.3 内存干扰的研究现状
        2.3.1 减轻内存干扰:内存访问调度算法
        2.3.2 减轻内存干扰:其他方法
        2.3.3 量化内存干扰:延迟估计模型
3 基于动态多层次优先级的内存访问调度算法
    3.1 算法机制
        3.1.1 内存占有率:评估内存干扰的简单指标
        3.1.2 粗粒度的同步和应用程序的分群
        3.1.3 细粒度的动态多层次优先级
        3.1.4 总结:DMPS的优先级规则
        3.1.5 软件支持
        3.1.6 硬件实现和代价
    3.2 实验方法和评价标准
        3.2.1 系统配置
        3.2.2 测试集配置
        3.2.3 评价标准
        3.2.4 调度算法的参数设置
    3.3 实验结果与分析比较
        3.3.1 硬件复杂度
        3.3.2 对工作量内存密集度的敏感性
        3.3.3 对核数和通道数的敏感性
        3.3.4 与TCM比较
        3.3.5 与BLISS比较
        3.3.6 不同组件的增益
        3.3.7 对软件权值的敏感性
        3.3.8 对算法参数的敏感性
        3.3.9 对优先级层数的敏感性
        3.3.10 对内存技术的敏感性
    3.4 本章小结
4 应用程序延迟估计模型:提供可预测的性能
    4.1 算法机制
        4.1.1 用IPC来统一延迟估计模型
        4.1.2 内存干扰的识别
        4.1.3 内存干扰的量化
        4.1.4 硬件实现与代价
    4.2 实验方法和评价标准
        4.2.1 系统配置
        4.2.2 工作负载配置
        4.2.3 评估标准
        4.2.4 调度算法的参数设置
    4.3 实验结果与分析比较
        4.3.1 IPC vs.请求执行速率
        4.3.2 在共享内存处与STFM和MISE比较
        4.3.3 写请求和行缓冲干扰的影响
        4.3.4 对内存密集度和算法参数的敏感性
        4.3.5 对核数和DRAM频率的敏感性
        4.3.6 对写漏策略的敏感性
        4.3.7 MISE-QoS和SEM-QoS的对比
        4.3.8 IPC与高速缓存访问速率的比较
    4.4 本章小结
5 总结与展望
    5.1 总结
    5.2 展望
        5.2.1 异构系统中的性能保证
        5.2.2 异构存储系统的优化
        5.2.3 多线程应用程序的资源管理
        5.2.4 多种优化技术的协作
参考文献
附录A 博士期间主要的研究成果

(9)云存储多数据中心QoS保障机制研究(论文提纲范文)

摘要
ABSTRACT
目录
第1章 绪论
    1.1 研究背景
        1.1.1 云存储基本概念
        1.1.2 云存储QoS
        1.1.3 研究意义
    1.2 研究现状
        1.2.1 云存储负载均衡管理
        1.2.2 云存储分层管理
        1.2.3 云存储网关管理
        1.2.4 数据中心网络管理
    1.3 课题来源
    1.4 本文工作和创新点
    1.5 本文的组织结构
第2章 云存储多数据中心资源管理研究
    2.1 云存储概述
        2.1.1 公有云存储
        2.1.2 私有云存储
        2.1.3 云存储标准
    2.2 云存储架构
        2.2.1 单数据中心
        2.2.2 多数据中心
    2.3 云存储负载均衡管理
        2.3.1 副本放置策略
        2.3.2 副本选择策略
        2.3.3 重复数据删除策略
    2.4 存储分层管理
    2.5 云存储网关管理
    2.6 数据中心网络管理
    2.7 资源优化仿真平台
        2.7.1 仿真流程分析
        2.7.2 云存储仿真平台
        2.7.3 仿真平台架构
    2.8 本章小结
第3章 QoS全局最优的负载均衡调度研究
    3.1 引言
    3.2 层次式负载均衡调度模型
        3.2.1 层次式云存储架构
        3.2.2 云存储QoS级别
        3.2.3 模型形式化描述
    3.3 基于商空间的负载均衡调度算法
        3.3.1 构建求解问题的商空间
        3.3.2 负载均衡调度算法
        3.3.3 算法实例
        3.3.4 算法分析
    3.4 算法性能仿真分析
        3.4.1 实验方法
        3.4.2 实验结果分析
    3.5 本章小结
第4章 应用层QoS保障的对象分层调度研究
    4.1 引言
    4.2 云存储对象分层存储模型
        4.2.1 对象分层存储系统架构
        4.2.2 分层存储定价模型
        4.2.3 模型形式化定义
    4.3 基于定价策略的对象分层调度算法
        4.3.1 资源定价策略
        4.3.2 资源分配博弈分析
        4.3.3 对象分层调度算法
    4.4 算法性能仿真分析
        4.4.1 实验方法
        4.4.2 实验结果分析
    4.5 本章小结
第5章 支持QoS的实时任务调度研究
    5.1 引言
    5.2 云存储网关实时任务调度模型
        5.2.1 云存储网关架构
        5.2.2 任务QoS调度模型
        5.2.3 模型形式化描述
    5.3 基于动态带宽分配的实时任务调度算法
        5.3.1 请求时延及抖动分析
        5.3.2 实时任务调度算法
        5.3.3 算法实例
    5.4 算法性能仿真分析
        5.4.1 实验方法
        5.4.2 实验结果分析
    5.5 本章小结
第6章 面向QoS的数据中心间网络流量调度研究
    6.1 引言
    6.2 层次式数据中心网络调度模型
        6.2.1 树状多层组网模型
        6.2.2 网络流量QoS调度模型
        6.2.3 模型形式化描述
    6.3 基于双层多粒子群的网络流量调度算法
        6.3.1 双层多粒子群算法
        6.3.2 网络流量调度算法
        6.3.3 算法分析
    6.4 算法性能仿真分析
        6.4.1 实验方法
        6.4.2 实验结果分析
    6.5 本章小结
第7章 总结与展望
    7.1 工作总结
    7.2 进一步工作
致谢
参考文献
攻读学位期间成果情况
    发表的学术论文
    参与的科研项目
    申请的专利

(10)网络仿真模拟平台的可扩展性与真实性研究(论文提纲范文)

摘要
Abstract
专用术语注释表
第一章 绪论
    1.1 课题背景
    1.2 技术背景和相关工作
        1.2.1 网络仿真
        1.2.2 网络模拟
    1.3 论文主要研究内容
    1.4 论文组织结构
第二章 高速缓存感知调度算法
    2.1 NS2 与日历队列算法
        2.1.1 NS2 简介
        2.1.2 日历队列算法
    2.2 高速缓存感知算法设计与实现
    2.3 算法复杂度分析和比较
    2.4 本章小结
第三章 仿真调度算法实验
    3.1 实验环境与场景
    3.2 实验过程与结果
    3.3 高速缓存利用有效性验证
    3.4 本章小结
第四章 集成网络模拟平台
    4.1 Dynamips 与 GNS3
    4.2 Xen 与虚拟化技术
        4.2.1 虚拟化技术
        4.2.2 Xen 体系架构
    4.3 GINEP 设计与实现
        4.3.1 管理控制平台
        4.3.2 网络节点
        4.3.3 网络链路
    4.4 本章小结
第五章 GINEP 网络模拟实验
    5.1 实验环境
    5.2 链路模拟验证
    5.3 哑铃模型验证
    5.4 本章小结
第六章 总结与展望
参考文献
附录 1 攻读硕士学位期间撰写的论文
附录 2 攻读硕士学位期间申请的专利
致谢

四、利用高速缓存调度算法实现通讯信息的缓冲(论文参考文献)

  • [1]基于DDR3的星载动态载荷缓存调度及管理技术研究[D]. 薛栋. 中北大学, 2021(09)
  • [2]异构多核SOC处理器内部存储架构优化[D]. 张玄. 合肥工业大学, 2021(02)
  • [3]基于软件定义网的多维多域光网络带宽资源优化技术研究[D]. 王富. 北京邮电大学, 2020(04)
  • [4]一种基于任务相关性的物联网终端调度策略研究[D]. 戴柯宇. 重庆邮电大学, 2020(02)
  • [5]大阵元超声相控阵多组扫查系统的局部调度建模与优化[D]. 李宇中. 华南理工大学, 2019(06)
  • [6]异构融合平台上的数据流运行时系统研究[D]. 林晗. 中国科学技术大学, 2019(02)
  • [7]云环境下基于负载均衡感知的任务调度算法研究[D]. 李竹林. 东北大学, 2018(01)
  • [8]多核系统中处理内存干扰的技术研究[D]. 熊东亮. 浙江大学, 2017(06)
  • [9]云存储多数据中心QoS保障机制研究[D]. 夏纯中. 江苏大学, 2014(08)
  • [10]网络仿真模拟平台的可扩展性与真实性研究[D]. 杨艺. 南京邮电大学, 2013(06)

标签:;  ;  ;  ;  ;  

使用缓存调度算法缓存通信信息
下载Doc文档

猜你喜欢