版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
(71)申请人浪潮通信信息系统有限公司地址250000山东省济南市高新区浪潮路1036号浪潮科技园S06号楼(72)发明人梁秉豪李耀潘文硕王青朋(74)专利代理机构北京路浩知识产权代理有限公司11002专利代理师李相雨GO6F9一种分析任务的计算资源优化方法及系统本发明提供一种分析任务的计算资源优化个分析任务的特征信息和系统当前可用的计算资源状态信息,确定每个分析任务的优先级,并生成优先级队列;根据历史任务负载数据和实时系统状态数据,得到任务负载预测值;根据分析任务的类型、数据规模以及数据源位置,将实时性要求高于预设标准的分析任务分配至边缘节点执行,并根据任务负载预测值动态调整边缘节点的资源分配;根据优先级队列和任务负载预测值,从计算资源池中动态分配可用资源,以执行多个并行分析任务。本发明通过基于任务优先级动态调整、任务负载预测和边缘计算优化调度的获取多个分析任务,并获取每个分析任务的特征信息根据每个分析任务的特征信息和系统当前可用的计算资源状态信息,确定每个分析任务的优先级,并根据全部分析任务的优先级,生成优先级队列根据历史任务负载数据和实时系统状态数据,得到未来时间段的任务负载预测值根据分析任务的类型、数据规模以及数据源位置,将实时性要求高于预设标准的分析任务分配至边缘节点执行,并根据任务负载预测值动态调整边缘节点的资源分配建立统一计算资源池,并根据优先级队列和任务负载预测值,从计算资源池中动态分配可用资源,以执行多个并行分析任务2获取多个分析任务,并获取每个所述分析任务的特征信息;根据每个所述分析任务的特征信息和系统当前可用的计算资源状态信息,确定每个所述分析任务的优先级,并根据全部所述分析任务的优先级,生成优先级队列;根据历史任务负载数据和实时系统状态数据,得到未来时间段的任务负载预测值;根据所述分析任务的类型、数据规模以及数据源位置,将实时性要求高于预设标准的分析任务分配至边缘节点执行,并根据所述任务负载预测值动态调整边缘节点的资源分建立统一计算资源池,并根据所述优先级队列和所述任务负载预测值,从所述计算资源池中动态分配可用资源,以执行多个并行分析任务。2.根据权利要求1所述的分析任务的计算资源优化方法,其特征在于,所述根据每个所述分析任务的特征信息和系统当前可用的计算资源状态信息,确定每个所述分析任务的优将每个所述分析任务的特征信息和所述计算资源状态信息输入至优先级计算模型,得到所述优先级计算模型输出的每个所述分析任务的优先值;其中,所述优先级计算模型为基于深度强化学习算法训练得到的深度Q网络模型;根据每个所述分析任务的优先值,确定每个所述分析任务的优先级。3.根据权利要求2所述的分析任务的计算资源优化方法,其特征在于,还包括所述优先级计算模型的训练方法:对所述深度Q网络模型的初始权重进行随机初始化,并将目标网络的初始权重与所述深度Q网络模型的初始权重设置为相同值;持续采集训练样本,并根据所述训练样本,构周期性地从所述经验回放池中随机抽取训练样本,对所述深度Q网络模型进行批量训练,并利用所述目标网络稳定训练过程;重复执行周期性地从所述经验回放池中随机抽取训练样本,对所述深度Q网络模型进行批量训练,并利用所述目标网络稳定训练过程的步骤,直至所述深度Q网络模型的误差低于预设阈值或达到预定最大训练轮次;将训练完成的深度Q网络模型作为最终的优先级计算模型。4.根据权利要求3所述的分析任务的计算资源优化方法,其特征在于,所述周期性地从所述经验回放池中随机抽取训练样本,对所述深度Q网络模型进行批量训练,并利用所述目周期性地从所述经验回放池中随机抽取多个训练样本,形成小批量数据;将所述小批量数据输入至所述深度Q网络模型中,得到所述深度Q网络模型输出的预测优先级;计算所述预测优先级与目标优先级标签之间的误差,并根据所述误差通过反向传播算法和梯度下降方法更新所述深度Q网络模型的权重;在预设的训练步数间隔后,将当前深度Q网络模型的权重复制到所述目标网络中,以减少训练振荡并加速模型收敛。5.根据权利要求1所述的分析任务的计算资源优化方法,其特征在于,所述根据历史任3务负载数据和实时系统状态数据,得到未来时间段的任务负载预测值,具体包括:获取历史任务负载数据和实时系统状态数据,并对所述历史任务负载数据和所述实时系统状态数据进行缺失值填充和标准化处理,得到预处理后的历史任务负载数据和预处理后的实时系统状态数据;将所述预处理后的历史任务负载数据和所述预处理后的实时系统状态数据输入至预测模型,得到所述预测模型输出的任务负载预测值;其中,所述预测模型基于长短期记忆网络或Transformer网络,利用多时间步预测机制生成未来时间段的任务负载预测值。6.根据权利要求1所述的分析任务的计算资源优化方法,其特征在于,所述根据所述分析任务的类型、数据规模以及数据源位置,将实时性要求高于预设标准的分析任务分配至边缘节点执行,并根据所述任务负载预测值动态调整边缘节点的资源分配,具体包括:基于所述分析任务的类型、数据规模以及数据源位置,确定所述分析任务对响应延迟的需求,并将高于预设实时性阈值的分析任务标记为实时性任务;将所述实时性任务分配至距离对应的数据源位置最近的边缘节点,以缩短数据传输路径并降低网络时延;结合所述边缘节点的CPU、GPU、内存使用情况以及所述任务负载预测值,对所述边缘节点的可用资源进行动态评估;根据评估结果,为已分配至边缘节点的各个所述实时性任务分配或回收计算资源。7.根据权利要求1所述的分析任务的计算资源优化方法,其特征在于,所述方法还包在执行所述分析任务的过程中,持续监控实际任务负载值;将所述实际任务负载值与所述任务负载预测值进行比对,得到偏差值;当判定所述偏差值大于预设偏差阈值时,更新优先级计算模型和预测模型的模型参根据更新后的优先级计算模型和更新后的预测模型,调整所述分析任务的优先级或资源分配策略。8.根据权利要求1所述的分析任务的计算资源优化方法,其特征在于,所述特征信息为任务类型、数据规模以及计算复杂度中的至少一项信息;所述计算资源状态信息包括CPU、获取模块,用于获取多个分析任务,并获取每个所述分析任务的特征信息;第一处理模块,用于根据每个所述分析任务的特征信息和系统当前可用的计算资源状态信息,确定每个所述分析任务的优先级,并根据全部所述分析任务的优先级,生成优先级队列;第二处理模块,用于根据历史任务负载数据和实时系统状态数据,得到未来时间段的任务负载预测值;第三处理模块,用于根据所述分析任务的类型、数据规模以及数据源位置,将实时性要求高于预设标准的分析任务分配至边缘节点执行,并根据所述任务负载预测值动态调整边缘节点的资源分配;第四处理模块,用于建立统一计算资源池,并根据所述优先级队列和所述任务负载预4测值,从所述计算资源池中动态分配可用资源,以执行多个并行分析任务。10.一种电子设备,包括存储器、处理器及存储在所述存储器上并在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1-8任一项所述分析任务的计算资源优化方法。11.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1-8任一项所述分析任务的计算资源优化方法。12.一种计算机程序产品,包括计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1-8任一项所述分析任务的计算资源优化方法。5一种分析任务的计算资源优化方法及系统技术领域[0001]本发明涉及计算机技术领域,尤其涉及一种分析任务的计算资源优化方法及系背景技术[0002]当前,随着视频监控、智慧城市和安防等领域对智能化视频AI分析的需求不断增加,系统需要同时处理来自不同场景、不同任务类型的海量视频数据。[0003]然而,传统技术主要采用静态资源分配和固定调度策略,通常根据预先设定的规则分配计算资源,而缺乏对任务特征和系统状态的实时监控与预测。这种做法在面对任务类型多样、数据规模不一以及实时性要求较高的场景时,往往无法及时响应负载波动,从而导致关键任务在高负载期间无法迅速获得必要的计算资源,同时在低负载时资源又被过度分配,造成资源浪费。正因如此,现有技术在保证系统高响应性和资源利用效率方面存在明显短板,其静态调度机制难以满足多任务并行运行过程中资源需求的动态变化,进而引发响应延迟和资源调度不均等问题。[0004]因此,如何在多任务、多场景的视频AI分析环境下,实现计算资源的实时预测与动态自适应调度,成为亟需解决的技术问题。发明内容[0005]本发明提供一种分析任务的计算资源优化方法、系统、电子设备及存储介质,用以解决现有技术中的缺陷,在多任务、多场景的视频AI分析环境下,实现计算资源的实时预测与动态自适应调度。[0006]本发明提供一种分析任务的计算资源优化方法,包括如下步骤:获取多个分析任务,并获取每个所述分析任务的特征信息;根据每个所述分析任务的特征信息和系统当前可用的计算资源状态信息,确定每个所述分析任务的优先级,并根据全部所述分析任务的优先级,生成优先级队列;根据所述分析任务的类型、数据规模以及数据源位置,将实时性要求高于预设标准的分析任务分配至边缘节点执行,并根据所述任务负载预测值动态调整边缘节点的资源建立统一计算资源池,并根据所述优先级队列和所述任务负载预测值,从所述计算资源池中动态分配可用资源,以执行多个并行分析任务。[0007]根据本发明提供的一种分析任务的计算资源优化方法,所述根据每个所述分析任务的特征信息和系统当前可用的计算资源状态信息,确定每个所述分析任务的优先级,具将每个所述分析任务的特征信息和所述计算资源状态信息输入至优先级计算模6型,得到所述优先级计算模型输出的每个所述分析任务的优先值;其中,所述优先级计算模型为基于深度强化学习算法训练得到的深度Q网络模型;根据每个所述分析任务的优先值,确定每个所述分析任务的优先级。[0008]根据本发明提供的一种分析任务的计算资源优化方法,还包括所述优先级计算模型的训练方法:对所述深度Q网络模型的初始权重进行随机初始化,并将目标网络的初始权重与所述深度Q网络模型的初始权重设置为相同值;周期性地从所述经验回放池中随机抽取训练样本,对所述深度Q网络模型进行批量训练,并利用所述目标网络稳定训练过程;重复执行周期性地从所述经验回放池中随机抽取训练样本,对所述深度Q网络模型进行批量训练,并利用所述目标网络稳定训练过程的步骤,直至所述深度Q网络模型的误差低于预设阈值或达到预定最大训练轮次;将训练完成的深度Q网络模型作为最终的优先级计算模型。[0009]根据本发明提供的一种分析任务的计算资源优化方法,所述周期性地从所述经验回放池中随机抽取训练样本,对所述深度Q网络模型进行批量训练,并利用所述目标网络稳周期性地从所述经验回放池中随机抽取多个训练样本,形成小批量数据;将所述小批量数据输入至所述深度Q网络模型中,得到所述深度Q网络模型输出的预测优先级;计算所述预测优先级与目标优先级标签之间的误差,并根据所述误差通过反向传播算法和梯度下降方法更新所述深度Q网络模型的权重;在预设的训练步数间隔后,将当前深度Q网络模型的权重复制到所述目标网络中,以减少训练振荡并加速模型收敛。[0010]根据本发明提供的一种分析任务的计算资源优化方法,所述根据历史任务负载数据和实时系统状态数据,得到未来时间段的任务负载预测值,具体包括:获取历史任务负载数据和实时系统状态数据,并对所述历史任务负载数据和所述实时系统状态数据进行缺失值填充和标准化处理,得到预处理后的历史任务负载数据和预处理后的实时系统状态数据;将所述预处理后的历史任务负载数据和所述预处理后的实时系统状态数据输入至预测模型,得到所述预测模型输出的任务负载预测值;其中,所述预测模型基于长短期记忆网络或Transformer网络,利用多时间步预测机制生成未来时间段的任务负载预测值。[0011]根据本发明提供的一种分析任务的计算资源优化方法,所述根据所述分析任务的类型、数据规模以及数据源位置,将实时性要求高于预设标准的分析任务分配至边缘节点执行,并根据所述任务负载预测值动态调整边缘节点的资源分配,具体包括:基于所述分析任务的类型、数据规模以及数据源位置,确定所述分析任务对响应延迟的需求,并将高于预设实时性阈值的分析任务标记为实时性任务;将所述实时性任务分配至距离对应的数据源位置最近的边缘节点,以缩短数据传输路径并降低网络时延;7缘节点的可用资源进行动态评估;根据评估结果,为已分配至边缘节点的各个所述实时性任务分配或回收计算资[0012]根据本发明提供的一种分析任务的计算资源优化方法,所述方法还包括:在执行所述分析任务的过程中,持续监控实际任务负载值;将所述实际任务负载值与所述任务负载预测值进行比对,得到偏差值;当判定所述偏差值大于预设偏差阈值时,更新优先级计算模型和预测模型的模型根据更新后的优先级计算模型和更新后的预测模型,调整所述分析任务的优先级或资源分配策略。[0013]根据本发明提供的一种分析任务的计算资源优化方法,所述特征信息为任务类内存的使用率。[0014]本发明还提供一种分析任务的计算资源优化系统,包括如下模块:获取模块,用于获取多个分析任务,并获取每个所述分析任务的特征信息;第一处理模块,用于根据每个所述分析任务的特征信息和系统当前可用的计算资源状态信息,确定每个所述分析任务的优先级,并根据全部所述分析任务的优先级,生成优先级队列;第二处理模块,用于根据历史任务负载数据和实时系统状态数据,得到未来时间段的任务负载预测值;第三处理模块,用于根据所述分析任务的类型、数据规模以及数据源位置,将实时性要求高于预设标准的分析任务分配至边缘节点执行,并根据所述任务负载预测值动态调整边缘节点的资源分配;第四处理模块,用于建立统一计算资源池,并根据所述优先级队列和所述任务负载预测值,从所述计算资源池中动态分配可用资源,以执行多个并行分析任务。[0015]本发明还提供一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如上述任一种所述分析任务的计算资源优化方法。[0016]本发明还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如上述任一种所述分析任务的计算资源优化方法。[0017]本发明还提供一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现如上述任一种所述分析任务的计算资源优化方法。[0018]综上所述,本申请实施例中提供的一个或多个技术方案,至少具有如下技术效果或优点:通过获取多个分析任务及其特征信息,实现全面掌握任务类型、数据规模和计算需求,从而为任务调度提供精准输入。通过基于任务特征和当前计算资源状态确定任务优先级,并生成优先级队列,实现优先处理关键任务,优化资源分配,从而提升高优先级任务的执行效率,避免低效占用计算资源。通过结合历史任务负载数据和实时系统状态数据预8测未来任务负载,实现提前调整资源配置,从而减少任务延迟,提高计算资源利用率。通过基于任务类型、数据规模及数据源位置,将高实时性任务分配至最优边缘节点,并动态调整资源,使任务在低延迟环境下高效执行,从而降低数据传输开销,提升系统响应速度,避免中心节点计算瓶颈。通过建立统一计算资源池,并基于优先级队列与负载预测值动态分配可用资源,实现灵活调度资源,优化负载均衡,从而提高计算资源利用率,实现高效稳定的任务调度和资源管理。最终,该方案确保在多任务、多场景的视频AI分析环境下,实现计算资源的实时预测与动态自适应调度。附图说明[0019]为了更清楚地说明本发明或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。[0020]图1是本发明提供的分析任务的计算资源优化方法的流程示意图之一。[0021]图2是本发明提供的分析任务的计算资源优化方法的流程示意图之二。[0022]图3是本发明提供的分析任务的计算资源优化方法的流程示意图之三。[0023]图4是本发明提供的分析任务的计算资源优化方法的流程示意图之四。[0024]图5是本发明提供的分析任务的计算资源优化方法的流程示意图之五。[0025]图6是本发明提供的分析任务的计算资源优化方法的流程示意图之六。[0026]图7是本发明提供的分析任务的计算资源优化系统的结构示意图。[0027]图8是本发明提供的电子设备的结构示意图。具体实施方式[0028]为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明中的附图,对本发明中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的系统或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便本发明的实施例9通常为一类,并不限定对象的个数,例如第一对象可以是一个,也可以[0031]下面结合图1-图8描述本发明所提供的分析任务的计算资源优化方法、系统、电子设备及存储介质。[0032]图1是本发明提供的分析任务的计算资源优化方法的流程示意图之一,如图1所步骤101:获取多个分析任务,并获取每个分析任务的特征信息。[0033]在多任务并行的计算环境中,为了实现计算资源的高效调度,系统首先需要获取多个分析任务,并提取每个分析任务的特征信息,以便为后续的优先级评估和资源分配提供基础。由于分析任务的计算需求可能存在较大差异,如任务类型不同可能涉及不同的AI模型推理流程,数据规模不同可能影响存储和带宽占用,而计算复杂度则直接决定了所需计算资源的负载强度,因此,仅凭固定的规则或静态调度策略无法满足动态变化的任务调度需求。因此,在步骤101中,系统通过任务管理模块接收多个待处理务的具体属性提取其特征信息,其中,特征信息至少包括任务类型、数据规模以及计算复杂度等关键指标。[0034]在具体实现过程中,系统在接收到任务请求后,会解析任务的基本参数,例如任务类型可能涉及目标检测、行为识别或图像分割等AI分析模式,数据规模可通过输入视频流的分辨率、帧率以及时长等信息衡量,而计算复杂度可结合AI推理模型的深度、推理时间等指标进行评估。与此同时,为了确保调度的精准性,系统还会查询当前的计算资源状态信级评估提供全面的数据支撑。[0035]通过这样的方式,系统能够在任务提交的初始阶段便完成对任务属性的精确刻画,使得后续的调度决策能够基于具体的任务需求和计算资源状况动态调整,而非简单地依据任务到达的先后顺序进行处理。[0036]步骤102:根据每个分析任务的特征信息和系统当前可用的计算资源状态信息,确定每个分析任务的优先级,并根据全部分析任务的优先级,生成优先级队列。[0037]在多任务并行的计算环境中,计算资源的合理分配对于保障系统的整体运行效率至关重要。由于不同的分析任务具有不同的任务类型、数据规模和计算复杂度,同时系统的策略无法实现对资源的精准分配。为了确保高优先级任务在资源紧张时能够得到及时处理,同时提升系统的吞吐能力,步骤102通过构建优先级计算机制,对每个分析任务进行优先级评估,并基于优先级结果生成任务调度队列。[0038]在一种可能的实施方式中,特征信息为任务类型、数据规模以及计算复杂度中的至少一项信息;计算资源状态信息包括CP析任务的计算资源优化方法的流程示意图之二,如图2所示,在步骤102中,根据每个分析任务的特征信息和系统当前可用的计算资源状态信息,确定每个分析任务的优先级,具体通过步骤201-202实现:步骤201:将每个分析任务的特征信息和计算资源状态信息输入至优先级计算模型,得到优先级计算模型输出的每个分析任务的优先值;其中,优先级计算模型为基于深度强化学习算法训练得到的深度Q网络模型。[0039]步骤202:根据每个分析任务的优先值,确定每个分析任务的优先级。[0040]具体来说,系统首先获取每个分析任务的特征信息,并结合当前可用的计算资源状态信息,将这些数据输入至优先级计算模型中。优先级计算模型采用基于深度强化学习算法训练得到的深度Q网络模型,其核心思想是通过长期交互学习,使系统能够根据不同任务的特征及系统资源情况,自动优化任务优先级的分配策略。优先级计算模型的具体训练方法将在后续实施例中进行详细说明。通过深度Q网络模型的计算,每个分析任务都会获得一个优先值,该优先值代表任务在当前计算资源条件下的处理紧迫度。随后,系统根据所有分析任务的优先值对任务进行排序,最终形成优先级队列。[0041]在这一过程中,优先级计算模型的深度强化学习能力使得系统能够自适应地调整优先级策略,即使面对动态变化的任务负载和资源状况,仍然可以通过不断学习和优化任务排序逻辑,确保关键任务优先执行。此外,由于深度Q网络模型的训练过程中引入了经验回放和目标网络机制,使得优先级计算的结果更加稳定,避免了任务优先级评估因短期波动导致的频繁调整,从而提升了调度系统的鲁棒性和可靠性。[0042]通过这种方式,步骤201和202的实施有效解决了多任务环境下计算资源分配不均的问题,使系统在面对计算资源紧张的情况下,仍然能够优先满足高重要性或高实时性任务的计算需求。同时,通过深度强化学习优化任务排序策略,系统能够在长时间运行后不断提升资源调度的效率,降低低优先级任务对关键任务的干扰,最终提高整体计算资源的利用率和系统响应速度。[0043]在一种可能的实施方式中,图3是本发明提供的分析任务的计算资源优化方法的流程示意图之三,如图3所示,优先级计算模型的训练方法具体通过步骤301-305实现:步骤301:对深度Q网络模型的初始权重进行随机初始化,并将目标网络的初始权重与深度Q网络模型的初始权重设置为相同值。[0044]在基于深度强化学习的优先级计算模型中,深度Q网络模型(DeepQ-Network,DQN)的性能直接影响分析任务的优先级评估准确性,而模型的初始权重设置对于训练的稳定性和收敛速度具有关键作用。由于深度Q网络模型的训练涉及复杂的状态一动作一奖励—状态(SARS)映射关系,如果初始权重未能合理设置,可能会导致模型在训练初期学习速度缓慢,甚至出现梯度消失或梯度爆炸的问题。因此,在步骤301中,系统对深度Q网络模型的初始权重进行随机初始化,并同步设置目标网络的初始权重,以确保训练的稳定性。[0045]具体而言,在执行步骤301时,系统首先构建深度Q网络模型,该模型包括输入层、多个隐藏层以及输出层,输入层用于接收任务的特征信息和系统当前的计算资源状态信息,隐藏层通过神经网络对输入数据进行特征提取和表示学习,输出层则用于预测任务的优先值。在模型初始化阶段,系统采用均匀分布或正态分布的随机方式初始化深度Q网络模型的神经网络权重,以保证模型在训练初期具有足够的探索能力。同时,为了进一步提升训练的稳定性,系统创建一个目标网络,并将其初始权重与深度Q网络模型的初始权重设置为相同值。目标网络的作用在于提供稳定的学习目标,防止Q值更新过程中因目标值剧烈波动导致训练振荡或发散。[0047]在深度Q网络模型的训练过程中,样本数据的质量和多样性直接影响模型的学习11效果。由于任务优先级的决策环境是高度动态的,如果直接基于当前环境生成训练样本,可能会导致模型学习过程存在较强的样本相关性,从而影响训练的收敛速度和泛化能力。因此,在步骤302中,系统持续采集训练样本,并基于这些样本构建经行过程中不同状态下的训练数据,使模型能够从历史经验中学习更稳定的任务调度策略。[0048]在具体实现过程中,系统在执行分析任务时,持续监控任务的特征信息、计算资源状态信息以及任务调度过程中采取的动作和相应的奖励值,并将这些信息组织为“状态一动作一奖励一下一状态”的四元组数据结构。每当系统完成一次任务调度决策,都会记录当前状态信息、当前动作、执行该动作后得到的奖励,以及执行后的新状态信息,并将其存储到经验回放池中。为了保证经验回放池的有效性,系统采用固定容量的存储策略,当经验回放池达到容量上限时,会优先移除最早存储的样本,以确保模型能够始终学习到最新的环境变化,同时避免过时样本对训练效果的干扰。[0049]通过这种方式,步骤302的实施确保了深度Q网络模型可以从丰富的任务调度经验中进行训练,而不是仅依赖于最新的单一数据点,减少了样本间的相关性,提高了训练数据的多样性和代表性。此外,经验回放池的构建还使得模型可以在训练过程中随机抽取样本进行批量训练,从而避免模型过度依赖短期经验,有助于更稳定地学习到最优的任务优先级计算策略。[0050]步骤303:周期性地从经验回放池中随机抽取训练样本,对深度Q网络模型进行批量训练,并利用目标网络稳定训练过程。[0051]在深度Q网络模型的训练过程中,单独依赖当前环境生成的数据进行学习容易导致模型陷入局部最优,并且可能因为样本分布不均导致模型的泛化能力不足。因此,在步骤303中,系统通过周期性地从经验回放池中随机抽取训练样本,并对深度Q网络模型进行批量训练,以降低样本相关性,提高训练稳定性,并利用目标网络机制减少训练过程中的剧烈[0052]在一种可能的实施方式中,图4是本发明提供的分析任务的计算资源优化方法的流程示意图之四,如图4所示,步骤303具体包括步骤401-404:步骤401:周期性地从经验回放池中随机抽取多个训练样本,形成小批量数据。[0053]步骤402:将小批量数据输入至深度Q网络模型中,得到深度Q网络模型输出的预测[0054]步骤403:计算预测优先级与目标优先级标签之间的误差,并根据误差通过反向传播算法和梯度下降方法更新深度Q网络模型的权重。[0055]步骤404:在预设的训练步数间隔后,将当前深度Q网络模型的权重复制到目标网络中,以减少训练振荡并加速模型收敛。[0056]在步骤401至404中,系统采用批量训练方式,通过周期性地从经验回放池中抽取样本进行小批量训练,并结合误差计算、梯度下降优化以及目标网络更新策略,提高深度Q网络模型在任务调度环境中的适应性和稳定性。[0057]在具体实现过程中,系统首先设定固定的采样间隔,以确保模型在训练过程中能够均匀覆盖任务执行中的不同阶段,而不是仅依赖于短时间内的任务调度数据。在每个训练周期开始时,系统从经验回放池中随机抽取一定数量的训练样本,每个训练样本均包含“状态一动作—奖励一下一状态”的四元组数据结构。系统在采样时采用无放回随机抽取方式,以保证训练数据的多样性,避免模型陷入局部最优解。同时,为了保证训练数据的代表性,系统限制经验回放池的最大容量,当存储的新样本超过设定容量时,系统自动移除最早存储的样本,使得模型能够始终学习到最新的任务调度模式,而不会受到过时数据的干扰。[0058]接下来,将步骤401中采样得到的小批量数据按照“状态一动作一奖励一下一状态”的四元组结构进行解析,并将当前状态信息输入至深度Q网络模型。该模型由多层神经网络构成,其中输入层接收任务的特征信息和系统计算资源状态信息,隐藏层通过非线性变换提取关键特征,最终输出层生成任务的优先值。模型的输出是针对当前任务状态下各个可能动作(即不同的任务调度决策)所对应的Q值,其中Q值代表在当前状态下执行特定动作后能获得的长期收益。系统从输出的Q值集合中,选择与当前任务调度策略对应的Q值,作为预测的任务优先值,并存储以用于后续计算目标优先级以及梯度优化。[0059]进一步的,计算目标优先级,目标优先级的计算基于深度强化学习中的Bellman方程,即利用下一状态的最优Q值和当前奖励值计算出长期收益。随后,系统对比步骤402中计算得到的预测优先级与目标优先级,并基于均方误差(MeanSquaredError,MSE)或Huber损失函数构建损失值,以衡量当前模型输出的任务优先值与理想任务优先值之间的偏差。接下来,系统采用反向传播算法,将损失值沿着神经网络的计算路径进行梯度传播,并通过梯度下降方法调整模型的权重参数,使模型在未来的训练迭代中更准确地预测任务的最优优先级。为了提高训练的稳定性,系统可以采用Adam优化器或RMSprop优化器,以动态调整学习率,确保模型在训练早期能够进行较大的权重更新,而在训练后期收敛时减小参数调[0060]最终,设定固定的步数间隔N,每当深度Q网络模型的训练迭代次数达到N时,系统触发目标网络权重更新机制,将当前深度Q网络模型的权重复制到目标网络。目标网络的作用在于提供稳定的Q值计算参考,使得训练过程中目标Q值不会因为当前网络参数的频繁变化而导致训练振荡。在更新目标网络权重之前,系统会计算模型的损失趋势,并判断当前模型的训练是否处于稳定收敛状态,避免在模型尚未达到一定稳定性时进行权重同步,从而确保训练过程中策略的稳定性。此外,在实际实现中,目标网络权重的更新可以采用软更新方式,即目标网络的权重以较小的更新率t逐步接近当前深度Q网络模型的权重,而非直接完全替换,以进一步降低训练波动,使模型在长期训练过程中能够平稳优化任务调度策略。[0061]步骤304:重复执行周期性地从经验回放池中随机抽取训练样本,对深度Q网络模型进行批量训练,并利用目标网络稳定训练过程的步骤,直至深度Q网络模型的误差低于预设阈值或达到预定最大训练轮次。[0062]在深度Q网络模型的训练过程中,确保模型能够有效收敛至最优任务调度策略是提高系统计算资源利用效率的关键。由于分析任务的特征信息和计算资源状态在训练过程中是动态变化的,如果训练终止条件设定不合理,可能导致模型训练不足,使任务优先级计算模型无法准确预测任务调度策略,或者导致训练过度,出现过拟合现象,使模型难以适应实际环境的复杂性。因此,在步骤304中,系统通过重复执行从经验回放池中抽取训练样本、批量训练深度Q网络模型并利用目标网络稳定训练过程的步骤,确保模型在误差低于预设阈值或达到预定最大训练轮次时终止训练,从而获得稳定、泛化能力强的优先级计算模型。[0063]在具体实现过程中,系统在每次训练迭代时,持续从经验回放池中随机抽取小批量训练样本,并输入至深度Q网络模型,计算当前状态下的预测优先级,同时通过目标网络计算目标优先级,并根据预测优先级与目标优先级之间的误差值进行梯度优化,使模型不断调整权重参数以最小化误差。随着训练轮次的增加,系统实时监测模型的损失值变化趋势,并判断当前误差是否低于设定的误差阈值,如果误差已经降低至预设范围内,则认为模型已经充分学习任务调度策略,此时终止训练以避免过拟合。如果误差未能达到预设标准,但训练轮次已经达到系统设定的最大训练上限,则系统判断模型已达到稳定状态,亦可终止训练,确保模型在计算复杂度和泛化能力之间取得平衡。[0064]步骤305:将训练完成的深度Q网络模型作为最终的优先级计算模型。[0065]具体来说,在步骤304的训练终止条件满足后,获取最终优化后的深度Q网络模型,该模型已经通过多轮迭代学习任务特征信息、计算资源状态信息与最优调度策略之间的映射关系,并能够在不同任务负载情况下自适应地预测任务优先级。随后,系统对该模型进行格式化处理,并存储至计算资源管理模块的模型存储单元,确保模型在后续任务调度过程中能够被快速加载和调用。此外,为了提升模型的鲁棒性,系统可以采用模型版本管理策略,即在存储最终模型的同时,保留部分历史训练版本,并在系统运行过程中进行模型效果评估,如果检测到任务优先级计算模型的性能下降,则可以回滚至较优的历史模型版本,以保证系统在长期运行中的稳定性。[0066]步骤103:根据历史任务负载数据和实时系统状态数据,得到未来时间段的任务负载预测值;在计算资源动态调度的过程中,准确预测未来的任务负载对于优化资源分配至关重要。如果系统仅基于当前任务的计算资源需求进行调度,而未能提前预知未来的任务负载变化,可能会导致计算资源在任务高峰期出现短缺,影响高优先级任务的执行,或在低负载时造成资源闲置,降低整体系统利用率。因此,在步骤103中,系数据和实时系统状态数据,计算未来时间段的任务负载预测值,为后续的任务调度和资源优化提供数据支撑。[0067]在一种可能的实施方式中,图5是本发明提供的分析任务的计算资源优化方法的流程示意图之五,如图5所示,步骤103具体包括步骤501-502:步骤501:获取历史任务负载数据和实时系统状态数据,并对历史任务负载数据和实时系统状态数据进行缺失值填充和标准化处理,得到预处理后的历史任务负载数据和预处理后的实时系统状态数据。[0068]在任务负载预测过程中,输入数据的完整性和质量对预测精度有决定性影响。如果直接使用原始的历史任务负载数据和实时系统状态数据进行预测,可能会由于数据缺失、异常值或尺度不统一等问题导致预测模型的泛化能力下降,进而影响计算资源的动态分配效率。因此,在步骤501中,系统首先获取历史任务负载数其进行缺失值填充和标准化处理,以确保输入数据的完整性和一致性,从而提升预测模型的准确性和稳定性。[0069]在具体实现过程中,系统从任务调度日志中提取历史任务负载数据,并实时监测关键指标。由于任务执行环境是高度动态的,部分历史数据可能存在丢失或异常值,因此系统在数据预处理阶段首先进行缺失值填充,对于少量缺失的数据点,系统采用线性插值、均值填充或滑动窗口平滑等方法进行补全,而对于较大范围的缺失数据,系统则使用基于时间序列的插值算法进行重构,以减少数据不完整对预测结果的影响。此外,为了确保不同特征数据在同一尺度范围内输入至预测模型,系统对任务负载数据和计算资源状态数据进行标准化处理,例如采用Z-score标准化或Min-Max归一化,将所有数据转换至同一数值范围,以避免数值较大的特征对预测模型的学习过程产生偏置。[0070]步骤502:将预处理后的历史任务负载数据和预处理后的实时系统状态数据输入至预测模型,得到预测模型输出的任务负载预测值;其中,预测模型基于长短期记忆网络或Transformer网络,利用多时间步预测机制生成未来时间段的任务负载预测值。[0071]在计算资源调度中,准确预测未来的任务负载对于优化资源分配和提升系统响应能力至关重要。如果系统仅依赖当前的计算资源状态进行任务调度,而未能提前感知未来任务负载的变化,可能会导致资源在高负载时短缺或在低负载时过度分配,从而降低系统的整体运行效率。因此,在步骤502中,系统将预处理后的历史任务负载数据和实时系统状态数据输入至预测模型,利用长短期记忆网络(LSTM)或Transformer网络,通过多时间步预测机制生成未来时间段的任务负载预测值,以确保任务调度策略能够适应未来的资源需[0072]在具体实现过程中,系统首先调用预测模型,该模型的输入层接收标准化后的历史任务负载数据和当前系统状态数据,包括任务执行频率、计算资源使用率(CPU、GPU、内存)、任务队列长度等特征信息。随后,模型基于时间序列分析方法对输入数据进行特征提取,并通过不同的深度学习架构执行预测任务。如果采用长短期记忆网络(LSTM),模型通过其门控机制和长期依赖性学习能力,捕捉任务负载在不同时间步之间的变化趋势,并利用隐藏状态在时间维度上传递信息,使得模型能够有效预测未来多个时间步的任务负载情况。而如果采用Transformer网络,则模型通过自注意力机制(Self-Attention)对时间序列中的关键特征进行加权计算,使其能够高效建模任务负载的全局依赖关系,提高预测的准确性和稳定性。[0073]步骤104:根据分析任务的类型、数据规模以及数据源位置,将实时性要求高于预设标准的分析任务分配至边缘节点执行,并根据任务负载预测值动态调整边缘节点的资源在多任务并行的视频AI分析环境中,计算资源的合理分配直接影响系统的处理效率和响应速度。如果所有任务均在中心节点执行,不仅会增加数据传输延迟,还可能导致计算资源在负载高峰期出现瓶颈,从而降低任务的执行效率。因此,在务的类型、数据规模以及数据源位置,确定实时性要求高于预设标准的任务,并将这些任务分配至边缘节点执行,同时结合任务负载预测值动态调整边缘节点的计算资源分配,以提升任务调度的灵活性和系统的整体计算效率。[0074]在一种可能的实施方式中,图6是本发明提供的分析任务的计算资源优化方法的流程示意图之六,如图6所示,步骤104具体包括步骤601-604:步骤601:基于分析任务的类型、数据规模以及数据源位置,确定分析任务对响应延迟的需求,并将高于预设实时性阈值的分析任务标记为实时性任务。[0075]在多任务并行的视频AI分析环境中,不同任务对计算资源和响应时间的需求差异较大。如果所有任务按照相同的调度策略进行处理,可能导致高实时性任务因计算资源不足或数据传输延迟而无法及时执行,从而影响系统的整体性能。于分析任务的类型、数据规模以及数据源位置,确定任务对响应延迟的需求,并将高于预设实时性阈值的任务标记为实时性任务,以确保关键任务能够优先获得资源并在最优计算位置执行,从而提高系统的任务处理效率和整体响应速度。[0076]在具体实现过程中,系统首先对每个任务的特征信息进行分析,其中任务类型用于判断任务的实时处理需求,例如目标检测、行为分析等应用通常对实时性要求较高,而离线数据挖掘、历史数据分析等任务对延迟的敏感度较低。数据规模决定了任务的计算强度和网络传输开销,较大规模的视频流任务需要更强的计算能力,并可能因传输带宽限制导致额外的延迟,而较小数据规模的任务则相对灵活。数据源位置则影响任务执行节点的选模以及数据源位置三个因素,通过设定实时性阈值,对所有任务进行实时性评分,并筛选出高于阈值的任务,将其标记为实时性任务。[0077]步骤602:将实时性任务分配至距离对应的数据源位置最近的边缘节点,以缩短数据传输路径并降低网络时延。[0078]在具体实现过程中,系统首先依据步骤601中标记的实时性任务列表,获取每个任务对应的数据源位置,并查询当前系统中的边缘计算节点拓扑结构。边缘计算节点的拓扑务负载情况。系统基于数据源位置计算任务与各个边缘节点之间的网络传输延迟,并按照最小传输延迟的原则,筛选出最适合该任务执行的边缘计算节点。随后,系统结合该边缘节点的计算资源状态,评估其是否具备充足的计算能力来执行所选任务,并在资源允许的前提下,将任务分配至该边缘节点执行。[0079]在任务调度过程中,如果当前最优的边缘节点计算资源不足,系统会选择次优的边缘节点,并结合任务的实时性阈值判断是否需要调整计算资源或在必要情况下回退至中心计算节点执行。此外,系统还会动态监测任务在边缘节点的执行情况,确保任务能够在目标边缘节点上顺利运行,并在任务完成后及时释放资源,避免边缘计算节点长期占用过多计算能力而影响后续任务的执行。点的可用资源进行动态评估。[0081]在具体实现过程中,系统首先调用边缘计算管理模块,实时监测当前已分配任务0吞吐量等关键指标。同时,系统获取步骤502生成的任务负载预测值,该预测值反映了未来时间段内可能出现的计算资源需求变化,使得系统能够提前感知可能的计算瓶颈,并进行相应调整。基于这些数据,系统计算每个边缘节点的资源利用率,并结合任务优先级和预测的计算资源需求,评估当前的任务调度是否需要调整。[0082]如果评估结果表明某个边缘节点的计算资源利用率即将超过设定的负载阈值,系统会触发资源调整机制,包括任务转移、资源扩展或任务优先级调整。例如,当某个边缘节点的负载预测值表明未来可能出现计算资源紧张的情况,系统可以预先将部分低优先级任务迁移至负载较低的其他边缘节点,或者结合资源池共享模块,为该边缘节点动态分配更多的计算资源,以确保关键任务能够顺利执行。此外,系统还可以基于任务执行的实时反馈,持续监测边缘节点的资源利用状态,并在必要时动态优化计算资源的分配策略。[0083]步骤604:根据评估结果,为已分配至边缘节点的各个实时性任务分配或回收计算[0084]在具体实现过程中,系统首先调用计算资源管理模块,实时监测所有边缘节点的CPU、GPU、内存等计算资源使用率,并结合任务负载预测值,评估当前任务的计算资源需求与边缘节点的计算能力是否匹配。对于计算资源利用率接近上限的边缘节点,系统采用动态资源扩展策略,优先分配更多的计算资源,例如增加GPU的计算分配额度,或者调用资源池共享模块,从全局计算资源池中调度额外的计算资源至该边缘节点,以确保关键任务在资源受限情况下仍然能够高效执行。如果某个任务在执行过程中资源需求减少或任务即将完成,系统则触发资源回收机制,将该任务的空闲计算资源释放回资源池,或重新分配给其他高优先级任务,以最大化计算资源的利用率。[0085]步骤105:建立统一计算资源池,并根据优先级队列和任务负载预测值,从计算资源池中动态分配可用资源,以执行多个并行分析任务。[0086]在步骤105中,系统建立统一计算资源池,并根据优先级队列和任务负载预测值,从计算资源池中动态分配可用资源,以确保多个并行分析任务能够获得合理的资源支持,从而优化计算资源的利用率并提升任务执行效率。[0087]在具体实现过程中,系统首先整合计算资源管理模块中的所有可用资源,包括中心节点和边缘节点的CPU、GPU、内存等计算资源,并构建统一计算资源池。该计算资源池不仅包含当前可用的物理计算资源,还能够与资源池共享模块协同工作,实现跨节点资源调度,确保任务可以在计算资源紧张时动态获取额外资源,提高系统的整体弹性和负载均衡能力。随后,系统依据步骤102中生成的优先级队列,按照任务的优先级高低依次进行资源分配,确保高优先级任务优先获取计算资源,而低优先级任务则在资源充足时被调度执行。此外,系统结合步骤103生成的任务负载预测值,对未来计算资源需求进行预估,并在任务执行前提前调整资源分配策略,例如在预测任务负载高峰时预先扩展计算资源池,以减少任务堆积或计算资源短缺带来的延迟问题。[0088]在计算资源的动态分配过程中,系统采用自适应资源管理机制,实时监测各任务的资源占用情况,并在任务执行过程中动态调整资源分配。例如,当某个任务执行过程中实际资源需求超出预期,系统可以通过资源池共享模块为其调配额外计算资源,以确保任务能够按时完成。相反,如果某个任务的资源需求低于初始分配的计算资源,系统则自动回收多余的资源,并重新分配给其他高优先级任务,以提高整体计算资源的利用率。此外,系统还具备智能资源迁移能力,即当某个计算节点负载过高时,系统可以将部分任务迁移至负在执行分析任务的过程中,持续监控实际任务负载值;将实际任务负载值与任务负载预测值进行比对,得到偏差值;当判定偏差值大于预设偏差阈值时,更新优先级计算模型和预测模型的模型参根据更新后的优先级计算模型和更新后的预测模型,调整分析任务的优先级或资源分配策略。[0090]在计算资源动态调度系统中,任务负载是不断变化的,如果仅依赖静态任务优先级和负载预测进行计算资源分配,而不对实际执行情况进行持续监测和调整,可能会导致任务调度策略滞后,使得计算资源无法适应实时任务需求。因此,在上述步骤中,系统在任务执行过程中持续监控实际任务负载值,并将其与任务负载预测值进行比对,计算偏差值。如果偏差值超过预设阈值,系统将更新优先级计算模型和任务负载预测模型,并调整分析任务的优先级或资源分配策略,以确保任务调度能够自适应系统运行环境的动态变化。[0091]在具体实现过程中,系统首先持续采集任务执行过程中的实际任务负载数据,包时负载监测模块,以便后续分析。随后,系统调用任务负载预测模块,并获取当前时间段的任务负载预测值,将预测值与实际任务负载数据进行比对,计算实际负载与预测负载之间的偏差。如果偏差值在合理范围内,说明预测模型仍然有效,系统继续按照原有调度策略运行;但如果偏差值超过预设偏差阈值,则说明当前任务负载状态已偏离预测模型的预期,需要对调度策略进行动态调整。[0092]进一步的,系统依据偏差分析结果,更新优先级计算模型和任务负载预测模型。具体而言,系统首先采集近期的实际负载数据,并将其输入至优先级计算模型,通过深度强化学习方法重新训练模型,以使其能够更精准地评估任务优先级,确保任务调度策略能够适应最新的计算资源状态。同时,系统对任务负载预测模型进行参数调整或重新训练,优化预测模型的时间序列学习能力,提高其对未来任务负载的预测准确度。在模型更新过程中,系统采用增量学习机制,仅基于最新的任务数据进行优化,以减少计算开销并确保模型能够快速适应环境变化。[0093]在完成模型更新后,根据优化后的优先级计算模型和任务负载预测模型,对任务优先级和计算资源分配策略进行动态调整。例如,如果更新后的优先级计算模型判定某些任务的优先级需要提升,系统将调整任务调度顺序,优先执行关键任务;如果任务负载预测模型表明某些计算节点的未来负载将超出其计算能力,系统将提前调整任务分配方案,将部分任务迁移至负载较低的计算节点。此外,系统还可结合实时负载情况,动态增加或回收计算资源,确保系统在资源紧张或负载波动情况下仍能高效稳定运行。[0094]通过这种方式,上述步骤的实施确保了计算资源调度系统能够自适应实时任务负载的变化,并通过实际负载监测、预测误差分析、模型更新和资源动态调整,使系统能够持续优化任务调度策略。相比于传统的静态调度方法,该方法通过闭环优化机制,使得系统能够在任务负载环境变化时迅速调整计算资源,减少任务执行延迟,并提高计算资源的整体现计算资源的智能化、自适应分配,从而提升系统的任务调度能力和计算性能。[0095]参照图7,图7是本发明提供的分析任务的计算资源优化系统的结构示意图,系统获取模块,用于获取多个分析任务,并获取每个分析任务的特征信息;第一处理模块,用于根据每个分析任务的特征信息和系统当前可用的计算资源状态信息,确定每个分析任务的优先级,并根据全部分析任务的优先级,生成优先级队列;第二处理模块,用于根据历史任务负载数据和实时系统状态数据,得到未来时间段的任务负载预测值;第三处理模块,用于根据分析任务的类型、数据规模以及数据源位置,将实时性要求高于预设标准的分析任务分配至边缘节点执行,并根据任务负载预测值动态调整边缘节点的资源分配;第四处理模块,用于建立统一计算资源池,并根据优先级队列和任务负载预测值,从计算资源池中动态分配可用资源,以执行多个并行分析任务。将每个分析任务的特征信息和计算资源状态信息输入至优先级计算模型,得到优先级计算模型输出的每个分析任务的优先值;其中,优先级计算模型为基于深度强化学习算法训练得到的深度Q网络模型;根据每个分析任务的优先值,确定每个分析任务的优先级。对深度Q网络模型的初始权重进行随机初始化,并将目标网络的初始权重与深度Q网络模型的初始权重设置为相同值;周期性地从经验回放池中随机抽取训练样本,对深度Q网络模型进行批量训练,并利用目标网络稳定训练过程;重复执行周期性地从经验回放池中随机抽取训练样本,对深度Q网络模型进行批量训练,并利用目标网络稳定训练过程的步骤,直至深度Q网络模型的误差低于预设阈值或达到预定最大训练轮次;将训练完成的深度Q网络模型作为最终的优先级计算模型。周期性地从经验回放池中随机抽取多个训练样本,形成小批量数据;将小批量数据输入至深度Q网络模型中,得到深度Q网络模型输出的预测优先级;计算预测优先级与目标优先级标签之间的误差,并根据误差通过反向传播算法和梯度下降方法更新深度Q网络模型的权重;在预设的训练步数间隔后,将当前深度Q网络模型的权重复制到目标网络中,以减少训练振荡并加速模型收敛。获取历史任务负载数据和实时系统状态数据,并对历史任务负载数据和实时系统状态数据进行缺失值填充和标准化处理,得到预处理后的历史任务负载数据和预处理后的实时系统状态数据;将预处理后的历史任务负载数据和预处理后的实时系统状态数据输入至预测模型,得到预测模型输出的任务负载预测值;其中,预测模型基于长短期记忆网络或Transformer网络,利用多时间步预测机制生成未来时间段的任务负载预测值。基于分析任务的类型、数据规模以及数据源位置,确定分析任务对响应延迟的需求,并将高于预设实时性阈值的分析任务标记为实时性任务;将实时性任务分配至距离对应的数据源位置最近的边缘节点,以缩短数据传输路径并降低网络时延;资源进行动态评估;根据评估结果,为已分配至边缘节点的各个实时性任务分配或回收计算资源。在执行分析任务的过程中,持续监控实际任务负载值;将实际任务负载值与任务负载预测值进行比对,得到偏差值;当判定偏差值大于预设偏差阈值时,更新优先级计算模型和预测模型的模型参根据更新后的优先级计算模型和更新后的预测模型,调整分析任务的优先级或资源分配策略。[0102]需要说明的是,本发明提供的分析任务的计算资源优化系统,在具体运行时,可以执行上述任一实施例的分析任务的计算资源优化方法,对此本实施例不作赘述。[0103]图8是本发明提供的电子设备的结构示意图,如图8所示,该电子设备可以包括:处理器810(processor)、通信接口820(CommunicationsInterface)、存储器830(memory)和通信总线840,其中,处理器810,通信接口820,存储器830通过通信总线840完成相互间的通信。处理器810可以调用存储器830中的逻辑指令,以执行分析任务的计算资源优化方法,该方法包括:获取多个分析任务,并获取每个分析任务的特征信息;根据每个分析任务的特征信息和系统当前可用的计算资源状态信息,确定每个分析任务的优先级,并根据全部分析任务的优先级,生成优先级队列;根据历史任务负载数据和实时系统状态数据,得到未来时间段的任务负载预测值;根据分析任务的类型、数据规模以及数据源位置,将实时性要求高于预设标准的分析任务分配至边缘节点执行,并根据任务负载预测值动态调整边缘节点的资源分配;建立统一计算资源池,并根据优先级队列和任务负载预测值,从计算资源池中动态分配可用资源,以执行多个并行分析任务。[0104]此外,上述的存储器830中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施OnlyMemory)、随机存取存储器(RAM,RandomAccessMemory)、磁碟或者光盘等各种可以存储程序代码的介质。[0105]另一方面,本发明还提供一种计算机程序产品,计算机程序产品包括存储在非暂态计算机可读存储介质上的计算机程序,计算机程序包括程序指令,当程序指令被计算机执行时,计算机能够执行上述各实施例所提供的分析任务的计算资源优化方法
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 2026春招:药明康德题库及答案
- 2026年电气控制系统设计中的美学概念
- 2026春招:信息安全顾问面试题及答案
- 2026春招:项目助理题目及答案
- 贷款端培训课件
- 贴针课件教学课件
- 货运航空安全培训笔试课件
- 货车司机安全生产培训课件
- 护理专业精神心理护理研究
- 口腔科技术革新与应用
- 四川长江担保集团有限公司及其子公司2025年第六批员工公开招聘的备考题库及一套参考答案详解
- 2026内蒙古包头市昆区残联残疾人专职委员招聘2人参考考试试题及答案解析
- 二十届四中全会测试题及参考答案
- 23G409先张法预应力混凝土管桩
- 【川教版】《生命 生态 安全》三年级上册 第18课《学会垃圾分类》课件
- 自信自卑主题班会
- YY/T 1718-2020人类体外辅助生殖技术用医疗器械胚胎移植导管
- GB/T 28837-2012木质包装检疫处理服务质量要求
- GA/T 1380-2018法庭科学DNA数据库人员样本采集规范
- 铜盐加速醋酸盐雾试验标准
- 刑法总论全套课件
评论
0/150
提交评论