版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领
文档简介
《面向移动边缘计算的软件自适应卸载技术规范》编制说明
一、标准制定的必要性
随着智能技术的兴起,出现了越来越多的计算密集型移动软件。由于处
理能力、内存容量和电池容量等方面受到限制,大多数移动设备依然无法在
短时间内处理不断涌现的各类计算密集型任务。
移动边缘计算通过把一些计算密集型任务发送到边缘服务器,来解决移
动设备资源受限的问题。由于边缘服务器的地理分布和移动设备的移动性,
移动边缘计算中软件的运行环境是高度复杂动态的,这给计算卸载的实施带
来极大难度和复杂度。面对高度复杂动态的运行环境,软件感知环境、改变
行为、提高性能的“自适应”模式,成为移动边缘计算中计算卸载的必然需
求。因此,有必要出台面向移动边缘计算的软件自适应卸载技术规范。
二、标准编制原则及依据
1.按照GB/T1.1-2020《标准化工作导则第1部分:标准化文件的结构和
起草规则》要求进行编写。
2.参照相关法律、法规和规定,在编制过程中着重考虑了科学性、适用
性和可操作性。
三、主要试验(或验证)情况分析
针对本规范中主要的三部分内容进行了详细的实验与分析,具体结果如
下:
1.针对自适应卸载的软件自动重构
1.1针对OO软件自适应卸载的程序自动重构
(1)实验设置
我们的实验环境包括五个计算节点:两个移动设备和三个远程节点资源。
我们模拟了四个位置,分别命名为花园,操场,教学楼和实验楼,四个位置
2
的网络情况各不相同。表1中描述了每个位置的移动设备和远程节点资源之间
的网络状况。
表1移动设备在不同位置的上下文环境
位置花园操场教学楼实验楼
服务节点
Edge1×rtt=300ms,rtt=30ms,×
v=1MB/sv=1MB/s
Edge2××rtt=60ms,rtt=35ms,
v=700KB/sv=950KB/s
Cloudrtt=200ms,rtt=200ms,rtt=200ms,rtt=55ms,
v=150KB/sv=150KB/sv=150KB/sv=725KB/s
实验用到两款移动设备是1)HonorMYA-AL10,配备1.4GHz4核处理器,
内存大小为2GB,代表低性能的移动设备;2)HonorSTF-AL00配备2.4GHz4
核处理器,内存大小为4GB,代表高性能的移动设备。而三个远程节点包括
两个移动边缘(Edge1和Edge2)和一个公有云服务,可用于在不同位置进行
计算迁移。Edge1是一款配备2.5GHz8核处理器,内存大小为4GB的边缘节点,
其网络覆盖了操场和教学楼。Edge2是一款配备3.0GHz8核处理器,内存大小
为8GB的边缘节点,其网络覆盖教学楼和实验楼。公有云服务是一台具有
3.6GHz16核处理器,内存大小为16GB的服务器,可以在所有位置公开访问。
为评估不同计算性能的移动设备通过计算迁移所获得的性能提升以及能
耗节省,选取了两个真正的Android应用程序。一种是车牌识别系统(LRS)。
车牌识别涉及捕获摄影视频或车牌图像,由此通过一系列算法处理它们,这
些算法能够将捕获的车牌图像的字母数字转换成文本条目。另一种是语音识
别系统(VRS),它使用语音识别技术将口头语言转换成书面语言。我们根
据规范中定义的设计模式重构这两个应用程序,使其支持计算卸载。
(2)对比方法
本规范从两个方法基于原始、传统迁移和自适应迁移对应用程序进行比
较,评估自适应迁移中间件带来的性能改进。原始应用程序完全在设备上运
3
行;传统的迁移应用程序将具有密集计算的可移动对象迁移到具有最佳网络
连接的远程节点资源;自适应迁移的应用程序可以使用任何远程节点资源进
行按需迁移(本规范的所提出的方法)。
(3)实验结果及分析
图1显示了分别在四个位置的每部手机上运行两个应用程序的性能比较。
我们可以观察到本规定的方法在所有情况下的响应时间都是最小的或接近最
小的。
图1固定位置下,两种移动设备运行两个程序的性能比较
与原始应用相比,当移动设备在操场,教学楼或实验楼中具有良好的网
络连接时,我们的自适应迁移可以将响应时间缩短8%-50%,因为一些计算
密集型任务被迁移到移动边缘或云服务上。相反,当移动设备在花园中的网
络连接不良时,我们的自适应迁移应用程序在本地运行与原始应用程序相同,
并且它们的性能接近原始应用程序,但是开销大约为140ms,这来自于中间
件的开销。
4
与传统的迁移应用程序相比,我们的自适应迁移应用程序可以在将计算
迁移到远程节点资源时将响应时间缩短5%-33%。性能提升的原因是影响迁
移效果的因素很多,例如网络连接质量,类方法的计算复杂性以及设备和远
程节点资源的处理能力,我们的自适应迁移应用程序动态确定迁移方案。自
适应迁移应用对执行时间和网络延迟之间的权衡,而不是仅使用具有最佳网
络连接的远程节点资源进行迁移。
1.2针对DNN软件自适应卸载的程序自动重构
(1)实验设置
我们将模拟一个真实DNN应用在边缘环境下卸载的场景作为实验环境,
总共有四个计算节点,包括一个移动设备和三个远程服务器,它们构成了移
动边缘环境。上下文环境有四个场景,分别是社区、交通道路、停车场和商
场。如表2所示,我们列举了计算节点间的连接关系,第一行为移动设备所在
的场景,第一列为远程服务器,每一个单元格为移动设备和远程服务器间的
往返时间和数据传输速率。RTT越小、V越大表明两节点间的信号更强。
表2不同场景下的网络环境
社区交通道路停车场商场Cloud
RTT=30msRTT=30msRTT=50ms
E1--
V=1Mb/sV=1Mb/sV=800Kb/s
RTT=30msRTT=60msRTT=80ms
E2--
V=1Mb/sV=700Kb/sV=500Kb/s
RTT=150msRTT=150msRTT=150msRTT=150ms
Cloud-
V=200Kb/sV=200Kb/sV=200Kb/sV=200Kb/s
我们的移动设备的配置为2.2GHzCPU和4GBRAM,远程服务器包括两
个移动边缘(E1和E2)以及一个云服务器(Cloud),可以支持在不同的场景下应
用的卸载。E1的配置为2.5GHz8核CPU和8GBRAM;E2的配置为3.0GHz8
核CPU和8GBRAM;Cloud的配置为3.56GHz16核CPU和16GBRAM。
实验使用一个真实的DNN图像识别目标检测应用,它由Python语言实现,
5
Caffe2深度学习框架支持。这里主要考虑三个模型,它们是该DNN应用的核
心,模型复杂度由简单到复杂依次为AlexNet,VGG16以及ResNet-50,复杂
度越高则模型推理时延越长,识别准确度越高。
(2)对比方法
为了验证性能提升情况,将本部分的方法(称为DNNOff)与其他三种
方法进行对照,分别是:baseline(基线):应用仅在移动设备端执行,不采用
任何卸载或调度方法;cloud-only(仅云卸载):应用在云服务器端执行完整的
DNN推理过程,方法的优势在于降低本地执行推理的计算代价;edge-only(仅
边缘卸载):在应用模型的第一个全连接层前对应用进行切分,并根据网络连
接情况在最近的边缘计算节点执行后半部分的DNN,这里的最近指的是最小
的rtt和最大的v,方法的优势在于用最小的数据传输延迟权衡本地执行的开销。
(3)实验结果及分析
总体响应时间由推理时间和数据传输时间组成。表3展示了我们的方法相
比baseline、edge-only和cloud-only在不同场景下的优化程度。
表3本文方法对比baseline,edge-only和cloud-only在不同场景下的优化程度
社区交通道路停车场商店
baseline62.5%60%34.8%60.7%
AlexNetedge-only39.1%40.5%0.0%41.5%
cloud-only50.4%47.0%0.0%11.0%
baseline64.7%61.9%32.0%61.5%
VGG16edge-only40.4%49.2%0.0%47.0%
cloud-only50.1%53.2%3.8%51.2%
baseline66.3%66.6%47.5%64.3%
ResNet-50edge-only43.0%36.9%0.0%41.4%
cloud-only52.2%45.4%0.0%49.3%
从表格中可得:本规范的方法相较这三种方法总响应时间分别减少
32.0~66.6%,36.9~49.2%,3.8~52.2%。不仅如此,模型越复杂,性能的提升
越显著。一般来说,社区的优化程度优于商店,因为社区接近性能较好的边
缘服务器,可以显著降低远程推理时间。在交通道路中,ResNet-50模型优化
6
了66.6%,因为层间的数据传输量小并且位置可连接所有远程服务器,以缓
解本地推理时间长的瓶颈同时保证较低的数据传输时间。同时,停车场只连
接到云服务器,所以性能改善程度明显不如在其他场景,但它仍然可以降低
3.8~47.5%的时间。因此,即使没有边缘服务器,我们的方法仍然有效。综上
所述,AlexNet、VGG16和ResNet-50分别将该目标检测应用的平均总响应时
间从3s、9s和15s降低到1s、3s和5s。
2.计算卸载的开销评估
2.1OO模型的开销评估
(1)实验设置
我们使用模拟移动边缘计算环境来进行实验,共包含四个计算节点:一
个移动设备和三个远程服务器。我们模拟四个环境,分别是花园,宿舍楼,
教学楼和实验室。每个位置的网络连接的情况在表4中描述。
表4设备上下文信息表
位置
花园宿舍楼教学楼实验室
节点
RTT=40ms,RTT=40ms,
E1××
V=1.5Mb/sV=1.5Mb/s
RTT=70ms,RTT=40ms,
E2××
V=1Mb/sV=1.5Mb/s
RTT=200ms,RTT=200ms,RTT=200ms,RTT=70ms,
Cloud
V=200Kb/sV=200Kb/sV=200Kb/sV=1Mb/s
为了验证本文所提方法的可行性和有效性,本文采用两种移动设备作为
测试设备和三个远程服务器(两个Edge和一个Cloud)。两种移动设备具体参数
分别为具有1.4GHz双核CPU,2GB内存HonorMYA-AL10(以下简称MYA-
AL10),2.4GHz4核CPU,4GB内存HonorSTF-AL00(以下简称STF-AL00)。
E1是具有2.5GHz8核CPU,4GBRAM的服务器,其网络覆盖范围包括宿舍楼
和教学楼。E2是3.0GHz8核CPU,8GBRAM的服务器,其网络覆盖范围包括
教学楼和实验楼。云是3.6GHz的服务器16核CPU,16GBRAM,可在所有地
7
点公开访问。
同时,我们实现了一个模拟无人车送餐应用的Android应用程序,这个应
用中主要由五个计算任务组成:无人驾驶模块,路径规划模块,环境感知模
块,电话呼叫模块,取餐验证模块。其中,应用程序的路径规划模块使用A*
算法来实现。
(2)衡量指标
回归算法的评价指标是均方差(MeanSquaredError,MSE)、均根方差
(RootMeanSquardError,RMSE)和平均绝对误差(MeanAbsoluteError,MAE),
具体如下述公式所示:
N
12
MSE=−()observedttpredicted
Nt=1
1N
2
RMSE=−()observedttpredicted
Nt=1
1N
MAE=−observedttpredicted
Nt=1
均方差是指真实值与预测值之差的平方的期望值,其中observedt为真实
值,predictedt为预测值,均方差其实就是线性回归的损失函数,MSE越小
说明我们的训练模型越好,精确度更好。均根方差其实就是均方差的算术平
方根,是为了更好地评估预测数据,与我们需要预测数据的单位一致。平均
绝对误差就是真实值与预测值的绝对误差的平均值。以上的几种评判标准会
随着模型的不同而改变,所以我们提出了一种类似于分类方法中准确率的评
判标准R2,如公式(2-16)所示,
N
ˆ2
()yyii−
2i=1
R=−1N
2
()yyii−
i=1
2
yi为原始数据,yˆi为对应点的误差,yi为均值,R的值在0-1之间,表
8
示我们模型的好坏程度。
(3)实验结果及分析
通过随机森林回归算法对方法执行时间进行预测,结果显示MAE为
76.137ms,RMSE为147.301ms,R2为0.673,都是在合理的范围内。为了进
一步评估我们预测的时间数据对部署方案时间的影响。我们使用我们随机森
林训练模型预测出来的时间和实际的时间来比较每个对象部署方案时间的差
别。如图2所示,我们从所有对象部署方案中随机抽取了三十组部署方案的时
间数据。这三十组部署方案的数据显示,每个部署方案的实际的时间的平均
值为5150ms,而我们使用预测时间得出的部署方案时间与实际时间之间的D-
value值平均为241ms,为实际时间得出的部署方案总时间的0.47%,所以D-
value的折线接近零。
图2对象部署方案的执行时间比较
我们还比较了没有收集到的方法的真实执行时间和预测执行时间,如图3
所示,为收集到方法的实际执行时间方法的平均值是207ms,与预测的时间
之间的D-value值平均为41ms,为未收集到方法的执行时间的24%,这个结果
表明这意味着单个方法的执行时间对整个方案影响较小。此外,未收集的方
法的数量是所有方法的11%。因此,预测未收集方法的误差对整个方案是合
9
理的。
ComparisonofExecutionCostofMethods
800
672.679833
700644632
589.34837
600563.56433
500
415422411
400403.87323
321.09531315.15083
278
3002259
172.34756
158159166.75433170.43432
200140134141.6284
87.51356677.748373
120.578773121.379013182.518466748…
ExecutionExecutionTime(ms)80757469.51846674
6066.78214363.7374363.756653566148.736332
10044.772476
4417.096561227
0
1234567891011121314151617181920212223
RealTimePredictingTimeD-value
图3未收集到方法的执行时间比较
2.2DNN模型的开销评估
(1)实验设置
为训练评估模型准备数据集,我们使用历史数据,即通过执行几个DNN
应用收集的信息,包括AlexNet、VGG16、VGG19、ResNet-50和ResNet-152。
本文共收集了425个卷积层、320个池化层、582个激励层以及96个全连接层的
层信息。表5给出了在移动设备上采集的一些样本,以卷积层作为示例。
channel表示卷积核的频道数;ksize和knumber表示卷积核的大小和数量;stride
和padding表示卷积核的步长和填充值。输入(X)包括channel,ksize,knumber,
stride和padding。输出(time)表示层时延的预测值。例如,我们将425个数据项
随机分成两类:70%的训练项用以训练预测模型,30%的测试项用以对训练
好的模型进行准确度评估。
表5数据集样本
sampleNo.channelstridepaddingtime(ms)
ksizeknumber
296525612183
3256338411200
4384338411301
10
同时,为了证明随机森林回归算法更加适用于本方法,我们采用SVM和
Boosting回归算法作比较。在相同的实验环境和数据集下训练上述模型,并
比较它们的准确性。
(2)衡量指标
预测模型的衡量指标为RMSE,它是观察值和真实值之间的样本标准差,
如下述公式所示:
N
1
RMSE=√∑(observed-predicted)2
Ntt
t=1
除了RMSE,我们同时采用R2(R-Squared)来评估预测模型的精度。R2常
用来评价回归模型的质量,如下述公式所示:
∑2
2(observedt-predictedt)
R=1-2
∑(observedt-meant)
研究表明RMSE越小,模型的拟合程度越好;对于R2,大于0.5时模型较
好,且越接近1,模型质量越好,即黄金标准。
(3)实验结果及分析
实验结果如表6所示,按RMSE的值从大到小排序为Boosting>SVM>
RandomForest,按R2的值从大到小排序为RandomForest>SVM>Boosting。
当RMSE越小且R2越大时,回归模型越准确,因此随机森林在回归预测层的
执行代价方面表现最好。
表6对比三种回归模型分别在训练集和预测集上的衡量指标
2
modelsubsetRMSER
trainset0.398ms0.862
SVM
testset0.776ms0.789
trainset0.598ms0.801
Boosting
testset0.867ms0.724
RandomForesttrainset0.198ms0.934
11
testset0.289ms0.910
进一步,表7展示了我们方法采用的预测模型的准确率,数据表明在不同
计算节点上预测不同类型的层执行时延时,它们的RMSE和R2均符合前文提
到的衡量指标黄金标准。预测模型的高准确率为卸载方案的评估奠定了基础。
2
表7预测模型在测试集上的RMSE和R
2
typeRMSER
Device0.289msDevice0.91
E10.155msE10.93
convolutionlayer
E20.131msE20.93
Cloud0.098msCloud0.94
Device1.210msDevice0.78
E10.845msE10.82
poolinglayer
E20.799msE20.83
Cloud0.524msCloud0.83
Device0.058msDevice0.69
E10.029msE10.70
activationlayer
E20.022msE20.72
Cloud0.012msCloud0.75
Device4.951msDevice0.57
E12.098msE10.62
fully-connectedlayer
E21.589msE20.66
Cloud1.248msCloud0.66
3.计算卸载的智能调度
3.1卸载方案的求解加速
(1)实验设置
实验中使用了四种DNN,包括AlexNet、VGG19、GoogleNet和
ResNet101。我们应用程序预划分中的参数和vp设置为3和10MB/s。模拟实
验在Win1064位操作系统上进行,该系统采用i7-47903.60GHzIntel(R)
Core(TM)处理器和32GBRAM。
(2)对比方法
PSO-GA是一种进化算法,通过结合PSO和GA的优势,能够在较短时间
内得到一个近似于最优解的卸载方案。而本规范的方法,下面称为SPSO-GA,
是在PSO-GA的基础上添加了应用程序预划分的操作,可以通过减少决策维
12
度来减少决策方案的生成时间。
(3)实验结果及分析
层划分能够减少DNN中部署单元的数量,从而提高算法的执行时间。图
4描绘了SPSO-GA和PSO-GA在不同工作负载下的执行时间。在一段时间内,
每个物联网设备执行DNN的次数不同,其值在1到5之间。一般来说,SPSO-
GA的执行时间远小于AlexNet、VGG19和ResNet101上的PSO-GA,后者的结
构是串行的。这是因为具有串行结构的DNN具有更多的降维,这导致在层划
分后部署单元更少。部署单元的数量决定了问题编码空间和算法的执行时间。
因此,在AlexNet、VGG19和ResNet101上,SPSO-GA的执行时间比PSO-GA
少得多。
(a)AlexNet(b)VGG19
(c)GoogleNet(d)ResNet101.
图4不同工作负载下SPSO-GA和PSO-GA的执行时间。
13
图4(a)描述了AlexNet在不同工作负载下的SPSO-GA和PSO-GA的执行
时间。具体来说,SPSO-GA的执行时间平均比PSO-GA少36.01%。如图所示。
4(b)到10(d),对于VGG19、GoogleNet和ResNet101,SPSO-GA的执行
时间分别比PSO-GA平均少30.48%、21.05%和35.96%。在分层之后,
GoogleNet仍然保留了许多部署单元,因此无法很好地减少执行时间。
3.2卸载方案在线决策算法
(1)实验设置
图5具有不同任务规模的DAG
为了模拟应用程序的多样性,分别构造了任务规模n={10,15,20,25}的四
种任务图,所构造的任务图结构如图5所示。对于每个应用程序퐺=(푁,퐸),
每个子任务的计算量푐푖(푖∈푁)服从[50,500]Megacycle内的均匀分布。而对于
每条푒푖,푗∈퐸的有向边,子任务푖传输到子任务푗的数据传输量服从[0,1000]KB
内的均匀分布。此外,不同计算节点的计算能力퐹(푓푀퐷,푓퐸푆,푓퐶푆)和计算节点之
间的数据传输速率푉(푣푀퐷,퐸푆,푣푀퐷,퐶푆,푣퐸푆,퐶푆)服从均匀分布。
我们的方法(后续称为DODQ)是基于TensorFlow2.3.0实现。在DODQ
14
中,使用由一个输入层、两个隐藏层和一个输出层组成的完全连接DNN,其
中这两个隐藏层都有128个隐藏神经元。记忆池容量푀、训练批量푚、折扣因
子훾、Adam优化器的学习率分别设置为15000、64、0.9、0.001。此外,对于
不同规模的任务图设置了不同的训练周期,任务规模푛=10、15、20、25的
训练周期分别设置为10000、15000、20000、25000。
基于上述设置,模拟了10种不同퐹、푉的云边缘环境场景,如表8所示。
对于每个场景,执行运行时决策算法,实现在不同的云边缘环境中执行自适
应任务卸载。
表8云边缘环境的不同场景
푭(퐆퐇퐳)푽(퐌퐁/퐬)
No.
풇푴푫풇푬푺풇푪푺풗푴푫,푬푺풗푴푫,푪푺풗푬푺,푪푺
12.04.06.06.02.03.0
21.84.36.46.52.53.4
32.23.86.27.01.92.5
41.63.56.57.52.43.5
52.44.56.08.02.33.1
62.04.35.45.51.82.6
71.74.05.85.02.03.0
82.54.25.54.52.12.9
91.53.95.24.01.72.8
102.33.65.66.02.23.2
(2)对比方法
将DODQ的性能与基于规则(Rule-based)的、基于机器学习(ML-based)
的和Q-learning方法进行比较。其中,Rule-based选择最佳DAG分区点,并将
剩余任务从移动设备卸载到云。ML-based采用粒子群优化和遗传算法(PSO-
GA)根据不同环境下应用程序的预测响应时间搜索卸载方案。Q-learning将
每个状态动作对及其对应的Q值存储到Q表中,以最大化卸载方案的累积回报,
15
这可以很好地处理具有小规模状态空间的卸载问题。当运行时环境发生变化
时,Q-learning需要重新训练任务卸载的决策模型,以便更好地适应新环境。
(3)实验结果及分析
图6DODQ与其他经典方法在不同场景下的性能比较
如图6所示,DODQ在不同场景下响应时间比Rule-based好13∼30%。
Rule-based涉及专家设置的分割规则,但这些预定义的规则不能很好地应用于
不同的场景。因此,基于规则的方法无法有效地适应动态云边缘环境下的任
务卸载问题。特别是当环境复杂时(例如,푛=25),与Rule-based相比,
DODQ的优势变得非常明显。此外,与ML-based相比,DODQ的性能提高了
6%∼8%。特别是,我们评估了ML-based中响应时间的预测精度,在允许15%
的模型误差的情况下,精度仅为72.5%。这是因为基于ML的方法需要足够的
训练数据来开发准确的预测模型。然而,在缺乏训练数据支持的情况下,由
于预测不准确,导致任务卸载效率低下。此外,在不考虑训练时间的情况下,
Q-learning在不同场景下获得了与DODQ相当的响应时间。然而,当运行时环
16
境发生变化时,Q-learning需要为新环境重新训练任务卸载的决策模型,这将
导致训练时间过长。
四、项目背景及工作情况
(一)任务来源
根据《中国国际科技促进会标准化工作委员会团体标准管理办法》的有
关规定,经中国国际科技促进会标准化工作委员会及相关专家技术审核,批
准《面向移动边缘计算的软件自适应卸载技术规范》团体标准制定计划,项
目计划号为:CI2022160。本标准由福州大学、福建师范大学、上海交通
大学、北京大学、国网信通亿力科技有限责任公司、厦门盈趣科技股份
有限公司提出,中国国际科技促进会归口。
(二)标准起草单位
本标准的主要起草单位是福州大学,负责标准文档起草及相关文件的编
制等。福州大学、福建师范大学、上海交通大学、北京大学、国网信通
亿力科技有限责任公司、厦门盈趣科技股份有限公司负责标准中重要技术
点的研究和建议,并参与标准内容的讨论。
(三)标准研制过程及相关工作计划
1)前期准备工作
项目立项前,标准编制小组查阅、研读相关国内外文献,广泛搜集与面
向移动边缘计算的软件自适应卸载技术相关的材料。同时,标准编制小组安
排相关人员,多次与研究边缘计算卸载、软件自适应等相关行业人员进行调
研、交流,⼴泛征求标准制订方面的意见和建议。
2)标准起草过程
团体标准立项通知公示后,标准编制小组首先组织了标注制定工作会议,
各编写人员根据工作计划分工和编写要求开展了相关工作。在标准起草期间,
编制小组主编单位及参编单位组织了数次内部研讨会和专家咨询会,经过多
17
次修改,于2022年5月初完成了标准初稿及编制说明的撰写工作。
3)征求意见情况
2022年6月初,标准编制小组先后通过现场会议、电话、微信等多种形式
征集⾏业专家相关意见和建议。针对征集的意见,标准编制小组召开了研讨
会,将收集到的意见进行汇总处理分析,在充分吸纳合理意见的基础上,先
后修改和完成标准内容,于2022年7月底根据在各单位反馈意见基础上,形成
了标准征求意见稿,由中国国际科技促进会提交全国标准信息平台公示。
五、标准制定的基本原则
标准编制过程中,遵循了以下基本原则:
1)标准需要具有行业特点,指标及其对应的分析方法要积极参照采用国
家标准和行业标准。
2)标准能够体现出产品的具有关键共性的技术要素。
3)标准能够为产品的开发、改进指出明确的方向。
4)标准需要具有科学性、先进性和可操作性。
5)要能够结合行业实际情况和产品特点。
6)与相关标准法规协调一致。
7)促进行业健康发展与技术进步。
六、标准主要内容
本标准规范了面向移动边缘计算的软件自适应卸载的相关技术,包括针
对自适应卸载的软件自动重构、计算卸载的开销评估、计算卸载的智能调度
等。本标准适用于解决电力物联网、智能家居、智慧生态等领域中存在的移
动边缘环境下软件自适应卸载的相关问题。
七、与有关法律法规和强制性标准的关系
遵守和符合相关法律法规和强制性标准要求。规范性引用文件包括:
18
T/ZGTXXH010—2021《边缘计算总体架构与要求》
T/JSQX0001—2022《道路交通边缘计算设备技术要求》
T/GDEIIA8—2021《面向智慧灯杆应用的边缘计算智能网关一般技术要
求》
ISO/IECTR23188:2020《Edgecomputinglandscape》
ISO/IECTR30164:2020《Edgecomputing》
八、重大分歧意见的处理经过和依据
本标准在编写过程中无重大意见分歧。
九、采标程度,国内外同类标准水平的对比情况
国内外尚没有专门的、公认的面向移动边缘计算的软件自适应卸载的相关
标准。
十、后续贯彻措施
(一)政策措施和宣传培训
做好宣传培训,建议由各行业主管部门组织、主要起草单位配合开展标
准宣贯培训工作,使相关执行人员了解标准、熟悉标准,掌握标准的各项技
术要求,加强示范效应,让标准在行业内得到广泛推广和应用,使标准的应
用落到实处。
对《面向移动边缘计算的软件自适应卸载技术规范》团体标准执行情况
进行跟踪调查,及时发现标准中执行的额外问题,不断修改完善,提高标准
水平,提高标准的科学性、合理性、协调性和可操作性。
(二)试点示范
组织规范使用单位参观学习并请专业技术人员讲解标准内容,利用各种
活动(如工作组活动、行业协会的管理和活动、标准化技术刊物、网上信息、
产品认证等)尽可能地向各相关单位和机构宣传该标准。
19
建议本标准发布之日起半年内实施。
十一、其他应说明的事项
无
《面向移动边缘计算的软件自适应卸载技术规范》编制小组
2022年7月
20
团体标准
《面向移动边缘计算的软件
自适应卸载技术规范》
编制说明
2022年7月
1
《面向移动边缘计算的软件自适应卸载技术规范》编制说明
一、标准制定的必要性
随着智能技术的兴起,出现了越来越多的计算密集型移动软件。由于处
理能力、内存容量和电池容量等方面受到限制,大多数移动设备依然无法在
短时间内处理不断涌现的各类计算密集型任务。
移动边缘计算通过把一些计算密集型任务发送到边缘服务器,来解决移
动设备资源受限的问题。由于边缘服务器的地理分布和移动设备的移动性,
移动边缘计算中软件的运行环境是高度复杂动态的,这给计算卸载的实施
温馨提示
- 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
- 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
- 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
- 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
- 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
- 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
- 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
最新文档
- 急诊科QCC成果汇报
- 化学01(浙江卷)(考试版及全解全析)-2026年高考考前预测卷
- 驱虫药销售话术规范培训手册
- 结构施工节点施工组织方案
- 园区道路施工组织施工进度方案
- 混凝土搅拌运输车辆进场安排方案
- 装配线关键螺母扭矩设定制度
- 猫咪抗焦躁洗护环境准备指引
- 外科阑尾炎诊断内容汇编
- API网关流量峰值缓释策略手册
- 工厂禁止吸烟安全培训课件
- 2025至2030中国铁路信号设备行业运营态势与投资前景调查研究报告
- 建设用地报批服务投标方案
- 2025年国家电投笔试重点备考
- 北京市海淀区第五十七中学2024-2025学年八年级下学期期中英语试卷(含答案)
- 加油站员工安全培训教育档案台帐
- 光学作图题课件教学
- 青川佳明年产10万吨石英砂生产线项目环评报告
- 矿山修复培训课件
- 2025年辽宁省本溪市中考三模道德与法治试题(含答案)
- 毕业设计(论文)-包裹分拣机械结构设计
评论
0/150
提交评论