云原生边缘计算与AI_第1页
云原生边缘计算与AI_第2页
云原生边缘计算与AI_第3页
云原生边缘计算与AI_第4页
云原生边缘计算与AI_第5页
已阅读5页,还剩26页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

云原生边缘计算与AIl行业背景与挑战l云原生边缘计算平台KubeEdge布局和核心技术l基于KubeEdge的边缘AI实现l案例解读:赋能多行业、多场景智能化升级目录2•边缘:是网络架构中靠近数据源或用户终端的部分,这些位置通常是距离用户或数据源较近的服务器、设备或网络节点。•边缘计算:是在靠近物或数据源头的网络边缘侧,通过融合网络、计算、存储、应用核心能力的分布式开放平台,就近提供边缘智能服务•

边缘计算的优点:1.边缘计算能够将海量数据就近处理,大量的设备也能实现高效协同的工作2.边缘计算理论上可满足许多行业在敏捷性、实时性、数据优化、应用智能、以及安全与隐私保护等方面的关键需求。边缘计算3云计算

云是中心化、按需获取的大规模计算资源共享池,服务于广大的区域,能够提供几乎无限的算力

云对海量的端、边设备进行管理,是物理世界在数字世界的映射

边缘计算是靠近数据产生源头的计算能力,服务于广小的区域,提供受限的算力

边缘是无处不在的,边缘的体量远大于云边缘计算和云计算是共生互补关系,随着物联网、AI、VR等技术的发展与应用,完全依赖云计算来进行数据传输和处理将会造成巨大的网络延迟。边缘计算能够在边缘节点处理数据,能够有效减少数据的传输成本,但通过云计算实现的远程存储和分析仍然至关重要边缘计算与云计算边缘计算4•随着云原生技术的发展,云原生正在从数据中心向边缘延伸•云原生边缘计算是一种新型的边缘计算架构,将云计算的弹性和可扩展性与边缘计算的低延迟和数据处理能力相结合,基于Kubernetes、

Docker等云原生技术,将计算、存储、网络等资源部署在靠近数据源的边缘节点上,实现数据的实时处理和分析。在物联网、智能制造、智能交通等多个领域具有广泛的应用场景云原生边缘计算5l

更高效、更稳定的资源调度与管理:

一致的使用体验:依托已成事实标准的Kubernetes

API,边缘与云上数据中心一致的使用体验,降低学习成本

容器化应用交付:容器化的应用封装,屏蔽边缘复杂的底层硬件环境,应用交付更统一、更便捷

细粒度的应用管理:

针对边缘资源有限的环境,云原生化能够以微服务的形式为用户的边缘应用带来更灵活、更细粒度的体验

更稳定的边缘应用管理能力:依托边缘自治等能力,服务可以稳定运行在边缘

更快的故障恢复能力:出现故障或存在错误的边缘应用可以迅速回滚,恢复到工作状态l

丰富的技术生态集成:

基于庞大丰富的云原生技术生态,轻松与生态集成,构建监控、日志等系统能力l

经济利益:

云原生提供的带宽减少和流线型数据可以降低成本,使其成为一种非常有效的企业工具云原生边缘计算的价值6•边缘计算细分领域众多

,互操作性差•边云通信网络质量低,时延高,且边缘经常位于私有网络,难以实现双向通信•边缘资源受限,需要轻量化的组件管理运行边缘应用•边缘离线时,需要具备业务自治和本地故障恢复等能力•边缘节点高度分散,如何高效管理,降低运维成本•如何对异构资源进行标准化管理和灵活配置云原生边缘计算的关键挑战7l行业背景与挑战l云原生边缘计算平台KubeEdge布局和核心技术l基于KubeEdge的边缘AI实现l案例解读:赋能多行业、多场景智能化升级目录8CNCF首个云原生边缘计算项目:

KubeEdge•KubeEdge是业界首个云原生边缘计算框架,也是CNCF唯一孵化级边缘计算开源项目。•KubeEdge作为全球化的开源项目,拥有40+国家的1600+贡献者9KubeEdge技术发展路线图10Pod

NCloudEdgePod

1Pod

2

Pod

3DevicesDevice

1Device

2Device3Device4EdgeNodeEdgeCoreContainerskubectlCloudCore•EdgeController•DeviceController•CloudHub•WebSocket(Default)•QUIC

(Alternate)grpc+udsCloud

NodeCloud

NodeEdgeNodeMappersDMI云原生边缘计算平台KubeEdge架构

11ContainersContainersEdgeMeshContainers•

支持复杂的边云网络环境一

双向多路复用的边云消息通道,支持边缘位于私有网络一

应用层可靠增量同步机制,支持在高时延、低质量网络环

境下工作•

应用/数据边缘自治一

支持边缘离线自治:边缘元数据持久化、边缘DNS,保证边缘离线时的业务运行和故障恢复能力一支持边缘数据流式处理,定义边缘数据清洗、数据分析等处理工作•

边云一体资源调度和流量协同一

支持边缘节点和云节点混合管理一

提供边云数据通信和边边数据通信

KubeEdge核心理念•

开放生态一100%兼容Kubernetes原生能力,支持用户使用Kubernetes原生API统一管理边缘应用一边缘可靠的list-watch接口,对接原生生态一边缘设备通信协议:支持MQTT、

Modbus、

USB、

Onvif等典型设备通信协议,并支持自定义扩展。•

支持海量边缘设备管理一边缘设备管理插件mapper开发框架mapper-framework,能够自动生成mapper工程,降低开发门槛。一

针对资源受限场景进行自身组件轻量化,

~70MB内存占用云原生边缘计算平台KubeEdge架构解析

12EtcdStoreSyncControllerK8s

masterList/WatchEdgeControllerDeviceControllerCloudHubWebSocketEdge

NodesAdmissionWebhookKubeEdge

CSI

DriverCloud•

EdgeController−边缘节点管理−

应用状态元数据云边协同•设备抽象API/DeviceController−

接入和管理边缘设备−设备元数据云边协同•

SyncController−

应用层边云协同可靠性,保持云边最终一致•

CSI

Driver−支持第三方CSI插件无缝集成•

AdmissionWebhook−

实现边缘应用最佳实践;扩展API输入校验云原生边缘计算平台KubeEdge架构解析

KubeEdge架构--Cloud13•

EdgeHub−Messaging

over

WebSocket−提供可靠的云边信息同步•

Edged−

Kubelet-lite−轻量化实现Pod生命周期•

DeviceTwin−

同步设备信息到云端•

MetaManager−元数据本地持久化−转发消息至其他边缘模块•

EventBus−MQTTclient,边缘设备、应用无感知通信云原生边缘计算平台KubeEdge架构解析

KubeEdge架构--Edge14l

基于物模型的设备管理API−Device

Model:同类设备通用抽象

−Device

Instance:设备实例配置l

解耦应用、设备通信−DMI:标准化边缘设备管理−EventBus:标准化设备消息topicl

开放设备生态−支持业界主流设备协议:

USB、

Modbus、Onvif等−

通过自定义mapper接入指定协议设备云原生边缘计算平台KubeEdge架构解析

KubeEdge边缘设备管理15__l

DMI是设备管理、操作和数据处理的统一框架,定义了EdgeCore和Mapper之间的统一连接入口,实现边缘设备的云原生管理能力l

DMI架构特点是将边缘设备的管控面与数据面解耦设备管控面:负责传输设备元数据、设备属性、

配置等数据设备数据面:以多种方式向数据消费者提供设备数据,支持主动向云边用户应用、云边数据库、云端推送数据,还提供API供用户主动拉取设备数据。l

管控面与数据面解耦允许设备数据直接从数据面推送,减少了云边通信拥塞的可能性云原生边缘计算平台KubeEdge架构解析

KubeEdge边缘设备管理——DMI设备管理框架16云原生边缘计算平台KubeEdge架构解析

KubeEdge边缘设备管理——

Mapper-Framework开发框架为降低社区开发者开发Mapper的门槛,我们提出全新Mapper开发框架Mapper-Framework。框架中承载DMI管理面与数据面能力,能够自动生成Mapper工程供用户使用

DMIAPI层−

北向上报

Mapper注册、设备数据信息−南向接收云端下发的设备生命周期管理信息

管理面&数据面−

实现管理面功能,根据API下发的

设备管理信息调用设备驱动层功能,实际管理设备−

实现数据面功能,集成设备数据的

push与pull特性l

设备驱动层−

用户根据预先暴露的接口实现各种协议设备驱动功能l边缘网络通信存在的问题−

边云、边边网络割裂,微服务之间无法跨子网直接通信−

边缘端网络质量不稳定,节点离线、网络抖动是常态,且常位于私有网络,难以实现双向通信−

边缘场景下网络组网复杂、配置管理困难−

边缘侧缺少服务发现、负载均衡与流量

治理等能力云原生边缘计算平台KubeEdge架构解析

KubeEdge边缘容器网络架构——

EdgeMesh18_

__l

EdgeMesh功能特点:采用P2P打洞的技术,来打通边缘节点间的网络_内部实现轻量级的

DNS服务器,域名请求在节点内闭环_

每个节点有且仅有一个Agent

,节省边缘资源l

EdgeMesh-AgentProxier:负责配置内核的iptables

规则,将请求拦截到EdgeMesh

进程内_DNS:

内置的

DNS解析器,将节点内的域名请求解析成个服务的集群

IPLoadBalancer:集群内流量负载均衡_Controller:通过

KubeEdge

的边缘侧

LocalAPIServer能力获取Services、

Endpoints、

Pods

等元数据_

Tunnel:利用中继和打洞技术来提供跨子网通讯的能力云原生边缘计算平台KubeEdge架构解析

KubeEdge边缘容器网络架构——

EdgeMeshEdgeMesh是

KubeEdge集群的数据面组件,为应用程序提供了服务发现与流量代理功能,同时屏蔽了边缘场景下复杂的网络结构19l行业背景与挑战l云原生边缘计算平台KubeEdge布局和核心技术l基于KubeEdge的边缘Aı实现l案例解读:赋能多行业、多场景智能化升级目录20

边缘AI边缘AI是指在边缘计算环境中实现的人工智能,允许在生成数据的边缘设备附近进行计算l边缘AI的特点:实时性:数据在本地处理的优势让边缘AI具有毫秒级的实时响应−隐私性:数据在边缘侧处理能够减少传输云端可能带来的数据泄露的风险−降低功耗:边缘运行AI

的功耗低于云数据中心的功耗要求降低带宽:数据在边缘侧处理,减少发送的数据量,降低带宽需求−−基于KubeEdge的边缘AI实现21

边云协同AI随着云原生的普及,边缘AI正在持续演变至边云协同AI。边云协同AI是将人工智能相关的部分任务部署到边端,基于边缘设备、边缘服务器、云服务器,利用分布式协同方式实现人工智能l边云协同AI特点:1.云边智能协同:云端可以根据历史数据和实时数据进行分析与预测,提供优化建议;边

侧能够自主调整与优化,提高系统整体性能2.计算任务协同处理:在云端和边缘端上进行计算任务的合理分配和数据的高效传输l边云协同AI技术挑战:1.边缘设备多样化。需考虑设备间的兼容性和性能差异2.边缘数据孤岛。保障用户隐私数据和企业核心资产3.边缘样本少。模型准确度可能不高4.边缘数据异构。考虑边缘设备采集数据在时空分布、地理环境方面存在的差异基于KubeEdge的边缘AI实现22基于KubeEdge的边缘AI实现

Kubeedge边缘智能框架SednaSedna是业界首个分布式协同AI开源项目,基于KubeEdge提供的边云协同能力,支持现有AI类应用无缝下沉到边缘,能够降低构建与部署成本、提升模型性能、保护数据隐私l提供AI边云协同框架一跨边云的数据集和模型管理l

支持多种边云协同训练和推理模式一协同推理——边侧资源受限一增量学习——模型更新一联邦学习——原始数据不出边缘一终身学习——小样本与边缘数据异构l

开放生态一支持业界主流AI框架:TensorFlow,

Pytorch,

Paddle,

Mindspore等一提供开发者扩展接口,支持快速集成第三方算法23云原生的边云协同框架,兼容Kubernetes

KubeEdge云原生生态l

Global

Manager:−

拓展的k8s的CRD资源−

AI任务的生命周期管理−边云任务的协调l

LocalController:−边缘化的自治−

本地通用管理:模型,数据集等l

Worker:−

计算任务和推理任务的对象−

按需启动,docker容器或functionl

Lib:−面向AI开发者和应用开发者,暴露边云

协同AI功能给应用基于KubeEdge的边缘AI实现

Kubeedge边缘智能框架Sedna24l行业背景与挑战l云原生边缘计算平台KubeEdge布局和核心技术l基于KubeEdge的边缘AI实现l案例解读:赋能多行业、多场景智能化升级目录25l

技术背景与难点:−

智能楼宇的自控系统通常部署在边缘侧。−

热舒适度被定义为楼宇中的人对环境冷热的满意程度−热舒适度预测服务实际部署时数据异构和小样本问题

较为突出。l

基于Sedna的边云协同终身学习的热舒适预测方案:−云边协同,云侧Sedna知识库会利用多地点多人员的历史数据集进行初始化,向边侧应用提供推理更新接口。−

终身学习预测,已知任务直接推理,未知任务通过知识库推理,并更新知识库。l

研究价值:−

使用终身学习后热舒适度预测在KotaKinabalu数据集中预测率相对提升24.04%。

案例一:基于KubeEdge/Sedna的楼宇热舒适度预测控制案例解读26Flowprediction&controltasksassignmentrouteplanningCloudWarehouse

(edge)Robots(edge)Heterogeneousrobot

connectedNLPwith

LLMsl

背景:−

机器人向智能化发展,但仍无法理解复杂指令和自主探索解决方案。−随着LLM发展,有望借助大模型的能力助力机器人复杂指令的拆解,实现具身智能l

技术难点:−

机器人理解指令的复杂性−机器人的模糊

NLP指令。−

部署规模扩大时机器人移动拥堵的风险性高−

机器人类型多样,接入集成困难l

研究价值:−基于多机器人协调的NLP驱动的任务理解和任务执行。−云边端系统端到端部署周期缩短30%。−

机器人效率提高25%。−

新型机器人集成周期由数月缩短至数天。

案例二:基于KubeEdge的多云原生机器人编排案例解读27−基于边缘计算打造智慧园区,通过视频监控+AI分析实现从人防到技防,提升园区运营效率,提高园区住户体验−对监控视频智能分析,实时感知入侵、人流量大等异常事件,降低园区的人力成本−人脸

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论