2025深度融合AI的低代码平台_第1页
2025深度融合AI的低代码平台_第2页
2025深度融合AI的低代码平台_第3页
2025深度融合AI的低代码平台_第4页
2025深度融合AI的低代码平台_第5页
已阅读5页,还剩27页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

深度融合AI的低代码平台2025背景:AI编程的行业现状及低代码相结合的机会点多智能体协同、多阶段灵活组装的智能体编程数据驱动的低代码语言模型训练多模态渐进增强的D2C(设计稿/截图转代码)总结和展望低代码的核心概念生成、解释执行传统编程语言和框架DSL(领域特定,结构化)抽象(减少概念,增强复用)可视化编辑器读写(通过可视化、组件化、模板化等形式降门槛和提效)编译器/解释器以DSL为核心UI编排构建用户界面逻辑编排

构建业务逻辑逻辑编排

构建交互行为接口编排

构建接口服务模型编排

构建数据模型流程编排

构建企业流程基于传统编程架构抽象低代码本身的问题解决⽅案1:提升效率,通过⼀定的机制让⽤户使⽤的⻔槛更低,使⽤更⾼效解决⽅案2:提升质量,使⽤户搭建的产品能够达到基本的开发⼯程师的质量要求,保证线上不出问题问题1:效率如何学习低代码平台使⽤?如何从⼏百个组件中选择我要的组件并且⾥⾯还有可⽤的配置?如何定义⼀个单点登录流程?问题2:质量低

低代

安全

w

e

b 应⽤不可或缺

分AI在编程领域的现状传统编程领域:AIGC产业赛道火热,AI编程工具已经成为行业的重要发展方向以AI推荐、AI架构分析能力为主的行业低代码独角兽(OutSystems、Mendix)以D2C(设计稿/截图转低代码)、智能体编程为代表的老牌企业(Microsoft

PowerApps、SAP

Builder)重新定义IDE多模态技术为主擅长解决局部场景问题目前距离国内客户落地还有一段距离低代码编程领域:国内低代码+AI的产品相对较少,大部分还在实践探索编程辅助工具智能体编程传统编程+AI会取代低代码吗大模型的优势是解决非确定性问题,低代码解决的是确定性问题,两者并不完全排斥低代码是基于传统软件工程思想,专家从传统编程语言和框架抽象出更少量的确定性的上层概念,大量利用生成式复用和组装式复用的方式,达到提效和降低门槛的效果。而大模型是通过大量的文本和代码数据训练一个黑盒的神经网络模型来实现代码生成,它具有非确定性,提供了像人一样创造力。传统编程大模型生成的代码始终是面向专业开发者的,只能提效,无法跨越式降低门槛(如编程辅助工具和智能IDE)软件开发不是一个一次性的过程。软件迭代和维护需要继续补充和修改,AI生成的代码有时也存在问题。使用AI工具的人需要基本懂AI生成的这门语言和框架,至少要有判断力。而低代码通过DSL设计减少概念减少学习成本,通过可视化设计提供所见即所得的能力,从而降低了使用者的门槛。自然语言具有模糊性。并不能精确描述最终需求的所有细节(全自动智能体有这个问题)自然语言是人类沟通的媒介,他的特点就是模糊性,而计算机语言才是程序精确运行的必要条件。传统编程大模型擅长解决局部问题,但对全栈和项目整体的把握能力差,无法感知隐形的开发规范、架构设计和领域知识应用开发需要面临多种领域语言、框架衔接的问题,也要面临了解团队规范、架构设计和领域知识的问题。而低代码利用DSL,封装了底层的开发规范和架构设计,向上提供了统一的开发基座和最佳实践。低代码平台天然实现和集成了一系列成熟的软件开发设施比如应用管理、资产管理、集成能力、运维能力等。而传统编程工具特别是智能IDE,面临与各种企业和团队的技术体系对接,要想发挥出更大的效果还有一段路要走。CodeWave的技术架构与AI结合的思路代码仓库代码升级生成器资产中心应用/局部模板管理依赖库管理连接器管理导入导出发布/导出源码/镜像Language

Server类型检查查找引用静态补全批量重命名Debugger断点调试变量监视NASL(网易用于描述Web应用的领域特定语言)备份还原

分支管理

多人协作页面DSL逻辑DSL数据定义DSL基础语言流程DSL数据查询DSL全栈统一的DSL收敛技术栈平台服务应用管理多环境管理运维管理集成信息管理多租户管理JS源码Java源码构建静态资源/镜像部署企业运维体系可视化开发环境界面(IDE)增删改查 撤销重做 复制粘贴自动化操作实时编辑页面设计器逻辑设计器 数据定义设计器 数据查询设计器流程设计器可视化设计器AI交互输入AI服务自然语言生成代码补全代码解读D2C…代码分析成熟的IDE底座和周边设施9多智能体协同、多阶段灵活组装的智能体编程演讲内容中插入视频格式:mp4分辨率:不低于1920*1080通过AI智能体生成对应的NASL,可以完成页面、逻辑、实体等全栈编程能力。通过低代码已有的代码翻译、应用托管等能力可做到所见即所得预览。智能编程解决自然语言的模糊性问题-多智能体协同的AI生成架构工程+AI多阶段的生成提升健壮性和正确率一次生成用户需求+代码生成所必需的上下文+CodeWaveDSL规范需求澄清→代码生成→代码优化增加优化阶段:对代码生成质量进一步做保证,主要对模型生成的常见错误以及不符合规范的内容做代码优化增加规则检测:针对代码生成阶段的产物,从工程侧进行检测,存在问题时,拼接对应的few-shot和

prompt要求,做定向修复,既降低成本又提高优化效果试验性可用性提质量进一步提升以自然语言生成可视化逻辑为例:由于自然语言的模糊性,大部分问题的粒度比较粗需求澄清→代码生成增加计划阶段:和用户进行多轮对话,来澄清需求细节,生成可执行的计划,并为代码生成阶段检索更恰当上下文和few-shot模型能力受限,再加上下文信息过多时,模型一次生成的效果并不理想代码优化时可能会发生注意力偏移、优化不完整、一次生成效果已经可以不需要二次优化等问题需求澄清→代码生成→规则检测→代码优化SaaS和私有化AI服务的架构统一保证SaaS和私有化的AI功能,通过一套架构方便维护,同时也可以尽可能地复用各种模型优化策略,提升整体的可用性。14数据驱动的低代码语言模型训练解决自然语言的模糊性问题-多智能体协同的AI生成架构低代码+AI效果达不到预期刚上线后用户体验感觉效果不佳,我们只有一个采纳率的指标,不知道是模型问题、工程问题还是交互问题,不知道该往哪些方向优化。自然语言生成代码的产品形态太单一自然语言生成代码能够有效降低使用门槛,对于新用户和对某些新功能不熟悉的用户上手比较友好,但是对于日常开发的老用户来说提效不明显对低代码+AI的正确率等训练效果难以度量在AI技术日新月异和产品的快速迭代过程中,提示工程、模型训练、模型切换经常会发生,低代码+AI的效果缺乏一个统一的评测标准,行业内也没有类似的标准。二是会导致交付困难。很多项目客户会问我们,你们低代码AI怎么样才能给我们验收?低代码+AI对用户的提效等实际价值难以度量客户除了关心具体效果,也会思考低代码+AI能够带来的价值。之前每当客户问,低代码+AI到底提升了我们多少效率?我们难以应答。修炼NASL大模型内功,提升高频场景的正确率增加更多提效AI功能:如代码补全等建立统一的低代码Benchmark(面向技术线下训练,评测AI的基础能力)建立低代码AI的指标体系和量化标准(面向产品线上观测,评测AI的服务价值)If

you

can’t

measure

it,you

can’t

improve

it–建立低代码AI功能Benchmark体系正确率=生成合理且能运行通过的样本数/总样本数NL2页面逻辑代码补全D2C…CodeWave

benchmarkNL2服务端逻辑

NL2UI页面逻辑服务端逻辑逻辑汇总正确率(早期)62.2%45.8%64.6%正确率(语言和工程优化后)80.1%91.2%83.4%评判语言能力-以HumanEval为切入点通过率/gpt4o-ts通过率生成NASL(早期)54.58%工程修复+补充语言能力后70.01%基于基座模型进行微调80.07%通过率(正确率)pass@1=一次生成编译和运行都通过的样本数/总样本数语言能力补齐和模型训练还在继续推进,有上升空间评判产品效果:建立低代码AI的指标体系和量化标准——CodeWave

Indicator

System注意:要满足不等式E>0(对用户有提效),可以推导出两个结论:M>A,即AI生成肯定要比纯手工快才行X>A/M,即采纳率(线下用正确率估算)的阈值。如果X不满足这个条件,AI功能就没有手工编程提效,甚至比手工编程效率还低。该公式很适合用于产品线下评测模型上对用户的价值。AI生成代码且用户确认的时长(正常采纳时长,A)=用户思考自然语言的时长+AI生成时长+用户确认时长纯手工编程时长(M)=用户设计和编写代码的时长AI生成代码但未被采纳的时长(用户返工时长,R)=AI生成代码且用户确认的时长+纯手工开发时长=

A

+

M综合采纳率(X)=采纳次数/AI功能触发次数*(留存率@1分钟)(用户采纳后,可能还有部分修改的情况,引入留存率来综合统计)AI功能对用户的平均耗时(T)=正常采纳时长*综合采纳率+用户返工时长*(1-综合采纳率)=

A

*

X

+

R

*

(1

-

X)AI功能平均提效率(E)=(纯手工开发时长-AI功能对用户的平均耗时)/纯手工开发时长=

(M

-

T)

/

M(=0表示没有提升效率;<0表示该AI功能反而降低了效率)Rete展示率=生成成功且给用户展示出来的次数/AI功能触发次数留存率@1小时、10分钟、1分钟、15秒等=AI生成的代码在某段时间后还剩余的比例(NASL根据语法树节点单元数综合计算)覆盖率=AI生成的节点单元数/总的应用节点单元数Cove展示率综合采纳率留存率@1分钟自然语言生成逻辑(早期)91.11%32.84%64.04%自然语言生成逻辑(语言和工程优化后)98.65%51.65%92.63%代码生成能力(CodeGeneration)是代码模型处理更复杂任务的基础。流行的代码生成基准测试是HumanEval和MBPP。HumanEval包含164个手动编写的编程任务,每个任务都提供一个Python函数签名和一个文档字符串作为模型的输入。而MBPP

包含974个开源贡献者创建的问

题,包括一个问题描述(即文档字符串)、一个函数签名和三个测试用例。23年HumanEval+增加了80倍的测试用例,修正了HumanEval中不准确的真实答案。MBPP+也提供了比原始MBPP多35倍的测试用例。Qwen2.5-Coder在代码生成任务,相同规模的开源模型中达到了最先进的水平。代码补全能力(Code

Completion)包括HumanEval-FIM、CrossCodeEval、CrossCodeLongEval、RepoEval和SAFIM。代码推理能力(Code

Reasoning

)代码是一种高度抽象的逻辑语言形

式,代码推理能力能判断模型是否真正理解了代码背后的推理流程。一般使用CRUXEval作为基准测试,包含800个Python函数及其对应的输入输出示例。它包含两个不同的任务:CRUXEval-I,要求大型语言模型(LLM)根据给定的输入预测输出;以及CRUXEval-O,要求模型根据已知的输出推断输入。微调自己的低代码语言模型模型:基座模型评判微调自己的低代码语言模型-微调过程汇总多个开源代码数据集,提取自然语言指令,结合Codewave业务场景合成了低代码指令作为补充。英文指令使用LLM翻译为中文,去重后共计10W+指令数据。处理NASL语言的语法和语义分析(LS),维护语言特定的解析和执行环境,提供隔离的环境以安全地执行代码片段,将代码结果与测试用例预期结果进行比较。指令构造语言运行沙箱答案合成数据后处理监督微调偏好对齐使用OSS-INSTRUCT

技术,使用开源代码片段启发LLMs生成高质量指令数据。针对特定的指令生成对应的NASL代码,以构造用于训练的数据对;设计了一个基于LLM的工作流来实现答案合成,利用gpt4o等高性能模型生成代码,循环使用NASL沙箱进行代码测试和问题修复。过滤模块:总结分析模型评测过程中发现的问题,定位到训练集中的错误数据样本,设计使用规则对其快速过滤,提升训练集质量。组装模块:同时根据实际使用的场景,对已有数据进行重新组装,保证输入的数据与线上真实场景的上下文环境保持一致。SFT过程,使用初始构造的数据集训练得到初始模型,再基于训练后的模型做拒绝采样,利用

NASL沙箱对采样代码进行验证,将验证通过的数据回流到数据集中,以此丰富数据集的多样性并提升数据质量。使用LORA方案。上述基础上提供明确的负反馈信息,强化模型输出与人类偏好的对齐程度,采用DPO(DirectPreference

Optimization)的算法方案;对微调后的模型进行采样,根据NASL沙箱反馈作为正负样本划分依据,构造<问题,正确代码,错误代码>三元组数据,用于离线强化学习的训练。AI工程化平台支撑评测体系-加速AI产品功能迭代指标统计Benchmark批跑测试模型的线上切换与灾备数据回流Benchmark有利于帮助产品识别出模型技术的基础效果和能力边界,从功能使用层面调整产品设 计。是满足AI类产品,指导技术与产品的匹配怎么做,即TPF(TechnologyProductFit,技术 产品匹配)的有力举措。上线后,产品和技术观测线上用户数据和指标进行分析,将真实数据分批回流到模型训练集、验证 集和Benchmark中,推动下一轮训练。产品AI功能升级时,包括prompt、模型或工程方案等技术方案的调整,都需要经过Benchmark 的评测。只有通过验证的产品升级,才允许上线,保证AI功能不会退化。CodeWave

平台 AI

工程化平台NASL代码仓库NASL存储操作栈存储时间栈存储应用上下文数据读取数据回放AI服务智能代码生成智能编程助手智能代码解读设计稿转页面截图转页面智能代码分析CodeWave

IDEAI交互输入各类设计器模型切换据准数据收集数

备数据合成

数据校验数据分类型处模型选型模

理提示工程

微调训练预后处理模型服务AI网关配置模块模型配置

灾备监控模型训练模块模型服务化GPU适配

容量评估压测部署升级文档Benchmark模块单元测试批跑测试业务benchmark基础benchmark数N据A下SL载数据中心数据升级AI网关模型评测数据回流数据回流指标统计模块指标大盘指标查询指标统计热切换服务部署数据上报数据同步演讲内容中插入视频格式:mp4分辨率:不低于1920*1080补全是线下编辑器带来的,程序员最喜欢的体验之一。借助DeepSeek

1.5B模型,实现了低代码逻辑编写功能的补全,将线上编程的体验跟线下对齐。代码补全补全的一些技术细节用户操作触发补全代码展示用户确认展示和防抖策略YN丢弃用户操作的交互形式对数据的要求(与传统补全不同)在IDE设计器中的+号和空格等用户可能添加代码的位置调用模型。补全的输入是挖空的上下文和操作位置,输出是局部代码。根据行业经验分析,代码补全的时延一定要小,否则用户体验会很差要求我们要限制模型的规模进行训练。选择了开源模型表现最好的DeepSeek

Coder

1.5B需要训练的数据从哪里来?如何训练这部分我们结合之前的AI组件推荐功能在AI工程化平台收集了大量的用户数据。按照时间戳数据进行微调即可。代码展示和防抖策略当AI生成的代码有明显错误或者用户已经修改了上下文时,取消对用户展示代码,减少错误。从而会提升用户采纳率、提效率等其他指标

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论