2025大模型的本地部署和微调_第1页
2025大模型的本地部署和微调_第2页
2025大模型的本地部署和微调_第3页
2025大模型的本地部署和微调_第4页
2025大模型的本地部署和微调_第5页
已阅读5页,还剩21页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

目1PromptLearning6 幻觉问题:LLM有时会生成看似合理但实际错误的内容,这种现象被称 时效性问题:LLM的训练数据通常截至于特定时间点,因此无法处理训 检索增强生成(RAG):结合信息检索和生成模型,在生成答时实时检 降低风险:对于敏感领域,错误答可能带来较大风险,定制化模型能RAG(Retrieval-Augmented 助答。微调(Fine- 1 推荐技术 通过不断更新检索索引,RAG能够利用最新数据答问题,而无需频繁2 通过对预训练模型进行领域微调(PromptLearning、LoRA、3判断依据:大模型有时会生成“幻觉”信息(即不符合事实的内容)推荐技术4推荐技术 5 推荐技术推荐技术 7 低;而RAG在生成答前需执行检索操作,可能会引入额外延迟。8 通过参数压缩、量化及高效的微调方法(LoRA),可以将定制化模型RAG例子1 RAG技术,通过接入实时更新的新闻数据库,检索最新的新闻内容,例子2 背景说明:法律领域具有高度专业性,答要求严谨、精准。预训练模技术选择:微调 Fine-tuning,使模型更法律答,满足高标准的法律咨询需求。RAGFlow——WebUI接口与PromptLearning将文本按固定token数量(如256、512)切分,同时采用滑动窗口技术,在相邻chunk(例如20%重叠),确保边界信息不丢失,提高检索时的性。例如,Langchain中的RecursiveCharacterTextSplitter就是一种常见实现。进行重写,使得查询更准确、语义更明确,从而提高检索的召率。RAG——PromptLearning使用模板化的prompt,例如要求模型在答时引用来源编号、使用JSON格式返结果,或指定答应当简洁扼要、符合特定格式。这样既能控制输出风格,又能增强答案的可靠性。RAG——PromptLearning准确、信息更丰富的答。promptlearning——LoRA(Low-RankAdaptation)—— RLHF(ReinforcementLearningfromHumanFeedback)——用户馈全量微调 Fine-HuggingFace的PEFT(Parameter-EfficientFine-Tuning) LoRA(Low-RankAdaptation)等,减少微与Transformers库无缝集成,支持多种预训练模型的微调。LLaMA- 型训练、PPO(ProximalPolicyOptimization)、DPO等。支持多种训练方法,如全参数微调、部分参数微调、LoRA、QLoRA提供多种使用方式,包括命令行接口(CLI)、WebOpenAI提供命令行接口(CLI)支持在OpenAI OpenAI上微调模型的用户,特别是需要快gpu预训练模型参数量按参数个数计:FP16时每个参数约2 举例:1B(10)1022GB,仅模实际运行时:至少需要2GB在全量微调时:总需要模型本身权重:至少需要梯度计算:至少需要激活、优化器状态、中间值:至少需要总需要2.12G=2GB+6GB*2%激活、优化器状态、中间值:至少需要通常内存=显存文本训练硬盘SSD大小不低于CPU个数:通常1到4张显卡选择2个cpu软件开发RAG+微调+业务功能费用:目前的起价都是在总硬件的3到42、根据现有的经验和实验观察,对于像deepseek7b这样规模的7B模型,在仅对q、k、vLoRA(r=4、α=16)的情形下,通常建议至少准备上千条高

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论