软件工程人工智能公司机器学习工程师实习报告_第1页
软件工程人工智能公司机器学习工程师实习报告_第2页
软件工程人工智能公司机器学习工程师实习报告_第3页
全文预览已结束

付费下载

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

软件工程人工智能公司机器学习工程师实习报告一、摘要2023年6月5日至2023年8月22日,我在一家软件工程人工智能公司担任机器学习工程师实习生,主要负责优化预测模型性能与数据处理流程。通过迭代调整特征工程策略,将核心业务场景的模型准确率从82.3%提升至89.1%,其中采用L1正则化与集成学习方法,使训练时间缩短30%。参与开发自动化数据清洗脚本,处理约15TB用户行为日志,错误率降至0.008%。应用Python实现分布式计算框架调优,通过Spark提交的模型训练任务平均耗时从4小时压缩至1.5小时。提炼出特征选择与模型超参数搜索的标准化流程,可复用于相似业务场景,验证了算法改进对实际业务指标提升的显著效果。二、实习内容及过程2023年6月5日到2023年8月22日,我在一家做AI的公司实习,岗位是机器学习工程师。主要是帮着优化一个做用户流失预测的模型。刚开始接手时,模型在测试集上的AUC只有0.76,效果挺烂的。我花了大概两周时间重新梳理特征,把原始数据里的噪声特征给筛掉了,还用了TargetEncoding加一层非线性变换,重新训练后AUC提升到了0.83。后来领导让我负责处理一个新来的数据集,有15TB那么大,各种脏数据挺多的,直接跑模型老出错。那阵子挺烦的,白天试了几个清洗脚本都不太行,晚上回去就自己琢磨Pandas的高级用法,学了个多进程处理数据的小技巧,最后写了个自动化的清洗流程,每天跑完能省不少事儿。实习期间还参与了模型部署前的环境配置,用Docker打包镜像,踩了不少坑,比如某个库版本不兼容导致报错,最后硬是把依赖都列出来手动试才搞定。印象最深的是有一次调参,原模型用SGD优化器跑了好几天都没收敛,后来换成Adam结果2小时就搞定,这让我意识到不同优化器在具体业务上的差异还是挺大的。整个过程就是不断试错,跟导师和同事也聊了不少,感觉收获挺多的。三、总结与体会这8周在公司的经历,让我把书里学的那些机器学习算法和工程实践给连起来看了。刚开始接手那个流失预测项目时,模型AUC才0.76,自己心里挺没底的,琢磨了整整两周才把特征工程捋顺,把几个噪声特征去掉,加上TargetEncoding和非线性层,最后AUC提到了0.83,虽然不算特别高,但那种把数据一点点变好看到结果的感觉挺真实的。处理那个15TB的大数据集也让我印象深刻,一开始脚本跑不过来,白天试错晚上钻研Pandas多进程,最后把清洗流程自动化了,这让我明白干这行得有耐心,还得会解决问题。这段经历确实让我对机器学习工程师这个角色有了更具体的认识,不再是光会调参那么简单,得懂数据处理、懂工程、还得知道怎么把模型用好。最大的改变是心态,以前觉得做个模型调调参数就行,现在明白要考虑模型上线后的维护、性能优化,责任感明显重了,抗压能力也强了点。感觉这次实习像个闭环,把大学学的知识用上了,也看到了自己哪些地方做得不够好,比如对分布式计算这块了解太浅。接下来打算把实习中遇到的问题再深入研究下,比如Adam优化器为什么在那块数据上比SGD效果好,回去把相关论文看看,有机会的话也想考个相关的专业证书,把学到的技能再深化下,为以后找工作或者继续深造打基础。行业里现在都在说大模型、Prompt工程这些,感觉挺有意思的,希望能有机会多接触接触这些前沿的东西,保持学习的状态。四、致谢感谢这段实习经历,让我学到了不少东西。想谢谢我的导师,那段时间带教挺用心的,遇到问题都耐心给我讲。还有一起工作的同事们,有些技术

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

最新文档

评论

0/150

提交评论