大数据运维工程师的具体职责描述_第1页
大数据运维工程师的具体职责描述_第2页
大数据运维工程师的具体职责描述_第3页
大数据运维工程师的具体职责描述_第4页
大数据运维工程师的具体职责描述_第5页
免费预览已结束,剩余2页可下载查看

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

大数据运维工程师的具体职责描述 大数据运维工程师需要负责公司大数据平台的运维管理工作,集群容量规划、扩容及性能优化。下面是小编为您精心整理的大数据运维工程师的具体职责描述。大数据运维工程师的具体职责描述1职责:1、负责数据平台的运维管理工作(部署、监控、优化、故障处理);2、负责hadoop/spark/flink/elasticsearch/kafka等系统的架构审核、容量规划、成本优化;3、负责大数据平台的用户管理、权限分配、资源分配;4、参与数据挖掘、机器学习平台的设计、并给出可执行的运维方案;5、参与数据平台的相关工具开发(包括自动化部署、监控、etl等);6、深入理解数据平台架构,发现并解决故障隐患及性能瓶颈;7、etl工具、调度工具、关系型数据库的运维。任职资格:1、本科以上学历,计算机软件相关专业;2、1年以上大数据相关组件运维经验(hadoop/yarn/hbase/hive/spark/kafka等),1年以上的cdh或hdp维护经验,3年以上系统运维相关经验;3、深入理解linux系统,能独立部署开源软件,熟练掌握一门以上脚本语言(shell/perl/python等),熟悉python开发语言优先;4、逻辑思维能力强,做事有条理,责任心强,工作积极主动,执行力强,有良好的团队协作意识。大数据运维工程师的具体职责描述2职责1. 负责大数据etl系统,运维及保障服务稳定可用;2. 负责数据采集交换方案以及联调测试;3. 负责采集交换任务的评审和上线;4. 负责及时排除etl流程故障,形成知识库,完善运维文档;5. 负责监控和优化etl的性能,持续性地提出改进自动化运维平台建议技能要求1. 计算机科学或相关专业本科及以上学历;2. 熟悉linux系统,熟练编写shell/perl/python一种或多种脚本语言;3. 熟悉hive、hadoop、mapreduce集群原理,有hadoop大数据平台运维经验者优先;4. 熟悉数据库的性能优化、sql调优,有相应经验;5. 抗压能力强,有强烈的责任心,良好的沟通能力、学习能力及团队合作能力。大数据运维工程师的具体职责描述3职责:1、负责分布式大数据平台产品的运维和运维开发,保证其高可用和稳定性;2、负责大数据系统架构的可运维性设计、容量规划、服务监控,持续优化服务架构、集群性能;3、通过技术手段控制和优化成本,通过自动化工具及流程提升大数据平台运维效率;4、为项目开发人员提供大数据技术指导及解决大数据平台应用中遇到的技术难题;任职资格:1、三年以上大数据运维相关工作经验,有大型互联网公司工作经验者优先,全日制本科及以上学历;2、熟练掌握至少一门开发语言,有java或python语言开发经验优先;3、精通hadoop生态及高性能缓存相关的各种工具并有实战经验,包括但不限于hadoop、hbase、hive、presto、kafka、spark、yarn、flink、logstash、flume、clickhouse等;4、熟悉mysql等常用关系数据库,熟练编写sql语句,有分布式nosql数据库应用、性能调优经验优先;5、熟悉linux环境,能够熟悉使用shell脚本;6、对大数据技术有强烈兴趣,有志于往大数据方向深层次发展;7、具有很强的责任心、执行力、服务意识、学习能力和抗压能力;8、具备较好的沟通能力、主动性及责任感。大数据运维工程师的具体职责描述4职责:1、负责大数据集群的日常维护、监控、异常处理等工作,保障集群稳定运行;2、负责大数据批处理管理以及运维;3、负责大数据集群的用户管理、权限管理、资源管理、性能优化等;4、深入理解数据平台架构,发现并解决重大故障及性能瓶颈,打造一流的数据平台;5、跟进大数据前沿技术,不断优化数据集群;6、有华为大数据平台运维经验优先;岗位要求:1、1年以上大数据运维或开发经验;2、有良好的计算机和网络基础,熟悉linux文件系统、内核、性能调优,tcp/ip、http等协议;3、熟悉大数据生态,有相关(hdfs、hive、hbase、sqoop、spark、flume、zookeeper、es、kafka)的运维及开发经验;4、熟练使用shell、python等脚本语言开发相关运维管理工具;5、良好的文档撰写习惯;大数据运维工程师的具体职责描述5职责:1、负责公司内部及项目中大数据集群的构建,任务调度、监控预警,持续完善大数据平台,保证稳定性、安全性;2、负责集群容量规划、扩容、集群性能优化及日常巡检和应急值守,参与大数据基础环境的架构设计与改进;3、深入研究大数据业务相关运维技术,探索新的运维技术及发展方向。任职要求:1、熟悉linux基础命令操作,能够独立编写shell脚本开展日常服务器的运维;2、熟悉hadoop生态圈hadoop、kafka、zookeeper、hbase、spark的安装与调优;3、熟悉软硬件设备,网络原理,有丰富的大数据平台部署,性能优化和运维经验;4、工作认真负责,有较强的学习能力,动手能力和分析解决问题的能力;5、能够利用各种开源监控工具、运维工具,ha、负载均衡软件完成工作任务;6、熟悉jv

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论