尚硅谷大数据技术之面试-10_第1页
全文预览已结束

付费下载

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

工作经 能够熟练使用Linux常用的操作命令,熟悉 熟悉Hadoop系统架构,能够快速对Hadoop群搭建,并能用CDHHadoop能熟练编写MapReduce熟悉MapReduce工作原的Spark源码,熟读Spark官网;熟悉hive和hbase系统架构,能对hivesql化hbase熟悉Kafka搭建及原理,并能使用kafka接收Flume的数据,Spark到kafka消息队列中,进用熟悉掌握JavaSE和JavaEE相关知识,具备良好的面象编程思想,并熟悉常用的设计模式,能够熟悉使用常见的javaEESpring,SpringMVC,Struts2,Hibernate,Mybatis框架独项目经 项描: 随着互联网的不断展人们的活水不断提高,在的学习作余们业添不此据也增大根据公司要求项的求主分为一、产品务部门对用户端的作数据化察;、技对于运行户端页面报表,分析报表,业务报表,技术分析5大模块 1.通过Flume收集服务器上的日志将收集到的数据打入到hdfs中和kafkasparkstreaming从kafka及运用sparksql,sparkcore进行离线处理; 主要完成业务报表模块技术分析报表模块业务报表主要从hdfs本模块项目的调试;技术分析报表模块从kafka中实时获取到数据,运用Sparkstreaming进行实时计算,结果输出到mysql数 项描: 随着互联网的不断展人们的活水不断提高,人消费观也渐升始求高质活潮们增多数据量逐渐增大,据务需求加实功能项目包括分析模、面跳化块信模点块 1.通过Flume收集nginx服务器日志将收集到的数据打入到kafka中和HDFS运用sparkstreamingkafka以及运用sparksql从hive中获取数据进行离线处理;通过jquery和echarts 主要负责点击流量模块,从kafka中实时获取到数据,运用Sparkstreaming进行实时计算,结果输出到mysql数据库中的 项描: 随互网不发,生水的高消费观也渐升始求高质活潮们增多数量渐大根需项主以功用户基信分模、览分模域息、用户览度析块外分模单据以及事分模。 1.通过Flume收集nginx服务器日志日志数据直接保存到中通过ETL数

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论